JP2013182342A - Input device, method and program of controlling input device, and recording medium - Google Patents

Input device, method and program of controlling input device, and recording medium Download PDF

Info

Publication number
JP2013182342A
JP2013182342A JP2012044605A JP2012044605A JP2013182342A JP 2013182342 A JP2013182342 A JP 2013182342A JP 2012044605 A JP2012044605 A JP 2012044605A JP 2012044605 A JP2012044605 A JP 2012044605A JP 2013182342 A JP2013182342 A JP 2013182342A
Authority
JP
Japan
Prior art keywords
icon
area
display
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012044605A
Other languages
Japanese (ja)
Inventor
Kazuhito Sumita
一仁 住田
Daiki Morikawa
大樹 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012044605A priority Critical patent/JP2013182342A/en
Publication of JP2013182342A publication Critical patent/JP2013182342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve convenience for a user to execute a desired function in an input device including a touch panel.SOLUTION: A smartphone 100 includes a contact area identifying unit 14 for identifying a selection area 6a which is contacted by an icon 1a when moving the icon 1a by flick operation 8, and a command identifying unit 15 for identifying a command 9 which is allocated to the selection area 6a by an area arrangement unit 17.

Description

本発明は、タッチやフリックなどのユーザの操作に基づいてアイコンの選択および操作が可能であることにより、情報の入力が可能な入力装置等に関するものである。   The present invention relates to an input device capable of inputting information by selecting and operating an icon based on a user operation such as touch or flick.

タッチパネルを備えた表示画面を有する電子機器が広く普及し、ユーザが電子機器のタッチパネルにタッチ操作やフリック操作を行う機会が増えている。例えば、いわゆるスマートフォンをはじめとする情報端末や一部の家庭用ゲーム機などにおいては、電子機器に実行させる処理(アプリケーション)や当該処理の対象(データ)などを絵や記号で表現した「アイコン」をユーザが選択および操作することにより、ユーザは電子機器に入力を与えることができる。   An electronic device having a display screen provided with a touch panel has been widely used, and an opportunity for a user to perform a touch operation or a flick operation on the touch panel of the electronic device is increasing. For example, in information terminals such as so-called smartphones and some home-use game machines, an “icon” that expresses a process (application) to be executed by an electronic device or a target (data) of the process with a picture or a symbol. By selecting and operating the user, the user can give an input to the electronic device.

このようなタッチパネルを用いて入力する方式によれば、ユーザがキーボード等の入力機器を操作することにより入力を与える従来の方式よりも、ユーザは直感的かつ容易に入力を与えることができる。それゆえ、タッチパネルを備えた表示画面を有する電子機器では、多くの操作がアイコンの選択および操作で可能となるように設計されていることが多い。   According to the method of inputting using such a touch panel, the user can give an input intuitively and easily compared to the conventional method in which the user gives an input by operating an input device such as a keyboard. Therefore, electronic devices having a display screen with a touch panel are often designed so that many operations can be performed by selecting and operating icons.

こうした背景から、ユーザにアイコンを選択させる方法や、フリック操作によるタッチパネルの操作性などを改善する試みが広く行われている。   Against this background, attempts have been widely made to improve the method of allowing the user to select an icon and the operability of the touch panel by flicking.

例えば、タッチパネルを備えた表示画面を有する電子機器に関連する技術の一例が、特許文献1に記載されている。   For example, Patent Document 1 describes an example of a technology related to an electronic device having a display screen provided with a touch panel.

特許文献1に記載のタッチパネル付き入力装置は、「表示装置と、入力を促進するためのアイコンから成るメニューを前記表示装置に表示するメニュー表示手段と、前記表示装置と組み合わせて用いられるタッチパネルと、前記タッチパネルにおけるタッチ位置を演算するタッチ位置演算手段と、前記タッチパネルがタッチされ前記タッチ位置演算手段により演算されるタッチ位置を第1のタッチ位置とし、この第1のタッチ位置からタッチ状態が維持されたまま移動し前記タッチ位置演算手段に演算されるタッチ位置を第2のタッチ位置とし、前記第1のタッチ位置から前記第2のタッチ位置への移動方向を検出する移動方向検出手段と、前記メニューのうち前記移動方向の延長上に位置するアイコンを選択状態とする制御手段とを備える」ものであり、以下のように動作する。   The input device with a touch panel described in Patent Document 1 is “a display device, menu display means for displaying a menu including icons for promoting input on the display device, a touch panel used in combination with the display device, The touch position calculation means for calculating the touch position on the touch panel and the touch position calculated by the touch position calculation means when the touch panel is touched are defined as the first touch position, and the touch state is maintained from the first touch position. A movement direction detection means for detecting a movement direction from the first touch position to the second touch position, wherein the touch position calculated by the touch position calculation means is a second touch position; Control means for selecting an icon located on the extension of the moving direction in the menu. Are those, it operates as follows.

このタッチパネル付き入力装置によれば、タッチパネルをタッチする位置ではなく、タッチ位置の移動方向に基づいてアイコンの選択決定が行われる。すなわち、表示装置上のどのアイコンを選択するにしても、使用者は、当該アイコンの表示位置に合わせてタッチパネルのタッチ位置を大きく変える必要がなく、タッチパネル上の指の動きのみで操作可能である。   According to the input device with a touch panel, the selection of the icon is determined based on the moving direction of the touch position, not the position where the touch panel is touched. That is, no matter which icon on the display device is selected, the user does not need to change the touch position of the touch panel in accordance with the display position of the icon, and can be operated only by the movement of the finger on the touch panel. .

特開2005−321964号公報(2005年11月17日公開)Japanese Patent Laying-Open No. 2005-321964 (released on November 17, 2005)

ところが、上記従来の構成では、電子機器が備える機能が増加かつ複雑化している現在、ユーザが所望の機能を実行しようとしても、表示画面における、その機能のアイコンが表示されている位置が分からない場合がある。また、機能選択のメニューが階層化されている場合、各階層において選択の操作が必要であり、所望の機能を選択できるまでに手間がかかっていた。   However, with the above-described conventional configuration, the functions of an electronic device are increasing and complicated, and even if a user tries to execute a desired function, the position where the icon for that function is displayed on the display screen is unknown. There is a case. Further, when the function selection menu is hierarchized, a selection operation is required in each hierarchy, and it takes time to select a desired function.

本発明は、上記の問題点を鑑みてなされたものであり、その目的は、アイコンを操作して情報を入力する入力装置において、ユーザが所望の情報を選択する際の操作を容易に行うことができる入力装置等を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to easily perform an operation when a user selects desired information in an input device that inputs information by operating an icon. It is to provide an input device or the like that can perform the above.

本発明に係る入力装置は、上記の課題を解決するために、ユーザの操作を検知可能な入力面と、アイコンを表示可能な表示面とを備え、上記入力面に対する操作に基づいて上記アイコンを操作することにより、入力情報の入力が可能な入力装置であって、上記表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置手段と、上記選択アイコンの移動方向を指示する操作を検出する操作検出手段と、上記操作検出手段が検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置手段が配置した上記エリアから特定するエリア特定手段と、上記エリア特定手段が特定した上記選択エリアに対して上記エリア配置手段が割り当てた情報を、上記入力情報として特定する情報特定手段と、を備えたことを特徴としている。   In order to solve the above problems, an input device according to the present invention includes an input surface capable of detecting a user operation and a display surface capable of displaying an icon, and the icon is displayed based on an operation on the input surface. An input device capable of inputting input information by operating, wherein one or a plurality of areas respectively assigned with one or a plurality of information associated in advance with a selection icon selected on the display surface are An area placement means for placing on the display surface, an operation detection means for detecting an operation for instructing the movement direction of the selection icon, and when the selection icon is moved along the movement direction detected by the operation detection means, The area specifying means for specifying the selection area touched by the selection icon from the areas arranged by the area arranging means, and the area specifying means specifies And the information allocated by the area placement means to said selected area is characterized in that and an information specifying means for specifying as the input information.

また、本発明に係る入力装置の制御方法は、ユーザの操作を検知可能な入力面と、アイコンを表示可能な表示面とを備え、上記入力面に対する操作に基づいて上記アイコンを操作することにより、入力情報の入力が可能な入力装置の制御方法であって、上記表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置ステップと、上記選択アイコンの移動方向を指示する操作を検出する操作検出ステップと、上記操作検出ステップにて検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置ステップにて配置した上記エリアから特定するエリア特定ステップと、上記エリア特定ステップにて特定した上記選択エリアに対して上記エリア配置ステップにて割り当てた情報を、上記入力情報として特定する情報特定ステップと、を含むことを特徴としている。   The input device control method according to the present invention includes an input surface capable of detecting a user operation and a display surface capable of displaying an icon, and operates the icon based on an operation on the input surface. A method of controlling an input device capable of inputting input information, wherein one or a plurality of areas each assigned with one or a plurality of information previously associated with a selection icon selected on the display surface are displayed on the display device An area placement step for placing on the surface, an operation detection step for detecting an operation for instructing a movement direction of the selection icon, and when the selection icon is moved along the movement direction detected in the operation detection step, An area identification step for identifying a selection area that the selection icon touches from the areas arranged in the area arrangement step; The information assigned by the area placement steps for identified the selected area at the area specifying step, is characterized in that it comprises an information specifying step of specifying as the input information.

上記の構成および方法により、表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを表示面に配置し、ユーザの操作によって指示された移動方向に沿って選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアに対して割り当てられた情報を、入力情報として特定する。   With the above-described configuration and method, one or a plurality of areas each allocated with one or a plurality of information previously associated with a selection icon selected on the display surface are arranged on the display surface, and movement instructed by a user operation When the selection icon is moved along the direction, information assigned to the selection area with which the selection icon contacts is specified as input information.

したがって、ユーザは、アイコンを選択する操作に続けて、当該アイコンの移動方向を指示する操作を行うだけで、入力したい情報を入力することができる。よって、ユーザが所望の情報を選択する際の操作を容易に行うことができる。   Therefore, the user can input information to be input only by performing an operation of instructing the moving direction of the icon following the operation of selecting the icon. Therefore, an operation when the user selects desired information can be easily performed.

特に、上記入力装置を多数の機能を備えた電子機器に適用した場合、ユーザは、従来のように、何度も画面を遷移しながら所望の機能を探さなくても、例えば対象アイコンをタッチして弾くという簡単な操作のみで、所望の機能を実行することが可能である。   In particular, when the input device is applied to an electronic device having a large number of functions, the user can touch the target icon, for example, without searching for a desired function while switching between screens as in the past. It is possible to execute a desired function only with a simple operation of playing.

さらに、本発明に係る入力装置は、上記表示面に複数のアイコンを表示するアイコン表示手段をさらに備え、上記アイコン表示手段は、上記複数のアイコンから1つの上記選択アイコンが選択されたとき、当該選択アイコンに対してのみ移動方向を指示するユーザの操作が可能な状態で、当該選択アイコンを表示することを特徴としている。   Furthermore, the input device according to the present invention further includes icon display means for displaying a plurality of icons on the display surface, and the icon display means is configured to display the icon when one selection icon is selected from the plurality of icons. The selection icon is displayed in a state in which the user can instruct the moving direction only with respect to the selection icon.

上記の構成により、さらに、選択アイコンが選択された後、当該選択アイコンに対してのみ移動方向を指示するユーザの操作が可能な状態で、当該選択アイコンを表示する。これにより、正しく、選択アイコンに対して移動方向を指示することができる。   With the above-described configuration, after the selection icon is selected, the selection icon is displayed in a state where the user can instruct the moving direction only for the selection icon. Thereby, the moving direction can be correctly instructed to the selected icon.

さらに、本発明に係る入力装置は、上記操作検出手段が検出した移動方向に沿って上記選択アイコンを移動させたとき、上記選択アイコンが、上記エリア配置手段が配置したいずれのエリアにも接触しない場合、上記アイコン表示手段は、上記選択アイコンの選択が再度可能な状態で、上記表示面に複数のアイコンを表示することを特徴としている。   Furthermore, in the input device according to the present invention, when the selection icon is moved along the movement direction detected by the operation detection unit, the selection icon does not touch any area arranged by the area arrangement unit. In this case, the icon display means displays a plurality of icons on the display surface in a state where the selection icon can be selected again.

上記の構成により、さらに、選択アイコンの移動方向を指示する操作が、いずれのエリアにも接触しない方向を指示するものであった場合、選択アイコンを選択可能な状態に戻る。すなわち、ユーザは、選択アイコンを選択後に表示されるエリアを確認して、所望のエリアがなかった場合には、いずれのエリアにも接触しないように選択アイコンの移動方向を指示することによって、選択アイコンの選択をキャンセルすることができる。   With the above configuration, when the operation for instructing the moving direction of the selection icon is an instruction for a direction not touching any area, the selection icon can be selected again. That is, the user confirms the area displayed after selecting the selection icon, and if there is no desired area, the user selects the selection icon by instructing the moving direction of the selection icon so as not to touch any area. The icon selection can be canceled.

したがって、選択アイコンの選択をキャンセルする操作も、エリアを選択する操作と同様に、選択アイコンの移動方向を指示する操作で行うことができる。よって、操作が共通であるため、操作性の優れたユーザインターフェイスを実現できる。   Therefore, the operation for canceling the selection of the selected icon can also be performed by an operation for instructing the moving direction of the selected icon, similarly to the operation for selecting the area. Therefore, since the operation is common, a user interface with excellent operability can be realized.

さらに、本発明に係る入力装置は、上記エリア配置手段は、上記エリアを上記表示面の端部に沿って配置することを特徴としている。   Furthermore, the input device according to the present invention is characterized in that the area arranging means arranges the area along the end of the display surface.

上記の構成により、さらに、表示面の端部に沿ってエリアを配置するため、多数のエリアを同時に表示面に表示することができる。したがって、接触アイコンを移動させて接触させる目標となるエリアを多く表示できるため、ユーザに多くの選択肢から選択させることが可能となる。   With the above configuration, since the areas are further arranged along the edge of the display surface, a large number of areas can be simultaneously displayed on the display surface. Accordingly, the contact icon can be moved to display a large number of target areas to be contacted, so that the user can select from many options.

さらに、本発明に係る入力装置は、上記操作検出手段が検出する、上記選択アイコンの移動方向を指示する操作が、上記入力面に対するフリック操作であることを特徴としている。   Furthermore, the input device according to the present invention is characterized in that the operation for instructing the moving direction of the selection icon detected by the operation detecting means is a flick operation on the input surface.

上記の構成により、さらに、入力面に対するフリック操作によって、選択アイコンの移動方向を指示することができる。ここで、フリック操作は、入力面に接触点の移動を素早く入力して、所望の方向を指示できる操作である。したがって、アイコンを操作して、その移動方向を指示する操作として最適である。よって、操作性の優れたユーザインターフェイスを実現できる。   With the above configuration, it is possible to instruct the moving direction of the selected icon by a flick operation on the input surface. Here, the flick operation is an operation that can quickly input the movement of the contact point on the input surface and instruct a desired direction. Therefore, it is optimal as an operation for operating the icon and instructing the moving direction. Therefore, a user interface with excellent operability can be realized.

なお、上記入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The input device may be realized by a computer. In this case, the control program of the input device that causes the input device to be realized by the computer by operating the computer as each of the means, and the program are recorded. Computer-readable recording media are also within the scope of the present invention.

以上のように、本発明に係る入力装置は、表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置手段と、上記選択アイコンの移動方向を指示する操作を検出する操作検出手段と、上記操作検出手段が検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置手段が配置した上記エリアから特定するエリア特定手段と、上記エリア特定手段が特定した上記選択エリアに対して上記エリア配置手段が割り当てた情報を、上記入力情報として特定する情報特定手段と、を備えた構成である。   As described above, the input device according to the present invention is an area in which one or a plurality of areas to which one or a plurality of information previously associated with a selection icon selected on the display surface is assigned are arranged on the display surface. A selection unit that touches the selection icon when the selection icon is moved along the movement direction detected by the operation detection unit; Information for identifying, as the input information, area specifying means for specifying an area from the area arranged by the area arranging means, and information assigned by the area arranging means for the selected area specified by the area specifying means And a specifying means.

また、本発明に係る入力装置の制御方法は、表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置ステップと、上記選択アイコンの移動方向を指示する操作を検出する操作検出ステップと、上記操作検出ステップにて検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置ステップにて配置した上記エリアから特定するエリア特定ステップと、上記エリア特定ステップにて特定した上記選択エリアに対して上記エリア配置ステップにて割り当てた情報を、上記入力情報として特定する情報特定ステップと、を含む方法である。   In the input device control method according to the present invention, an area in which one or a plurality of areas each allocated with one or a plurality of information previously associated with a selection icon selected on the display surface is arranged on the display surface. An arrangement step, an operation detection step for detecting an operation for instructing a moving direction of the selection icon, and the selection icon touch when the selection icon is moved along the movement direction detected in the operation detection step. An area specifying step for specifying the selected area from the area arranged in the area arranging step, and information assigned in the area arranging step for the selected area specified in the area specifying step is the input information. And an information specifying step specified as

したがって、ユーザは、アイコンを選択する操作に続けて、当該アイコンの移動方向を指示する操作を行うだけで、入力したい情報を入力することができる。よって、ユーザが所望の情報を選択する際の操作を容易に行うことができるという効果を奏する。   Therefore, the user can input information to be input only by performing an operation of instructing the moving direction of the icon following the operation of selecting the icon. Therefore, it is possible to easily perform an operation when the user selects desired information.

本発明の一実施の形態に係るスマートフォンの要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the smart phone which concerns on one embodiment of this invention. 図1に示したスマートフォンの概要を示す説明図であり、(a)は機能を表すアイコンでタッチされた状態の画面表示例を示し、(b)はアクションを表すアイコンがタッチされた状態の画面表示例を示す。It is explanatory drawing which shows the outline | summary of the smart phone shown in FIG. 1, (a) shows the example of a screen display of the state touched with the icon showing a function, (b) is the screen of the state where the icon showing an action was touched A display example is shown. 図1に示したスマートフォンの外観を示す正面図である。It is a front view which shows the external appearance of the smart phone shown in FIG. 図1に示したスマートフォンが使用する機能・アクション情報の例を示す説明図である。It is explanatory drawing which shows the example of the function and action information which the smart phone shown in FIG. 1 uses. 図1に示したスマートフォンが実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the smart phone shown in FIG. 1 performs. (a)〜(g)は、図1に示したスマートフォンが実行する処理で表示される画面の遷移を示す画面遷移図である。(A)-(g) is a screen transition figure which shows the transition of the screen displayed by the process which the smart phone shown in FIG. 1 performs. 図1に示したスマートフォンが機能・アクションを表示するために表示面上にあらかじめ割り当てられたエリアの配置の例を示す模式図であり、(a)はエリアを1列に配置する場合の例、(b)はエリアを2列に配置する場合の例を示す。It is a schematic diagram which shows the example of arrangement | positioning of the area previously allocated on the display surface in order for the smart phone shown in FIG. 1 to display a function and an action, (a) is an example in the case of arrange | positioning an area in 1 row, (B) shows an example in which areas are arranged in two rows.

本発明の一実施の形態について、図1〜図7に基づいて詳細に説明する。   An embodiment of the present invention will be described in detail with reference to FIGS.

以下では、ある部材が複数存在することを明示するために、同一の部材番号にa、またはbをさらに付して当該部材を示すことがある。例えば、「アイコン1a」、「アイコン1b」などと示す。また、当該部材の部材番号にさらに付されたa、およびbを省略して、当該部材を総称することがある。例えば、アイコン1a、およびアイコン1bを、「アイコン1」と総称することがある。   In the following, in order to clearly indicate that there are a plurality of members, the members may be indicated by further adding a or b to the same member number. For example, “icon 1a”, “icon 1b”, and the like are shown. Moreover, a and b further added to the member number of the member may be omitted, and the member may be generically named. For example, the icon 1a and the icon 1b may be collectively referred to as “icon 1”.

なお、以下の記載および上記図面においては、右利きのユーザが本実施の形態に係るスマートフォン(入力装置)100を右手に把持し、右手の親指を入力部40(図2(a))の入力面に接触させる場合を想定して説明する。しかし、スマートフォン100を把持する手は、右手であっても左手であってもよいし、入力面に接触させる指は親指でなくともよい。   In the following description and the above drawings, a right-handed user holds the smartphone (input device) 100 according to the present embodiment with the right hand, and the thumb of the right hand is input to the input unit 40 (FIG. 2 (a)). Description will be made assuming that the surface is brought into contact. However, the hand that holds the smartphone 100 may be the right hand or the left hand, and the finger that contacts the input surface may not be the thumb.

また、ユーザはスマートフォン100を操作するために、指ではなくスタイラスなどの指示具を用いることもできる。すなわち、以下の記載において、「ユーザの指」には「スタイラスなどの指示具」が含まれる。ただし、記載の簡潔性を担保するため、以下では単に「ユーザの指」とのみ記載する。   In addition, the user can use an indicator such as a stylus instead of a finger to operate the smartphone 100. That is, in the following description, “user's finger” includes “indicator such as stylus”. However, in order to ensure the simplicity of description, only “user's finger” is described below.

さらに、以下の記載および上記図面においては、「ユーザが入力面に指を接触させる」と記載する。しかし、入力部40の入力面が、例えば指の近接を検出可能なタッチパネルである場合、スマートフォン100は、入力面に対するユーザの指の近接を検出することによっても、接触の場合と同様に動作可能である。すなわち、以下の記載において、「接触」には「近接」が含まれる。ただし、記載の簡潔性を担保するため、以下では単に「接触」とのみ記載する。   Furthermore, in the following description and the above drawings, it is described as “the user makes a finger touch the input surface”. However, when the input surface of the input unit 40 is, for example, a touch panel that can detect the proximity of a finger, the smartphone 100 can operate in the same manner as in the case of contact by detecting the proximity of the user's finger to the input surface. It is. That is, in the following description, “contact” includes “proximity”. However, in order to ensure the conciseness of description, only “contact” is described below.

〔スマートフォン100の概要〕
図2に基づいて、スマートフォン100の概要について説明する。図2は、スマートフォン100の概要を示す説明図であり、(a)は機能を表すアイコンでタッチされた状態の画面表示例を示し、(b)はアクションを表すアイコンがタッチされた状態の画面表示例を示す。なお、図2(a)(b)には、説明の便宜を図るために、フリック操作8によってアイコン1aが移動する方向を表す矢印を示している。ただし、スマートフォン100は、実際に矢印を表示しなくともよい。また、上記は他の図においても同様である。
[Outline of smartphone 100]
Based on FIG. 2, the outline | summary of the smart phone 100 is demonstrated. 2A and 2B are explanatory diagrams showing an overview of the smartphone 100, in which FIG. 2A shows a screen display example in a state of being touched with an icon representing a function, and FIG. A display example is shown. 2A and 2B show arrows indicating the direction in which the icon 1a is moved by the flick operation 8 for convenience of explanation. However, the smartphone 100 may not actually display the arrow. The above also applies to other drawings.

図2(a)に示すように、スマートフォン(入力装置)100は、ユーザの操作を検知可能な入力部(入力面)40と、アイコン1を表示可能な表示部(表示面)70とを備え、入力部(入力面)40に対する操作に基づいてアイコン1を操作することにより、コマンド(入力情報)9の入力が可能な装置である。詳細には、スマートフォン100は、ユーザの操作による接触位置(指定された位置)3(図1)を検知可能な入力面と、複数のアイコン1…(図6(a))および複数の機能・アクション2…を表示可能な表示面とを備える。そして、接触位置3に基づいて1つのアイコン(選択アイコン)1aの選択が可能であり、さらにアイコン1aに対するフリック操作(操作)8に基づいて1つの機能・アクション2aの選択が可能であることにより、1つのコマンド(情報)9(図1)の入力が可能な装置である。   As shown in FIG. 2A, the smartphone (input device) 100 includes an input unit (input surface) 40 that can detect a user operation, and a display unit (display surface) 70 that can display the icon 1. The device is capable of inputting a command (input information) 9 by operating the icon 1 based on an operation on the input unit (input surface) 40. Specifically, the smartphone 100 includes an input surface that can detect a contact position (designated position) 3 (FIG. 1) by a user operation, a plurality of icons 1 (FIG. 6A), and a plurality of functions. A display surface capable of displaying action 2. One icon (selection icon) 1a can be selected based on the contact position 3, and one function / action 2a can be selected based on a flick operation (operation) 8 on the icon 1a. This is a device capable of inputting one command (information) 9 (FIG. 1).

ここで、「コマンド」とは、所定の処理を実行することをスマートフォン100に指示するものをいう。例えば、あるアプリケーションを起動するよう指示するものや、あるファイルを開くように指示するものなど、一般的な電子機器に与える情報を広く含む。そして、ユーザは、アイコン(タッチされたアイコン)1aと、機能・アクション(選択された機能・アクション)2aとで特定されるコマンド9を入力することにより、所望の機能を実行できる。   Here, the “command” refers to a command that instructs the smartphone 100 to execute a predetermined process. For example, it widely includes information given to general electronic devices such as an instruction to start a certain application and an instruction to open a certain file. The user can execute a desired function by inputting a command 9 specified by the icon (touched icon) 1a and the function / action (selected function / action) 2a.

スマートフォン100は、特に、タッチされたアイコン1aに対応付けられた、1または複数の機能・アクション2…を、画面端部の1または複数のエリア6…にそれぞれ表示し、アイコン1aをフリック操作8によって移動させることで1つの機能・アクション2aを選択することを特徴とする。具体的には、スマートフォン100は、ユーザが複数のアイコン1…から1つのアイコン1aをタッチすることで、他のアイコン(非選択アイコン)1bを非表示にするとともに(図6(b))、タッチされたアイコン1aと関連する複数の機能・アクション2…を画面端部のエリア6…に表示する(図6(c))。なお、図2(a)に示すように、アイコン1aが機能を表すアイコンであった場合は、画面端部にはアクションを表す機能・アクション2…が表示される。また、図2(b)に示すように、アイコン1aがアクションを表すアイコンであった場合は、画面端部には機能を表す機能・アクション2…が表示される。   The smartphone 100 particularly displays one or more functions / actions 2... Associated with the touched icon 1 a in one or more areas 6... Of the screen edge, and performs the flick operation 8 on the icon 1 a. It is characterized in that one function / action 2a is selected by being moved by. Specifically, the smartphone 100 hides the other icons (non-selected icons) 1b when the user touches one icon 1a from the plurality of icons 1 (FIG. 6B), A plurality of functions / actions 2 associated with the touched icon 1a are displayed in the area 6 at the end of the screen (FIG. 6C). As shown in FIG. 2A, when the icon 1a is an icon representing a function, a function / action 2... Representing an action is displayed at the end of the screen. As shown in FIG. 2B, when the icon 1a is an icon representing an action, a function / action 2... Representing a function is displayed at the end of the screen.

これにより、ユーザは、複数の機能・アクション2…が画面端部のエリア6…に表示された状態で、アイコン1aに対してフリック操作8を行うことにより、アイコン1aを当該フリック操作に沿った方向へ移動させることができる。そして、当該アイコン1aがいずれかのエリア6に接触すると、スマートフォン100は当該エリア6に表示されている機能・アクション2aが選択されたとみなす。そして、ユーザにより機能・アクション2aが選択されると、スマートフォン100は当該機能・アクション2aを実行するためのコマンド9を特定し、当該コマンド9を実行する。   As a result, the user performs the flick operation 8 on the icon 1a in a state where a plurality of functions / actions 2 ... are displayed in the area 6 ... at the edge of the screen, thereby moving the icon 1a along the flick operation. It can be moved in the direction. When the icon 1a touches any area 6, the smartphone 100 considers that the function / action 2a displayed in the area 6 has been selected. When the function / action 2a is selected by the user, the smartphone 100 specifies the command 9 for executing the function / action 2a, and executes the command 9.

上記のように、スマートフォン100は、タッチされたアイコン1aに応じて、関連する機能・アクション2…を画面端部のエリア6に表示し、フリック操作8によって所望の機能・アクション2aを選択させることができる。それゆえ、ユーザにコマンド9を容易に選択させることができる。よって、ユーザは、アイコン1aのタッチおよびフリックを行うだけでコマンド9を実行することが可能となる。   As described above, the smartphone 100 displays the related function / action 2... In the area 6 at the end of the screen in accordance with the touched icon 1 a and causes the flick operation 8 to select the desired function / action 2 a. Can do. Therefore, the user can easily select the command 9. Therefore, the user can execute the command 9 simply by touching and flicking the icon 1a.

これにより、スマートフォン100は自由度の高いユーザインターフェイスを実現できる。特に、スマートフォン100は、その機能の数だけアイコンの数を増やしたり、ユーザがアイコンを選択した後に、さらに階層化したメニューをユーザに選択させたりする必要がない。したがって、スマートフォン100は、ユーザが所望の機能を実行する際の利便性を向上させることができる。   Thereby, the smart phone 100 can implement | achieve a user interface with a high freedom degree. In particular, the smartphone 100 does not need to increase the number of icons by the number of functions or allow the user to select a hierarchical menu after the user selects an icon. Therefore, the smartphone 100 can improve convenience when the user executes a desired function.

〔スマートフォン100の外観〕
図3に基づいて、スマートフォン100の外観を説明する。図3は、スマートフォン100の外観例を表した正面図である。
[Appearance of smartphone 100]
Based on FIG. 3, the external appearance of the smart phone 100 is demonstrated. FIG. 3 is a front view illustrating an appearance example of the smartphone 100.

図3に示すように、スマートフォン100は、入力部40、表示部70を備える。各構成が有する機能を明示するために、図1では入力部40と表示部70とを分離して示しているが、例えば入力部40をタッチパネルで、表示部70を液晶ディスプレイで実現する場合、図3に示すように、両者は一体として構成されてもよい。   As shown in FIG. 3, the smartphone 100 includes an input unit 40 and a display unit 70. In order to clarify the function of each configuration, FIG. 1 shows the input unit 40 and the display unit 70 separately. For example, when the input unit 40 is realized by a touch panel and the display unit 70 is realized by a liquid crystal display, As shown in FIG. 3, both may be configured as a single unit.

〔スマ−トフォン100の構成〕
図1に基づいて、スマートフォン100の構成を説明する。図1は、スマートフォン100の要部構成を示す機能ブロック図である。なお、記載の簡潔性を担保するため、本実施の形態に直接関係のない部分は構成の説明および図示を省略した。ただし、実施の実情に則して、スマートフォン100は当該省略した構成を含んでもよい。
[Configuration of Smartphone 100]
Based on FIG. 1, the structure of the smart phone 100 is demonstrated. FIG. 1 is a functional block diagram illustrating a main configuration of the smartphone 100. In addition, in order to ensure the simplicity of description, the description and illustration of the configuration of parts not directly related to the present embodiment are omitted. However, the smartphone 100 may include the omitted configuration in accordance with the actual situation.

図1に示すように、スマートフォン100は、制御部10、コマンド実行部20、記憶部30、入力部40、表示制御部60、表示部70を備えて構成されている。以下、入力部40、記憶部30、制御部10(アイコン/エリア表示処理部11、フリック検出部(操作検出手段)12、アイコン移動部13、接触エリア特定部(エリア特定手段)14、コマンド特定部15)、コマンド実行部20、表示制御部60、表示部70の順序で、各構成が担う機能を説明する。   As shown in FIG. 1, the smartphone 100 includes a control unit 10, a command execution unit 20, a storage unit 30, an input unit 40, a display control unit 60, and a display unit 70. Hereinafter, the input unit 40, the storage unit 30, the control unit 10 (icon / area display processing unit 11, flick detection unit (operation detection unit) 12, icon movement unit 13, contact area identification unit (area identification unit) 14, command identification Unit 15), command execution unit 20, display control unit 60, and display unit 70 will be described in the order of the functions of each component.

入力部40は、その入力面に接触したユーザの指の当該入力面上における2次元の座標情報を、接触位置3として制御部10に出力する。すなわち、「入力面」は入力部40に含まれる。なお、入力部40は、アイコン1aを選択する操作およびアイコン1aを機能・アクション2aに向けて移動させる操作を、ユーザが入力可能であれば、ハードウェアの種類はタッチパネルに限定されない。   The input unit 40 outputs two-dimensional coordinate information on the input surface of the user's finger that has touched the input surface to the control unit 10 as the contact position 3. That is, the “input surface” is included in the input unit 40. The input unit 40 is not limited to a touch panel as long as the user can input an operation for selecting the icon 1a and an operation for moving the icon 1a toward the function / action 2a.

記憶部30は、各アイコン1のアイコン情報4、各機能・アクション2の機能・アクション情報5、各機能・アクション2の入力面におけるデフォルトの表示位置(エリア)を示す初期表示位置情報、機能・アクション2を割り当てる際の各エリア6…の優先順位(すなわち、入力面における表示位置の優先順位)を示す優先位置情報などのデータを格納する。   The storage unit 30 includes icon information 4 of each icon 1, function / action information 5 of each function / action 2, initial display position information indicating a default display position (area) on the input surface of each function / action 2, function / action Data such as priority position information indicating the priority order of the areas 6... When assigning the action 2 (that is, the priority order of display positions on the input surface) is stored.

ここで、上記アイコン情報4は、各アイコン1と機能・アクション2との対応付けを少なくとも含む。また、上記機能・アクション情報5は、各機能・アクション2の使用回数(カウント)、および、コマンド9との対応付けを少なくとも含む。   Here, the icon information 4 includes at least the association between each icon 1 and the function / action 2. The function / action information 5 includes at least the number of uses (count) of each function / action 2 and the association with the command 9.

なお、記憶部30は、例えばハードディスク、半導体メモリ、DVD(Digital Versatile Disk)等の不揮発性の記憶機器で構成できる。また、記憶部30は、本実施の形態では、スマートフォン100に内蔵される機器(図1)として説明するが、スマートフォン100の外部に通信可能に接続された外部記憶装置であってもよい。   The storage unit 30 can be configured by a nonvolatile storage device such as a hard disk, a semiconductor memory, or a DVD (Digital Versatile Disk). Moreover, although the memory | storage part 30 demonstrates as an apparatus (FIG. 1) incorporated in the smart phone 100 in this Embodiment, the external storage device connected so that communication was possible outside the smart phone 100 may be sufficient.

制御部10は、スマートフォン100の各種機能を統括的に制御するものである。なお、制御部10の各機能は、例えばRAM(Random Access Memory)やフラッシュメモリなどの記憶素子に記憶されたプログラムを、CPU(Central Processing Unit)が実行することによって実現されてもよい。   The control unit 10 comprehensively controls various functions of the smartphone 100. Each function of the control unit 10 may be realized by a CPU (Central Processing Unit) executing a program stored in a storage element such as a RAM (Random Access Memory) or a flash memory.

制御部10は、入力部40から接触位置3が入力されると、当該接触位置3に基づいてアイコン1がタッチされたか否かを判定する。そして、タッチされたと判定した場合、タッチされたアイコン1aのアイコン情報4および当該アイコン1aに対応する機能・アクション情報5を記憶部30から取得する。また、制御部10は、ユーザのフリック操作8によりアイコン1aがエリア6(機能・アクション2)に接触したか否かを判定する。接触したと判定した場合(すなわち、機能・アクションが選択されたと判断した場合)、制御部10は、接触したエリア6aに対応する機能・アクション2aを特定し、特定された機能・アクション2aに対応するコマンド9をコマンド実行部20に出力する。   When the contact position 3 is input from the input unit 40, the control unit 10 determines whether the icon 1 is touched based on the contact position 3. If it is determined that the icon is touched, the icon information 4 of the touched icon 1 a and the function / action information 5 corresponding to the icon 1 a are acquired from the storage unit 30. Further, the control unit 10 determines whether or not the icon 1a has touched the area 6 (function / action 2) by the user's flick operation 8. When it is determined that contact has been made (that is, when it is determined that a function / action has been selected), the control unit 10 identifies the function / action 2a corresponding to the contacted area 6a, and corresponds to the specified function / action 2a. Command 9 to be output to the command execution unit 20.

詳細には、制御部10は、図1に示すように、アイコン/エリア表示処理部11、フリック検出部12、アイコン移動部13、接触エリア特定部14、およびコマンド特定部(情報特定手段)15を含む。   Specifically, as shown in FIG. 1, the control unit 10 includes an icon / area display processing unit 11, a flick detection unit 12, an icon moving unit 13, a contact area specifying unit 14, and a command specifying unit (information specifying unit) 15. including.

アイコン/エリア表示処理部11は、記憶部30からアイコン情報4を取得して、表示部70に複数のアイコン1…を表示する(図6(a))。そして、入力部40から接触位置3が入力されると、当該接触位置3に基づいてアイコン1がタッチされたか否かを判定する。そして、タッチされたと判定した場合、タッチされたアイコン1aに対応する機能・アクション情報5を記憶部30から取得して、複数の機能・アクション2…を表示部70の画面端部の複数のエリア6…にそれぞれ表示する(図6(c))。   The icon / area display processing unit 11 acquires the icon information 4 from the storage unit 30 and displays a plurality of icons 1 on the display unit 70 (FIG. 6A). When the contact position 3 is input from the input unit 40, it is determined whether or not the icon 1 is touched based on the contact position 3. If the touched icon 1a is determined to be touched, the function / action information 5 corresponding to the touched icon 1a is acquired from the storage unit 30, and a plurality of functions / actions 2 ... are displayed at a plurality of areas at the screen edge of the display unit 70 6... (FIG. 6C).

詳細には、アイコン/エリア表示処理部11は、アイコン表示部(アイコン表示手段)16、エリア配置部(エリア配置手段)17を含む。   Specifically, the icon / area display processing unit 11 includes an icon display unit (icon display unit) 16 and an area arrangement unit (area arrangement unit) 17.

アイコン表示部16は、記憶部30からアイコン情報4を取得して、表示部(表示面)70に複数のアイコン1…を表示させる(図6(a))。そして、入力部40から入力された接触位置3に基づいてタッチされたアイコン1aを特定すると、表示部70に表示されている他のアイコン1b…をすべて非表示にさせる(図6(b))。すなわち、アイコン表示部16は、複数のアイコン1…から1つのアイコン(選択アイコン)1aが選択されたとき、当該アイコン1aに対してのみ移動方向を指示するユーザの操作が可能な状態で、当該アイコン1aを表示する。   The icon display part 16 acquires the icon information 4 from the memory | storage part 30, and displays the some icon 1 ... on the display part (display surface) 70 (FIG. 6 (a)). When the touched icon 1a is specified based on the contact position 3 input from the input unit 40, all the other icons 1b ... displayed on the display unit 70 are hidden (FIG. 6B). . That is, when one icon (selected icon) 1a is selected from the plurality of icons 1..., The icon display unit 16 is in a state where the user can instruct the moving direction only with respect to the icon 1a. Icon 1a is displayed.

また、アイコン表示部16は、アイコン移動部13によって移動したアイコン1aがエリア6…以外の画面端部に接触したとき、アイコン1aの選択をキャンセルし、非表示にしていたアイコン1bを再び表示させる(図6(a))。すなわち、アイコン表示部16は、フリック検出部12が検出した移動方向に沿ってアイコン1aを移動させたとき、アイコン1aが、エリア配置部17が配置したいずれのエリア6…にも接触しない場合、アイコン1aの選択が再度可能な状態で、表示部(表示面)70に複数のアイコン1…を表示する。   The icon display unit 16 cancels the selection of the icon 1a when the icon 1a moved by the icon moving unit 13 contacts the screen edge other than the area 6... And displays the icon 1b that has been hidden again. (FIG. 6A). That is, when the icon display unit 16 moves the icon 1a along the movement direction detected by the flick detection unit 12, the icon 1a does not contact any of the areas 6 arranged by the area arrangement unit 17, A plurality of icons 1 are displayed on the display unit (display surface) 70 in a state where the icons 1a can be selected again.

なお、アイコン表示部16は、アイコン情報4を出力して、表示部70に表示すべき表示形態を表示制御部60に指示する。   The icon display unit 16 outputs the icon information 4 and instructs the display control unit 60 on a display form to be displayed on the display unit 70.

なお、本実施の形態では、タッチされたアイコン1aを除く他のアイコン1b…をすべて「非表示」にする場合について説明するが、これに限定されない。すなわち、タッチされたアイコン1aと他のアイコン1b…とをユーザが識別可能であるように、アイコン1aおよび他のアイコン1b…の少なくとも何れか一方の表示形態を変更すればよい。例えば、アイコン1b…を「非表示」にする以外の表示形態としては、アイコン1b…を「半透過」にしたり、アイコン1aを「点滅」や「外形を強調」したりしてもよい。   In the present embodiment, the case where all the icons 1b except the touched icon 1a are “hidden” will be described, but the present invention is not limited to this. That is, the display form of at least one of the icon 1a and the other icons 1b may be changed so that the user can identify the touched icon 1a and the other icons 1b. For example, as a display form other than making the icons 1b... Non-displayed, the icons 1b... May be “semi-transparent”, or the icons 1a may be “flashing” or “enhance the outline”.

エリア配置部17は、入力部40から入力された接触位置3に基づいてタッチされたアイコン1aが特定されたとき、タッチされたアイコン1aに対応する機能・アクション情報5を記憶部30から取得する。そして、機能・アクション情報5に従って、複数の機能・アクション2…を表示部70の画面端部の複数のエリア6…にそれぞれ表示させる(図6(c))。すなわち、エリア配置部17は、表示部(表示面)70において選択されたアイコン(選択アイコン)1aにあらかじめ対応付けられた1または複数のコマンドをそれぞれ割り当てた1または複数のエリア6…を、表示部(表示面)70の端部に沿って配置する。なお、エリア配置部17は、機能・アクション情報5を出力して、表示部70に表示すべき表示形態を表示制御部60に指示する。また、エリア配置部17が1または複数のエリア6…を配置する表示部(表示面)70上の位置は、端部に限定されず、いずれのエリア6もアイコン1aが他のエリア6に接触することなく到達することができれば、より内部に配置してもよい。   When the touched icon 1a is specified based on the contact position 3 input from the input unit 40, the area arranging unit 17 acquires the function / action information 5 corresponding to the touched icon 1a from the storage unit 30. . Then, in accordance with the function / action information 5, a plurality of functions / actions 2 are displayed in a plurality of areas 6 at the end of the screen of the display unit 70 (FIG. 6C). That is, the area arrangement unit 17 displays one or a plurality of areas 6 to which one or a plurality of commands previously associated with the icon (selected icon) 1a selected on the display unit (display surface) 70 is assigned. Arranged along the end of the portion (display surface) 70. The area arrangement unit 17 outputs the function / action information 5 and instructs the display control unit 60 on the display form to be displayed on the display unit 70. Further, the position on the display unit (display surface) 70 where the area arranging unit 17 arranges one or a plurality of areas 6... Is not limited to the end portion, and the icon 1 a contacts the other area 6 in any area 6. If it can be reached without doing, it may be arranged more inside.

ここで、エリア配置部17は、エリア6…を、ユーザがタッチした位置の近傍、すなわち、アイコン1aの位置の近くにできるだけ配置する。なお、例えば、常に表示面の右下の領域(図2(a))でアイコン1aに対してフリック操作したい場合には、ユーザにアイコン1aを選択させる際、表示面に表示しているすべてのアイコン1…を当該領域を通過させるように移動させ、ユーザに当該領域でアイコン1aにタッチさせるようにしてもよい。また、ユーザがアイコン1aにタッチしたとき、アイコン1aの位置が当該領域になければ、当該領域にアイコン1aに移動させるようにしてもよい。   Here, the area arranging unit 17 arranges the areas 6... As close as possible to the vicinity of the position touched by the user, that is, the position of the icon 1a. For example, when it is desired to always perform a flick operation on the icon 1a in the lower right area of the display surface (FIG. 2A), when the user selects the icon 1a, all the icons displayed on the display surface are displayed. The icons 1 may be moved so as to pass through the area, and the user may touch the icon 1a in the area. Further, when the user touches the icon 1a, if the position of the icon 1a is not in the area, the icon 1a may be moved to the area.

フリック検出部12は、特定されたアイコン1aと機能・アクション2…とが表示部70に表示された状態において、ユーザがアイコン1aを移動させるために行った、入力部40に対するフリック操作8を検出する(図6(e))。すなわち、フリック検出部12は、入力部(入力面)40に対するフリック操作8を、アイコン(選択アイコン)1aの移動方向を指示する操作として検出する。なお、本実施の形態では、タッチパネルに対するフリック操作として説明するが、アイコン1aを移動させる方向を指定する入力操作であればこれに限定されない。   The flick detection unit 12 detects a flick operation 8 for the input unit 40 performed by the user to move the icon 1a in a state where the identified icon 1a and the function / action 2... Are displayed on the display unit 70. (FIG. 6 (e)). That is, the flick detection unit 12 detects the flick operation 8 for the input unit (input surface) 40 as an operation for instructing the moving direction of the icon (selected icon) 1a. In this embodiment, the flick operation on the touch panel is described. However, the present invention is not limited to this as long as it is an input operation for designating a direction in which the icon 1a is moved.

アイコン移動部13は、表示部70に特定されたアイコン1aと機能・アクション2…とが表示された状態において、アイコン1aを、フリック検出部12が検出したフリック操作8に沿った方向へ移動させる(図6(e))。なお、アイコン移動部13は、移動中のアイコン1aの位置情報を出力して、表示部70に表示すべき表示形態を表示制御部60に指示する。ただし、フリック操作された位置から接触するエリア6aまでの間を移動するアイコン1aの画像を表示するか否かは任意である。すなわち、フリック検出部12が検出した後、直ちにエリア6…との接触の判定を行って、その後の処理に移ってもよい。   The icon moving unit 13 moves the icon 1a in the direction along the flick operation 8 detected by the flick detection unit 12 in a state where the specified icon 1a and the function / action 2... Are displayed on the display unit 70. (FIG. 6 (e)). The icon moving unit 13 outputs the position information of the moving icon 1a and instructs the display control unit 60 on the display form to be displayed on the display unit 70. However, whether or not to display the image of the icon 1a moving between the flicked position and the contact area 6a is arbitrary. That is, after the flick detection unit 12 detects, the contact with the areas 6... May be determined immediately, and the subsequent processing may be performed.

接触エリア特定部14は、アイコン移動部13によって移動したアイコン1aがエリア6に接触したとき(図6(e))、当該エリア6に対応する機能・アクション2aを特定し、その機能・アクション情報5をコマンド特定部15に出力する。すなわち、接触エリア特定部14は、フリック検出部12が検出した移動方向に沿ってアイコン(選択アイコン)1aを移動させたとき、該アイコン1aが接触する選択エリア6aを、エリア配置部17が配置したエリア6…から特定する。   When the icon 1a moved by the icon moving unit 13 contacts the area 6 (FIG. 6 (e)), the contact area specifying unit 14 specifies the function / action 2a corresponding to the area 6 and the function / action information. 5 is output to the command specifying unit 15. That is, when the contact area specifying unit 14 moves the icon (selection icon) 1a along the movement direction detected by the flick detection unit 12, the area arrangement unit 17 arranges the selection area 6a that the icon 1a contacts. Specified from the area 6.

コマンド特定部15は、接触エリア特定部14からアイコン1aが接触した機能・アクション2aの機能・アクション情報5が入力されると、当該機能・アクション情報5にしたがってコマンド9を特定する。すなわち、コマンド特定部15は、接触エリア特定部14が特定した選択エリア6aに対してエリア配置部17が割り当てたコマンドを、ユーザが入力したいコマンド(入力情報)9として特定する。そして、コマンド特定部15は、特定した当該コマンド9をコマンド実行部20へ出力する。   When the function / action information 5 of the function / action 2 a touched by the icon 1 a is input from the contact area specifying unit 14, the command specifying unit 15 specifies the command 9 according to the function / action information 5. That is, the command specifying unit 15 specifies the command assigned by the area arranging unit 17 to the selected area 6a specified by the contact area specifying unit 14 as the command (input information) 9 that the user wants to input. Then, the command specifying unit 15 outputs the specified command 9 to the command executing unit 20.

コマンド実行部20は、コマンド特定部15から入力されたコマンド9を実行する(図6(f))。   The command execution unit 20 executes the command 9 input from the command specifying unit 15 (FIG. 6 (f)).

表示制御部60は、コンテンツを表示部70で表示可能な形式にしたがう表示用データに変換する。具体的には、表示制御部60は、アイコン1…を表示する際、アイコン情報4を制御部10から入力として受け取り、当該アイコン情報4に含まれるアイコン1…を表示部70の所定の表示位置に表示できるように生成した表示用データを表示部70へ出力する。また、表示制御部60は、機能・アクション2…を表示する際、機能・アクション情報5を制御部10から入力として受け取り、当該機能・アクション情報5に含まれる機能・アクション2を表示部70の所定の表示位置(エリア6)に表示できるように生成した表示用データを表示部70へ出力する。なお、表示制御部60は、アイコン情報4や機能・アクション情報5などから、例えばビットマップ形式の画像を生成し、その後当該画像を表示用データへ変換してもよい。また、表示制御部60は、表示用データへ形式変換できるものを含んでいればよく、例えば一般的なディスプレイアダプタでもよい。   The display control unit 60 converts the content into display data in a format that can be displayed on the display unit 70. Specifically, when displaying the icons 1..., The display control unit 60 receives the icon information 4 as an input from the control unit 10, and displays the icons 1 included in the icon information 4 at a predetermined display position of the display unit 70. The display data generated so that it can be displayed on the display unit 70 is output to the display unit 70. Further, when displaying the function / action 2..., The display control unit 60 receives the function / action information 5 as an input from the control unit 10 and displays the function / action 2 included in the function / action information 5 on the display unit 70. Display data generated so as to be displayed at a predetermined display position (area 6) is output to the display unit 70. The display control unit 60 may generate, for example, a bitmap format image from the icon information 4 and the function / action information 5, and then convert the image into display data. Moreover, the display control part 60 should just contain what can carry out format conversion to the data for a display, for example, a general display adapter may be sufficient.

表示部70は、表示制御部60から入力される表示用データを、表示部70の表示面に表示する装置である。すなわち「表示面」は表示部70に含まれる。なお、本実施の形態では、主に液晶ディスプレイ(Liquid Crystal Display;LCD)を想定しているが、表示機能を有する装置(特に、フラットパネルディスプレイ)でありさえすればハードウェアの種類は限定されず、例えば、プラズマディスプレイ(Plasma Display Panel;PDP)や有機EL(Electroluminescence)ディスプレイであってもよい。表示素子がいずれのものであっても、当該表示素子と、表示制御部60から入力された表示用データに基づいて当該表示素子を駆動するドライバ回路とを備える装置として、表示部70を構成できる。   The display unit 70 is a device that displays the display data input from the display control unit 60 on the display surface of the display unit 70. That is, the “display surface” is included in the display unit 70. In this embodiment, a liquid crystal display (LCD) is mainly assumed. However, the type of hardware is limited as long as the device has a display function (particularly, a flat panel display). For example, a plasma display panel (PDP) or an organic EL (Electroluminescence) display may be used. Regardless of the display element, the display unit 70 can be configured as a device including the display element and a driver circuit that drives the display element based on display data input from the display control unit 60. .

上記のように、入力部40をタッチパネルで、表示部70を液晶ディスプレイで実現する場合、両者は一体として構成されてよい(図3)。すなわち、入力部40は、矩形板状に形成されたガラス等の透明な透過部材からなる入力面を含んで構成され、表示部70が有する表示面を覆うように一体的に形成されてよい。これにより、入力部40の入力面に対するユーザの指の接触位置3と、表示部70が当該接触に応じて表示面に表示する図形等の表示位置とが一致するため、ユーザは自然な入力感覚を得ることができる。   As described above, when the input unit 40 is realized by a touch panel and the display unit 70 is realized by a liquid crystal display, the two may be configured as one body (FIG. 3). In other words, the input unit 40 may include an input surface made of a transparent transmissive member such as glass formed in a rectangular plate shape, and may be integrally formed so as to cover the display surface of the display unit 70. Thereby, the contact position 3 of the user's finger with respect to the input surface of the input unit 40 and the display position of the graphic or the like displayed on the display surface by the display unit 70 in accordance with the contact match, so that the user has a natural input feeling. Can be obtained.

〔機能・アクション情報5〕
ここで、図4を参照して、アイコン1と機能・アクション2との対応付けについて説明する。図4は、複数のアイコン1…のそれぞれに、複数の機能・アクション2…が対応付けられた機能・アクション情報5の例を示す説明図である。
[Function / Action Information 5]
Here, the association between the icon 1 and the function / action 2 will be described with reference to FIG. FIG. 4 is an explanatory diagram showing an example of function / action information 5 in which a plurality of functions / actions 2... Are associated with a plurality of icons 1.

図4に示すように、例えば、「メール」のアイコンには、「メールボックス」、「作成」、「受信」、「検索」、「アドレス帳」、「設定」が機能・アクションとして対応付けられている。また同様に、「鉛筆」のアイコンには、「アドレス帳」、「メール」、「メモ帳」、「イラスト」、「SNS(Social Networking Service)」、「カレンダー」が機能・アクションとして対応付けられている。このように、「メール」のような機能を表すアイコンには、「メールボックス」等のアクションが対応付けられている。また「鉛筆」のようなアクションを表すアイコンには、「アドレス帳」等の機能が対応付けられている。   As shown in FIG. 4, for example, “Mailbox”, “Create”, “Receive”, “Search”, “Address Book”, and “Setting” are associated as functions / actions with the “Mail” icon. ing. Similarly, the “pencil” icon is associated with “address book”, “mail”, “memo pad”, “illustration”, “SNS (Social Networking Service)”, and “calendar” as functions and actions. ing. As described above, an icon representing a function such as “mail” is associated with an action such as “mailbox”. An icon representing an action such as “pencil” is associated with a function such as “address book”.

さらに、図4には図示しないが、機能・アクション情報5には、各機能・アクション2…の情報として、当該機能・アクションを実行するためのコマンドを規定した文字列が設定されている。また、後述するように、機能・アクションが選択され、実行した回数(使用頻度)を、当該機能・アクション2…の情報として、機能・アクション情報5に格納される。すなわち、機能・アクション情報5の1つの機能・アクションには、当該機能・アクションの名称の文字列、および、当該機能・アクションを実行するためのコマンドを規定した文字列があらかじめ対応付けて設定されている。加えて、機能・アクション情報5の1つの機能・アクションには、当該機能・アクションが選択され、実行される度に、その回数(使用頻度)が加算されて、対応付けて設定されている。   Further, although not shown in FIG. 4, in the function / action information 5, a character string defining a command for executing the function / action is set as information of each function / action 2. As will be described later, the function / action is selected and the number of times of execution (usage frequency) is stored in the function / action information 5 as information of the function / action 2. That is, in one function / action of the function / action information 5, a character string defining the name of the function / action and a character string defining a command for executing the function / action are set in advance in association with each other. ing. In addition, each function / action of the function / action information 5 is set in association with the number of times (usage frequency) added each time the function / action is selected and executed.

このような機能・アクション情報5を参照することにより、エリア配置部17は、アイコン1aがタッチされたとき、アイコン1aに対応づけられている各機能・アクション2…の情報から機能・アクションの名称を取得して、所定のエリア6…に配置して表示することができる。そして、コマンド特定部15は、アイコン1aがフリック操作8によってエリア6aと接触したとき、当該エリア6aに表示されていた機能・アクションの名称と同じ機能・アクション2aに設定されているコマンドを規定した文字列を抽出して実行することができる。   By referring to such function / action information 5, when the icon 1a is touched, the area arrangement unit 17 determines the name of the function / action from the information of each function / action 2 ... associated with the icon 1a. Can be acquired and arranged and displayed in predetermined areas 6. When the icon 1a contacts the area 6a by the flick operation 8, the command specifying unit 15 defines a command set in the same function / action 2a as the name of the function / action displayed in the area 6a. A character string can be extracted and executed.

例えば、図2(a)の例であれば、アイコン1aが「メール」であるため、対応づけられている各機能・アクション2…の情報から「メールボックス」等の機能・アクションの名称を取得して、エリア6…に配置して表示している。そして、フリック操作8された「メール」のアイコン1aが「受信」を表示したエリア6aと接触した場合、「メール」アプリケーションの「受信」処理を実行する。   For example, in the example of FIG. 2A, since the icon 1a is “mail”, the name of the function / action such as “mailbox” is acquired from the information of the associated functions / actions 2. Then, it is arranged and displayed in the area 6. When the “mail” icon 1a that has been subjected to the flick operation 8 comes into contact with the area 6a displaying “reception”, the “reception” process of the “mail” application is executed.

〔スマートフォン100が実行する処理〕
つぎに、図5および図6に基づいて、スマートフォン100が実行する処理の流れを説明する。図5は、スマートフォン100が実行する処理の流れの一例を示すフローチャートである。図6は、スマートフォン100が実行する処理で表示される画面の遷移を示す画面遷移図である。
[Processes executed by the smartphone 100]
Next, the flow of processing executed by the smartphone 100 will be described with reference to FIGS. FIG. 5 is a flowchart illustrating an example of a flow of processing executed by the smartphone 100. FIG. 6 is a screen transition diagram showing a transition of screens displayed in the process executed by the smartphone 100.

まず、アイコン表示部16が、記憶部30からアイコン情報4を取得して、表示部70に複数のアイコン1…を表示させる(S10;図6(a))。つぎに、制御部10は、入力部40から接触位置3が入力されると、接触位置3に基づいてアイコン1がタッチされたか否かを判定する(S11)。   First, the icon display part 16 acquires the icon information 4 from the memory | storage part 30, and displays the several icons 1 ... on the display part 70 (S10; Fig.6 (a)). Next, when the contact position 3 is input from the input unit 40, the control unit 10 determines whether the icon 1 is touched based on the contact position 3 (S11).

そして、制御部10が1つのアイコン1aがタッチされたと判定した場合(S11においてYES)、アイコン表示部16は、タッチされたアイコン1aを除いたすべてのアイコン1b…を非表示にする(S12;図6(b))。これとともに、エリア配置部17は、タッチされたアイコン1aに対応する機能・アクション情報5を記憶部30から取得する。そして、機能・アクション情報5に従って、複数の機能・アクション2…を表示部70の画面端部の複数のエリア6…にそれぞれ表示させる(S13(エリア配置ステップ);図6(c))。   If the control unit 10 determines that one icon 1a has been touched (YES in S11), the icon display unit 16 hides all the icons 1b except the touched icon 1a (S12; FIG. 6 (b)). At the same time, the area arrangement unit 17 acquires the function / action information 5 corresponding to the touched icon 1 a from the storage unit 30. Then, according to the function / action information 5, a plurality of functions / actions 2 ... are displayed in a plurality of areas 6 ... at the end of the screen of the display unit 70 (S13 (area placement step); FIG. 6 (c)).

なお、1つのアイコン1aがタッチされない場合(S11においてNO)、制御部10は表示部70に複数のアイコン1…を表示させた状態で、アイコン1aがタッチされるのを待つ。   When one icon 1a is not touched (NO in S11), the control unit 10 waits for the icon 1a to be touched while displaying a plurality of icons 1 on the display unit 70.

つぎに、複数の機能・アクション2…を画面端部のエリア6…に表示した状態で、入力部40から接触位置3が入力されると、フリック検出部12が、接触位置3に基づいてアイコン1aが再度タッチされたか否かを判定する(S14)。再度タッチされたと判定した場合(S14においてYES)、エリア配置部17は、表示部70に配置する機能・アクション2…の位置を変更する(S15;図6(d))。   Next, when a contact position 3 is input from the input unit 40 in a state where a plurality of functions / actions 2... Are displayed in the area 6 at the edge of the screen, the flick detection unit 12 displays an icon based on the contact position 3. It is determined whether or not 1a is touched again (S14). If it is determined that the touch has been made again (YES in S14), the area placement unit 17 changes the position of the function / action 2 ... placed on the display unit 70 (S15; FIG. 6 (d)).

詳細な説明は後述するが、機能・アクション2…を画面端部に一重に表示していた場合は、配置を時計回りに移動させる(図6(d))。これにより、ユーザが選択したい機能・アクション2の位置を、アイコン1aからフリック操作8しやすい方向に移動させることが可能となる。なお、機能・アクション2…を画面端部に二重に表示していた場合は、内側の列と外側の列を入れ替える(図7(b))。これにより、最初に外側の列に割り当てられていた機能・アクション2…を内側の列に配置して、アイコン1aをフリック操作8により接触させることが可能となる。   Although detailed description will be given later, when the functions / actions 2... Are displayed on the edge of the screen in a single manner, the arrangement is moved clockwise (FIG. 6D). Thereby, the position of the function / action 2 that the user wants to select can be moved from the icon 1a in a direction in which the flick operation 8 is easy to perform. If the function / action 2... Is displayed twice on the screen edge, the inner and outer columns are switched (FIG. 7B). This makes it possible to place the function / action 2... Initially assigned to the outer column in the inner column and bring the icon 1 a into contact with the flick operation 8.

つぎに、再度タッチされなかったと判定した場合(S14においてNO)、フリック検出部12が、入力部40に表示されているアイコン1aに対するフリック操作8を検出すると(S16(操作検出ステップ)においてYES)、アイコン移動部13は、検出されたフリック操作8に沿った方向へアイコン1aを移動させる(S17;図6(e))。そして、アイコン移動部13は、フリック操作8により移動したアイコン1aが、いずれかのエリア6に接触したか否かを判定する(S18)。   Next, when it is determined that it has not been touched again (NO in S14), the flick detection unit 12 detects a flick operation 8 for the icon 1a displayed on the input unit 40 (YES in S16 (operation detection step)). The icon moving unit 13 moves the icon 1a in the direction along the detected flick operation 8 (S17; FIG. 6E). Then, the icon moving unit 13 determines whether the icon 1a moved by the flick operation 8 has touched any area 6 (S18).

なお、アイコン1aが再度タッチされて、エリア配置部17が表示部70に配置する機能・アクション2…の位置を変更(S15)した後、および、フリック検出部12がアイコン1aに対するフリック操作8を検出しなかった場合(S16(操作検出ステップ)においてNO)、アイコン1aが再度タッチされたか否かをフリック検出部12が判定する処理(S14)に戻る。   It should be noted that after the icon 1a is touched again and the area placement unit 17 changes the position of the function / action 2. If not detected (NO in S16 (operation detection step)), the process returns to the process (S14) in which the flick detection unit 12 determines whether or not the icon 1a has been touched again.

つぎに、アイコン移動部13が、アイコン1aがいずれかのエリア6に接触したと判定した場合(S18においてYES;図6(e))、接触エリア特定部14が、接触したエリア6aに対応する機能・アクション2aを特定する(S20(エリア特定ステップ))。そして、コマンド特定部15が、当該機能・アクション2aの機能・アクション情報5にしたがって、コマンド9を特定する(S21(情報特定ステップ))。そして、コマンド実行部20が、当該コマンド9を実行する(S22;図6(f))。なお、図6(f)は、「メール」の機能を表すアイコン1aがフリック操作8され、「作成」のアクションを表すエリア6aが選択されたことにより、メールアプリの作成機能を起動するためのボタンB20が表示されている状態を示す。このボタンB20をユーザが操作すると、メールアプリの作成機能が起動する。   Next, when the icon moving unit 13 determines that the icon 1a has touched any area 6 (YES in S18; FIG. 6E), the contact area specifying unit 14 corresponds to the contacted area 6a. The function / action 2a is specified (S20 (area specifying step)). Then, the command specifying unit 15 specifies the command 9 according to the function / action information 5 of the function / action 2a (S21 (information specifying step)). Then, the command execution unit 20 executes the command 9 (S22; FIG. 6 (f)). In FIG. 6F, when the icon 1a representing the “mail” function is flicked 8 and the area 6a representing the “creation” action is selected, the mail application creation function is activated. The state where the button B20 is displayed is shown. When the user operates this button B20, a mail application creation function is activated.

その後、接触エリア特定部14は、選択された機能・アクション2aの使用回数(カウント)を加算して、当該機能・アクション2aの情報として、記憶部30の機能・アクション情報5に格納する(S23)。   Thereafter, the contact area specifying unit 14 adds the number of times of use (count) of the selected function / action 2a, and stores it as the function / action 2a information in the function / action information 5 of the storage unit 30 (S23). ).

一方、アイコン移動部13が、フリック操作8により移動したアイコン1aがいずれのエリア6…にも接触しなかったと判定した場合(S18においてNO;図6(g))、すなわち、アイコン1aがいずれのエリア6…にも接触することなく、画面端部に到達した場合、制御部10はタッチによるアイコン1aの選択をキャンセルする(S19)。そして、アイコン表示部16が、非表示にしていたアイコン1bを再び表示して、表示部70に複数のアイコン1…を表示させた初期状態に戻る(S10;図6(a))。   On the other hand, when the icon moving unit 13 determines that the icon 1a moved by the flick operation 8 has not touched any of the areas 6 ... (NO in S18; FIG. 6 (g)), that is, the icon 1a If the end of the screen is reached without touching the areas 6..., The control unit 10 cancels the selection of the icon 1a by touch (S19). Then, the icon display unit 16 displays the hidden icon 1b again, and returns to the initial state in which the plurality of icons 1 are displayed on the display unit 70 (S10; FIG. 6A).

このように、スマートフォン100では、ユーザがアイコン1aを選択した後、アイコン1aをいずれのエリア6…にも接触しないように移動させた場合、ユーザがいずれのエリア6…も選択しなかったと判断して、アイコン1aの選択をキャンセルする。   As described above, in the smartphone 100, when the user selects the icon 1a and then moves the icon 1a so as not to touch any of the areas 6 ..., it is determined that the user has not selected any of the areas 6 .... To cancel the selection of the icon 1a.

〔エリアの位置および大きさ〕
図7に基づいて、機能・アクション2…の表示の仕方(エリアの位置や大きさ)を決定するアルゴリズムを説明する。図7は、機能・アクション2…を表示するために表示面上にあらかじめ割り当てられたエリア6…の配置の例を示す模式図であり、(a)はエリア6…を1列に配置する場合の例、(b)はエリア6…を2列に配置する場合の例を示す。
[Area position and size]
Based on FIG. 7, an algorithm for determining how to display the functions / actions 2... (Area position and size) will be described. FIG. 7 is a schematic diagram showing an example of the arrangement of the areas 6... Allocated in advance on the display surface for displaying the functions / actions 2... (B) shows an example in which the areas 6... Are arranged in two rows.

なお、上述したように、エリア6…は、ユーザがタッチした位置の近傍、すなわち、アイコン1aの位置の近くに配置される。よって、図7(a)(b)に示すエリア6…の配置は、図中のアイコン1aの位置を基準に決定されたものであり、アイコン1aの位置が異なれば、それに応じてエリア6…の配置も変わる。また、図はユーザが右手で操作する場合の配置例を示し、左手で操作する場合には、左右が反転した配置となる。   As described above, the areas 6 are arranged near the position touched by the user, that is, near the position of the icon 1a. 7A and 7B is determined based on the position of the icon 1a in the figure. If the position of the icon 1a is different, the area 6... The arrangement of will also change. The figure shows an arrangement example when the user operates with the right hand. When the user operates with the left hand, the left and right are reversed.

また、図中の「X」のエリアは、アイコン1aの選択をキャンセルするために、機能・アクション2を配置せずに空けておく場所である。図7(a)(b)では、説明の便宜を図るために、破線を表示しているが、実際には破線を表示しなくともよい。   Further, an area “X” in the figure is a place where the function / action 2 is left without being arranged in order to cancel the selection of the icon 1a. In FIGS. 7A and 7B, broken lines are displayed for convenience of explanation, but the broken lines may not actually be displayed.

まず、図7(a)の左の配置例に示されるように、エリア「A」からエリア「G」の7つのエリア6…が時計回りに配置されている。ここで、エリア「A」が最も優先順位が高く、エリア「G」まで順に優先順位が低くなるものとする。図示されているように、優先順位が高いエリアが、ユーザがタッチした位置の近傍、すなわち、アイコン1aの位置の近くに集まるように配置されている。   First, as shown in the arrangement example on the left of FIG. 7A, seven areas 6... From area “A” to area “G” are arranged clockwise. Here, it is assumed that the area “A” has the highest priority, and the priority is sequentially decreased to the area “G”. As shown in the drawing, the areas with high priority are arranged so as to gather near the position touched by the user, that is, near the position of the icon 1a.

そして、エリア配置部17は、機能・アクション2…をエリア6…に割り当てる際、機能・アクション情報5を参照し、表示する各機能・アクション2…の使用頻度を比較して、使用頻度の大きい機能・アクション2から順に優先順位の高いエリア6に割り当てる。このように、機能・アクション2…を1列で配置した場合、エリア配置部17は、アイコン1aが再度タッチされたとき、時計回り(あるいは、反時計回り)に機能・アクション2の配置を移動させる(図7(a)の右の配置例)。これにより、ユーザは、選択したい機能・アクション2の位置を、アイコン1aからフリックしやすい方向に変更することができる。   Then, when assigning the function / action 2... To the area 6..., The area arrangement unit 17 refers to the function / action information 5 and compares the frequency of use of each function / action 2. The functions and actions 2 are assigned to the area 6 with the highest priority in order. In this way, when the functions / actions 2 are arranged in one row, the area arrangement unit 17 moves the arrangement of the functions / actions 2 clockwise (or counterclockwise) when the icon 1a is touched again. (Example of arrangement on the right side of FIG. 7A). Thereby, the user can change the position of the function / action 2 to be selected from the icon 1a in a direction in which the user can easily flick.

つぎに、図7(b)の左の配置例では、図7(a)の左の配置例と同様に、エリア「A」からエリア「G」の7つのエリア6…が時計回りに配置されていることに加えて、その外側に、エリア「H」からエリア「N」の7つのエリア6…が時計回りにさらに配置されている。ここで、エリア「A」が最も優先順位が高く、エリア「N」まで順に優先順位が低くなるものとする。図示されているように、優先順位が高いエリアが、ユーザがタッチした位置の近傍、すなわち、アイコン1aの位置の近くに集まるように配置されている。   Next, in the left arrangement example of FIG. 7B, as in the left arrangement example of FIG. 7A, seven areas 6 from the area “A” to the area “G” are arranged clockwise. In addition to the above, seven areas 6... From the area “H” to the area “N” are further arranged in the clockwise direction. Here, it is assumed that the area “A” has the highest priority, and the priority is sequentially decreased to the area “N”. As shown in the drawing, the areas with high priority are arranged so as to gather near the position touched by the user, that is, near the position of the icon 1a.

そして、エリア配置部17は、機能・アクション2…をエリア6…に割り当てる際、図7(a)の左の配置例と同様に、使用頻度の大きい機能・アクション2から順に優先順位の高いエリア6に割り当てるが、内側のエリア6…(A〜G)に配置し終えた時点で機能・アクション2が残っている場合は、外側のエリア6…(H〜N)に割り当てる。このように、機能・アクション2…を2列で配置した場合、エリア配置部17は、アイコン1aが再度タッチされたとき、内側の機能・アクション2…(A〜G)と外側の機能・アクション2…(H〜N)を入れ替える(図7(b)の右の配置例)。これにより、ユーザは、選択したい機能・アクション2が外側のエリアに配置されていても、フリックしたアイコン1aを接触させることができる内側のエリアに変更することができる。   Then, when assigning the function / action 2... To the area 6..., The area arrangement unit 17 is an area having a higher priority in order from the function / action 2 having the highest use frequency, as in the arrangement example on the left in FIG. However, when the function / action 2 remains at the time when it is arranged in the inner areas 6... (A to G), it is assigned to the outer areas 6. In this way, when the functions / actions 2... Are arranged in two rows, when the icon 1a is touched again, the area arrangement unit 17 causes the inside functions / actions 2... (A to G) and the outside functions / actions to be touched. 2... (H to N) are replaced (arrangement example on the right in FIG. 7B). Thereby, even if the function / action 2 to be selected is arranged in the outer area, the user can change to the inner area in which the flicked icon 1a can be contacted.

なお、図7(a)(b)に示した配置例では、エリア6の大きさ優先度によらず同じであった。しかし、図2(a)の「メールボックス」のエリアように、使用頻度の大きい機能・アクション2を表示するエリア6(すなわち、優先度の高いエリア6)を、他のエリア6より大きく表示してもよい。   In the arrangement examples shown in FIGS. 7A and 7B, the arrangement is the same regardless of the size priority of the area 6. However, like the “mailbox” area in FIG. 2A, the area 6 for displaying frequently used functions / actions 2 (that is, the area 6 with high priority) is displayed larger than the other areas 6. May be.

また、図7(a)(b)に示した配置例では、アイコン1aの位置に対して表示面上のどの位置に優先度の高いエリア6を配置するかは、あらかじめ設定されていた。しかし、この設定は、ユーザがアイコン1aをフリックで弾き入れたエリア6、すなわち、選択された機能・アクション2が表示されていたエリア6の使用頻度に基づいて、決定するようにしてもよい。これにより、ユーザ毎に使いやすい配置で機能・アクション2…を配置することが可能となる。   Further, in the arrangement example shown in FIGS. 7A and 7B, the position on the display surface where the area 6 with high priority is arranged with respect to the position of the icon 1a is set in advance. However, this setting may be determined based on the usage frequency of the area 6 in which the user flicks the icon 1a, that is, the area 6 in which the selected function / action 2 is displayed. This makes it possible to arrange the functions / actions 2... In an arrangement that is easy to use for each user.

〔スマートフォン100により奏される効果〕
スマートフォン100によれば、ユーザはアイコン1aのタッチとフリックだけでコマンド9を実行できるため、自由度の高いユーザインターフェイスを実現できる。また、スマートフォン100は、タッチされたアイコン1aに応じて、関連する機能・アクション2…を画面端部のエリア6…に表示するため、ユーザにコマンド9を容易に選択させることができる。したがって、スマートフォン100は、ユーザが所望の機能・アクションを実行する際の利便性を向上させることができるという効果を奏する。
[Effects played by the smartphone 100]
According to the smartphone 100, since the user can execute the command 9 only by touching and flicking the icon 1a, a user interface with a high degree of freedom can be realized. Further, since the smartphone 100 displays the related functions / actions 2... In the area 6 at the end of the screen according to the touched icon 1 a, the user can easily select the command 9. Therefore, the smartphone 100 has an effect that it is possible to improve convenience when the user executes a desired function / action.

〔実施の形態に含まれる構成(技術的手段)の組み合わせについて〕
上述した実施の形態に含まれる構成は、適宜組み合わせられることに注意する。すなわち、本発明は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
[Combination of configurations (technical means) included in the embodiment]
Note that the configurations included in the above-described embodiments can be combined as appropriate. That is, the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

〔ソフトウェアによる実現例〕
最後に、スマートフォン100の各ブロック、特に制御部10の各ブロックは、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Finally, each block of the smartphone 100, particularly each block of the control unit 10, may be configured by hardware logic, or may be realized by software using a CPU as follows.

後者の場合、スマートフォン100は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるスマートフォン100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、スマートフォン100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the smartphone 100 includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM that expands the program, a memory that stores the program and various data, and the like Storage device (recording medium). An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the smartphone 100 that is software that realizes the above-described functions is recorded in a computer-readable manner. This can also be achieved by supplying the data to 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, PLD (Programmable logic device), FPGA (Field Programmable Gate Array), etc. Logic circuits can be used.

また、スマートフォン100を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the smartphone 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by radio such as High Data Rate (NFC), Near Field Communication (NFC), Digital Living Network Alliance (DLNA), mobile phone network, satellite line, and digital terrestrial network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

このように、本明細書においては、手段とは必ずしも物理的手段を意味せず、各手段の機能がソフトウェアによって実現される場合も含む。また、1つの手段の機能が2つ以上の物理的手段により実現されてもよいし、2つ以上の手段の機能が1つの物理的手段により実現されてもよい。   As described above, in this specification, the means does not necessarily mean a physical means, and includes the case where the function of each means is realized by software. Further, the function of one means may be realized by two or more physical means, and the function of two or more means may be realized by one physical means.

本発明は、スマートフォンだけでなく、タブレット端末、パーソナルコンピュータ、その他タッチパネルやポインティングデバイスなどを備えた電子機器等にも適用できる。   The present invention can be applied not only to smartphones but also to tablet terminals, personal computers, and other electronic devices including touch panels and pointing devices.

1 アイコン
1a アイコン(選択アイコン)
6 エリア
6a 選択エリア
8 フリック操作(操作)
9 コマンド(入力情報、情報)
12 フリック検出部(操作検出手段)
14 接触エリア特定部(エリア特定手段)
15 コマンド特定部(情報特定手段)
16 アイコン表示部(アイコン表示手段)
17 エリア配置部(エリア配置手段)
40 入力部(入力面)
70 表示部(表示面)
100 スマートフォン(入力装置)
S13 エリア配置ステップ
S16 操作検出ステップ
S20 エリア特定ステップ
S21 情報特定ステップ
1 icon 1a icon (selection icon)
6 Area 6a Selection area 8 Flick operation (operation)
9 Command (input information, information)
12 Flick detection unit (operation detection means)
14 Contact area specifying part (area specifying means)
15 Command specifying part (information specifying means)
16 Icon display (icon display means)
17 Area arrangement part (area arrangement means)
40 Input section (input surface)
70 Display section (display surface)
100 Smartphone (input device)
S13 Area arrangement step S16 Operation detection step S20 Area identification step S21 Information identification step

Claims (8)

ユーザの操作を検知可能な入力面と、アイコンを表示可能な表示面とを備え、上記入力面に対する操作に基づいて上記アイコンを操作することにより、入力情報の入力が可能な入力装置であって、
上記表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置手段と、
上記選択アイコンの移動方向を指示する操作を検出する操作検出手段と、
上記操作検出手段が検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置手段が配置した上記エリアから特定するエリア特定手段と、
上記エリア特定手段が特定した上記選択エリアに対して上記エリア配置手段が割り当てた情報を、上記入力情報として特定する情報特定手段と、を備えたことを特徴とする入力装置。
An input device including an input surface capable of detecting a user operation and a display surface capable of displaying an icon, and capable of inputting input information by operating the icon based on an operation on the input surface. ,
Area arranging means for arranging one or a plurality of areas respectively assigned one or a plurality of information previously associated with the selection icon selected on the display surface on the display surface;
Operation detecting means for detecting an operation for instructing a moving direction of the selected icon;
An area specifying means for specifying a selection area that the selection icon touches from the area arranged by the area arranging means when the selection icon is moved along the movement direction detected by the operation detecting means;
An input device comprising: information specifying means for specifying, as the input information, information assigned by the area arranging means to the selected area specified by the area specifying means.
上記表示面に複数のアイコンを表示するアイコン表示手段をさらに備え、
上記アイコン表示手段は、上記複数のアイコンから1つの上記選択アイコンが選択されたとき、当該選択アイコンに対してのみ移動方向を指示するユーザの操作が可能な状態で、当該選択アイコンを表示することを特徴とする請求項1に記載の入力装置。
An icon display means for displaying a plurality of icons on the display surface;
The icon display means displays, when one selected icon is selected from the plurality of icons, the selected icon in a state in which the user can instruct a moving direction only with respect to the selected icon. The input device according to claim 1.
上記操作検出手段が検出した移動方向に沿って上記選択アイコンを移動させたとき、上記選択アイコンが、上記エリア配置手段が配置したいずれのエリアにも接触しない場合、上記アイコン表示手段は、上記選択アイコンの選択が再度可能な状態で、上記表示面に複数のアイコンを表示することを特徴とする請求項2に記載の入力装置。   When the selection icon is moved along the movement direction detected by the operation detection unit, and the selection icon does not touch any area arranged by the area arrangement unit, the icon display unit displays the selection icon. The input device according to claim 2, wherein a plurality of icons are displayed on the display surface in a state where the icons can be selected again. 上記エリア配置手段は、上記エリアを上記表示面の端部に沿って配置することを特徴とする請求項1から3のいずれか1項に記載の入力装置。   The input device according to claim 1, wherein the area arranging unit arranges the area along an end portion of the display surface. 上記操作検出手段が検出する、上記選択アイコンの移動方向を指示する操作が、上記入力面に対するフリック操作であることを特徴とする請求項1から4のいずれか1項に記載の入力装置。   5. The input device according to claim 1, wherein the operation indicating the moving direction of the selection icon detected by the operation detection unit is a flick operation on the input surface. 6. ユーザの操作を検知可能な入力面と、アイコンを表示可能な表示面とを備え、上記入力面に対する操作に基づいて上記アイコンを操作することにより、入力情報の入力が可能な入力装置の制御方法であって、
上記表示面において選択された選択アイコンにあらかじめ対応付けられた1または複数の情報をそれぞれ割り当てた1または複数のエリアを、上記表示面に配置するエリア配置ステップと、
上記選択アイコンの移動方向を指示する操作を検出する操作検出ステップと、
上記操作検出ステップにて検出した移動方向に沿って上記選択アイコンを移動させたとき、該選択アイコンが接触する選択エリアを、上記エリア配置ステップにて配置した上記エリアから特定するエリア特定ステップと、
上記エリア特定ステップにて特定した上記選択エリアに対して上記エリア配置ステップにて割り当てた情報を、上記入力情報として特定する情報特定ステップと、を含むことを特徴とする入力装置の制御方法。
An input device control method comprising an input surface capable of detecting a user operation and a display surface capable of displaying an icon, and capable of inputting input information by operating the icon based on the operation on the input surface Because
An area arrangement step of arranging one or more areas, each assigned with one or more pieces of information previously associated with a selection icon selected on the display surface, on the display surface;
An operation detecting step for detecting an operation for instructing a moving direction of the selected icon;
An area specifying step for specifying a selection area that the selection icon contacts when moving the selection icon along the movement direction detected in the operation detection step from the area arranged in the area arrangement step;
An information specifying step for specifying, as the input information, information assigned in the area arrangement step for the selected area specified in the area specifying step.
請求項1から5のいずれか1項に記載の入力装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。   A control program for operating the input device according to any one of claims 1 to 5, wherein the control program causes a computer to function as each of the means. 請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the control program according to claim 7 is recorded.
JP2012044605A 2012-02-29 2012-02-29 Input device, method and program of controlling input device, and recording medium Pending JP2013182342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044605A JP2013182342A (en) 2012-02-29 2012-02-29 Input device, method and program of controlling input device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044605A JP2013182342A (en) 2012-02-29 2012-02-29 Input device, method and program of controlling input device, and recording medium

Publications (1)

Publication Number Publication Date
JP2013182342A true JP2013182342A (en) 2013-09-12

Family

ID=49272959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044605A Pending JP2013182342A (en) 2012-02-29 2012-02-29 Input device, method and program of controlling input device, and recording medium

Country Status (1)

Country Link
JP (1) JP2013182342A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015105044A1 (en) * 2014-01-10 2015-07-16 日本電気株式会社 Interface device, portable device, control device, module, control method, and program storage medium
JP2017182152A (en) * 2016-03-28 2017-10-05 京セラドキュメントソリューションズ株式会社 Display operation apparatus and operation instruction receiving program
JP2021068000A (en) * 2019-10-18 2021-04-30 株式会社東海理化電機製作所 Control device, program, and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015105044A1 (en) * 2014-01-10 2015-07-16 日本電気株式会社 Interface device, portable device, control device, module, control method, and program storage medium
JPWO2015105044A1 (en) * 2014-01-10 2017-03-23 日本電気株式会社 Interface device, portable device, control device, module, control method, and computer program
JP2017182152A (en) * 2016-03-28 2017-10-05 京セラドキュメントソリューションズ株式会社 Display operation apparatus and operation instruction receiving program
JP2021068000A (en) * 2019-10-18 2021-04-30 株式会社東海理化電機製作所 Control device, program, and system

Similar Documents

Publication Publication Date Title
KR102255143B1 (en) Potable terminal device comprisings bended display and method for controlling thereof
US11269486B2 (en) Method for displaying item in terminal and terminal using the same
KR102203885B1 (en) User terminal device and control method thereof
JP4577428B2 (en) Display device, display method, and program
KR102020345B1 (en) The method for constructing a home screen in the terminal having touchscreen and device thereof
US10509549B2 (en) Interface scanning for disabled users
US10379626B2 (en) Portable computing device
US10198163B2 (en) Electronic device and controlling method and program therefor
JP2013238935A (en) Input device, input device controlling method, controlling program, and recording medium
JP2009110286A (en) Information processor, launcher start control program, and launcher start control method
CN105359077B (en) Information processing apparatus, information processing method, and computer program
KR20130093043A (en) Method and mobile device for user interface for touch and swipe navigation
US10656784B2 (en) Method of arranging icon and electronic device supporting the same
TWI659353B (en) Electronic apparatus and method for operating thereof
WO2014132863A1 (en) Information terminal and control program
KR20210005753A (en) Method of selection of a portion of a graphical user interface
US20160004406A1 (en) Electronic device and method of displaying a screen in the electronic device
US20170003874A1 (en) Electronic device for displaying keypad and keypad displaying method thereof
WO2016183912A1 (en) Menu layout arrangement method and apparatus
KR20150144267A (en) Method for arranging icon and electronic device supporting the same
EP3278203A1 (en) Enhancement to text selection controls
JP2013182342A (en) Input device, method and program of controlling input device, and recording medium
WO2013047023A1 (en) Display apparatus, display method, and program
US20160034113A1 (en) Display apparatus, display control method, and record medium
US20120151409A1 (en) Electronic Apparatus and Display Control Method