JP5855481B2 - Information processing apparatus, control method thereof, and control program thereof - Google Patents

Information processing apparatus, control method thereof, and control program thereof Download PDF

Info

Publication number
JP5855481B2
JP5855481B2 JP2012023921A JP2012023921A JP5855481B2 JP 5855481 B2 JP5855481 B2 JP 5855481B2 JP 2012023921 A JP2012023921 A JP 2012023921A JP 2012023921 A JP2012023921 A JP 2012023921A JP 5855481 B2 JP5855481 B2 JP 5855481B2
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
user
display
radius
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012023921A
Other languages
Japanese (ja)
Other versions
JP2013161332A (en
Inventor
大西 英輝
英輝 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012023921A priority Critical patent/JP5855481B2/en
Publication of JP2013161332A publication Critical patent/JP2013161332A/en
Application granted granted Critical
Publication of JP5855481B2 publication Critical patent/JP5855481B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、表示部へのユーザによるタッチ入力を検出可能な情報処理装置、その制御方法、およびその制御プログラムに関する。   The present invention relates to an information processing apparatus capable of detecting a touch input by a user to a display unit, a control method thereof, and a control program thereof.

タッチ機能付きの表示画面を有するコンピュータ、携帯端末装置などの情報処理装置は、直感的な操作で情報の入出力を行なうことができるため、近年注目されている。タッチ機能付きの表示画面には、その前面に透明なタッチパネルが設置されており、ユーザが表示画面に表示された画像などを指やペンで触れることで情報を入力したり、外部に情報を発信したりすることができる。   In recent years, information processing apparatuses such as computers and mobile terminal devices having a display screen with a touch function have been attracting attention because they can input and output information through intuitive operations. The display screen with touch function has a transparent touch panel in front of it, and the user can input information by touching the image displayed on the display screen with a finger or pen, or send information to the outside. You can do it.

例えば、特開2003−271966号公報(特許文献1)には、ユーザに対して照合文字を提示し、提示に応じてユーザにより手書き入力された署名情報を登録し、認証の際にユーザに提示した照合文字の手書き入力をユーザに要求し、要求に応じてユーザにより手書き入力された署名情報と登録されている署名情報との照合結果に基づいてユーザを認証する手書き入力装置が開示されている。   For example, in Japanese Patent Laid-Open No. 2003-271966 (Patent Document 1), verification characters are presented to a user, signature information input by handwriting by the user is registered in accordance with the presentation, and presented to the user at the time of authentication A handwriting input device that requests the user to input handwritten collation characters and authenticates the user based on a collation result between signature information handwritten by the user and registered signature information in response to the request is disclosed. .

例えば、特開2005−258808号公報(特許文献2)には、ある処理に関連づけされた軌跡データを記憶し、入力された位置情報を取得し、位置情報に基づいて軌跡情報を認識し、軌跡情報と、軌跡データ又はその鏡像とを比較し、軌跡情報と軌跡データ及びその鏡像のいずれかが相関するかどうかを判断し、軌跡情報と軌跡データ及びその鏡像のいずれかが相関するときに、軌跡データに関連付けされた処理を実行する入力認識装置が開示されている。   For example, Japanese Patent Laying-Open No. 2005-258808 (Patent Document 2) stores trajectory data associated with a certain process, acquires input positional information, recognizes trajectory information based on the positional information, Compare the information with the trajectory data or its mirror image, determine whether the trajectory information and the trajectory data and any of its mirror images correlate, and when the trajectory information and any of the trajectory data and its mirror image correlate, An input recognition device that executes processing associated with trajectory data is disclosed.

例えば、特開2006−31518号公報(特許文献3)には、所定の配列を有する仮想キーボードを表示し、表示面に設けられたタッチパネル方式の入力手段のタッチされた位置に対応する仮想キーボードの文字、および該文字が属する配列行を特定し、文字を表示する入力文字表示領域が配列行の直上に位置するように、仮想キーボードのキー配列を変更する情報処理装置が開示されている。   For example, Japanese Patent Laid-Open No. 2006-31518 (Patent Document 3) displays a virtual keyboard having a predetermined arrangement, and a virtual keyboard corresponding to a touched position of a touch panel type input unit provided on a display surface. An information processing apparatus is disclosed that identifies a character and an array row to which the character belongs, and changes the key layout of the virtual keyboard so that an input character display area for displaying the character is positioned immediately above the array row.

特開2003−271966号公報JP 2003-271966 A 特開2005−258808号公報Japanese Patent Laying-Open No. 2005-258808 特開2006−31518号公報JP 2006-31518 A

しかしながら、上記の技術によると、ユーザのタッチ操作時の利き手や端末装置の把持状態の癖(両手、片手持ち)などのように、タッチ操作に影響を与えるユーザごとの異なる特徴を考慮したものではないため、複数のユーザが端末装置を使用する際にはタッチパネル上での操作性が必ずしもよくないという問題があった。   However, according to the above technology, it is not possible to take into account different characteristics of each user that affect the touch operation, such as the dominant hand at the time of the user's touch operation and the gripping state of the terminal device (both hands and one hand). Therefore, there has been a problem that operability on the touch panel is not necessarily good when a plurality of users use the terminal device.

本発明は、上記のような問題点を解決するためになされたものであって、ユーザからのタッチ入力による操作性を向上させることが可能な情報処理装置、その制御方法、およびその制御プログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and provides an information processing apparatus capable of improving operability by touch input from a user, a control method thereof, and a control program thereof. The purpose is to provide.

本発明のある局面に従う情報処理装置は、表示部と、表示部へのユーザによるタッチ入力された位置を検出可能な位置検出部と、表示部にオブジェクトを表示する制御を行なうとともに、位置検出部の検出結果に応答して処理を実行する制御部とを含む。制御部は、ユーザのタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径が第1の値であるときに上下方向に第1の間隔でオブジェクトを配置し、第1の値より大きい第2の値のときに上下方向に第1の間隔より大きい第2の間隔でオブジェクトを配置する。   An information processing apparatus according to an aspect of the present invention includes a display unit, a position detection unit that can detect a position touch-input by a user to the display unit, a control for displaying an object on the display unit, and a position detection unit. And a control unit that executes processing in response to the detection result. The control unit arranges the objects at the first interval in the vertical direction when the radius of curvature of the movement locus indicating the movement from the initial position of the touch input by the user is the first value, and is greater than the first value. When the value is 2, the objects are arranged at a second interval that is larger than the first interval in the vertical direction.

好ましくは、制御部は、移動軌跡の曲率半径が第2の値より大きい第3の値のときに、上下方向に第1の間隔より小さい間隔でオブジェクトを配置する。   Preferably, the control unit arranges the objects at an interval smaller than the first interval in the vertical direction when the radius of curvature of the movement locus is a third value larger than the second value.

好ましくは、制御部は、情報処理装置を起動するための起動オブジェクトを情報処理装置を把持するユーザ側に配置する。   Preferably, the control unit arranges an activation object for activating the information processing apparatus on a user side holding the information processing apparatus.

好ましくは、制御部は、移動軌跡の移動方向に沿ってオブジェクトを配置する。
好ましくは、制御部は、移動軌跡の曲率半径および移動軌跡の移動方向に基づいて、位置検出部の検出感度を低下させる表示部の表示領域を特定する。
Preferably, the control unit arranges the object along the movement direction of the movement locus.
Preferably, the control unit specifies the display area of the display unit that reduces the detection sensitivity of the position detection unit based on the radius of curvature of the movement locus and the movement direction of the movement locus.

本発明の別の局面に従うと、表示部を有する情報処理装置が提供される。情報処理装置は、表示部へのユーザによるタッチ入力された位置を検出可能な位置検出部と、表示部にオブジェクトを表示する制御を行なうとともに、位置検出部の検出結果に応答して処理を実行する制御部とを含む。制御部は、表示部へのユーザによるタッチ操作の移動軌跡に基づいて、ユーザの利き手と情報処理装置の把持状態とを特定し、特定された結果に基づいてオブジェクトを並び替える。   When another situation of this invention is followed, the information processing apparatus which has a display part is provided. The information processing apparatus performs a process in response to a detection result of the position detection unit and a position detection unit capable of detecting a position touched by a user to the display unit and a control for displaying an object on the display unit And a control unit. The control unit identifies the user's dominant hand and the gripping state of the information processing device based on the movement trajectory of the touch operation by the user to the display unit, and rearranges the objects based on the identified result.

本発明の別の局面に従うと、表示手段を有する情報処理装置の制御方法が提供される。情報処理装置の制御方法は、表示手段へのユーザによるタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径を取得するステップと、曲率半径が第1の値であるときに上下方向に第1の間隔で配置したオブジェクトを表示し、第1の値より大きい第2の値のときに上下方向に第1の間隔より大きい第2の間隔で配置したオブジェクトを表示するステップとを含む。   When another situation of this invention is followed, the control method of the information processing apparatus which has a display means is provided. The control method of the information processing apparatus includes a step of acquiring a radius of curvature of a movement trajectory indicating movement from an initial position of a touch input by a user to the display unit, and a vertical direction when the curvature radius is a first value. Displaying objects arranged at intervals of 1, and displaying objects arranged at a second interval greater than the first interval in the vertical direction when the second value is greater than the first value.

本発明の別の局面に従うと、表示手段を有する情報処理装置で実行させる制御プログラムが提供される。制御プログラムは、情報処理装置のコンピュータに、表示手段へのユーザによるタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径を取得するステップと、曲率半径が第1の値であるときに上下方向に第1の間隔で配置したオブジェクトを表示し、第1の値より大きい第2の値のときに上下方向に第1の間隔より大きい第2の間隔で配置したオブジェクトを表示するステップとを実行させる。   According to another aspect of the present invention, a control program to be executed by an information processing apparatus having display means is provided. The control program obtains the curvature radius of the movement trajectory indicating the movement from the initial position of the touch input by the user to the display means to the computer of the information processing device, and when the curvature radius is the first value, Displaying objects arranged at first intervals in the direction, and displaying objects arranged at second intervals larger than the first intervals in the vertical direction when the second value is larger than the first value. Let it run.

以上のように、本発明によって、ユーザからのタッチ入力による操作性を向上させることが可能となる。   As described above, according to the present invention, operability by touch input from a user can be improved.

本実施の形態に従う情報処理装置の外観を示す模式図である。It is a schematic diagram which shows the external appearance of the information processing apparatus according to this Embodiment. 本実施の形態に従う情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus according to this Embodiment. 本実施の形態に従う情報処理装置のディスプレイに表示される起動画面の一例を示す図である。It is a figure which shows an example of the starting screen displayed on the display of the information processing apparatus according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の操作例を示す図である。It is a figure which shows the example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。It is a figure which shows another example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。It is a figure which shows another example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。It is a figure which shows another example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。It is a figure which shows another example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。It is a figure which shows another example of operation in the case of performing object arrangement | positioning setting according to this Embodiment. 本実施の形態に従う情報処理装置の機能ブロック図である。It is a functional block diagram of the information processing apparatus according to the present embodiment. 本実施の形態に従う情報処理装置において実行されるオブジェクト配置設定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the object arrangement | positioning setting performed in the information processing apparatus according to this Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての同一部分については、その詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, the detailed description of the same parts will not be repeated.

<A.外観>
まず、本実施の形態に従う情報処理装置1の外観について説明する。
<A. Appearance>
First, the appearance of information processing apparatus 1 according to the present embodiment will be described.

図1は、本実施の形態に従う情報処理装置1の外観を示す模式図である。以下の説明では、情報処理装置1が携帯端末である場合について説明する。但し、本発明に係る情報処理装置1は、表示部へのユーザによるタッチ入力された位置を検出可能な装置であれば、種類を問わず任意の装置として実装可能である。例えば、情報処理装置1は、携帯電話、タブレット端末、PDA(Personal Digital Assistance)などとして実装することもできる。   FIG. 1 is a schematic diagram showing an appearance of information processing apparatus 1 according to the present embodiment. In the following description, a case where the information processing apparatus 1 is a mobile terminal will be described. However, the information processing apparatus 1 according to the present invention can be implemented as any apparatus of any type as long as it can detect a position where a user touch-inputs the display unit. For example, the information processing apparatus 1 can be implemented as a mobile phone, a tablet terminal, a PDA (Personal Digital Assistance), or the like.

図1を参照して、情報処理装置1は、表示部としてのディスプレイ134と、ディスプレイ134へのユーザによるタッチ入力された位置を検出可能な位置検出部としてのタッチパネル130と、各種の操作を行なうためのボタン150とを含む。ディスプレイ134には、アプリケーションのコンテンツやデータなどが表示される。ディスプレイ134は、例えば、液晶ディスプレイあるいは有機ELディスプレイである。また、ディスプレイ134には透明なタッチパネル130が取り付けられており、ユーザからのタッチ操作に伴う各種の指示を受け付けることが可能である。   Referring to FIG. 1, information processing apparatus 1 performs various operations with display 134 as a display unit, touch panel 130 as a position detection unit capable of detecting a position touched by a user on display 134, and the like. Button 150 for the purpose. The display 134 displays application contents and data. The display 134 is, for example, a liquid crystal display or an organic EL display. In addition, a transparent touch panel 130 is attached to the display 134, and various instructions accompanying a touch operation from the user can be received.

情報処理装置1は、基本的に、ユーザが片手または両手で把持して使用することが想定される。また、ユーザが情報処理装置1の長手方向および短手方向のいずれを把持した場合であっても、その把持方向に適した方向に画面表示を切替えるようにしてもよい。本願明細書において、画面の「上下方向」および「左右方向」という表現をする場合には、原則として、ユーザが情報処理装置1を把持した状態におけるユーザから見たそれぞれの方向を意味するものとする。言い換えれば、ディスプレイ134に表示される画像を基準として、「上下方向」および「左右方向」が決定される。   The information processing apparatus 1 is basically assumed to be used by a user holding with one hand or both hands. Further, even when the user holds either the longitudinal direction or the short direction of the information processing apparatus 1, the screen display may be switched in a direction suitable for the holding direction. In the specification of the present application, when the expressions “vertical direction” and “horizontal direction” of the screen are used, in principle, the respective directions viewed from the user when the user holds the information processing apparatus 1 are meant. To do. In other words, the “vertical direction” and “horizontal direction” are determined based on the image displayed on the display 134.

情報処理装置1のディスプレイ134には、ユーザによる直感的な操作が可能となるように1つまたは複数のオブジェクトが表示される。本願明細書において、「オブジェクト」は、ユーザの操作を受け付けるため、ユーザへ何らかの情報を提示するため、あるいは両者を併せた機能を発揮するための、ディスプレイ134に表示される各種の画像を意味する。「オブジェクト」の一例としては、アイコンやウィジェットなどが挙げられる。以下の説明においては、主としてユーザの操作を受け付けるための「オブジェクト」を適切に配置するための処理例について説明するが、配置される「オブジェクト」として、単にユーザへ何らかの情報を通知する機能のみを有するものが含まれていてもよい。   One or more objects are displayed on the display 134 of the information processing apparatus 1 so that the user can perform intuitive operations. In the present specification, “object” means various images displayed on the display 134 for accepting a user's operation, for presenting some information to the user, or for performing a function combining both. . Examples of “objects” include icons and widgets. In the following description, a processing example for appropriately arranging an “object” for accepting a user operation will be mainly described. However, as an arranged “object”, only a function of notifying a user of some information is provided. What you have may be included.

<B.ハードウェア構成>
次に、本実施の形態に従う情報処理装置1のハードウェア構成について説明する。
<B. Hardware configuration>
Next, the hardware configuration of information processing apparatus 1 according to the present embodiment will be described.

図2は、本実施の形態に従う情報処理装置1のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram showing a hardware configuration of information processing apparatus 1 according to the present embodiment.

図2を参照して、情報処理装置1は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、タッチパネル130と、ディスプレイ134と、スピーカ140と、ボタン150と、メモリインターフェイス(I/F)160と、通信インターフェイス(I/F)170と無線通信部180と通信アンテナ182と加速度センサ190とを含む。   Referring to FIG. 2, the information processing apparatus 1 includes, as main components, a CPU (Central Processing Unit) 110, a memory 120, a touch panel 130, a display 134, a speaker 140, a button 150, a memory interface ( I / F) 160, a communication interface (I / F) 170, a wireless communication unit 180, a communication antenna 182, and an acceleration sensor 190.

CPU110は、メモリ120に記憶されたプログラムを読み出して実行することで、情報処理装置1の全体処理を実現する。より詳細にはCPU110は、当該プログラムを実行することによって、後述する情報処理装置1の処理(ステップ)の各々を実現する。なお、CPU110は、マイクロプロセッサ(Microprocessor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)およびその他の演算機能を有する回路のいずれであってもよい。   The CPU 110 implements overall processing of the information processing apparatus 1 by reading and executing a program stored in the memory 120. More specifically, the CPU 110 implements each process (step) of the information processing apparatus 1 described later by executing the program. The CPU 110 may be any of a microprocessor, a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a digital signal processor (DSP), and other circuits having arithmetic functions.

メモリ120は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ120は、CPU110によって実行されるプログラム、データなどを記憶する。   The memory 120 is realized by a RAM (Random Access Memory), a ROM (Read-Only Memory), a hard disk, or the like. The memory 120 stores programs executed by the CPU 110, data, and the like.

タッチパネル130は、表示部としての機能を有するディスプレイ134上に設けられており、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル130は、光センサ液晶を含んでもよい。タッチパネル130は、所定時間毎に外部の物体によるタッチパネル130へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU110に入力する。すなわち、CPU110は、タッチパネル130から順次タッチ座標を取得する。   The touch panel 130 is provided on a display 134 having a function as a display unit, and may be any type such as a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. . The touch panel 130 may include an optical sensor liquid crystal. The touch panel 130 detects a touch operation on the touch panel 130 by an external object every predetermined time, and inputs touch coordinates (touch position) to the CPU 110. That is, the CPU 110 sequentially acquires touch coordinates from the touch panel 130.

後述するようにユーザが、ディスプレイ134に表示された初期画面(例えば、起動画面)において所定のタッチ操作を行なうことで、メニュー画面に表示されるオブジェクトがユーザのタッチ操作時の利き手や情報処理装置1の把持状態などを反映した態様で配置される。なお、メニュー画面には、オブジェクトが複数表示され、ユーザは、メニュー画面のオブジェクトを選択することによって、当該オブジェクトに対応する処理を行なうことができる。   As will be described later, when a user performs a predetermined touch operation on an initial screen (for example, a startup screen) displayed on the display 134, an object displayed on the menu screen is a dominant hand or an information processing device when the user performs a touch operation. 1 is arranged in a manner reflecting the gripping state of 1 and the like. A plurality of objects are displayed on the menu screen, and the user can perform processing corresponding to the object by selecting the object on the menu screen.

スピーカ140は、CPU110からの命令に基づいて、音声を出力する。例えば、CPU110は、音声データに基づいて、スピーカ140に音声を出力させる。   The speaker 140 outputs sound based on a command from the CPU 110. For example, the CPU 110 causes the speaker 140 to output sound based on the sound data.

ボタン150は、情報処理装置1の表面に配置されており、ユーザからの命令を受け付けて、CPU110に入力する。ボタン150は、例えば、表示画面を遷移させる画面遷移ボタン、所定の指示に対する確定ボタン、キャンセルボタンなどを含む。   The button 150 is disposed on the surface of the information processing apparatus 1, receives a command from the user, and inputs it to the CPU 110. The button 150 includes, for example, a screen transition button for transitioning the display screen, a confirmation button for a predetermined instruction, a cancel button, and the like.

メモリインターフェイス(I/F)160は、外部の記憶媒体162からデータを読み出す。すなわち、CPU110は、メモリインターフェイス160を介して外部の記憶媒体162に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体162に格納する。   The memory interface (I / F) 160 reads data from the external storage medium 162. That is, the CPU 110 reads data stored in the external storage medium 162 via the memory interface 160 and stores the data in the memory 120. Conversely, the CPU 110 reads data from the memory 120 and stores the data in the external storage medium 162 via the memory interface 160.

なお、記憶媒体162としては、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   As the storage medium 162, CD (Compact Disc), DVD (Digital Versatile Disk), BD (Blu-ray Disc), USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk, magnetic tape , Cassette tapes, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) cards (excluding memory cards), optical cards, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), etc., non-volatile And a medium for storing the program.

通信インターフェイス(I/F)170は、情報処理装置1と外部装置との間で各種データを遣り取りするための通信インターフェイスであり、アダプタやコネクタなどによって実現される。なお、通信方式としては、Bluetooth(登録商標)、無線LAN(Local Area Network)、WiFi(wireless fidelity)による無線通信であってもよいし、USB(Universal Serial Bus)バスを利用した有線通信であってもよい。   A communication interface (I / F) 170 is a communication interface for exchanging various data between the information processing apparatus 1 and an external apparatus, and is realized by an adapter, a connector, or the like. The communication method may be wireless communication using Bluetooth (registered trademark), wireless LAN (Local Area Network), WiFi (wireless fidelity), or wired communication using a USB (Universal Serial Bus) bus. May be.

無線通信部180は、通信アンテナ182を介して通信のための信号の送受信を行なう。すなわち、無線通信部180は、CPU110からの通信データを通信信号に変換し、その通信信号を通信アンテナ182を介して送信したり、通信アンテナ182を介して受信した通信信号を通信データに変換し、その通信データをCPU110に入力したりする。これにより、情報処理装置1は、たとえば、第3世代移動通信システム(3G)、LTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)などの無線通信網を介してインターネットなどに接続することが可能となる。   Wireless communication unit 180 transmits and receives signals for communication via communication antenna 182. That is, the wireless communication unit 180 converts communication data from the CPU 110 into a communication signal, transmits the communication signal via the communication antenna 182, and converts a communication signal received via the communication antenna 182 into communication data. The communication data is input to the CPU 110. Accordingly, the information processing apparatus 1 is connected to the Internet or the like via a wireless communication network such as a third generation mobile communication system (3G), LTE (Long Term Evolution), or WiMAX (Worldwide Interoperability for Microwave Access). Is possible.

加速度センサ190は、たとえば、MEMS(Micro-Electro-Mechanical Systems)の3軸加速度センサによって実現され、情報処理装置1の動きを検知するものである。加速度センサ190は、情報処理装置1自体の移動方向や加速度などを検知する。たとえば、CPU110は、加速度センサ190からのセンサ信号に基づいて情報処理装置1の姿勢を特定し、それによってディスプレイ134の表示される画面の表示方向を決定する。具体的には、CPU110は、情報処理装置1が縦向きである場合(ユーザが情報処理装置1を縦向きで把持している場合)にはディスプレイ134に表示画面を同じ縦向きに表示するよう表示方向を決定し、横向きである場合には横向きに表示するよう決定する。   The acceleration sensor 190 is realized by, for example, a three-axis acceleration sensor of MEMS (Micro-Electro-Mechanical Systems), and detects the movement of the information processing apparatus 1. The acceleration sensor 190 detects the moving direction and acceleration of the information processing apparatus 1 itself. For example, the CPU 110 specifies the posture of the information processing apparatus 1 based on the sensor signal from the acceleration sensor 190 and thereby determines the display direction of the screen displayed on the display 134. Specifically, the CPU 110 displays the display screen on the display 134 in the same vertical orientation when the information processing device 1 is in the vertical orientation (when the user holds the information processing device 1 in the vertical orientation). The display direction is determined, and if it is in landscape orientation, it is determined to display in landscape orientation.

<C.オブジェクト配置設定の操作例>
まず、本実施の形態に従う情報処理装置1におけるオブジェクト配置設定の操作例(ユーザインターフェイス)について説明する。
<C. Example of object placement settings>
First, an operation example (user interface) of object arrangement setting in information processing apparatus 1 according to the present embodiment will be described.

ユーザが情報処理装置1を立ち上げると、ディスプレイ134には、起動画面が表示される。   When the user starts up the information processing apparatus 1, a startup screen is displayed on the display 134.

図3は、本実施の形態に従う情報処理装置1のディスプレイ134に表示される起動画面の一例を示す図である。   FIG. 3 is a diagram showing an example of a startup screen displayed on display 134 of information processing apparatus 1 according to the present embodiment.

図3を参照して、ユーザインターフェイス画面1000は、メニュー画面を起動させるための起動アイコンを示すオブジェクト1002と矢印1004と「起動アイコンを矢印方向に移動させて下さい。」といったタッチ操作を促すメッセージ1006とを含む。すなわち、ユーザは、オブジェクト1002を矢印1004の方向に移動させることで、メニュー画面を起動することができる。   Referring to FIG. 3, user interface screen 1000 displays an object 1002 indicating an activation icon for activating the menu screen, an arrow 1004, and a message 1006 that prompts a touch operation such as “Please move the activation icon in the direction of the arrow”. Including. That is, the user can activate the menu screen by moving the object 1002 in the direction of the arrow 1004.

このユーザインターフェイス画面1000に応答して、ユーザが行なうタッチ操作態様に基づくオブジェクト配置設定について、以下の図4〜9を参照しながら説明する。   The object arrangement setting based on the touch operation mode performed by the user in response to the user interface screen 1000 will be described with reference to FIGS.

(c1.操作例(その1))
ここでは、ユーザが情報処理装置1を片手で把持しており、その手の親指でユーザインターフェイス画面1000におけるオブジェクト1002(以下、単に「起動アイコン」とも称す)を矢印1004の方向に移動させるような場合を考える。
(C1. Example of operation (part 1))
Here, the user holds the information processing apparatus 1 with one hand, and moves the object 1002 (hereinafter simply referred to as “activation icon”) on the user interface screen 1000 in the direction of the arrow 1004 with the thumb of the hand. Think about the case.

まず、ユーザが情報処理装置1を左手で把持しており、左手の親指でタッチ操作をする場合について説明する。この場合には、ユーザは片手で情報処理装置1を使用し、利き手である左手でタッチ操作をする癖があることが想定される。   First, a case where the user holds the information processing apparatus 1 with the left hand and performs a touch operation with the thumb of the left hand will be described. In this case, it is assumed that the user uses the information processing apparatus 1 with one hand and has a habit of touching with the left hand, which is the dominant hand.

図4は、本実施の形態に従うオブジェクト配置設定を行なう場合の操作例を示す図である。図4(a)は、ユーザが左手で情報処理装置1を把持し、左手の親指で起動アイコンを移動させる場合のイメージ図である。これは、片手で情報処理装置1を把持した場合には、その手の親指でタッチ操作をすることが想定されるためである。図4(b)は、図4(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図4(c)は、図4(a)のタッチ操作に基づいて設定されたメニュー画面のオブジェクト配置を示す図である。   FIG. 4 is a diagram showing an operation example in the case of performing object arrangement setting according to the present embodiment. FIG. 4A is an image diagram when the user holds the information processing apparatus 1 with the left hand and moves the activation icon with the thumb of the left hand. This is because when the information processing apparatus 1 is held with one hand, it is assumed that a touch operation is performed with the thumb of the hand. FIG. 4B is a diagram illustrating a movement locus in which the activation icon is moved by the touch operation of FIG. FIG. 4C is a diagram illustrating an object arrangement on the menu screen set based on the touch operation of FIG.

図4を参照して、ユーザが左手で情報処理装置1を把持し、左手の親指で起動アイコンを移動させる場合(図4(a)参照)には、タッチ操作可能な範囲は親指の可動範囲に限定されるため、ユーザが起動アイコンを移動させることができる範囲は小さい範囲となる。したがって、ユーザが移動させた起動アイコンの移動軌跡が描く円弧の中心(推定支点位置)と当該移動軌跡の終点(あるいは起点)との長さを示す曲率半径Rは小さい値(例えば、5cm以下)となる。また、ユーザが左手の親指でタッチ操作していることから、当該移動軌跡の移動方向は、画面左上方向となる(図4(b)参照)。ユーザのタッチ操作が終了すると(ユーザがディスプレイ134から手を離すと)、メニュー画面に遷移するとともに、上記のタッチ操作を反映した形態でメニュー画面の複数のオブジェクトが配置される(図4(c)参照)。このとき、各オブジェクトは、移動軌跡の移動方向に沿って、画面上下方向に小さい間隔で各オブジェクトが配置される。換言すると、各オブジェクトは、ユーザの左手の親指が届く範囲に配置される。   Referring to FIG. 4, when the user holds information processing apparatus 1 with the left hand and moves the activation icon with the thumb of the left hand (see FIG. 4A), the touch operable range is the movable range of the thumb. Therefore, the range in which the user can move the activation icon is a small range. Accordingly, the radius of curvature R indicating the length between the center (estimated fulcrum position) of the arc drawn by the movement locus of the activation icon moved by the user and the end point (or starting point) of the movement locus is a small value (for example, 5 cm or less). It becomes. Further, since the user performs a touch operation with the thumb of the left hand, the movement direction of the movement locus is the upper left direction of the screen (see FIG. 4B). When the user's touch operation is completed (when the user releases his / her hand from the display 134), the screen is changed to a menu screen, and a plurality of objects on the menu screen are arranged in a form reflecting the touch operation (FIG. 4C). )reference). At this time, each object is arranged at a small interval in the vertical direction of the screen along the moving direction of the movement locus. In other words, each object is arranged in a range where the thumb of the left hand of the user can reach.

また、情報処理装置1がマルチタッチが可能な端末装置である場合には、持ち手の手のひらなどが画面に触れることでユーザが意図しない動作となる可能性がある。したがって、この場合には、例えば、ディスプレイ134の左下の所定の表示領域(誤入力が想定される範囲)と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   Further, when the information processing apparatus 1 is a terminal device that can perform multi-touch, there is a possibility that an operation unintended by the user may occur when the palm of a hand touches the screen. Therefore, in this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area (a range in which erroneous input is assumed) on the lower left of the display 134 may be reduced.

次に、ユーザが情報処理装置1を右手で把持しており、右手の親指でタッチ操作をする場合について説明する。この場合には、ユーザは片手で情報処理装置1を使用し、利き手である右手でタッチ操作をする癖があることが想定される。基本的には、図4の場合の左手が右手に置き換わったものと同様である。   Next, a case where the user holds the information processing apparatus 1 with the right hand and performs a touch operation with the thumb of the right hand will be described. In this case, it is assumed that the user uses the information processing apparatus 1 with one hand and has a habit of performing a touch operation with the right hand that is the dominant hand. Basically, this is the same as the case where the left hand in FIG. 4 is replaced with the right hand.

図5は、本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。図5(a)は、ユーザが右手で情報処理装置1を把持し、右手の親指で起動アイコンを移動させる場合のイメージ図である。図5(b)は、図5(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図5(c)は、図5(a)のタッチ操作に基づくメニュー画面のオブジェクト配置設定を示す図である。   FIG. 5 is a diagram showing another operation example in the case where the object arrangement setting according to the present embodiment is performed. FIG. 5A is an image diagram when the user holds the information processing apparatus 1 with the right hand and moves the activation icon with the thumb of the right hand. FIG. 5B is a diagram illustrating a movement locus in which the activation icon has been moved by the touch operation of FIG. FIG. 5C is a diagram illustrating the object arrangement setting on the menu screen based on the touch operation of FIG.

図5を参照して、ユーザが右手で情報処理装置1を把持し、左手の親指で起動アイコンを移動させる場合(図5(a)参照)には、起動アイコンの移動軌跡の曲率半径Rは小さく(例えば、5cm以下)、移動軌跡の移動方向は、画面右上方向となる(図5(b)参照)。そして、ユーザのタッチ操作が終了すると、メニュー画面に遷移するとともに、メニュー画面の各オブジェクトが、移動軌跡の移動方向(右方向)に沿って、画面上下方向に小さい間隔で配置される(図5(c)参照)。換言すると、各オブジェクトは、ユーザの右手の親指が届く範囲に配置される。また、この場合には、例えば、ディスプレイ134の右下の所定の表示領域と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   Referring to FIG. 5, when the user holds information processing apparatus 1 with the right hand and moves the activation icon with the thumb of the left hand (see FIG. 5A), the radius of curvature R of the movement path of the activation icon is It is small (for example, 5 cm or less), and the movement direction of the movement locus is the upper right direction of the screen (see FIG. 5B). When the user's touch operation is completed, the screen is changed to the menu screen, and the objects on the menu screen are arranged at small intervals in the vertical direction of the screen along the movement direction (right direction) of the movement locus (FIG. 5). (See (c)). In other words, each object is arranged in a range where the thumb of the right hand of the user can reach. In this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area at the lower right of the display 134 may be reduced.

上記のように、ユーザが情報処理装置1を左手で把持した際に、その左手で容易に操作できる位置にオブジェクトが配置され、ユーザが情報処理装置1を右手で把持した際に、その右手で容易に操作できる位置にオブジェクトが配置される。   As described above, when the user grips the information processing apparatus 1 with the left hand, the object is arranged at a position where the user can easily operate with the left hand, and when the user grips the information processing apparatus 1 with the right hand, Objects are placed at positions where they can be easily manipulated.

(c2.操作例(その2))
ここでは、ユーザが情報処理装置1を一方の手で把持しており、例えば手首を支点として他方の手の人差し指でユーザインターフェイス画面1000における起動アイコンを矢印1004の方向に移動させるような場合を考える。
(C2. Example of operation (2))
Here, consider a case where the user holds the information processing apparatus 1 with one hand and moves the activation icon on the user interface screen 1000 in the direction of the arrow 1004 with the wrist of the wrist as a fulcrum, for example. .

まず、ユーザが情報処理装置1を右手で把持しており、左手の人差し指で左手首を支点としてタッチ操作をする場合について説明する。このとき、ユーザは情報処理装置1を両手で使用し、利き手である左手で左手首を支点としてタッチ操作をする癖があることが想定される。   First, a case where the user holds the information processing apparatus 1 with the right hand and performs a touch operation with the left wrist index finger as a fulcrum with the left hand index finger will be described. At this time, it is assumed that the user uses the information processing apparatus 1 with both hands and has a habit of touching with the left hand, which is the dominant hand, using the left wrist as a fulcrum.

図6は、本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。図6(a)は、ユーザが右手で情報処理装置1を把持し、左手の人差し指で起動アイコンを移動させる場合のイメージ図である。これは、一方の手で情報処理装置1を把持した場合には、他方の手の可動範囲の大きい人差し指でタッチ操作をすることが通常であるためである。図6(b)は、図6(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図6(c)は、図6(a)のタッチ操作に基づいて設定されたメニュー画面のオブジェクト配置を示す図である。   FIG. 6 is a diagram showing another operation example in the case of performing the object arrangement setting according to the present embodiment. FIG. 6A is an image diagram when the user holds the information processing apparatus 1 with the right hand and moves the activation icon with the index finger of the left hand. This is because when the information processing apparatus 1 is held with one hand, it is normal to perform a touch operation with the index finger having a large movable range of the other hand. FIG. 6B is a diagram illustrating a movement locus in which the activation icon has been moved by the touch operation of FIG. FIG. 6C is a diagram illustrating the object arrangement of the menu screen set based on the touch operation of FIG.

図6を参照して、ユーザが右手で情報処理装置1を把持し、左手の人差し指で起動アイコンを移動させる場合(図6(a)参照)には、ユーザが起動アイコンを移動させることができる範囲は比較的大きい。したがって、ユーザが移動させた起動アイコンの移動軌跡の曲率半径Rは比較的大きい(中程度の)値(例えば、10cm程度)となる。また、ユーザは左手でタッチ操作していることから、当該移動軌跡の移動方向は、画面左上方向となる(図6(b)参照)。そして、ユーザのタッチ操作が終了すると、メニュー画面に遷移するとともに、上記のタッチ操作を反映した形態でメニュー画面のオブジェクトが配置される(図6(c)参照)。すなわち、当該オブジェクトは、移動軌跡の移動方向に沿って、画面上下方向に比較的大きい間隔で各オブジェクトが配置される(図6(c)参照)。換言すると、各オブジェクトは、ユーザの左手の人差し指が届く範囲に配置される。この場合には、例えば、ディスプレイ134の右下の所定の表示領域と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   Referring to FIG. 6, when the user holds information processing apparatus 1 with the right hand and moves the activation icon with the index finger of the left hand (see FIG. 6A), the user can move the activation icon. The range is relatively large. Therefore, the radius of curvature R of the movement path of the activation icon moved by the user is a relatively large (medium) value (for example, about 10 cm). In addition, since the user performs a touch operation with the left hand, the movement direction of the movement locus is the upper left direction of the screen (see FIG. 6B). When the user's touch operation is completed, the screen is changed to the menu screen, and the menu screen object is arranged in a form reflecting the touch operation (see FIG. 6C). That is, the objects are arranged at relatively large intervals in the vertical direction of the screen along the movement direction of the movement locus (see FIG. 6C). In other words, each object is arranged in a range where the index finger of the user's left hand can reach. In this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area on the lower right of the display 134 may be reduced.

次に、ユーザが情報処理装置1を左手で把持しており、例えば、右手首を支点として右手の人差し指でタッチ操作をする場合について説明する。このとき、ユーザは情報処理装置1を両手で使用し、右手首を支点として利き手である右手でタッチ操作をする癖があることが想定される。この場合は、基本的には、図6の場合の左手が右手に、右手が左手に置き換わったものと同様である。   Next, a case where the user holds the information processing apparatus 1 with the left hand and performs a touch operation with the index finger of the right hand with the right wrist as a fulcrum, for example, will be described. At this time, it is assumed that the user uses the information processing apparatus 1 with both hands and has a habit of touching with the right hand, which is the dominant hand, with the right wrist as a fulcrum. This case is basically the same as that in FIG. 6 in which the left hand is replaced with the right hand and the right hand is replaced with the left hand.

図7は、本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。図7(a)は、ユーザが左手で情報処理装置1を把持し、右手の人差し指で起動アイコンを移動させる場合のイメージ図である。図7(b)は、図7(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図7(c)は、図7(a)のタッチ操作に基づいて設定されたメニュー画面のオブジェクト配置を示す図である。   FIG. 7 is a diagram showing another operation example in the case of performing the object arrangement setting according to the present embodiment. FIG. 7A is an image diagram when the user holds the information processing apparatus 1 with the left hand and moves the activation icon with the index finger of the right hand. FIG. 7B is a diagram illustrating a movement locus in which the activation icon has been moved by the touch operation of FIG. FIG. 7C is a diagram showing the object arrangement of the menu screen set based on the touch operation of FIG.

図7を参照して、ユーザが左手で情報処理装置1を把持し、右手の人差し指で起動アイコンを移動させる場合(図7(a)参照)には、起動アイコンの移動軌跡の曲率半径Rは比較的大きい(中程度)の値(例えば、10cm程度)となり、移動軌跡の移動方向は、画面右上方向となる(図7(b)参照)。そして、ユーザのタッチ操作が終了すると、メニュー画面に遷移するとともに、メニュー画面の各オブジェクトが、移動軌跡の移動方向(右上方向)に沿って、画面上下方向に比較的大きい間隔で配置される(図7(c)参照)。換言すると、各オブジェクトは、ユーザの右手の人差し指が届く範囲に配置される。この場合には、例えば、ディスプレイ134の左下の所定の表示領域と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   Referring to FIG. 7, when the user holds information processing apparatus 1 with the left hand and moves the activation icon with the index finger of the right hand (see FIG. 7A), the radius of curvature R of the movement path of the activation icon is The value is relatively large (medium) (for example, about 10 cm), and the movement direction of the movement locus is the upper right direction of the screen (see FIG. 7B). When the user's touch operation is completed, the screen is changed to the menu screen, and each object on the menu screen is arranged at a relatively large interval in the vertical direction of the screen along the moving direction (upper right direction) of the movement locus ( (Refer FIG.7 (c)). In other words, each object is arranged in a range where the index finger of the user's right hand can reach. In this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area at the lower left of the display 134 may be reduced.

上記のように、ユーザが情報処理装置1を右手で把持した際に、左手で容易に操作できる位置にオブジェクトが配置され、ユーザが情報処理装置1を左手で把持した際に、右手で容易に操作できる位置にオブジェクトが配置される。   As described above, when the user grips the information processing apparatus 1 with the right hand, the object is arranged at a position where the user can easily operate with the left hand, and when the user grips the information processing apparatus 1 with the left hand, the user can easily operate with the right hand. The object is placed at a position where it can be manipulated.

(c3.操作例(その3))
ここでは、ユーザが情報処理装置1を一方の手で把持しており、例えば肘を支点として他方の手の人差し指でタッチ操作することにより、ユーザインターフェイス画面1000における起動アイコンを矢印1004の方向に移動させるような場合を考える。これは、操作例(その2)と比較して、ユーザが情報処理装置1を両手で使用する点については同様だが、タッチ操作する側の手を肘を支点として動かすことから、タッチ操作の可動範囲が大きくなる点において異なる。
(C3. Example of operation (part 3))
Here, the user holds the information processing apparatus 1 with one hand, and moves the activation icon on the user interface screen 1000 in the direction of the arrow 1004 by touching with the index finger of the other hand with the elbow as a fulcrum, for example. Consider the case that you want to let. This is similar to the operation example (No. 2) in that the user uses the information processing apparatus 1 with both hands, but the touch operation side is moved using the elbow as a fulcrum, so that the touch operation is movable. It differs in that the range becomes larger.

まず、ユーザが情報処理装置1を右手で把持しており、左肘を支点として左手の人差し指でタッチ操作をする場合について説明する。このとき、ユーザは情報処理装置1を両手で使用し、左肘を支点として利き手である左手でタッチ操作をする癖があることが想定される。   First, a case where the user holds the information processing apparatus 1 with the right hand and performs a touch operation with the left index finger with the left elbow as a fulcrum will be described. At this time, it is assumed that the user uses the information processing apparatus 1 with both hands and has a habit of touching with the left hand, which is the dominant hand, with the left elbow as a fulcrum.

図8は、本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。図8(a)は、ユーザが右手で情報処理装置1を把持し、左肘を支点として左手の人差し指で起動アイコンを移動させる場合のイメージ図である。図8(b)は、図8(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図8(c)は、図8(a)のタッチ操作に基づいて設定されたメニュー画面のオブジェクト配置を示す図である。   FIG. 8 is a diagram showing another operation example in the case of performing object placement setting according to the present embodiment. FIG. 8A is an image diagram in a case where the user holds the information processing apparatus 1 with the right hand and moves the activation icon with the left index finger with the left elbow as a fulcrum. FIG. 8B is a diagram illustrating a movement locus in which the activation icon has been moved by the touch operation of FIG. FIG. 8C is a diagram showing the object arrangement of the menu screen set based on the touch operation of FIG.

図8を参照して、ユーザが右手で情報処理装置1を把持し、左肘を支点として左手の人差し指で起動アイコンを移動させる場合(図8(a)参照)には、ユーザが起動アイコンを移動させることができる範囲は、上記の操作例(その2)の場合よりもさらに大きい。したがって、ユーザが移動させた起動アイコンの移動軌跡の曲率半径Rは操作例(その2)の場合よりもさらに大きい値(例えば、30cm程度)となる。このとき、ユーザは左手でタッチ操作しているものの、曲率半径Rが大きいため当該移動軌跡の移動方向は、ほぼ画面垂直(上下)方向となる(図8(b)参照)。そして、ユーザのタッチ操作が終了すると、メニュー画面に遷移するとともに、上記のタッチ操作を反映した形態でメニュー画面のオブジェクトが配置される(図8(c)参照)。このとき、各オブジェクトは、優先度の高いオブジェクトから順に利き手(左手)側である画面左端から右端に向かって左右一列に配置される。これは、ユーザが肘を支点として人差し指でタッチ操作をする場合には、画面のほぼ全領域においてタッチ操作が可能であることから、上下方向に配置する必要性が低いためである。優先度の高いとは、例えば、利用頻度が高い、あるいは予め設定された重要度が高いことを示す。   Referring to FIG. 8, when the user holds information processing apparatus 1 with the right hand and moves the activation icon with the index finger of the left hand using the left elbow as a fulcrum (see FIG. 8A), the user selects the activation icon. The range that can be moved is even larger than in the case of the above operation example (part 2). Therefore, the radius of curvature R of the movement locus of the activation icon moved by the user is a larger value (for example, about 30 cm) than in the operation example (No. 2). At this time, although the user performs a touch operation with the left hand, since the radius of curvature R is large, the movement direction of the movement locus is substantially the vertical (up and down) direction of the screen (see FIG. 8B). Then, when the user's touch operation is completed, the screen is changed to the menu screen, and the objects on the menu screen are arranged in a form reflecting the touch operation (see FIG. 8C). At this time, the objects are arranged in a line on the left and right from the left edge of the screen, which is the dominant hand (left hand) side, in order from the object with the highest priority. This is because when the user performs a touch operation with the index finger using the elbow as a fulcrum, it is possible to perform the touch operation in almost the entire area of the screen, and thus it is not necessary to arrange in the vertical direction. The high priority indicates, for example, that the use frequency is high or the preset importance is high.

また、この場合には、例えば、ディスプレイ134の右下の所定の表示領域と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   In this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area at the lower right of the display 134 may be reduced.

次に、ユーザが情報処理装置1を左手で把持しており、右肘を支点として右手の人差し指でタッチ操作をする場合について説明する。このとき、ユーザは情報処理装置1を両手で使用し、右肘を支点として利き手である右手でタッチ操作をする癖があることが想定される。この場合は、基本的には、図7の場合の左手が右手に、右手が左手に置き換わったものと同様である。   Next, a case where the user holds the information processing apparatus 1 with the left hand and performs a touch operation with the index finger of the right hand using the right elbow as a fulcrum will be described. At this time, it is assumed that the user uses the information processing apparatus 1 with both hands and has a habit of touching with the right hand that is the dominant hand with the right elbow as a fulcrum. This case is basically the same as that in FIG. 7 in which the left hand is replaced with the right hand and the right hand is replaced with the left hand.

図9は、本実施の形態に従うオブジェクト配置設定を行なう場合の別の操作例を示す図である。図9(a)は、ユーザが左手で情報処理装置1を把持し、右肘を支点として右手の人差し指で起動アイコンを移動させる場合のイメージ図である。図9(b)は、図9(a)のタッチ操作により起動アイコンが移動した移動軌跡を示す図である。図9(c)は、図9(a)のタッチ操作に基づいて設定されたメニュー画面のオブジェクト配置を示す図である。   FIG. 9 is a diagram showing another operation example in the case of performing the object arrangement setting according to the present embodiment. FIG. 9A is an image diagram when the user holds the information processing apparatus 1 with the left hand and moves the activation icon with the index finger of the right hand with the right elbow as a fulcrum. FIG. 9B is a diagram illustrating a movement locus in which the activation icon has been moved by the touch operation of FIG. FIG. 9C is a diagram showing the object arrangement of the menu screen set based on the touch operation of FIG. 9A.

図9を参照して、ユーザが左手で情報処理装置1を把持し、右肘を支点として右手の人差し指で起動アイコンを移動させる場合(図9(a)参照)には、起動アイコンの移動軌跡の曲率半径Rは大きく(例えば、30cm程度)、移動軌跡の移動方向は、ほぼ画面垂直向となる(図9(b)参照)。そして、ユーザのタッチ操作が終了すると、メニュー画面に遷移するとともに、メニュー画面の各オブジェクトが、優先度の高いオブジェクトから順に利き手(右手)側である画面右端から左端に向かって左右一列に配置される。   Referring to FIG. 9, when the user holds information processing apparatus 1 with the left hand and moves the activation icon with the index finger of the right hand using the right elbow as a fulcrum (see FIG. 9A), the movement locus of the activation icon Has a large radius of curvature R (for example, about 30 cm), and the movement direction of the movement locus is substantially perpendicular to the screen (see FIG. 9B). When the user's touch operation is completed, the menu screen is displayed, and the objects on the menu screen are arranged in a line on the left and right from the right edge to the left edge of the dominant hand (right hand) in order from the object with the highest priority. The

また、この場合には、例えば、ディスプレイ134の左下の所定の表示領域と関連付けられた、タッチパネル130の検出感度を低下させてもよい。   In this case, for example, the detection sensitivity of the touch panel 130 associated with a predetermined display area at the lower left of the display 134 may be reduced.

<D.機能構成>
次に、上述のような本実施の形態に従う情報処理装置1が提供する複数のオブジェクト配置設定を実現するための機能構成について説明する。
<D. Functional configuration>
Next, a functional configuration for realizing a plurality of object arrangement settings provided by information processing apparatus 1 according to the present embodiment as described above will be described.

図10は、本実施の形態に従う情報処理装置1の機能ブロック図である。
図10を参照して、情報処理装置1は、その機能構成として、位置検出部210と、解析部220と、補正部230と、表示制御部240と、記憶部250と、感度変更部260とを含む。解析部220と、補正部230と、表示制御部240と、感度変更部260とは、基本的には、情報処理装置1のCPU110がメモリ120に格納されたプログラムを実行し、情報処理装置1の構成要素へ指令を与えることなどによって実現される。すなわち、CPU110は情報処理装置1の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部はハードウェアで実現されていてもよい。
FIG. 10 is a functional block diagram of information processing apparatus 1 according to the present embodiment.
Referring to FIG. 10, information processing apparatus 1 has, as its functional configuration, position detection unit 210, analysis unit 220, correction unit 230, display control unit 240, storage unit 250, and sensitivity change unit 260. including. The analysis unit 220, the correction unit 230, the display control unit 240, and the sensitivity change unit 260 basically execute the program stored in the memory 120 by the CPU 110 of the information processing device 1, and the information processing device 1. This is realized by giving a command to the component. That is, the CPU 110 has a function as a control unit that controls the entire operation of the information processing apparatus 1. Note that some or all of these functional configurations may be realized by hardware.

位置検出部210は、ユーザからのタッチ入力を受け付けると、タッチされたタッチ位置の検出結果を順次、解析部220に出力する。具体的には、位置検出部210は、ユーザによるタッチ操作の起点となるタッチ位置(検出されたタッチ位置の初期位置)を示すタッチ座標(X0,Y0)から、当該タッチ操作の終点となるタッチ座標(Xn,Yn)までのタッチ座標を順次出力する。また、位置検出部210は、同時に複数点タッチされていることを検出した場合には、これらのタッチ座標を出力する。位置検出部210は、主として、タッチパネル130によって実現される機能である。   When the position detection unit 210 receives a touch input from the user, the position detection unit 210 sequentially outputs the detection result of the touched touch position to the analysis unit 220. Specifically, the position detection unit 210 uses the touch coordinates (X0, Y0) indicating the touch position (the initial position of the detected touch position) that is the starting point of the touch operation by the user as the end point of the touch operation. Touch coordinates up to coordinates (Xn, Yn) are sequentially output. Further, when the position detection unit 210 detects that a plurality of points are touched simultaneously, the position detection unit 210 outputs these touch coordinates. The position detection unit 210 is a function mainly realized by the touch panel 130.

解析部220は、位置検出部210の検出結果に応答して、タッチ位置の起点から終点までの移動により描かれる移動軌跡を解析する。具体的には、解析部220は、位置検出部210から取得した移動軌跡のタッチ座標を解析することで当該移動軌跡の曲率半径を算出する。また、解析部220は、当該移動軌跡の起点となるタッチ座標と終点となるタッチ座標とを比較することで、移動軌跡の移動方向を算出する。そして、解析部220は、上記の解析結果を補正部230および感度変更部260に出力する。   In response to the detection result of the position detection unit 210, the analysis unit 220 analyzes a movement locus drawn by the movement from the start point to the end point of the touch position. Specifically, the analysis unit 220 calculates the curvature radius of the movement locus by analyzing the touch coordinates of the movement locus acquired from the position detection unit 210. Further, the analysis unit 220 calculates the movement direction of the movement locus by comparing the touch coordinates that are the starting point of the movement locus and the touch coordinates that are the end point. Then, the analysis unit 220 outputs the analysis result to the correction unit 230 and the sensitivity change unit 260.

補正部230は、解析部220の解析結果に応答して、メニュー画面に表示されるオブジェクトの予め定められた基準位置を示す基準位置情報を補正する。具体的には、補正部230は、解析部220から取得した移動軌跡の曲率半径の値が第1の値であるときに画面上下方向に第1の間隔でオブジェクトが配置されるように、記憶部250から取得した基準位置情報を補正する。補正部230は、当該曲率半径の値が第1の値より大きい第2の値のときに画面上下方向に第1の間隔より大きい第2の間隔でオブジェクトが配置されるように当該基準位置情報を補正する。補正部230は、当該曲率半径の値が第2の値より大きい第3の値のときに、画面上下方向に第1の間隔より小さい間隔でオブジェクトが配置されるように当該基準位置情報を補正する。さらに、補正部230は、当該移動軌跡の移動方向に沿ってオブジェクトが配置されるように当該基準位置情報を補正する。そして、補正部230は、補正した基準位置情報(補正位置情報)を表示制御部240に出力する。   The correction unit 230 corrects reference position information indicating a predetermined reference position of the object displayed on the menu screen in response to the analysis result of the analysis unit 220. Specifically, the correction unit 230 stores the objects so that the objects are arranged at the first interval in the vertical direction of the screen when the value of the radius of curvature of the movement locus acquired from the analysis unit 220 is the first value. The reference position information acquired from the unit 250 is corrected. The correction unit 230 sets the reference position information so that the object is arranged at a second interval larger than the first interval in the vertical direction of the screen when the value of the curvature radius is a second value larger than the first value. Correct. The correction unit 230 corrects the reference position information so that the object is arranged at an interval smaller than the first interval in the vertical direction of the screen when the value of the curvature radius is a third value larger than the second value. To do. Furthermore, the correction unit 230 corrects the reference position information so that the object is arranged along the movement direction of the movement locus. Then, the correction unit 230 outputs the corrected reference position information (corrected position information) to the display control unit 240.

表示制御部240は、補正部230から取得した補正位置情報に基づいて、ディスプレイ134の表示を制御する。具体的には、表示制御部240は、補正位置情報に基づいてメニュー画面のオブジェクトを配置するようにディスプレイ134の表示を制御する。別の局面において、表示制御部240は、起動画面における、情報処理装置1を起動するための起動オブジェクトを情報処理装置1を把持するユーザ側に配置するようにディスプレイ134の表示を制御する。   The display control unit 240 controls display on the display 134 based on the correction position information acquired from the correction unit 230. Specifically, the display control unit 240 controls the display of the display 134 so that the objects on the menu screen are arranged based on the correction position information. In another aspect, the display control unit 240 controls the display of the display 134 so that the activation object for activating the information processing device 1 on the activation screen is arranged on the user side holding the information processing device 1.

記憶部250は、各種情報を格納する。記憶部250は、例えば、メニュー画面におけるオブジェクトの基準位置情報を格納する。また、記憶部250は、補正位置情報を格納してもよい。記憶部250は、主として、メモリ120によって実現される機能である。   The storage unit 250 stores various types of information. The storage unit 250 stores, for example, reference position information of objects on the menu screen. The storage unit 250 may store correction position information. The storage unit 250 is a function mainly realized by the memory 120.

感度変更部260は、解析部220の解析結果に応答して、ディスプレイ134の所定の表示領域と関連付けられた、位置検出部210の検出感度を低下させる。換言すると、感度変更部260は、移動軌跡の曲率半径および移動方向に基づいて、位置検出部の検出感度を低下させるディスプレイ134の表示領域を特定する。   The sensitivity changing unit 260 reduces the detection sensitivity of the position detection unit 210 associated with a predetermined display area of the display 134 in response to the analysis result of the analysis unit 220. In other words, the sensitivity changing unit 260 specifies the display area of the display 134 that reduces the detection sensitivity of the position detection unit based on the radius of curvature of the movement locus and the movement direction.

<E.フローチャート>
次に、図5〜9に示す複数のオブジェクト配置設定を実現するための処理手順を示すフローチャートについて説明する。
<E. Flow chart>
Next, a flowchart showing a processing procedure for realizing the plurality of object arrangement settings shown in FIGS.

図11は、本実施の形態に従う情報処理装置1において実行されるオブジェクト配置設定の処理手順を示すフローチャートである。   FIG. 11 is a flowchart showing a processing procedure for object arrangement setting executed in information processing apparatus 1 according to the present embodiment.

概略として、まず、CPU110は、ディスプレイ134上に起動画面を表示する。上述したように、ユーザが所定のタッチ操作を行なうと、CPU110は、当該タッチ操作の移動軌跡を解析して、曲率半径および移動方向を算出する。この解析結果に応じて、CPU110は、メニュー画面のオブジェクト配置設定を行なうとともに、ディスプレイ134の対応する表示領域におけるタッチパネル130の検出感度を低下させる。図11に示す各ステップは、基本的には、CPU110がプログラムを実行することで実現される。   As an outline, first, the CPU 110 displays a startup screen on the display 134. As described above, when the user performs a predetermined touch operation, the CPU 110 analyzes the movement trajectory of the touch operation and calculates the curvature radius and the movement direction. In accordance with the analysis result, the CPU 110 performs object placement setting on the menu screen and reduces the detection sensitivity of the touch panel 130 in the corresponding display area of the display 134. Each step shown in FIG. 11 is basically realized by the CPU 110 executing a program.

図11を参照して、CPU110(表示制御部240)は、ディスプレイ134の起動画面を表示する(ステップS102)。ディスプレイ134には、図3に示したユーザインターフェイス画面1000が表示される。なお、CPU110(表示制御部240)は、このとき、起動画面における、起動アイコン(オブジェクト1002)を情報処理装置1を把持するユーザ側に配置するようにディスプレイ134の表示を制御する。   Referring to FIG. 11, CPU 110 (display control unit 240) displays a startup screen of display 134 (step S102). The display 134 displays the user interface screen 1000 shown in FIG. At this time, the CPU 110 (display control unit 240) controls the display on the display 134 so that the activation icon (object 1002) on the activation screen is arranged on the user side holding the information processing apparatus 1.

次に、CPU110は、タッチパネル130(位置検出部210)を介してユーザからタッチ操作による入力を受け付けたか否かを判断する(ステップS104)。CPU110が、タッチ操作による入力を受け付けていない場合(ステップS104においてNOの場合)には、処理は、ステップS104を繰り返す。   Next, the CPU 110 determines whether an input by a touch operation has been received from the user via the touch panel 130 (position detection unit 210) (step S104). If CPU 110 has not received an input through a touch operation (NO in step S104), the process repeats step S104.

これに対して、CPU110が、タッチ操作による入力を受け付けた場合(ステップS104においてYESの場合)には、CPU110(解析部220)は、タッチ操作の移動軌跡を取得する。具体的には、CPU110(解析部220)は、タッチパネル130(位置検出部210)からタッチ操作の起点から終点までのタッチ位置を示すタッチ座標を順次取得する。続いて、CPU110(解析部220)は、取得した移動軌跡を解析して、当該移動軌跡の曲率半径Rおよび移動方向を取得する(ステップS107)。具体的には、CPU110(解析部220)は、移動軌跡(円弧)の起点と終点に基づいて、円弧の長さと、円の中心(推定支点位置)、起点および終点からなる中心角とを算出することで曲率半径Rを取得する。また、CPU110(解析部220)は、移動軌跡の起点および終点のタッチ座標から移動方向を取得する。なお、移動軌跡の起点を原点として、終点が原点(起点)よりも画面の左側のとき、移動方向は負方向であり、終点が原点(起点)よりも右側のとき、移動方向は正方向であるとする。   On the other hand, when CPU 110 accepts an input by a touch operation (YES in step S104), CPU 110 (analysis unit 220) acquires a movement locus of the touch operation. Specifically, the CPU 110 (analysis unit 220) sequentially acquires touch coordinates indicating the touch position from the start point to the end point of the touch operation from the touch panel 130 (position detection unit 210). Then, CPU110 (analysis part 220) analyzes the acquired movement locus | trajectory, and acquires the curvature radius R and movement direction of the said movement locus | trajectory (step S107). Specifically, the CPU 110 (analysis unit 220) calculates the length of the arc and the center angle of the circle center (estimated fulcrum position), the start point and the end point based on the start point and end point of the movement locus (arc). By doing so, the radius of curvature R is acquired. In addition, the CPU 110 (analysis unit 220) acquires the movement direction from the touch coordinates of the start point and end point of the movement track. When the starting point of the movement trajectory is the origin, when the end point is on the left side of the screen from the origin (start point), the moving direction is negative, and when the end point is on the right side of the origin (start point), the moving direction is positive. Suppose there is.

次に、CPU110(補正部230)は、移動方向が左方向か否かを判断する(ステップS108)。このステップS108は、ユーザの利き手(右利きであるか左利きであるか)を特定するための処理である。具体的には、CPU110(補正部230)は、取得した移動方向が負方向か否かを判断する。移動方向が左方向でない(右方向である)場合(ステップS108においてNOの場合)には、処理は、ステップS124に進む。   Next, the CPU 110 (correction unit 230) determines whether or not the moving direction is the left direction (step S108). This step S108 is processing for specifying the user's dominant hand (whether right-handed or left-handed). Specifically, CPU 110 (correction unit 230) determines whether or not the acquired movement direction is a negative direction. If the moving direction is not the left direction (the right direction) (NO in step S108), the process proceeds to step S124.

これに対して、移動方向が左方向である場合(ステップS108においてYESの場合)には、CPU110(補正部230)は、曲率半径Rが第1の閾値以下か否かを判断する(ステップS110)。具体的には、CPU110(補正部230)は、取得した曲率半径Rと予め定められた第1の閾値(例えば、5cm)とを比較することにより、曲率半径Rが第1の閾値以下か否かを判断する。曲率半径Rが第1の閾値以下ではない(第1の閾値より大きい)場合(ステップS110においてNOの場合)には、処理は、ステップS116に進む。   On the other hand, when the movement direction is the left direction (YES in step S108), CPU 110 (correction unit 230) determines whether or not curvature radius R is equal to or smaller than the first threshold (step S110). ). Specifically, the CPU 110 (correction unit 230) compares the acquired curvature radius R with a predetermined first threshold (for example, 5 cm) to determine whether the curvature radius R is equal to or less than the first threshold. Determine whether. If curvature radius R is not less than or equal to the first threshold (greater than the first threshold) (NO in step S110), the process proceeds to step S116.

これに対して、曲率半径Rが第1の閾値以下である場合(ステップS110においてYESの場合)には、CPU110は、ユーザが左手で情報処理装置1を把持し、左手(例えば、左手の親指)でタッチ操作を行なうような場合を想定したメニュー画面を表示する(ステップS112)。具体的には、まず、CPU110(補正部230)は、メニュー画面に表示されるオブジェクトが、画面上下方向に第1の間隔で、移動方向に沿って配置されるように、メモリ120(記憶部250)から取得した基準位置情報を補正する。そして、CPU110(表示制御部240)は、補正された基準位置情報(補正位置情報)に基づいて、ディスプレイ134の表示を制御する。すなわち、このとき、ディスプレイ134には、図4(c)のようなメニュー画面が表示される。   On the other hand, when the radius of curvature R is equal to or smaller than the first threshold (YES in step S110), the CPU 110 grips the information processing apparatus 1 with the left hand and the left hand (for example, the thumb of the left hand). ), A menu screen assuming a case where a touch operation is performed is displayed (step S112). Specifically, first, the CPU 110 (correction unit 230) causes the memory 120 (storage unit) so that objects displayed on the menu screen are arranged along the movement direction at a first interval in the vertical direction of the screen. 250) is corrected. Then, the CPU 110 (display control unit 240) controls display on the display 134 based on the corrected reference position information (corrected position information). That is, at this time, a menu screen as shown in FIG.

次に、CPU110(感度変更部260)は、ディスプレイ134の左下の表示領域と関連付けられた、タッチパネル130(位置検出部210)の検出感度を低下させる(ステップS114)。例えば、CPU110(感度変更部260)は、ディスプレイ134の左下端から1cm以内の表示領域における検出感度を低下させる。そして、処理は、終了する。   Next, the CPU 110 (sensitivity changing unit 260) reduces the detection sensitivity of the touch panel 130 (position detecting unit 210) associated with the lower left display area of the display 134 (step S114). For example, the CPU 110 (sensitivity changing unit 260) reduces the detection sensitivity in the display area within 1 cm from the lower left end of the display 134. Then, the process ends.

ステップS110に戻って、曲率半径Rが第1の閾値以下ではない場合(ステップS110においてNOの場合)には、CPU110(補正部230)は、曲率半径Rが第2の閾値以下か否かを判断する(ステップS116)。具体的には、CPU110(補正部230)は、取得した曲率半径Rと予め定められた第2の閾値(例えば、10cm)とを比較することにより、曲率半径Rが第2の閾値以下か否かを判断する。   Returning to step S110, if the curvature radius R is not less than or equal to the first threshold (NO in step S110), the CPU 110 (correction unit 230) determines whether or not the curvature radius R is less than or equal to the second threshold. Judgment is made (step S116). Specifically, the CPU 110 (correction unit 230) compares the acquired curvature radius R with a predetermined second threshold (for example, 10 cm) to determine whether the curvature radius R is equal to or smaller than the second threshold. Determine whether.

ここで、曲率半径Rが第2の閾値以下である場合(ステップS116においてYESの場合)には、ユーザが右手で情報処理装置1を把持し、左手で比較的大きいタッチ操作(例えば、左手首を支点としたタッチ操作)を行なうような場合を想定したメニュー画面を表示する(ステップS118)。具体的には、まず、CPU110(補正部230)は、メニュー画面に表示されるオブジェクトが、画面上下方向に第2の間隔で、移動方向に沿って配置されるように、メモリ120(記憶部250)から取得した基準位置情報を補正する。そして、CPU110(表示制御部240)は、補正された基準位置情報(補正位置情報)に基づいて、ディスプレイ134の表示を制御する。すなわち、このとき、ディスプレイ134には、図6(c)のようなメニュー画面が表示される。   Here, when the radius of curvature R is equal to or smaller than the second threshold value (YES in step S116), the user holds the information processing apparatus 1 with the right hand and a relatively large touch operation (for example, the left wrist) A menu screen that assumes the case of performing a touch operation with fulcrum as a fulcrum is displayed (step S118). Specifically, first, the CPU 110 (correction unit 230) causes the memory 120 (storage unit) so that objects displayed on the menu screen are arranged along the movement direction at a second interval in the vertical direction of the screen. 250) is corrected. Then, the CPU 110 (display control unit 240) controls display on the display 134 based on the corrected reference position information (corrected position information). That is, at this time, a menu screen as shown in FIG.

これに対して、曲率半径Rが第2の閾値以下ではない(第2の閾値よりも大きい)場合(ステップS116においてNOの場合)には、ユーザが右手で情報処理装置1を把持し、左手でかなり大きいタッチ操作(例えば、左肘を支点としたタッチ操作)を行なうような場合を想定したメニュー画面を表示する(ステップS120)。具体的には、まず、CPU110(補正部230)は、メニュー画面に表示されるオブジェクトが、優先度の高いオブジェクトから順に利き手(左手)側である画面左端から右端に向かって左右一列に配置されるように、基準位置情報を補正(補正位置情報)する。換言すると、CPU(補正部230)は、画面上下方向に第1の間隔より小さい間隔でオブジェクトが配置されるように当該基準位置情報を補正する。そして、CPU110(表示制御部240)は、当該補正位置情報に基づいて、ディスプレイ134の表示を制御する。すなわち、このとき、ディスプレイ134には、図8(c)のようなメニュー画面が表示される。   On the other hand, when the radius of curvature R is not less than or equal to the second threshold (greater than the second threshold) (NO in step S116), the user holds the information processing apparatus 1 with the right hand and the left hand A menu screen is displayed assuming a case where a considerably large touch operation (for example, a touch operation with the left elbow as a fulcrum) is performed (step S120). Specifically, first, the CPU 110 (correction unit 230) arranges the objects displayed on the menu screen in a line on the left and right from the left edge to the right edge on the dominant hand (left hand) side in order from the object with the highest priority. Thus, the reference position information is corrected (corrected position information). In other words, the CPU (correction unit 230) corrects the reference position information so that the objects are arranged at intervals smaller than the first interval in the vertical direction of the screen. Then, the CPU 110 (display control unit 240) controls display on the display 134 based on the correction position information. That is, at this time, a menu screen as shown in FIG.

次に、ステップS118またはステップS120に対応するメニュー画面が表示されると、CPU110(感度変更部260)は、ディスプレイ134の右下の表示領域と関連付けられた、タッチパネル130(位置検出部210)の検出感度を低下させる(ステップS122)。例えば、CPU110(感度変更部260)は、ディスプレイ134の右下端から1cm以内の表示領域における検出感度を低下させる。そして、処理は、終了する。   Next, when the menu screen corresponding to step S118 or step S120 is displayed, CPU 110 (sensitivity changing unit 260) of touch panel 130 (position detecting unit 210) associated with the display area at the lower right of display 134 is displayed. The detection sensitivity is lowered (step S122). For example, the CPU 110 (sensitivity changing unit 260) reduces the detection sensitivity in the display area within 1 cm from the lower right end of the display 134. Then, the process ends.

上述のステップS110およびS116は、ユーザの把持状態(タッチ操作を行っている態様)を特定するための処理である。   Steps S110 and S116 described above are processes for specifying the user's gripping state (a mode in which a touch operation is performed).

次に、ステップS108に戻って、移動方向が右方向である場合(ステップS108においてNOの場合)について説明する。以下の処理内容は、基本的には、上記のステップS110〜S122において、左右を逆にした場合に相当する。したがって、以下のステップS124〜ステップS136の処理内容については、詳細な説明は繰り返さず、簡単に説明する。   Next, returning to step S108, the case where the movement direction is the right direction (NO in step S108) will be described. The following processing contents basically correspond to the case where the left and right are reversed in steps S110 to S122. Accordingly, the processing contents of the following steps S124 to S136 will be described briefly without repeating detailed description.

ステップS124において、CPU110(補正部230)は、曲率半径Rが第1の閾値以下か否かを判断する。曲率半径Rが第1の閾値以下である場合(ステップS124においてYESの場合)には、CPU110(補正部230、表示制御部240)は、ユーザが右手で情報処理装置1を把持し、右手(例えば、右手の親指)でタッチ操作を行なうような場合を想定したメニュー画面を表示する(ステップS126)。すなわち、このとき、ディスプレイ134には、図5(c)のようなメニュー画面が表示される。   In step S124, the CPU 110 (correction unit 230) determines whether or not the radius of curvature R is equal to or less than the first threshold value. When the curvature radius R is equal to or smaller than the first threshold value (YES in step S124), CPU 110 (correction unit 230, display control unit 240) holds information processing apparatus 1 with the right hand, and the right hand ( For example, a menu screen assuming a case where a touch operation is performed with the thumb of the right hand) is displayed (step S126). That is, at this time, a menu screen as shown in FIG.

次に、CPU110(感度変更部260)は、ディスプレイ134の右下の表示領域と関連付けられた、タッチパネル130(位置検出部210)の検出感度を低下させる(ステップS128)。そして、処理は、終了する。   Next, the CPU 110 (sensitivity changing unit 260) reduces the detection sensitivity of the touch panel 130 (position detecting unit 210) associated with the lower right display area of the display 134 (step S128). Then, the process ends.

ステップS124に戻って、曲率半径Rが第1の閾値以下ではない場合(ステップS124においてNOの場合)には、CPU110(補正部230)は、曲率半径Rが第2の閾値以下か否かを判断する(ステップS130)。曲率半径Rが第2の閾値以下である場合(ステップS130においてYESの場合)には、CPU110(補正部230、表示制御部240)は、ユーザが左手で情報処理装置1を把持し、右手で比較的大きいタッチ操作(例えば、右手首を支点としたタッチ操作)を行なうような場合を想定したメニュー画面を表示する(ステップS132)。すなわち、このとき、ディスプレイ134には、図7(c)のようなメニュー画面が表示される。   Returning to step S124, if the curvature radius R is not less than or equal to the first threshold (NO in step S124), the CPU 110 (correction unit 230) determines whether or not the curvature radius R is less than or equal to the second threshold. Judgment is made (step S130). When the curvature radius R is equal to or smaller than the second threshold value (YES in step S130), CPU 110 (correction unit 230, display control unit 240) grips information processing apparatus 1 with the left hand and the right hand. A menu screen is displayed assuming that a relatively large touch operation (for example, a touch operation with the right wrist as a fulcrum) is performed (step S132). That is, at this time, a menu screen as shown in FIG.

これに対して、曲率半径Rが第2の閾値以下ではない場合(ステップS130においてNOの場合)には、ユーザが左手で情報処理装置1を把持し、右手でかなり大きいタッチ操作(例えば、右肘を支点としたタッチ操作)を行なうような場合を想定したメニュー画面を表示する(ステップS134)。すなわち、このとき、ディスプレイ134には、図9(c)のようなメニュー画面が表示される。   On the other hand, when the curvature radius R is not less than or equal to the second threshold value (NO in step S130), the user holds the information processing apparatus 1 with the left hand and the touch operation (for example, right A menu screen that assumes the case of performing a touch operation using the elbow as a fulcrum) is displayed (step S134). That is, at this time, a menu screen as shown in FIG.

次に、ステップS132またはステップS134に対応するメニュー画面が表示されると、CPU110(感度変更部260)は、ディスプレイ134の左下の表示領域と関連付けられた、タッチパネル130(位置検出部210)の検出感度を低下させる(ステップS136)。そして、処理は、終了する。   Next, when the menu screen corresponding to step S132 or step S134 is displayed, the CPU 110 (sensitivity changing unit 260) detects the touch panel 130 (position detecting unit 210) associated with the lower left display area of the display 134. The sensitivity is lowered (step S136). Then, the process ends.

上述のステップS124およびS130は、ユーザの把持状態(タッチ操作を行っている態様)を特定するための処理である。   Steps S124 and S130 described above are processes for specifying the user's gripping state (a mode in which a touch operation is performed).

なお、上記において、タッチ操作を反映した形態でオブジェクト配置設定がなされたメニュー画面を表示するステップ(例えば、ステップS112)と検出感度を低下させるステップ(例えば、ステップS114)とは、逆の順に処理が行なわれてもよい。   In the above, the step of displaying the menu screen in which the object placement setting is made in a form reflecting the touch operation (for example, step S112) and the step of decreasing the detection sensitivity (for example, step S114) are processed in the reverse order. May be performed.

このように、本実施の形態に従う情報処理装置1は、ユーザがタッチ操作の移動軌跡の移動方向からユーザのタッチ操作の利き手(左手または右手)を特定し、これと移動軌跡の曲率半径の値からユーザの把持状態を特定する。そして、情報処理装置1は、利き手と把持状態とを反映した形態でメニュー画面のオブジェクトを配置する。   As described above, information processing apparatus 1 according to the present embodiment identifies the dominant hand (left hand or right hand) of the user's touch operation from the moving direction of the movement track of the touch operation, and the value of the radius of curvature of the moving track. From this, the user's gripping state is specified. Then, the information processing apparatus 1 arranges the objects on the menu screen in a form that reflects the dominant hand and the gripping state.

また、別の局面として、表現すると、CPU110は、表示部(ディスプレイ134)の表示制御を行なうとともに、タッチパネル130の検出結果に応答して処理を実行し、ディスプレイ134へのユーザによるタッチ操作の移動軌跡に基づいて、ユーザの利き手と情報処理装置1の把持状態とを特定し、特定された結果に基づいてオブジェクトを並び替える。   In another aspect, the CPU 110 performs display control of the display unit (display 134), executes processing in response to the detection result of the touch panel 130, and moves the touch operation by the user to the display 134. Based on the trajectory, the user's dominant hand and the gripping state of the information processing apparatus 1 are specified, and the objects are rearranged based on the specified result.

<F.その他の実施の形態>
上記では、第1の閾値と第2の閾値を使用して、曲率半径の値が3つに区分される場合について説明したが、閾値をさらに設けることで曲率半径の値を3つ以上に区分してもよい。このとき、曲率半径の増加した区分数に対応するようにオブジェクトの配置設定のパターンを増加させてもよい。
<F. Other Embodiments>
In the above description, the case where the value of the radius of curvature is divided into three using the first threshold and the second threshold has been described. However, the value of the radius of curvature is divided into three or more by further providing a threshold. May be. At this time, the pattern of the object arrangement setting may be increased so as to correspond to the number of sections with an increased radius of curvature.

また、上記では、複数のオブジェクト配置設定パターンにおいて、左右に並べられるオブジェクトの数が固定数の場合(6つ)について説明したが、これに限らない。例えば、ディスプレイ134が大きい場合などにおいて、片手でタッチ操作するときには、画面の一端から他端まで届かない可能性がある。したがって、このような場合には、指の届く範囲に収まるように左右方向に表示されるオブジェクトの数を減らしてもよい。なお、ユーザは左右にスライド操作することで、表示されなかったオブジェクトを確認できるようにしてもよい。   In the above description, the case where the number of objects arranged on the left and right in the plurality of object arrangement setting patterns is a fixed number (six) has been described, but the present invention is not limited to this. For example, when the display 134 is large or the like, when performing a touch operation with one hand, there is a possibility that the screen does not reach from one end to the other end. Therefore, in such a case, the number of objects displayed in the left-right direction may be reduced so as to be within the reach of the finger. Note that the user may be able to confirm an object that has not been displayed by performing a slide operation to the left and right.

なお、コンピュータを機能させて、上述のフローで説明したような制御を実行させるプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。   It is also possible to provide a program that causes a computer to function and execute control as described in the above flow. Such a program is recorded on a non-temporary computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card, and the program product Can also be provided. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.

なお、プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。   The program may be a program module that is provided as part of an operating system (OS) of a computer and that calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present invention.

また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。   The program according to the present invention may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. Such a program incorporated in another program can also be included in the program according to the present invention.

<G.利点>
本実施の形態とすることで、ユーザが情報処理装置を使用する際の把持状態や利き手、指使いが起動時に判定されるため、これらを考慮した位置にオブジェクトが配置されるため、複数ユーザが使用する場合にも最適な環境を提供できる。
<G. Advantage>
With this embodiment, since the gripping state, dominant hand, and finger usage when the user uses the information processing apparatus are determined at the time of activation, objects are arranged at positions that take these into consideration, so that multiple users An optimal environment can be provided even when used.

また、ユーザが情報処理装置を片手で使用するのか、両手で使用するのか、両手使用の場合には、手首を支点として手を動かすのか、肘を支点として手を動かすのかといったタッチ操作の癖を特定することができるため、画面へ表示されるオブジェクトにバリエーションを加えることができる。   In addition, whether the user uses the information processing device with one hand or both hands, and when using both hands, the user can move the hand with the wrist as a fulcrum or move the hand with the elbow as a fulcrum. Since it can be specified, a variation can be added to the object displayed on the screen.

また、画面をタッチ操作する場合には誤って手のひらが触れる場合があるが、使用する際の把持状態や利き手を特定することで、手のひらが触れる可能性がある位置について検出感度を低下させておけば、誤入力を防ぐこともできる。このことは、画面の大きいタブレット端末において特に効果的である。   In addition, when touching the screen, the palm may touch accidentally, but by specifying the grip state and dominant hand when using it, the detection sensitivity can be lowered for the position where the palm may touch. For example, erroneous input can be prevented. This is particularly effective in a tablet terminal having a large screen.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 情報処理装置、110 CPU、120 メモリ、130 タッチパネル、134 ディスプレイ、140 スピーカ、150 ボタン、160 メモリインターフェイス、162 記憶媒体、170 通信インターフェイス、180 無線通信部、182 通信アンテナ、190 加速度センサ、210 位置検出部、220 解析部、230 補正部、240 表示制御部、250 記憶部、260 感度変更部。   1 Information processing apparatus, 110 CPU, 120 memory, 130 touch panel, 134 display, 140 speaker, 150 button, 160 memory interface, 162 storage medium, 170 communication interface, 180 wireless communication unit, 182 communication antenna, 190 acceleration sensor, 210 position Detection unit, 220 analysis unit, 230 correction unit, 240 display control unit, 250 storage unit, 260 sensitivity change unit.

Claims (7)

表示部と、
前記表示部へのユーザによるタッチ入力された位置を検出可能な位置検出部と、
前記表示部にオブジェクトを表示する制御を行なうとともに、前記位置検出部の検出結果に応答して処理を実行する制御部とを備え、
前記制御部は、ユーザのタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径が第1の値であるときに上下方向に第1の間隔でオブジェクトを配置し、前記第1の値より大きい第2の値のときに上下方向に前記第1の間隔より大きい第2の間隔でオブジェクトを配置する、情報処理装置。
A display unit;
A position detection unit capable of detecting a position touch-input by a user to the display unit;
A control unit that performs control to display an object on the display unit, and performs processing in response to a detection result of the position detection unit,
The control unit arranges the objects at first intervals in the vertical direction when the radius of curvature of the movement trajectory indicating movement from the initial position of the user's touch input is the first value, and from the first value An information processing apparatus that arranges objects at a second interval larger than the first interval in the vertical direction when the second value is large.
前記制御部は、前記移動軌跡の曲率半径が前記第2の値より大きい第3の値のときに、上下方向に前記第1の間隔より小さい間隔でオブジェクトを配置する、請求項1に記載の情報処理装置。   2. The control unit according to claim 1, wherein when the radius of curvature of the movement trajectory is a third value larger than the second value, the control unit arranges objects at an interval smaller than the first interval in the vertical direction. Information processing device. 前記制御部は、前記情報処理装置を起動するための起動オブジェクトを前記情報処理装置を把持するユーザ側に配置する、請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit arranges an activation object for activating the information processing apparatus on a user side holding the information processing apparatus. 前記制御部は、前記移動軌跡の移動方向に沿ってオブジェクトを配置する、請求項1〜3のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit arranges an object along a movement direction of the movement locus. 前記制御部は、前記移動軌跡の曲率半径および前記移動軌跡の移動方向に基づいて、前記位置検出部の検出感度を低下させる前記表示部の表示領域を特定する、請求項1〜4のいずれか1項に記載の情報処理装置。   5. The control unit according to claim 1, wherein the control unit identifies a display area of the display unit that reduces the detection sensitivity of the position detection unit based on a radius of curvature of the movement locus and a movement direction of the movement locus. The information processing apparatus according to item 1. 表示手段を有する情報処理装置の制御方法であって、
前記表示手段へのユーザによるタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径を取得するステップと、
前記曲率半径が第1の値であるときに上下方向に第1の間隔で配置したオブジェクトを表示し、前記第1の値より大きい第2の値のときに上下方向に前記第1の間隔より大きい第2の間隔で配置したオブジェクトを表示するステップとを備える、情報処理装置の制御方法。
A control method for an information processing apparatus having a display means,
Obtaining a radius of curvature of a movement trajectory indicating movement from an initial position of a touch input by a user to the display means;
When the radius of curvature is a first value, objects arranged at a first interval in the vertical direction are displayed, and when the radius is a second value greater than the first value, the object is displayed in the vertical direction from the first interval. And a step of displaying objects arranged at a large second interval.
表示手段を有する情報処理装置で実行させる制御プログラムであって、
前記制御プログラムは、前記情報処理装置のコンピュータに、
前記表示手段へのユーザによるタッチ入力の初期位置からの移動を示す移動軌跡の曲率半径を取得するステップと、
前記曲率半径が第1の値であるときに上下方向に第1の間隔で配置したオブジェクトを表示し、前記第1の値より大きい第2の値のときに上下方向に前記第1の間隔より大きい第2の間隔で配置したオブジェクトを表示するステップとを実行させる、情報処理装置の制御プログラム。
A control program to be executed by an information processing apparatus having display means,
The control program is stored in a computer of the information processing apparatus.
Obtaining a radius of curvature of a movement trajectory indicating movement from an initial position of a touch input by a user to the display means;
When the radius of curvature is a first value, objects arranged at a first interval in the vertical direction are displayed, and when the radius is a second value greater than the first value, the object is displayed in the vertical direction from the first interval. A control program for an information processing apparatus that executes a step of displaying objects arranged at a large second interval.
JP2012023921A 2012-02-07 2012-02-07 Information processing apparatus, control method thereof, and control program thereof Expired - Fee Related JP5855481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012023921A JP5855481B2 (en) 2012-02-07 2012-02-07 Information processing apparatus, control method thereof, and control program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012023921A JP5855481B2 (en) 2012-02-07 2012-02-07 Information processing apparatus, control method thereof, and control program thereof

Publications (2)

Publication Number Publication Date
JP2013161332A JP2013161332A (en) 2013-08-19
JP5855481B2 true JP5855481B2 (en) 2016-02-09

Family

ID=49173509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012023921A Expired - Fee Related JP5855481B2 (en) 2012-02-07 2012-02-07 Information processing apparatus, control method thereof, and control program thereof

Country Status (1)

Country Link
JP (1) JP5855481B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI742471B (en) * 2013-10-11 2021-10-11 日商半導體能源研究所股份有限公司 A driving method of a portable data-processing device
JP7444915B2 (en) 2022-03-22 2024-03-06 本田技研工業株式会社 Information terminal, control method, and control program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108081A (en) * 2008-10-28 2010-05-13 Sharp Corp Menu display device, method of controlling the menu display device, and menu display program
JP5458783B2 (en) * 2009-10-01 2014-04-02 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2011086036A (en) * 2009-10-14 2011-04-28 Victor Co Of Japan Ltd Electronic equipment, method and program for displaying icon

Also Published As

Publication number Publication date
JP2013161332A (en) 2013-08-19

Similar Documents

Publication Publication Date Title
EP2805220B1 (en) Skinnable touch device grip patterns
KR102255143B1 (en) Potable terminal device comprisings bended display and method for controlling thereof
KR102120930B1 (en) User input method of portable device and the portable device enabling the method
JP5507494B2 (en) Portable electronic device with touch screen and control method
US9111076B2 (en) Mobile terminal and control method thereof
JP5759660B2 (en) Portable information terminal having touch screen and input method
EP2508972B1 (en) Portable electronic device and method of controlling same
JP5817716B2 (en) Information processing terminal and operation control method thereof
JP5529700B2 (en) Information processing apparatus, control method thereof, and program
JP6157885B2 (en) Display control method for portable terminal device
US20140351768A1 (en) Method for processing input and electronic device thereof
US20090109187A1 (en) Information processing apparatus, launcher, activation control method and computer program product
TW201329835A (en) Display control device, display control method, and computer program
JP5640486B2 (en) Information display device
WO2013133955A1 (en) Systems and methods for modifying virtual keyboards on a user interface
JP6109788B2 (en) Electronic device and method of operating electronic device
KR20170100485A (en) Digital device and control method thereof
JP6230062B2 (en) Information processing device
TWI520045B (en) Method for determining keys of a virtual keyboard and touch-controlled device utilizing the same
JP2014016743A (en) Information processing device, information processing device control method and information processing device control program
JP6183820B2 (en) Terminal and terminal control method
EP3528103B1 (en) Screen locking method, terminal and screen locking device
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof
US10365757B2 (en) Selecting first digital input behavior based on a second input
JP2014056519A (en) Portable terminal device, incorrect operation determination method, control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5855481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees