JP7272831B2 - Portable terminal device, information processing method and information processing program - Google Patents

Portable terminal device, information processing method and information processing program Download PDF

Info

Publication number
JP7272831B2
JP7272831B2 JP2019046298A JP2019046298A JP7272831B2 JP 7272831 B2 JP7272831 B2 JP 7272831B2 JP 2019046298 A JP2019046298 A JP 2019046298A JP 2019046298 A JP2019046298 A JP 2019046298A JP 7272831 B2 JP7272831 B2 JP 7272831B2
Authority
JP
Japan
Prior art keywords
finger
sensor
slide operation
control unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019046298A
Other languages
Japanese (ja)
Other versions
JP2020149353A (en
Inventor
和行 永澤
漠 藤野
孝弘 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FCNT Ltd
Original Assignee
FCNT Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FCNT Ltd filed Critical FCNT Ltd
Priority to JP2019046298A priority Critical patent/JP7272831B2/en
Publication of JP2020149353A publication Critical patent/JP2020149353A/en
Application granted granted Critical
Publication of JP7272831B2 publication Critical patent/JP7272831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯端末装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to a mobile terminal device, an information processing method and an information processing program.

タッチセンサを備える携帯端末装置が利用されている。近年の携帯端末装置は、筐体の正面側に設けられるディスプレイに重畳して設けられるタッチセンサに加えて、筐体の背面側にもタッチセンサを有するものがある(例えば、特許文献1参照)。 A mobile terminal device equipped with a touch sensor is used. In recent years, some mobile terminal devices have a touch sensor on the rear side of the housing in addition to the touch sensor provided superimposed on the display provided on the front side of the housing (see, for example, Patent Document 1). .

特開2015-188137号公報JP 2015-188137 A

ユーザが携帯端末装置を片手で把持して背面に設けられたタッチセンサを操作する場合、操作を行う指は、タッチセンサに対して傾いて(斜め方向から)接触することになる。そのため、ユーザが意図するスライド操作の方向と実際に指がタッチセンサ上で移動する方向との間にずれが生ずることがある。また、タッチセンサに対して滑らせるように指を移動させる場合、タッチセンサと指との間に生じる摩擦によってスティックスリップ現象が生じる。スティックスリップ現象によっても、ユーザの意図とは異なる方向にタッチセンサ上で指が移動することがある。 When the user holds the mobile terminal device with one hand and operates the touch sensor provided on the back surface, the operating finger is tilted (from an oblique direction) and touches the touch sensor. Therefore, a deviation may occur between the direction of the slide operation intended by the user and the direction in which the finger actually moves on the touch sensor. Further, when a finger is moved so as to slide on the touch sensor, a stick-slip phenomenon occurs due to friction between the touch sensor and the finger. The stick-slip phenomenon can also cause the finger to move on the touch sensor in a direction different from the user's intention.

開示の技術の1つの側面は、筐体の背面に設けられたタッチセンサ上での指の移動方向とユーザの意図する操作方向との間のずれを抑制し得る携帯端末装置を提供することを目的とする。 One aspect of the disclosed technology is to provide a mobile terminal device capable of suppressing a deviation between a direction in which a finger is moved on a touch sensor provided on the back surface of a housing and an operation direction intended by a user. aim.

開示の技術の1つの側面は、次のような携帯端末装置によって例示される。本携帯端末装置は、表示部を有する筐体と、前記筐体の前記表示部が設けられた面の背面に設けられ、指による操作を検出するセンサと、前記センサにタッチした位置からスライド操作を行った方向に、前記表示部の表示をスクロールさせる制御部と、を備え、前記制御部は、前記センサにおいて前記タッチした位置を起点として第1角度範囲で規定される第1領域へのスライド操作を第1方向へのスライド操作として検出する。 One aspect of the disclosed technology is exemplified by the following mobile terminal device. The mobile terminal device includes a housing having a display unit, a sensor provided on the rear surface of the housing on which the display unit is provided and detecting an operation by a finger, and a slide operation from a position where the sensor is touched. a control unit that scrolls the display of the display unit in the direction in which the The operation is detected as a slide operation in the first direction.

本携帯端末装置は、タッチセンサ上での指の移動方向とユーザの意図する操作方向との間のずれを抑制することができる。 This portable terminal device can suppress the deviation between the finger movement direction on the touch sensor and the user's intended operation direction.

図1は、実施形態に係る携帯端末装置の一方から見た外観と他方から見た外観を組み合わせて例示する図である。FIG. 1 is a diagram illustrating a combination of an appearance seen from one side and an appearance seen from the other side of a mobile terminal device according to an embodiment. 図2は、実施形態に係る携帯端末装置のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the mobile terminal device according to the embodiment. 図3は、実施形態に係る携帯端末装置が備えるセンサの検出面を例示した平面図である。FIG. 3 is a plan view illustrating a detection surface of a sensor included in the mobile terminal device according to the embodiment; 図4は、センサの検出面において、センサ入力解析部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 4 is a diagram schematically showing a region where the sensor input analysis unit detects an operation by a user's finger on the detection surface of the sensor. 図5は、実施形態に係る携帯端末装置の背面に設けられたセンサを操作する指の軌跡と、センサ入力解析部が受け付ける入力値とを比較する第1の図である。FIG. 5 is a first diagram for comparing the trajectory of a finger operating a sensor provided on the back surface of the mobile terminal device according to the embodiment and the input value received by the sensor input analysis unit. 図6は、実施形態に係る携帯端末装置の背面に設けられたセンサを操作する指の軌跡と、センサ入力解析部が受け付ける入力値とを比較する第2の図である。FIG. 6 is a second diagram comparing the trajectory of a finger operating the sensor provided on the back surface of the mobile terminal device according to the embodiment and the input value received by the sensor input analysis unit. 図7は、実施形態に係る携帯端末装置の処理フローの一例を示す図である。7 is a diagram illustrating an example of a processing flow of the mobile terminal device according to the embodiment; FIG. 図8は、図7の処理フローによってスクロールした画面の一例を示す図である。FIG. 8 is a diagram showing an example of a screen scrolled by the processing flow of FIG. 図9は、第1変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 9 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the first modification. 図10は、第1変形例に係る携帯端末装置の処理フローの一例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of the mobile terminal device according to the first modification; 図11は、第2変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 11 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the second modification. 図12は、第3変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 12 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the third modification. 図13は、携帯端末装置の背面に設けられたセンサに対して指で操作する状況を模式的に例示する図である。FIG. 13 is a diagram schematically illustrating a situation in which a sensor provided on the back surface of the mobile terminal device is operated with a finger. 図14は、第4変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 14 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the fourth modification. 図15は、第5変形例に係る携帯端末装置の処理フローの一例を示す図である。FIG. 15 is a diagram illustrating an example of a processing flow of a mobile terminal device according to a fifth modification; 図16は、第6変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。FIG. 16 is a diagram schematically showing a region where the control unit detects an operation with a user's finger on the detection surface of the sensor according to the sixth modification. 図17は、スティックスリップ現象によって、センサの検出面において移動と停止とを繰り返す指の軌跡を例示する図である。FIG. 17 is a diagram illustrating the trajectory of a finger that repeatedly moves and stops on the detection surface of the sensor due to the stick-slip phenomenon.

以下、図面を参照して、実施形態について説明する。以下に示す実施形態の構成は例示であり、開示の技術は実施形態の構成に限定されない。 Embodiments will be described below with reference to the drawings. The configuration of the embodiment shown below is an example, and the disclosed technology is not limited to the configuration of the embodiment.

<実施形態>
実施形態に係る携帯端末装置は、表示部を有する筐体と、前記筐体の前記表示部が設けられた面の背面に設けられ、指による操作を検出するセンサと、前記センサにタッチした位置からスライド操作を行った方向に、前記表示部の表示をスクロールさせる制御部と、を備える。本携帯端末装置は、例えば、携帯電話、スマートフォン、携帯情報端末と呼ばれる可搬可能であり片手で把持可能な電子機器である。
<Embodiment>
A mobile terminal device according to an embodiment includes a housing having a display unit, a sensor provided on the back surface of the housing on which the display unit is provided and detecting an operation by a finger, and a position where the sensor is touched. and a control unit for scrolling the display of the display unit in the direction in which the slide operation is performed from the display unit. The mobile terminal device is, for example, a portable electronic device called a mobile phone, a smart phone, or a personal digital assistant that can be held with one hand.

そして、制御部は、前記センサにおいて前記タッチした位置を起点として第1角度範囲の領域を有する第1領域へのスライド操作を第1方向へのスライド操作として検出する。第1領域が第1角度範囲を有するため、センサ上においてスライドする指の軌跡が第1方向から多少ずれていても、ユーザの意図通りに第1方向へのスライド操作として制御部が認識する可能性を高めることができる。 Then, the control unit detects a slide operation to a first area having a first angle range starting from the touched position on the sensor as a slide operation in the first direction. Since the first area has the first angle range, even if the trajectory of the sliding finger on the sensor is slightly deviated from the first direction, the control unit can recognize the slide operation in the first direction as intended by the user. can enhance sexuality.

前記制御部は、前記第1領域と、前記第1方向とは異なる第2方向へのスライド操作を検出する第2領域との間に介在する第3領域へのスライド操作を破棄してもよい。ユーザが第1方向への移動を意図してセンサ上を移動させた指が第1領域から外れても、第1領域と第2領域との間の領域へのスライド操作は破棄されるため、突然第2方向へのスライド操作として検出されることが抑制される。また、制御部がスライド操作を検出しないため、表示部のスクロール等が停止することになる。そのため、制御部は、第1領域または第2領域から指が外れたことをユーザに対して認識させることができる。 The control unit may discard a slide operation to a third area interposed between the first area and a second area that detects a slide operation in a second direction different from the first direction. . Even if the finger moved on the sensor with the intention of moving in the first direction by the user moves out of the first area, the slide operation to the area between the first area and the second area is discarded. A sudden detection as a slide operation in the second direction is suppressed. In addition, since the control unit does not detect the slide operation, scrolling and the like of the display unit are stopped. Therefore, the control section can make the user recognize that the finger has come off the first area or the second area.

前記制御部は、前記第1領域と、前記第1方向とは異なる第2方向へのスライド操作を検出する第2領域との間に介在する第4領域へのスライド操作を、前記第1方向と前記第2方向の中間の方向である第3方向へのスライド操作として検出してもよい。このような構成を採用することで、表示部19に表示される画面を第3方向へのスクロール等を実現することができる。 The control unit controls a slide operation to a fourth area interposed between the first area and a second area for detecting a slide operation in a second direction different from the first direction. and the sliding operation in the third direction, which is an intermediate direction between the second direction and the second direction. By adopting such a configuration, the screen displayed on the display unit 19 can be scrolled in the third direction.

前記第1方向は上方向または下方向であり、前記制御部が、前記第1方向と直交する第4方向へのスライド操作を検出する第3領域は、前記タッチした位置を起点として前記第1角度範囲より広い第2角度範囲で規定されてもよい。携帯端末装置を片手で把持し、把持した手の指でセンサに対するスライド操作を行う場合、上下方向よりも左右方向へのスライド操作が困難と考えられる。このような構成を採用することで、制御部は、移動が困難な左右方向への指の移動によるスライド操作を容易なものとすることができる。 The first direction is an upward direction or a downward direction, and the control unit detects a slide operation in a fourth direction orthogonal to the first direction. A second angular range that is wider than the angular range may be defined. When the portable terminal device is gripped with one hand and the finger of the gripped hand is used to perform a sliding operation on the sensor, it is considered that the sliding operation in the horizontal direction is more difficult than in the vertical direction. By adopting such a configuration, the control unit can facilitate the slide operation by moving the finger in the left-right direction, which is difficult to move.

前記センサは、前記筐体を把持する片手の指が斜め下方向から前記センサに達する位置に設けられ、前記第1領域の位置は、前記斜め下方向から前記センサに達する指の可動範囲に基づいて、決定されてもよい。携帯端末装置を片手で把持すると、センサに対してスライド操作を行う指は、センサに対して上下左右の全ての方向に対して均等な可動範囲を有するわけではない。指の可動範囲に基づいて第1領域が決定されることで、センサに対するスライド操作を容易なものとすることができる。 The sensor is provided at a position where a finger of one hand gripping the housing reaches the sensor from the diagonally downward direction, and the position of the first region is based on the movable range of the finger reaching the sensor from the diagonally downward direction. may be determined by When the mobile terminal device is held with one hand, the finger that performs the sliding operation on the sensor does not have a uniform movable range in all directions of up, down, left, and right with respect to the sensor. By determining the first region based on the movable range of the finger, it is possible to facilitate the sliding operation on the sensor.

前記制御部は、前記第1領域への前記スライド操作を検出すると、前記第1領域を前記第1角度範囲よりも広い角度範囲に拡大してもよい。スライド操作は、同一方向に継続して行われることも考えられる。第1領域へのスライド操作を検出した場合に第1領域を拡大することで、第1方向へのスライド操作を継続することが容易となる。 The control unit may expand the first area to an angle range wider than the first angle range when the slide operation to the first area is detected. It is conceivable that the slide operation is continuously performed in the same direction. By enlarging the first area when a slide operation to the first area is detected, it becomes easy to continue the slide operation in the first direction.

以上で説明した技術は、情報処理方法および情報処理プログラムとして把握することも可能である。 The technology described above can also be grasped as an information processing method and an information processing program.

以下、図面を参照して実施形態についてさらに説明する。図1に、実施形態に係る携帯端末装置の一方から見た外観(前面側の外観とする)と、他方から見た外観(背面側の外観とする)を例示する。図1では、矢印によって、携帯端末装置10の前面側と背面側が入れ替えて配置され、例示されている。携帯端末装置10は、板状の筐体H1を有する。したがって、図1には描かれていないが、筐体H1の前面と背面との間の距離(厚み)は、前面または背面の外形寸法と比較して短い。図1で紙面に向かって上側が筐体H1の上側であり、紙面に向かって下側が筐体H1の下側であると仮定する。なお、制御部13は、筐体H1の内部に収容されている。以下、本明細書において、筐体H1の上下方向をY方向、Y方向と直交する筐体H1の幅方向をX方向とも称する。 Embodiments will be further described below with reference to the drawings. FIG. 1 illustrates the appearance of the mobile terminal device according to the embodiment as seen from one side (front side appearance) and the other side (rear side appearance). In FIG. 1, the front side and the back side of the mobile terminal device 10 are alternately arranged as indicated by arrows. The mobile terminal device 10 has a plate-like housing H1. Therefore, although not depicted in FIG. 1, the distance (thickness) between the front surface and the rear surface of the housing H1 is short compared to the external dimensions of the front surface or the rear surface. It is assumed that the upper side of FIG. 1 is the upper side of the housing H1, and the lower side of the paper is the lower side of the housing H1. Note that the control unit 13 is housed inside the housing H1. Hereinafter, in this specification, the vertical direction of the housing H1 is also referred to as the Y direction, and the width direction of the housing H1 orthogonal to the Y direction is also referred to as the X direction.

図1のように、筐体H1の前面には、表示部19が設けられ、さらに、表示部19の上側中央の位置に第1のカメラH3が設けられている。第1のカメラH3は、携帯端末装置10を操作するユーザが操作中に、そのユーザ自身を撮影し、表示部19にする。筐体H1の前面が筐体H1外面での第1面に相当する。 As shown in FIG. 1, a display unit 19 is provided on the front surface of the housing H1, and a first camera H3 is provided at the upper center position of the display unit 19. As shown in FIG. The first camera H<b>3 photographs the user himself/herself while the user operating the mobile terminal device 10 is operating, and displays the image on the display unit 19 . The front surface of the housing H1 corresponds to the first surface of the outer surface of the housing H1.

筐体H1の背面には、センサ15をカバーする円形状の凹部15Aが形成され、凹部15Aの上方向に第二のカメラH4が設けられている。凹部15A、すなわち、センサ15が設けられる位置は、例えば、筐体H1を片手で把持し、把持した片手の指でセンサ15を操作するときに、当該指がセンサ15の斜め下方からセンサ15に達する位置である。センサ15は、筐体H1の背面中央付近に形成された円形状の凹部15Aの直下に配置されている。凹部15Aをなす筐体H1の外壁がセンサ15を被覆している。センサ15は、凹部15Aをなす筐体H1の外壁を介して、指による接触を検出する。そこで、本実施
の形態では、センサ15と凹部15Aをなす筐体H1の外壁とを含めて、指(指紋のある物体)による操作を検出するセンサということができる。以下、センサ15が凹部15Aをなす筐体H1の外壁を介して、指による接触を検出する場合も、単に、「センサ15が指による接触を検出する」という。なお、第二のカメラH4は筐体H1の後面方向の被写体を撮影し、表示部19に表示する。筐体H1の背面が筐体H1外面での背面に相当する。
A circular recess 15A that covers the sensor 15 is formed on the rear surface of the housing H1, and a second camera H4 is provided above the recess 15A. The concave portion 15A, that is, the position where the sensor 15 is provided is, for example, when the housing H1 is gripped with one hand and the finger of the gripped hand operates the sensor 15, the finger is positioned diagonally below the sensor 15 toward the sensor 15. This is the position to reach. The sensor 15 is arranged directly below a circular concave portion 15A formed near the center of the rear surface of the housing H1. The sensor 15 is covered with the outer wall of the housing H1 forming the recess 15A. The sensor 15 detects finger contact through the outer wall of the housing H1 forming the recess 15A. Therefore, in the present embodiment, the sensor 15 and the outer wall of the housing H1 forming the recess 15A can be called a sensor that detects an operation by a finger (an object having a fingerprint). Hereinafter, even when the sensor 15 detects contact with a finger through the outer wall of the housing H1 forming the recess 15A, it is simply referred to as "the sensor 15 detects contact with a finger". Note that the second camera H4 takes an image of the subject in the rearward direction of the housing H1 and displays it on the display unit 19. FIG. The rear surface of the housing H1 corresponds to the rear surface of the outer surface of the housing H1.

図2は、実施形態に係る携帯端末装置のハードウェア構成図である。携帯端末装置10はプロセッサ11と、主記憶部12と、各種インターフェースを通じて接続される入出力部品を有し、主記憶部12に記憶されるプログラムにより情報処理を実行する。第1の入出力部品としては、表示部19と表示制御部191を例示できる。また、第2の入出力部品としては、タッチパネル18とタッチイベント制御部181を例示できる。第3の入出力部品としては、センサ15とセンサ入力フィルタ部151とセンサ入力解析部152とスクロールタップイベント制御部153を例示できる。第4の入出力部品としては、通信部17を例示できる。 FIG. 2 is a hardware configuration diagram of the mobile terminal device according to the embodiment. The mobile terminal device 10 has a processor 11 , a main storage unit 12 , and input/output components connected through various interfaces, and executes information processing according to programs stored in the main storage unit 12 . The display unit 19 and the display control unit 191 can be exemplified as the first input/output component. Further, the touch panel 18 and the touch event control section 181 can be exemplified as the second input/output component. As the third input/output component, the sensor 15, the sensor input filter section 151, the sensor input analysis section 152, and the scroll tap event control section 153 can be exemplified. The communication unit 17 can be exemplified as the fourth input/output component.

プロセッサ11は、主記憶部12に実行可能に展開されたコンピュータプログラムを実行し、携帯端末装置10の機能を提供する。プロセッサ11は、マルチコアであってもよいし、信号処理等を実行する専用プロセッサを含んでもよい。プロセッサ11は、信号処理、積和演算、ベクトル演算、その他の処理を実行する専用のハードウェア回路を含んでもよい。 The processor 11 executes a computer program executably developed in the main storage unit 12 and provides the functions of the mobile terminal device 10 . The processor 11 may be multi-core, or may include a dedicated processor that performs signal processing and the like. Processor 11 may include dedicated hardware circuits for performing signal processing, sum-of-products operations, vector operations, and other processing.

主記憶部12は、プロセッサ11が実行するコンピュータプログラム、プロセッサ11が処理するデータ等を記憶する。主記憶部12は、Dynamic Random Access Memory(DRAM)、Static Random Access Memory(SRAM)、Read Only Memory(ROM)、フラッシュメモリ等である。 The main storage unit 12 stores computer programs executed by the processor 11, data processed by the processor 11, and the like. The main storage unit 12 is a Dynamic Random Access Memory (DRAM), a Static Random Access Memory (SRAM), a Read Only Memory (ROM), a flash memory, or the like.

なお、携帯端末装置10は、主記憶部12の他に外部記憶部を有してもよい。外部記憶部は、例えば、主記憶部12を補助する記憶領域として使用され、プロセッサ11が実行するコンピュータプログラム、プロセッサ11が処理するデータ等を記憶する。 Note that the mobile terminal device 10 may have an external storage section in addition to the main storage section 12 . The external storage unit is used, for example, as a storage area that assists the main storage unit 12, and stores computer programs executed by the processor 11, data processed by the processor 11, and the like.

また、表示部19は、例えば、液晶ディスプレイ、エレクトロルミネッセンスパネル等である。表示制御部191は、例えば、表示部19に表示される画像を格納する画像メモリと、グラフィックス処理を実行するコントローラ等である。ただし、表示制御部191がプロセッサ11と主記憶部12上のプログラムによって形成されてもよい。また、表示制御部191は、信号処理専用のプロセッサとメモリ等に記憶されたプログラムによって形成されてもよい。また、表示制御部191が専用のハードウェア回路を含んでもよい。 Also, the display unit 19 is, for example, a liquid crystal display, an electroluminescence panel, or the like. The display control unit 191 is, for example, an image memory that stores images displayed on the display unit 19 and a controller that executes graphics processing. However, the display control section 191 may be formed by the processor 11 and the program on the main storage section 12 . Also, the display control unit 191 may be formed by a processor dedicated to signal processing and a program stored in a memory or the like. Also, the display control unit 191 may include a dedicated hardware circuit.

タッチパネル18は、表示部19の画面上に配置され、指による接触を検出し、接触位置の座標値を取得する。タッチイベント制御部181は、タッチパネル18において、取得された接触位置の座標値と時刻情報をプロセッサ11に通知する。タッチイベント制御部181は、プロセッサ11と主記憶部12上のプログラムによって形成されてもよいし、専用のプロセッサと図示しないメモリに記憶されたプログラムによって形成されてもよい。また、タッチイベント制御部181は、専用のハードウェア回路を含んでもよい。 The touch panel 18 is arranged on the screen of the display unit 19, detects contact with a finger, and obtains coordinate values of the contact position. The touch event control unit 181 notifies the processor 11 of the acquired coordinate values of the contact position and the time information on the touch panel 18 . The touch event control unit 181 may be formed by the processor 11 and a program on the main storage unit 12, or may be formed by a dedicated processor and a program stored in a memory (not shown). Also, the touch event control unit 181 may include a dedicated hardware circuit.

通信部17は、ネットワーク上の他の装置とデータを授受する。通信部17は、例えば、携帯電話網の基地局と接続可能な端末側の通信装置である。ただし、通信部17は、無線Local Area Network(LAN)へのインターフェース、Bluetooth(登録商標)、Bluetooth Low Energy(BLE)のインタ
ーフェースを含んでもよい。
The communication unit 17 exchanges data with other devices on the network. The communication unit 17 is, for example, a terminal-side communication device that can be connected to a base station of a mobile phone network. However, the communication unit 17 may include an interface to a wireless Local Area Network (LAN), an interface for Bluetooth (registered trademark), and an interface for Bluetooth Low Energy (BLE).

図3は、実施形態に係る携帯端末装置が備えるセンサの検出面を例示した平面図である。センサ15は、指による接触を検出する接触センサ15Cと、指の指紋を検出する指紋センサ15Bを含む。接触センサ15Cは、複数の検出素子15CEを配列して有する。したがって、接触センサ15Cは、配列された複数の検出素子15CEにより人の指の接触面から複数個の接触点を検出する。この接触点の数は、指の接触面積に相当する。図3の例では、接触センサ15Cは、4×3の配列で合計12箇所から指の接触を検出する。12箇所には、それぞれ静電容量センサが配置され、筐体H1に形成された凹部15Aの外壁を介して、指の接触を検出する。複数の検出素子15CEは、指による接触を検出する複数の検出部の一例である。 FIG. 3 is a plan view illustrating a detection surface of a sensor included in the mobile terminal device according to the embodiment; The sensor 15 includes a contact sensor 15C that detects finger contact and a fingerprint sensor 15B that detects the fingerprint of the finger. The contact sensor 15C has an array of multiple detection elements 15CE. Therefore, the contact sensor 15C detects a plurality of contact points from the contact surface of a person's finger by means of the arranged plurality of detection elements 15CE. The number of contact points corresponds to the contact area of the finger. In the example of FIG. 3, the contact sensors 15C detect finger contact from a total of 12 points in a 4×3 array. Capacitive sensors are arranged at 12 locations, respectively, and detect finger contact via the outer wall of the recess 15A formed in the housing H1. The plurality of detection elements 15CE is an example of a plurality of detection units that detect finger contact.

一方、指紋センサ15Bも、静電容量センサの配列を含む。ただし、指紋センサ15Bは、接触センサ15Cよりも細かい静電容量センサの配列を有し、画素配列を形成し、画像を取得する。指紋センサ15Bの静電容量センサの配列要素数(画素数に相当)は、接触センサ15Cの静電容量センサ数の1000倍から10000倍程度である。例えば、画素数は、概ね100×100~400×400程度である。 Fingerprint sensor 15B, on the other hand, also includes an array of capacitive sensors. However, the fingerprint sensor 15B has a finer array of capacitance sensors than the contact sensor 15C, forms a pixel array, and acquires an image. The number of array elements (corresponding to the number of pixels) of the capacitance sensors of the fingerprint sensor 15B is about 1000 to 10000 times the number of the capacitance sensors of the contact sensor 15C. For example, the number of pixels is approximately 100×100 to 400×400.

したがって、接触センサ15Cは、指の接触面(上述のように筐体H1の外壁への接触)から、粗くかつ高速に接触の有無を検出する。一方、指紋センサ15Bは、接触センサ15Cよりも精細な接触面の画像を取得する。ただし、指紋センサ15Bが接触面全体の画像を取得する時間は、接触センサ15Cが指による接触の有無を検出する時間よりも長い。そこで、本実施の形態では、制御部13は、接触センサ15Cにより比較的短時間に、指による粗い接触状態を検出し、比較的時間を掛けて、指紋センサ15Bによる精細な接触面での指紋の画像を取得する。 Therefore, the contact sensor 15C roughly and rapidly detects the presence or absence of contact from the contact surface of the finger (contact with the outer wall of the housing H1 as described above). On the other hand, the fingerprint sensor 15B acquires a finer image of the contact surface than the contact sensor 15C. However, the time taken by the fingerprint sensor 15B to acquire an image of the entire contact surface is longer than the time taken by the contact sensor 15C to detect the presence or absence of finger contact. Therefore, in the present embodiment, control unit 13 detects a rough contact state of a finger by contact sensor 15C in a relatively short time, and takes a relatively long time to detect a fine fingerprint on the contact surface by fingerprint sensor 15B. Get an image of

なお、制御部13は、接触センサ15Cから、指が接触している面積に相当する、接触点の個数の報告を受ける。制御部13は、接触センサ15Cから報告された接触点の個数が第1の判定値を超えると、指がセンサ15に接触したと判定する。この場合、第1の判定値は、接触センサ15Cの検出素子の数よりも小さな数でもよい。また、第1判定値は、検出素子の全数であってもよい。また、制御部13は、接触センサ15Cから報告された接触点の個数の第2の判定値を下回ると、指がセンサ15に離間したと判定する。第2の判定値は、0でなくもてもよい。さらに、制御部13は、第2判定値として、第1判定値より小さな値を採用することで、ユーザの指よる接触の検出時、ヒステリシスを形成し、ユーザの指によるセンサ15への接触と離間を安定して判断できる。 Note that the control unit 13 receives a report of the number of contact points, which corresponds to the area with which the finger is in contact, from the contact sensor 15C. The control unit 13 determines that the finger has touched the sensor 15 when the number of contact points reported from the contact sensor 15C exceeds the first determination value. In this case, the first determination value may be a number smaller than the number of detection elements of the contact sensor 15C. Also, the first determination value may be the total number of detection elements. Further, the control unit 13 determines that the finger is separated from the sensor 15 when the number of contact points reported from the contact sensor 15C falls below the second determination value. The second determination value may not be 0. Further, the control unit 13 adopts a value smaller than the first determination value as the second determination value, thereby forming a hysteresis when detecting contact by the user's finger and detecting contact with the sensor 15 by the user's finger. Separation can be judged stably.

図2に戻り、センサ15について説明を継続する。センサ15は、図1で説明した通り、筐体H1背面の凹部15Aに被覆されて、筐体H1内に配置される。センサ15は、ユーザの指紋の画像を取得するとともに、ユーザの指による凹部15Aを介した接触を検出する。センサ入力フィルタ部151は、センサ15で検出された信号を信号処理フィルタにより整形する。例えば、センサ入力フィルタ部151は、センサ15で検出された信号からノイズを除去し、画像のエッジを強調する処理をする。センサ入力解析部152は、センサ入力フィルタ部151からの信号を基に、ユーザの指紋の画像を形成する。また、センサ入力解析部152は、センサ入力フィルタ部151からの信号を基に、接触センサ15Cでの接触の有無を判定した結果である、オンオフの2値信号を生成する。スクロールタップイベント制御部153は、センサ入力解析部152からの画像を基に、センサ15(凹部15A)でのユーザの指によるスライド操作、タップ操作を検出する。スライド操作は、例えば、指をセンサ15に接触させ、接触した状態を維持してセンサ15上を滑るように移動させる操作である。そして、スクロールタップイベント制御部153は、スライド操作の方向、タップとロングタップとの区別等をプロセッサ11に報告する。 Returning to FIG. 2, the description of the sensor 15 is continued. As described with reference to FIG. 1, the sensor 15 is arranged inside the housing H1 so as to be covered by the recess 15A on the rear surface of the housing H1. The sensor 15 acquires an image of the user's fingerprint and detects contact with the user's finger via the recess 15A. The sensor input filter unit 151 shapes the signal detected by the sensor 15 using a signal processing filter. For example, the sensor input filter unit 151 removes noise from the signal detected by the sensor 15 and performs processing to emphasize the edges of the image. The sensor input analysis unit 152 forms an image of the user's fingerprint based on the signal from the sensor input filter unit 151 . Based on the signal from the sensor input filter unit 151, the sensor input analysis unit 152 also generates an ON/OFF binary signal that is the result of determining whether or not the contact sensor 15C is in contact. Based on the image from the sensor input analysis unit 152, the scroll tap event control unit 153 detects a slide operation or a tap operation by the user's finger on the sensor 15 (recess 15A). The slide operation is, for example, an operation of contacting the sensor 15 with a finger and sliding the finger on the sensor 15 while maintaining the contact state. Then, the scroll tap event control unit 153 reports to the processor 11 the direction of the slide operation, the distinction between the tap and the long tap, and the like.

センサ入力フィルタ部151、センサ入力解析部152、スクロールタップイベント制御部153の少なくとも1つは、プロセッサ11と主記憶部12上のプログラムによって形成されてもよい。また、これらのうちの少なくとも1つが専用のプロセッサとメモリに記憶されたプログラムによって形成されてもよい。また、また、これらのうちの少なくとも1つが、専用のハードウェア回路を含んでもよい。 At least one of the sensor input filter unit 151 , the sensor input analysis unit 152 , and the scroll tap event control unit 153 may be formed by the processor 11 and programs on the main storage unit 12 . Alternatively, at least one of these may be formed by a dedicated processor and a program stored in memory. Alternatively, at least one of these may also include dedicated hardware circuitry.

本実施形態では、プロセッサ11と主記憶部12を制御部13と呼ぶことにする。ただし、制御部13は、表示制御部191、タッチイベント制御部181、センサ入力フィルタ部151、センサ入力解析部152、スクロールタップイベント制御部153の少なくとも一部を含んでもよい。 In this embodiment, the processor 11 and the main storage unit 12 are called a control unit 13. FIG. However, the control unit 13 may include at least part of the display control unit 191 , the touch event control unit 181 , the sensor input filter unit 151 , the sensor input analysis unit 152 and the scroll tap event control unit 153 .

図4は、実施形態に係るセンサの検出面において、制御部がユーザの指によるスライド操作を検出する領域を模式的に示す図である。図4では、ユーザの指による指が最初にタッチした位置を中心点P1として、中心点P1を通り上下方向を例示する点線L1と、中心点P1を通り左右方向を例示する点線L2とが例示される。センサ15の検出面は、検出領域R1、R2、R3、R4の4つの領域に区分される。本実施形態において、センサ15の検出面における右方向を0度方向、上方向を90度方向、左方向を180度方向、下方向を270度方向とも称する。 FIG. 4 is a diagram schematically showing a region where a control unit detects a slide operation by a user's finger on the detection surface of the sensor according to the embodiment; In FIG. 4 , the position first touched by the user's finger is defined as a center point P1, and a dotted line L1 passing through the center point P1 exemplifying the vertical direction and a dotted line L2 passing through the center point P1 exemplifying the horizontal direction are illustrated. be done. The detection surface of the sensor 15 is divided into four detection areas R1, R2, R3 and R4. In this embodiment, the right direction on the detection surface of the sensor 15 is also referred to as the 0-degree direction, the upward direction as the 90-degree direction, the left direction as the 180-degree direction, and the downward direction as the 270-degree direction.

検出領域R1は、中心点P1を起点とした中心点P1よりも上側の領域であって、上下方向に延びる点線L1を中心線として左右方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R1へのスライド操作を、中心点P1から上方向(90度方向)へのスライド操作として検出する。検出領域R2は、中心点P1を起点とした中心点P1よりも左側の領域であって、左右方向に延びる点線L2を中心線として上下方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R2へのスライド操作を、中心点P1から左方向(180度方向)へのスライド操作として検出する。 The detection region R1 is a region above the center point P1 starting from the center point P1, and is a region defined by an angle range of a predetermined angle θ1 in the horizontal direction with the dotted line L1 extending in the vertical direction as the center line. be. The control unit 13 detects a slide operation from the center point P1 to the detection region R1 as a slide operation upward (90 degrees direction) from the center point P1. The detection region R2 is a region on the left side of the center point P1 starting from the center point P1, and is a region defined by an angle range of a predetermined angle θ1 in the vertical direction with the dotted line L2 extending in the horizontal direction as the center line. be. The control unit 13 detects a slide operation from the center point P1 to the detection region R2 as a slide operation from the center point P1 to the left (180 degree direction).

検出領域R3は、中心点P1を起点とした中心点P1よりも下側の領域であって、上下方向に延びる点線L1を中心線として左右方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R3へのスライド操作を、中心点P1から下方向(270度方向)へのスライド操作として検出する。検出領域R4は、中心点P1を起点とした中心点P1よりも右側の領域であって、左右方向に延びる点線L2を中心線として上下方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R4へのスライド操作を、中心点P1から右方向(0度方向)へのスライド操作として検出する。所定角度θは、「第1角度範囲」の一例である。検出領域R1、R2、R3、R4のいずれかは、「第1領域」の一例である。 The detection region R3 is a region below the center point P1 starting from the center point P1, and is defined by an angle range of a predetermined angle θ1 in the horizontal direction with the dotted line L1 extending in the vertical direction as the center line. is. The control unit 13 detects a slide operation from the center point P1 to the detection region R3 as a slide operation from the center point P1 downward (270-degree direction). The detection region R4 is a region on the right side of the center point P1 starting from the center point P1, and is a region defined by an angle range of a predetermined angle θ1 in the vertical direction with the dotted line L2 extending in the horizontal direction as the center line. be. The control unit 13 detects a slide operation from the center point P1 to the detection region R4 as a slide operation from the center point P1 to the right (0 degree direction). The predetermined angle θ1 is an example of the "first angle range". Any one of the detection regions R1, R2, R3, and R4 is an example of the "first region."

すなわち、制御部13は、上下左右それぞれの方向を検出する領域を、センサ15の検出面を指がタッチした中心点P1を中心(起点)として所定の角度範囲θで規定される検出領域R1、R2、R3、R4に拡大する。制御部13は、センサ15にタッチした指が中心点P1から検出領域R1、R2、R3、R4のいずれの領域に移動するかで指の移動方向を検出する。換言すれば、制御部13は、センサ15に対するユーザの指によるスライド操作を検出する方向を上下左右の4方向に限定し、限定したそれぞれの方向への移動操作を検出する領域を角度範囲θで規定される領域に拡張する。 That is, the control unit 13 detects the up, down, left, and right directions as a detection region R1 defined by a predetermined angle range θ1 centered (starting point) on the center point P1 where the finger touches the detection surface of the sensor 15. , R2, R3, R4. The control unit 13 detects the moving direction of the finger by determining which of the detection areas R1, R2, R3, and R4 the finger touching the sensor 15 moves from the center point P1. In other words, the control unit 13 limits the directions in which the user's finger slide operation on the sensor 15 is detected to the four directions of up, down, left, and right, and sets the area for detecting the movement operation in each of the limited directions to the angle range θ 1 . Extends to the area specified in

なお、センサ15は筐体H1の背面に設けられているため、制御部13がセンサ15の検出面における右方向(0度方向)へのスライド操作を検出すると、制御部13は表示部19の画面を左方向にスクロールさせる。また、制御部13がセンサ15の検出面におけ
る左方向(180度方向)へのスライド操作を検出すると、制御部13は表示部19の画面を右方向にスクロールさせる。
In addition, since the sensor 15 is provided on the back surface of the housing H1, when the control unit 13 detects that the detection surface of the sensor 15 is slid to the right (0 degree direction), the control unit 13 causes the display unit 19 to move. Scroll the screen to the left. When the control unit 13 detects a leftward (180-degree direction) slide operation on the detection surface of the sensor 15, the control unit 13 scrolls the screen of the display unit 19 rightward.

図5および図6は、実施形態に係る携帯端末装置の背面に設けられたセンサを操作する指の軌跡と、制御部が受け付ける入力値とを比較する図である。図5はユーザが上方向に指を移動しようとした場合を例示した図であり、図6はユーザが右方向に指を移動しようとした場合を例示する図である。ユーザは、携帯端末装置10を片手で把持し、把持した手の指でセンサ15を操作することが多い。このように操作されると、ユーザは指を中心点P1から真っすぐ上に向けて移動させたつもりでも、図5の軌跡F1に例示されるように、センサ15による検出値(実際の指の移動する軌跡)は真っすぐ上に向かう方向から若干ずれることがある。また、ユーザが指を中心点P1から真っすぐ右に向けて移動させたつもりでも、図6の軌跡F2に例示されるように、センサ15の検出値は真っすぐ右に向かう方向から若干ずれることがある。これは、携帯端末装置10を把持した手の指でセンサ15を操作すると、手の構造上、センサ15に対して指が斜め方向から接触することになるため、ユーザの意図した指の動きと、センサ15に対する指の動きとの間にずれが生じることによる。また、センサ15の表面と指との間に生じる摩擦によりスティックスリップ現象が生じ、指が移動と停止とを繰り返した結果、ユーザの意図とは異なる方向に指が移動することも一因として挙げられる。 5 and 6 are diagrams for comparing the trajectory of a finger operating the sensor provided on the back surface of the mobile terminal device according to the embodiment and the input values received by the control unit. FIG. 5 is a diagram exemplifying a case where the user tries to move his finger upward, and FIG. 6 is a diagram exemplifying a case where the user tries to move his finger rightward. A user often holds the mobile terminal device 10 with one hand and operates the sensor 15 with the fingers of the holding hand. When operated in this manner, even if the user intends to move the finger straight upward from the center point P1, the value detected by the sensor 15 (actual finger movement trajectory) may deviate slightly from the straight upward direction. Also, even if the user intends to move the finger straight to the right from the center point P1, the detected value of the sensor 15 may deviate slightly from the direction straight to the right, as exemplified by the locus F2 in FIG. . This is because when the sensor 15 is operated with the finger of the hand holding the mobile terminal device 10, the finger touches the sensor 15 from an oblique direction due to the structure of the hand. , and the movement of the finger relative to the sensor 15 . In addition, friction between the surface of the sensor 15 and the finger causes a stick-slip phenomenon, and as a result of the finger repeatedly moving and stopping, the finger moves in a direction different from the user's intention. be done.

本実施形態では、センサ15をスライド操作するユーザの指の上方向へのスライド操作を制御部13が検出する領域として、真っすぐ上(90度方向)に向かう方向よりも広い検出領域R1が採用されている。検出領域R1は、真っすぐ上に向かう方向から所定角度だけ広げた角度範囲を含む。また、本実施形態では、センサ15をスライド操作するユーザの指の右方向へのスライド操作を制御部13が検出する領域として、真っすぐ右(0度方向)に向かう方向よりも広い検出領域R4が採用されている。検出領域R4は、真っすぐ右に向かう方向から所定角度だけ広げた角度範囲を含む。 In the present embodiment, a detection region R1 wider than the straight upward direction (90-degree direction) is adopted as the region in which the control unit 13 detects the upward sliding operation of the finger of the user who slides the sensor 15. ing. The detection area R1 includes an angular range expanded by a predetermined angle from the straight upward direction. Further, in the present embodiment, the control unit 13 detects a rightward sliding operation of the finger of the user who slides the sensor 15, and a detection area R4 wider than the straight rightward direction (0 degree direction) is provided. Adopted. The detection area R4 includes an angular range expanded by a predetermined angle from the straight rightward direction.

制御部13は、センサ15が検出した軌跡F1のX方向に対する角度を算出する。制御部13は、算出した角度が検出領域R1の範囲内であれば、指は真っすぐ上に移動したと判定する。また、制御部13は、センサ15が検出した軌跡F2のX方向に対する角度を算出する。制御部13は、算出した角度が検出領域R4の範囲内であれば、指は真っすぐ右に移動したと判定する。 The control unit 13 calculates the angle of the trajectory F1 detected by the sensor 15 with respect to the X direction. If the calculated angle is within the detection region R1, the control unit 13 determines that the finger has moved straight up. The control unit 13 also calculates the angle of the trajectory F2 detected by the sensor 15 with respect to the X direction. If the calculated angle is within the detection region R4, the control unit 13 determines that the finger has moved straight to the right.

このような処理により、図5の軌跡F1のように90度方向から若干ずれた方向に指が移動していても、制御部13は指の軌跡F1を90度方向へののスライド操作を示す入力値I1として受け付けることができる。また、図6の軌跡F2のように0度方向から若干ずれた方向に指が移動していても、制御部13は指の軌跡F2を0度方向へのスライド操作を示す入力値I2として受け付けることができる。検出領域R3、R4についても同様である。 Through such processing, even if the finger moves in a direction slightly deviated from the 90-degree direction as shown by the trajectory F1 in FIG. It can be accepted as the input value I1. Also, even if the finger moves in a direction slightly deviated from the 0-degree direction as shown by the trajectory F2 in FIG. be able to. The same applies to the detection regions R3 and R4.

図7は、実施形態に係る携帯端末装置の処理フローの一例を示す図である。以下、図7を参照して、実施形態に係る携帯端末装置10の処理フローについて説明する。 7 is a diagram illustrating an example of a processing flow of the mobile terminal device according to the embodiment; FIG. A processing flow of the mobile terminal device 10 according to the embodiment will be described below with reference to FIG.

T1では、ユーザの指によるセンサ15へのスライド操作が開始される。センサ15は、スライド操作を開始する指がタッチした位置を制御部13に報告する。制御部13は、報告された位置を中心点P1とする。T2では、制御部13は、センサ15で検出された信号を基に、センサ15にタッチした状態を維持して移動する指の中心点P1からの移動方向を検出する。制御部13は、検出した移動方向の角度(例えば、X方向に対する角度)を算出する。 At T1, a slide operation to the sensor 15 by the user's finger is started. The sensor 15 reports to the control unit 13 the position touched by the finger that initiates the slide operation. The control unit 13 takes the reported position as the center point P1. At T2, based on the signal detected by the sensor 15, the control unit 13 detects the moving direction from the center point P1 of the finger moving while maintaining the state of touching the sensor 15. FIG. The control unit 13 calculates the angle of the detected moving direction (for example, the angle with respect to the X direction).

T3では、制御部13は、T2で算出した角度を基に、スライド操作で移動した指が検出領域R1、R2、R3、R4のいずれの領域に属するかを判定する。制御部13は、判定した領域に基づいてスライド操作の方向を決定する。T4では、制御部13は、T3で判定された領域に対応する方向に、表示部19に表示されている画面をスクロールさせる。 At T3, the control unit 13 determines to which detection region R1, R2, R3, or R4 the finger moved by the slide operation belongs, based on the angle calculated at T2. The control unit 13 determines the direction of the slide operation based on the determined area. At T4, the control unit 13 scrolls the screen displayed on the display unit 19 in the direction corresponding to the area determined at T3.

図8は、図7の処理フローによってスクロールした画面の一例を示す図である。図8では、制御部13が、図7の処理フローによって上方向への指のスライド操作(上方向へのスクロール操作)を検出した場合が例示される。図8では、左側の状態から上スクロールによって右側の状態に遷移したことが例示されている。制御部13は、図7に例示される処理フローによって、センサ15に対するユーザの指による操作を検出することで、ユーザが望む方向に表示部19に表示した画面をスクロールさせることができる。 FIG. 8 is a diagram showing an example of a screen scrolled by the processing flow of FIG. FIG. 8 illustrates a case where the control unit 13 detects an upward finger slide operation (an upward scroll operation) by the processing flow of FIG. 7 . FIG. 8 illustrates transition from the left state to the right state by scrolling up. The control unit 13 can scroll the screen displayed on the display unit 19 in the direction desired by the user by detecting the user's finger operation on the sensor 15 according to the processing flow illustrated in FIG. 7 .

<実施形態の作用効果>
実施形態では、制御部13は、検出領域R1、R2、R3、R4のように、センサ15に対するユーザの指によるスライド操作による移動操作の移動方向を検出する領域を拡大することで、ユーザの意図に沿った方向へのスクロールを実現できる。なお、実施形態で開示する技術は、スクロールに限定されるわけではなく、表示部19に表示されるカーソルや画像等を移動する操作に適用してもよい。
<Action and effect of the embodiment>
In the embodiment, the control unit 13 expands the detection areas R1, R2, R3, and R4 to detect the movement direction of the movement operation by the user's finger slide operation on the sensor 15, thereby detecting the user's intention. You can achieve scrolling in the direction along the . Note that the technology disclosed in the embodiments is not limited to scrolling, and may be applied to an operation of moving a cursor, an image, or the like displayed on the display unit 19 .

センサ15の検出面における検出領域の設定には様々なバリエーションが考えられる。そのバリエーションの例示について、以下に変形例として説明する。 Various variations are conceivable for setting the detection area on the detection surface of the sensor 15 . Examples of variations thereof will be described below as modified examples.

<第1変形例>
実施形態では、センサ15の検出面の全体を検出領域R1、R2、R3、R4の4つの領域に分割し、センサ15が検出したスライド操作の軌跡が属する検出領域を基に、制御部13はスライド操作による移動方向を検出した。第1変形例では、センサ15の検出面を、指の移動方向を検出する4つの領域に分割するとともに、これら分割した領域それぞれの間にスライド操作を検出しない不感領域を設ける。実施形態と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第1変形例について説明する。
<First modification>
In the embodiment, the entire detection surface of the sensor 15 is divided into four detection regions R1, R2, R3, and R4. Detected the movement direction by slide operation. In the first modification, the detection surface of the sensor 15 is divided into four regions for detecting the moving direction of the finger, and dead regions for not detecting the slide operation are provided between these divided regions. The same reference numerals are assigned to the same configurations as in the embodiment, and the description thereof is omitted. A first modified example will be described below with reference to the drawings.

図9は、第1変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。第1変形例では、センサ15の検出面は、スライド操作を検出する領域である検出領域R1a、R2a、R3a、R4aと、スライド操作を検出しない領域である不感領域R5に分割される。この場合、検出領域R1a、検出領域R2a、不感領域R5は、それぞれ「第1領域」、「第2領域」、「第3領域」の一例である。 FIG. 9 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the first modification. In the first modification, the detection surface of the sensor 15 is divided into detection areas R1a, R2a, R3a, and R4a, which are areas for detecting slide operations, and dead areas R5, which are areas for which no slide operations are detected. In this case, the detection area R1a, the detection area R2a, and the dead area R5 are examples of the "first area," the "second area," and the "third area," respectively.

検出領域R1aは、中心点P1を起点とした中心点P1よりも上側の領域であって、上下方向に延びる点線L1を中心線として左右方向に所定角度θよりも小さい所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R1aへのスライド操作を、中心点P1から90度方向へのスライド操作として検出する。検出領域R2aは、中心点P1を起点とした中心点P1よりも左側の領域であって、左右方向に延びる点線L2を中心線として上下方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R2aへのスライド操作を、中心点P1から270度方向へのスライド操作として検出する。 The detection area R1a is an area above the center point P1 starting from the center point P1, and extends at a predetermined angle θ2 smaller than the predetermined angle θ1 in the left-right direction with the dotted line L1 extending in the vertical direction as the center line. A region defined by a range. The control unit 13 detects a slide operation from the center point P1 to the detection region R1a as a slide operation from the center point P1 in the direction of 90 degrees. The detection region R2a is a region on the left side of the center point P1 starting from the center point P1, and is a region defined by an angle range of a predetermined angle θ2 in the vertical direction with the dotted line L2 extending in the horizontal direction as the center line. be. The control unit 13 detects a slide operation from the center point P1 to the detection region R2a as a slide operation from the center point P1 in the direction of 270 degrees.

検出領域R3aは、中心点P1を起点とした中心点P1よりも下側の領域であって、上下方向に延びる点線L1を中心線として左右方向に所定角度θの角度範囲によって区画
される領域である。制御部13は、中心点P1から検出領域R3aへのスライド操作を、中心点P1から270度方向へのスライド操作として検出する。検出領域R4aは、中心点P1を起点とした中心点P1よりも右側の領域であって、左右方向に延びる点線L2を中心線として上下方向に所定角度θの角度範囲によって区画される領域である。制御部13は、中心点P1から検出領域R4aへのスライド操作を、中心点P1から0度方向へのスライド操作として検出する。
The detection region R3a is a region below the center point P1 starting from the center point P1, and is defined by an angular range of a predetermined angle θ2 in the horizontal direction with the dotted line L1 extending in the vertical direction as the center line. is. The control unit 13 detects a slide operation from the center point P1 to the detection region R3a as a slide operation from the center point P1 in the direction of 270 degrees. The detection region R4a is a region on the right side of the center point P1 starting from the center point P1, and is a region defined by an angle range of a predetermined angle θ2 in the vertical direction with the dotted line L2 extending in the horizontal direction as the center line. be. The control unit 13 detects a slide operation from the center point P1 to the detection region R4a as a slide operation from the center point P1 in the direction of 0 degrees.

上記の通り、検出領域R1a、R2a、R3a、R4a、は、実施形態に係る領域R1、R2、R3、R4を区画する所定角度θよりも小さい所定角度θによって区画される。そのため、検出領域R1a、R2a、R3a、R4a、の間にはスライド操作を検出しない領域が存在し、その領域が不感領域R5となる。制御部13は、不感領域R5に対するスライド操作を検出せずに破棄する。 As described above, the detection regions R1a, R2a, R3a, and R4a are defined by the predetermined angle θ2 that is smaller than the predetermined angle θ1 that defines the regions R1, R2, R3, and R4 according to the embodiment. Therefore, there is an area in which the slide operation is not detected among the detection areas R1a, R2a, R3a, and R4a, and this area becomes the dead area R5. The control unit 13 discards the slide operation on the dead area R5 without detecting it.

センサ15の検出面を検出領域R1aから時計回りにみると、検出領域R1a→不感領域R5→検出領域R2a→不感領域R5→検出領域R3a→不感領域R5→検出領域R4a→不感領域R5→検出領域R1a、となる。すなわち、第1変形例では、スライド操作を検出する検出領域とスライド操作を検出しない不感領域とがセンサ15の検出面において交互に並んでいる。換言すれば、第1変形例では、検出領域のそれぞれは、不感領域によって挟まれている。 When the detection surface of the sensor 15 is viewed clockwise from the detection area R1a, the detection area R1a→the dead area R5→the detection area R2a→the dead area R5→the detection area R3a→the dead area R5→the detection area R4a→the dead area R5→the detection area. R1a. That is, in the first modified example, the detection area for detecting the slide operation and the dead area for not detecting the slide operation are alternately arranged on the detection surface of the sensor 15 . In other words, in the first modified example, each of the detection areas is sandwiched between dead areas.

図10は、第1変形例に係る携帯端末装置の処理フローの一例を示す図である。第1変形例に係る処理フローでは、実施形態に係る処理フロー(図7)とは、J1の処理を含む点で異なる。 FIG. 10 is a diagram illustrating an example of a processing flow of the mobile terminal device according to the first modification; The processing flow according to the first modification differs from the processing flow (FIG. 7) according to the embodiment in that it includes the processing of J1.

J1では、制御部13は、T2で算出した角度を基に、指の移動方向が不感領域R5に属するか否かを判定する。不感領域R5に属する場合(J1でYES)、処理はT1に戻される。不感領域R5に属しない場合(J1でNO)、処理はT3に進められる。 At J1, the control unit 13 determines whether or not the moving direction of the finger belongs to the dead area R5 based on the angle calculated at T2. If it belongs to the dead area R5 (YES in J1), the process returns to T1. If it does not belong to the dead region R5 (NO in J1), the process proceeds to T3.

第1変形例によれば、例えば、ユーザが上方向への移動を意図してセンサ15上を移動させた指が検出領域R1aから外れても、いきなり他の方向(例えば、右方向)への移動として検出されることが抑制される。また、指が不感領域R5に達すると制御部13がスライド操作を検出しないため、表示部19のスクロール等が停止することになる。そのため、制御部13は、検出領域から指が外れたことをユーザに対して認識させることができる。 According to the first modification, for example, even if the user's finger moved on the sensor 15 with the intention of moving upward moves out of the detection area R1a, the finger suddenly moves in another direction (for example, rightward). Detection as movement is suppressed. Further, when the finger reaches the dead area R5, the control section 13 does not detect the slide operation, so that the display section 19 stops scrolling. Therefore, the control unit 13 can make the user recognize that the finger is out of the detection area.

<第2変形例>
第1変形例では、検出領域R1a、R2a、R3a、R4aは同一の所定角度θの角度範囲を有する領域として区画される。第2変形例では、上下方向を検出する検出領域よりも左右方向を検出する検出する検出領域を広く設定する構成について説明する。実施形態や第1変形例と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第2変形例について説明する。
<Second modification>
In the first modification, the detection areas R1a, R2a, R3a, and R4a are defined as areas having the same angular range of the predetermined angle θ2 . In the second modified example, a configuration will be described in which the detection area for detecting the horizontal direction is set wider than the detection area for detecting the vertical direction. The same reference numerals are assigned to the same configurations as those of the embodiment and the first modified example, and the description thereof is omitted. A second modification will be described below with reference to the drawings.

図11は、第2変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。第2変形例では、センサ15の検出面は、スライド操作を検出する領域である検出領域R1b、R2b、R3b、R4bと、検出領域それぞれの間に配置される不感領域R5に分割される。 FIG. 11 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the second modification. In the second modification, the detection surface of the sensor 15 is divided into detection areas R1b, R2b, R3b, and R4b, which are areas for detecting slide operations, and dead areas R5 arranged between the detection areas.

上下方向を検出する検出領域R1b、R3bは、上下方向に延びる点線L1を中心線として左右方向に所定角度θよりも小さい所定角度θの角度範囲によって区画される。左右方向を検出する検出領域R2b、R4bは、左右方向に延びる点線L2を中心線とし
て上下方向に所定角度θよりも大きい所定角度θの角度範囲によって区画される。この場合、所定角度θは「第1角度範囲」の一例であり、所定角度θは、「第2角度範囲」の一例である。
The detection areas R1b and R3b for detecting the vertical direction are defined by an angle range of a predetermined angle θ3 smaller than the predetermined angle θ2 in the horizontal direction with the dotted line L1 extending in the vertical direction as the center line. The detection regions R2b and R4b for detecting the horizontal direction are defined by an angle range of a predetermined angle θ4 larger than the predetermined angle θ2 in the vertical direction with the dotted line L2 extending in the horizontal direction as the center line. In this case, the predetermined angle θ2 is an example of the "first angle range", and the predetermined angle θ4 is an example of the "second angle range".

第2変形例では、左右方向の指の移動を検出する検出領域R2b、R4bは所定角度θよりも大きい所定角度θの角度範囲を有する。また上下方向の指の移動を検出する検出領域R1b、R3bは、所定角度θよりも小さい所定角度θの角度範囲を有する。これは、携帯端末装置10を片手で把持し、把持した手の指でセンサ15に対するスライド操作を行う場合、上下方向と比較して左右方向への指の移動が困難と考えられることによる。このような構成を採用することで、指を移動させにくい方向へのスライド操作を容易なものとすることができる。 In the second modification, the detection areas R2b and R4b for detecting finger movement in the horizontal direction have an angle range of a predetermined angle θ4 larger than the predetermined angle θ1 . Further, the detection regions R1b and R3b for detecting the movement of the finger in the vertical direction have an angle range of a predetermined angle θ3 smaller than the predetermined angle θ1 . This is because, when holding the mobile terminal device 10 with one hand and performing a sliding operation on the sensor 15 with the finger of the holding hand, it is considered difficult to move the finger in the horizontal direction compared to the vertical direction. By adopting such a configuration, it is possible to facilitate the slide operation in the direction in which it is difficult to move the finger.

<第3変形例>
第2変形例では、上方向または下方向を検出する検出領域R1b、R3bよりも左右方向を検出する検出領域R2b、R4bの角度範囲を広く設定した。第3変形例では、指の可動範囲に応じて、検出領域の角度範囲を変更する構成について説明する。実施形態や第1変形例、第2変形例と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第3変形例について説明する。
<Third modification>
In the second modification, the angular range of the detection regions R2b and R4b for detecting the horizontal direction is set wider than the detection regions R1b and R3b for detecting the upward direction or the downward direction. In the third modified example, a configuration will be described in which the angular range of the detection area is changed according to the movable range of the finger. The same reference numerals are given to the same configurations as those of the embodiment, the first modified example, and the second modified example, and the description thereof will be omitted. A third modification will be described below with reference to the drawings.

図12は、第3変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。第3変形例では、センサ15の検出面は、スライド操作を検出する領域である検出領域R1b、R2c、R3b、R4cと、検出領域それぞれの間に配置される不感領域R5に分割される。 FIG. 12 is a diagram schematically showing a region where the control unit detects an operation by a user's finger on the detection surface of the sensor according to the third modification. In the third modification, the detection surface of the sensor 15 is divided into detection areas R1b, R2c, R3b, and R4c, which are areas for detecting slide operations, and dead areas R5 arranged between the detection areas.

第3変形例では、左右方向の指の移動を検出する検出領域R2c、R4cは所定角度θよりも大きい所定角度θの角度範囲を有する。その上で、第3変形例では、携帯端末装置10を片手で把持し、把持した指でセンサ15に対する左右方向のスライド操作を行う場合に、指が下方にずれやすいことを考慮し、検出領域R2c、R4cの領域を下方に向けて拡張している。このように検出領域を指の可動範囲に応じて設定することで、よりユーザの意図に沿った操作を可能とすることができる。 In the third modification, the detection regions R2c and R4c for detecting finger movement in the horizontal direction have an angle range of a predetermined angle θ5 larger than the predetermined angle θ1 . In addition, in the third modified example, the detection area The regions of R2c and R4c are extended downward. By setting the detection area according to the movable range of the finger in this way, it is possible to perform an operation more in line with the user's intention.

<第4変形例>
実施形態および第1変形例から第3変形例では、携帯端末装置10を把持してセンサ15に対する操作を右手で行う場合も左手で行う場合も検出領域や不感領域の位置を変更しない。第4変形例では、携帯端末装置10を把持する手が右手であるか左手であるかに応じて、検出領域や不感領域の位置を変更する構成について説明する。実施形態や第1変形例から第3変形例と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第4変形例について説明する。
<Fourth modification>
In the embodiment and the first to third modifications, the positions of the detection area and the dead area are not changed regardless of whether the mobile terminal device 10 is held and the sensor 15 is operated with the right hand or the left hand. In the fourth modified example, a configuration will be described in which the positions of the detection area and the dead area are changed depending on whether the hand holding the mobile terminal device 10 is the right hand or the left hand. The same reference numerals are assigned to the same configurations as those of the embodiment and the first to third modifications, and the description thereof will be omitted. A fourth modification will be described below with reference to the drawings.

図13では、携帯端末装置10を右手で把持し、右手の人差し指でセンサ15に対するスライド操作を行う場合が例示される。このような場合、右手の人差し指は携帯端末装置10の背面から見ると左斜め下方から(すなわち、携帯端末装置10の前面からみると右斜め下方から)センサ15に対して接するようになる。そのため、右手人差し指による上下左右へのスライド操作は、センサ15の上下方向および左右方向に対して所定角度回転した方向となりやすい。 FIG. 13 illustrates a case where the portable terminal device 10 is held with the right hand and the sensor 15 is slid with the index finger of the right hand. In such a case, the index finger of the right hand comes into contact with the sensor 15 diagonally from the lower left when viewed from the back of the mobile terminal device 10 (that is, from the diagonally lower right when viewed from the front of the mobile terminal device 10). Therefore, a sliding operation up, down, left, or right with the index finger of the right hand is likely to be in a direction rotated by a predetermined angle with respect to the up, down, left, or right direction of the sensor 15 .

第4変形例では、図13で説明したセンサ15に対する指の傾きを考慮し、第3変形例で説明した検出領域を所定角度θだけ回転させた構成としている。図13では、点線L1、L2の回転後における位置を太線L1a、L2aとして例示している。所定角度θは、試験等によって好適な角度を決定すればよい。回転後の太線L2a(左右方向、すな
わち、0度方向と90度方向を結ぶ線)の傾きは、例えば、斜め下方からセンサ15へのスライド操作を行う右手人差し指の傾きと一致する。検出領域を回転させることで、第4変形例では、センサ15に対する指の傾きを考慮して、ユーザの意図に沿った操作を可能とすることができる。なお、第4変形例では右手で携帯端末装置10を把持する場合について説明したが、左手で携帯端末装置10を把持する場合にも同様である。
In the fourth modification, considering the inclination of the finger with respect to the sensor 15 described in FIG. 13, the detection area described in the third modification is rotated by a predetermined angle θ6 . In FIG. 13, the positions of the dotted lines L1 and L2 after rotation are illustrated as thick lines L1a and L2a. A suitable angle for the predetermined angle θ6 may be determined by testing or the like. The inclination of the thick line L2a after the rotation (horizontal direction, that is, the line connecting the 0-degree direction and the 90-degree direction) matches, for example, the inclination of the right index finger that performs the slide operation toward the sensor 15 from obliquely below. By rotating the detection area, in the fourth modified example, it is possible to take into consideration the inclination of the finger with respect to the sensor 15 and to enable an operation in line with the user's intention. In addition, in the fourth modified example, the case of holding the mobile terminal device 10 with the right hand has been described, but the same applies to the case of holding the mobile terminal device 10 with the left hand.

なお、携帯端末装置10を把持する手が右手であるか左手であるかは、あらかじめ携帯端末装置10の利用者が把持する手が右手と左手のいずれであるかを示す情報を登録し、登録した情報に基づいて制御部13が判定してもよい。また、センサ15に対するタッチ操作に用いる右手の指の指紋と左手の指の指紋を登録しておき、指紋センサ15Bによって検出した指紋に基づいて、携帯端末装置10を把持している手が右手であるか左手であるかを制御部13が判定してもよい。 Whether the hand holding the mobile terminal device 10 is the right hand or the left hand is registered in advance as information indicating whether the hand held by the user of the mobile terminal device 10 is the right hand or the left hand. The control unit 13 may make the determination based on the information obtained. Further, fingerprints of right and left fingers used for touch operation on sensor 15 are registered, and based on the fingerprints detected by fingerprint sensor 15B, it is determined whether the hand holding mobile terminal device 10 is the right hand. The control unit 13 may determine whether it is the left hand or the left hand.

<第5変形例>
実施形態および第1変形例から第4変形例では、検出領域は一度設定されると変動しない。第5変形例では、スライド操作に応じて検出領域の大きさを変動させる構成について説明する。実施形態や第1変形例から第4変形例と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第5変形例について説明する。
<Fifth Modification>
In the embodiment and the first to fourth modifications, once the detection area is set, it does not change. In the fifth modified example, a configuration will be described in which the size of the detection area is changed according to the slide operation. The same reference numerals are assigned to the same configurations as those of the embodiment and the first to fourth modifications, and the description thereof will be omitted. A fifth modification will be described below with reference to the drawings.

まず、センサ15においてスライド操作が検出される前の状態は、図9に例示される第1変形例と同様であるとする。すなわち、上下左右へのスライド操作を検出する検出領域はいずれも同じ大きさであるとする。ここで、制御部13は、センサ15に対する左右方向に対する所定距離以上継続するスライド操作を検出すると、左右方向のスライド操作を検出する検出領域を拡大して、図11に例示される第2変形例の状態とする。すなわち、制御部13は、上下方向へのスライド操作を検出する検出領域よりも、左右方向へのスライド操作を検出する検出領域の方が大きくなるように、検出領域の再設定を行う。ここで、所定距離は、制御部13がユーザによるスライド操作をユーザの意図に沿って検出できるように、適宜決定されればよい。なお、第5変形例では左右方向に対するスライド操作について説明したが、上下方向に対するスライド操作についても同様である。すなわち、制御部13は、センサ15に対する左右方向に対する所定距離以上継続するスライド操作を検出すると、上下方向のスライド操作を検出する検出領域を拡大すればよい。 First, it is assumed that the state before the sensor 15 detects the slide operation is the same as the first modified example illustrated in FIG. In other words, it is assumed that the detection areas for detecting slide operations up, down, left, and right have the same size. Here, when the control unit 13 detects a slide operation that continues for a predetermined distance or more in the left-right direction with respect to the sensor 15, the control unit 13 expands the detection area for detecting the slide operation in the left-right direction. state. That is, the control unit 13 resets the detection area so that the detection area for detecting the sliding operation in the horizontal direction is larger than the detection area for detecting the sliding operation in the vertical direction. Here, the predetermined distance may be appropriately determined so that the control unit 13 can detect the user's slide operation in accordance with the user's intention. In addition, although the sliding operation in the horizontal direction has been described in the fifth modification, the same applies to the sliding operation in the vertical direction. That is, when the control unit 13 detects a slide operation that continues for a predetermined distance or more in the horizontal direction with respect to the sensor 15, the detection area for detecting the slide operation in the vertical direction may be expanded.

上記で説明した処理の処理フローの一例について説明する。図15は、第5変形例に係る携帯端末装置の処理フローの一例を示す図である。図15に例示される処理は、第1変形例に係る処理フロー(図10)のT4の後に実行される。第1変形例と同一の処理については同一の符号を付し、その説明を省略する。以下、図15を参照して、第5変形例に係る携帯端末装置の処理フローの一例について説明する。 An example of the processing flow of the processing described above will be described. FIG. 15 is a diagram illustrating an example of a processing flow of a mobile terminal device according to a fifth modification; The process illustrated in FIG. 15 is executed after T4 in the process flow (FIG. 10) according to the first modification. The same reference numerals are assigned to the same processes as those of the first modified example, and the description thereof will be omitted. An example of the processing flow of the mobile terminal device according to the fifth modification will be described below with reference to FIG. 15 .

W1では、制御部13は、スライド操作の方向(スライド操作によって移動する指がタッチしている検出領域)が変更されずに所定距離以上のスライド操作の継続を検出すると、T3で決定した領域を拡大する。W1の処理後、制御部13がさらにスライド操作を検出すると、処理はT1a、T2aに進められる。T1a、T2aの処理は、それぞれ図10のT1、T2の処理と同一であるため、その説明を省略する。W2では、制御部13は、スライド操作を行う指の位置を所定周期で連続的にサンプリングする。制御部13は、サンプリングした指の位置の履歴に対して同一方向フィルタを適用して、スライド操作の方向を決定する。同一方向フィルタは、例えば、指の位置の履歴からノイズを除去することで、指の位置の履歴が同一方向へのスライド操作となっているか否かの判定に用いられるフィルタである。T3a、T4aの処理は、それぞれ図10のT3、T4の処理と同一であるため、その説明を省略する。 At W1, when the control unit 13 detects continuation of the slide operation for a predetermined distance or longer without changing the direction of the slide operation (detection area touched by the finger moving by the slide operation), the control unit 13 shifts the area determined at T3. Expanding. After the process of W1, when the control unit 13 further detects a slide operation, the process proceeds to T1a and T2a. The processing of T1a and T2a is the same as the processing of T1 and T2 in FIG. 10, respectively, so the description thereof will be omitted. At W2, the control unit 13 continuously samples the position of the finger performing the slide operation at predetermined intervals. The control unit 13 determines the direction of the slide operation by applying the same direction filter to the history of the sampled finger positions. The same-direction filter is, for example, a filter used to determine whether or not the history of finger positions indicates slide operations in the same direction by removing noise from the history of finger positions. The processing of T3a and T4a is the same as the processing of T3 and T4 in FIG. 10, respectively, so the description thereof will be omitted.

第5変形例によれば、制御部13は、スライド操作を検出した方向の検出領域を拡大するため、同一方向へのスライド操作が容易になる。 According to the fifth modification, the control unit 13 expands the detection area in the direction in which the slide operation is detected, so the slide operation in the same direction becomes easier.

<第6変形例>
実施形態および第1から第5変形例では、制御部13は、上下左右の4方向に対するスライド操作を検出した。第6変形例では、上下左右の4方向に加えて、斜め方向へのスライド操作を制御部13が検出する構成について説明する。実施形態や第1変形例から第5変形例と同一の構成については同一の符号を付し、その説明を省略する。以下、図面を参照して、第6変形例について説明する。斜め方向は、「第3方向」の一例である。
<Sixth modification>
In the embodiment and the first to fifth modifications, the control unit 13 detects slide operations in four directions of up, down, left, and right. In the sixth modification, a configuration will be described in which the control unit 13 detects a slide operation in an oblique direction in addition to the four directions of up, down, left, and right. The same reference numerals are assigned to the same configurations as those of the embodiment and the first to fifth modifications, and the description thereof will be omitted. A sixth modification will be described below with reference to the drawings. The oblique direction is an example of the "third direction".

図16は、第6変形例に係るセンサの検出面において、制御部がユーザの指による操作を検出する領域を模式的に示す図である。第6変形例におけるセンサ15の検出面は、不感領域R5に代えて検出領域R6(R6-1からR6-4)が設定されている点で、第1変形例で説明したセンサ15の検出面と異なる。 FIG. 16 is a diagram schematically showing a region where the control unit detects an operation with a user's finger on the detection surface of the sensor according to the sixth modification. The detection surface of the sensor 15 in the sixth modification has the detection area R6 (R6-1 to R6-4) instead of the dead area R5. different from

上方向へのスライド操作を検出する検出領域R1aの右隣には右斜め上方向へのスライド操作を検出する検出領域R6-1が配置され、検出領域R1aの左隣には左斜め上方向へのスライド操作を検出する検出領域R6-2が配置される。下方向へのスライド操作を検出する検出領域R3aの左隣には左斜め下方向へのスライド操作を検出する検出領域R6-3が配置され、検出領域R3aの右隣には右斜め下方向へのスライド操作を検出する検出領域R6-4が配置される。第6変形例では、斜め方向へのスライド操作を検出する検出領域R6が配置されることで、表示部19に表示される画面を斜め方向にスクロールさせることが可能となる。領域R6は、「第4領域」の一例である。 A detection region R6-1 for detecting an upward-right slide operation is arranged to the right of the detection region R1a for detecting an upward sliding operation, and an upward-left detection region is arranged to the left of the detection region R1a. A detection area R6-2 for detecting a sliding operation of is arranged. A detection region R6-3 for detecting a slide operation diagonally downward to the left is arranged to the left of the detection region R3a for detecting a downward slide operation, and a detection region R6-3 for detecting a slide operation diagonally downward to the left is arranged to the right of the detection region R3a diagonally downward to the right. A detection region R6-4 for detecting a sliding operation of is arranged. In the sixth modification, the screen displayed on the display unit 19 can be scrolled diagonally by arranging the detection area R6 for detecting the slide operation in the diagonal direction. Region R6 is an example of a "fourth region".

第6変形例によれば、制御部13は、斜め方向へのスライド操作を検出することで、表示部19に表示される画面を斜め方向にスクロールさせることができる。 According to the sixth modification, the control unit 13 can scroll the screen displayed on the display unit 19 in an oblique direction by detecting a slide operation in an oblique direction.

<その他の変形>
制御部13は、センサ15に対するスライド操作による信号を連続的に受け取る。制御部13は、連続的に受け取る信号に対して、スライド操作の方向が検出領域のいずれに属するかの角度判定を所定間隔で実行することで、スライド操作の移動方向を判定してもよい。
<Other variations>
The control unit 13 continuously receives signals from the slide operation on the sensor 15 . The control unit 13 may determine the direction of movement of the slide operation by performing angle determination at predetermined intervals to determine which detection region the direction of the slide operation belongs to, with respect to the signals that are continuously received.

また、センサ15に対してスライド操作を行う指は、スティックスリップ現象によって移動と停止とを繰り返すことがある。たとえば、制御部13が、ある方向へのスライド操作を検出したのちにスライド操作の停止を検出し、その後、最初に検出した方向とは若干ずれた方向へのスライド操作を検出することも考えられる。図17は、スティックスリップ現象によって、センサの検出面において移動と停止とを繰り返す指の軌跡を例示する図である。図17では、矢印A1、A2、A3、A4のそれぞれが指が移動した軌跡を例示し、矢印A1、A2、A3、A4の終点がスティックスリップ現象によって指が停止した位置を例示する。また、矢印A1の始点は、指がセンサ15にタッチを開始した点を例示する。矢印A2、A3、A4の始点は、スティックスリップ現象によって停止した指が再度移動を開始した点を例示する。 Also, the finger that performs the slide operation on the sensor 15 may repeat moving and stopping due to the stick-slip phenomenon. For example, it is conceivable that the control unit 13 detects the stop of the slide operation after detecting the slide operation in a certain direction, and then detects the slide operation in a direction slightly deviated from the first detected direction. . FIG. 17 is a diagram illustrating the trajectory of a finger that repeatedly moves and stops on the detection surface of the sensor due to the stick-slip phenomenon. In FIG. 17, each of arrows A1, A2, A3, and A4 exemplifies the trajectory along which the finger moves, and the end points of arrows A1, A2, A3, and A4 exemplify the position where the finger stops due to the stick-slip phenomenon. Also, the starting point of the arrow A1 exemplifies the point where the finger starts touching the sensor 15 . The starting points of arrows A2, A3, and A4 illustrate the points where the fingers stopped due to the stick-slip phenomenon start moving again.

制御部13は、矢印A1、A2、A3、A4の始点を中心点P1として、スライド操作の角度を判定する。制御部13は、例えば、矢印A1で例示されるスライド操作について、矢印A1の始点を中心点P1として検出領域の設定を行い、そのスライド操作の方向の判定を行う。続いて、制御部13は、矢印A2の始点を中心点P1として検出領域の設定を行い、そのスライド操作の方向の判定を行う。制御部13は、このような処理を、矢印A3、A4についても行うことで、スライド操作の判定を行うことができる。なお、制御
部13は、矢印A1、A2、A3、A4のそれぞれについて、個別にスライド操作の判定を行ってもよいが、矢印A1、A2、A3、A4のそれぞれで検出したスライド操作の移動方向(角度)を平均することでスライド操作の方向を決定してもよい。
The control unit 13 determines the angle of the slide operation with the starting points of the arrows A1, A2, A3, and A4 as the center point P1. For example, for the slide operation exemplified by the arrow A1, the control unit 13 sets the detection area with the starting point of the arrow A1 as the center point P1, and determines the direction of the slide operation. Subsequently, the control unit 13 sets the detection area with the starting point of the arrow A2 as the center point P1, and determines the direction of the slide operation. The control unit 13 can determine the slide operation by performing such processing also for the arrows A3 and A4. Note that the control unit 13 may individually determine the slide operation for each of the arrows A1, A2, A3, and A4. The direction of the slide operation may be determined by averaging (angle).

以上で開示した実施形態や変形例はそれぞれ組み合わせることができる。 The embodiments and modifications disclosed above can be combined.

<<コンピュータが読み取り可能な記録媒体>>
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させる情報処理プログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
<<Computer-readable recording medium>>
An information processing program that causes a computer or other machine or device (hereinafter referred to as a computer or the like) to implement any of the functions described above can be recorded in a computer-readable recording medium. By causing a computer or the like to read and execute the program of this recording medium, the function can be provided.

ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、Compact Disc Read Only Memory(CD-ROM)、Compact Disc-Recordable(CD-R)、Compact Disc-ReWriterable(CD-RW)、Digital Versatile Disc(DVD)、ブルーレイディスク(BD)、Digital Audio Tape(DAT)、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。 Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. Say. Examples of such recording media that can be removed from a computer or the like include flexible discs, magneto-optical discs, Compact Disc Read Only Memory (CD-ROM), Compact Disc-Recordable (CD-R), and Compact Disc-ReWritable. (CD-RW), Digital Versatile Disc (DVD), Blu-ray Disc (BD), Digital Audio Tape (DAT), 8 mm tape, and memory cards such as flash memory. In addition, there are a hard disk, a ROM, and the like as recording media fixed to a computer or the like.

10 携帯端末装置
11 プロセッサ
12 主記憶部
13 制御部
15 センサ
151 センサ入力フィルタ部
152 センサ入力解析部
153 スクロールタップイベント制御部
15A 凹部
15B 指紋センサ
15C 接触センサ
17 通信部
18 タッチパネル
181 タッチイベント制御部
19 表示部
191 表示制御部
10 mobile terminal device 11 processor 12 main storage unit 13 control unit 15 sensor 151 sensor input filter unit 152 sensor input analysis unit 153 scroll tap event control unit 15A recess 15B fingerprint sensor 15C contact sensor 17 communication unit 18 touch panel 181 touch event control unit 19 Display unit 191 Display control unit

Claims (8)

表示部を有する筐体と、
前記筐体の前記表示部が設けられた面の背面に設けられ、指による操作及び前記指の指紋を検出するセンサと、
ユーザの右手の第1の指の指紋と、前記ユーザの左手の第2の指の指紋とを記憶する記憶部と、
前記センサにタッチした位置からスライド操作を行った方向に、前記表示部の表示をスクロールさせる制御部と、を備え、
前記制御部は、
前記センサにおいて前記タッチした位置を起点として第1角度範囲で規定される第1領域へのスライド操作を第1方向へのスライド操作として検出
前記センサにタッチした指が前記第1の指であるか前記第2の指であるかに応じて、前記タッチした前記位置を起点として所定角度だけ前記第1領域を回転させる、
携帯端末装置。
a housing having a display;
a sensor provided on the back surface of the surface of the housing on which the display unit is provided and detecting an operation by a finger and a fingerprint of the finger ;
a storage unit that stores the fingerprint of the first finger of the user's right hand and the fingerprint of the second finger of the user's left hand;
a control unit that scrolls the display of the display unit in the direction in which the slide operation is performed from the position where the sensor is touched,
The control unit
detecting a slide operation to a first area defined by a first angle range with the touched position as a starting point in the sensor as a slide operation in a first direction;
Rotating the first region by a predetermined angle with the touched position as a starting point, depending on whether the finger touching the sensor is the first finger or the second finger;
mobile terminal equipment.
前記制御部は、
前記第1領域と、前記第1方向とは異なる第2方向へのスライド操作を検出する第2領域との間に介在する第3領域へのスライド操作を破棄する、
請求項1に記載の携帯端末装置。
The control unit
discarding a slide operation to a third area interposed between the first area and a second area for detecting a slide operation in a second direction different from the first direction;
The mobile terminal device according to claim 1.
前記制御部は、
前記第1領域と、前記第1方向とは異なる第2方向へのスライド操作を検出する第2領域との間に介在する第4領域へのスライド操作を前記第1方向と前記第2方向の中間の方向である第3方向へのスライド操作として検出する、
請求項1に記載の携帯端末装置。
The control unit
A slide operation to a fourth area interposed between the first area and a second area for detecting a slide operation in a second direction different from the first direction is performed in the first direction and the second direction. Detecting as a slide operation in the third direction, which is an intermediate direction,
The mobile terminal device according to claim 1.
前記第1方向は上方向または下方向であり、
前記制御部が前記第1方向と直交する第4方向へのスライド操作を検出する第領域は、前記タッチした位置を起点として前記第1角度範囲より広い第2角度範囲で規定される、
請求項1から3のいずれか一項に記載の携帯端末装置。
the first direction is upward or downward;
A fifth area in which the control unit detects a slide operation in a fourth direction orthogonal to the first direction is defined by a second angle range wider than the first angle range with the touched position as a starting point,
The mobile terminal device according to any one of claims 1 to 3.
前記センサは、前記筐体を把持する片手の指が斜め下方向から前記センサに達する位置に設けられ、
前記第1領域の角度範囲は、前記斜め下方向から前記センサに達する指の可動範囲に基づいて決定される、
請求項1から4のいずれか一項に記載の携帯端末装置。
The sensor is provided at a position where a finger of one hand gripping the housing reaches the sensor from an obliquely downward direction,
The angular range of the first region is determined based on the movable range of the finger reaching the sensor from the diagonally downward direction.
The mobile terminal device according to any one of claims 1 to 4.
前記制御部は、前記第1領域への前記スライド操作を検出すると、前記第1領域を前記第1角度範囲よりも広い角度範囲に拡大する、
請求項1から5のいずれか一項に記載の携帯端末装置。
When the control unit detects the slide operation to the first area, the control unit expands the first area to an angle range wider than the first angle range.
The mobile terminal device according to any one of claims 1 to 5.
表示部を有する筐体と、
前記筐体の前記表示部が設けられた面の背面に設けられ、指による操作及び前記指の指紋を検出するセンサと、を備えるコンピュータが、前記センサにタッチした位置からスライド操作を行った方向に、前記表示部の表示をスクロールさせる情報処理方法であって、前記コンピュータが、
ユーザの右手の第1の指の指紋と、前記ユーザの左手の第2の指の指紋とを記憶する記憶部に前記センサが検出した被検出指紋を照合して、前記センサにタッチした前記指が前記第1の指であるか前記第2の指であるかを判定し、
前記センサにおいて前記タッチした位置を起点として第1角度範囲で規定される第1領域へのスライド操作を第1方向へのスライド操作として検出
前記センサにタッチした指が前記第1の指であるか前記第2の指であるかに応じて、前記タッチした前記位置を起点として所定角度だけ前記第1領域を回転させる、
情報処理方法。
a housing having a display;
A direction in which a computer, which is provided on the back surface of the housing on which the display unit is provided and is provided with a sensor for detecting an operation by a finger and a fingerprint of the finger , performs a slide operation from a position where the sensor is touched. and an information processing method for scrolling the display on the display unit, wherein the computer
The detected fingerprint detected by the sensor is collated with a storage unit that stores the fingerprint of the first finger of the user's right hand and the fingerprint of the second finger of the user's left hand, and the finger that touches the sensor is the first finger or the second finger,
detecting a slide operation to a first area defined by a first angular range with the touched position as a starting point in the sensor as a slide operation in a first direction;
Rotating the first region by a predetermined angle with the touched position as a starting point, depending on whether the finger that touched the sensor is the first finger or the second finger;
Information processing methods.
表示部を有する筐体と、
前記筐体の前記表示部が設けられた面の背面に設けられ、指による操作及び前記指の指紋を検出するセンサと、を備えるコンピュータに、前記センサにタッチした位置からスライド操作を行った方向に、前記表示部の表示をスクロールさせる情報処理プログラムであって、前記コンピュータに、
ユーザの右手の第1の指の指紋と、前記ユーザの左手の第2の指の指紋とを記憶する記憶部に前記センサが検出した被検出指紋を照合して、前記センサにタッチした前記指が前記第1の指であるか前記第2の指であるかを判定させ、
前記センサにおいて前記タッチした位置を起点として第1角度範囲で規定される第1領域へのスライド操作を第1方向へのスライド操作として検出させ、
前記センサにタッチした指が前記第1の指であるか前記第2の指であるかに応じて、前記タッチした前記位置を起点として所定角度だけ前記第1領域を回転させる、
情報処理プログラム。
a housing having a display;
A direction in which a slide operation is performed from a position where the sensor is touched to a computer provided with a sensor that detects an operation by a finger and a fingerprint of the finger and is provided on the back surface of the surface of the housing on which the display unit is provided. and an information processing program for scrolling the display of the display unit, wherein the computer,
The detected fingerprint detected by the sensor is collated with a storage unit that stores the fingerprint of the first finger of the user's right hand and the fingerprint of the second finger of the user's left hand, and the finger that touches the sensor is the first finger or the second finger,
causing the sensor to detect, as a slide operation in a first direction, a slide operation to a first region defined by a first angle range with the touched position as a starting point ;
Rotating the first region by a predetermined angle with the touched position as a starting point, depending on whether the finger that touched the sensor is the first finger or the second finger;
Information processing program.
JP2019046298A 2019-03-13 2019-03-13 Portable terminal device, information processing method and information processing program Active JP7272831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046298A JP7272831B2 (en) 2019-03-13 2019-03-13 Portable terminal device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046298A JP7272831B2 (en) 2019-03-13 2019-03-13 Portable terminal device, information processing method and information processing program

Publications (2)

Publication Number Publication Date
JP2020149353A JP2020149353A (en) 2020-09-17
JP7272831B2 true JP7272831B2 (en) 2023-05-12

Family

ID=72430589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046298A Active JP7272831B2 (en) 2019-03-13 2019-03-13 Portable terminal device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP7272831B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211401A (en) 2009-03-09 2010-09-24 Sony Corp Information processor, information processing method, and information processing program
JP2013054467A (en) 2011-09-01 2013-03-21 Sony Computer Entertainment Inc Information processing device and information processing method
JP2013165334A (en) 2012-02-09 2013-08-22 Nec Saitama Ltd Mobile terminal device
JP2014154052A (en) 2013-02-13 2014-08-25 Mitsubishi Electric Corp Scroll control device and scroll control method
JP2015127871A (en) 2013-12-27 2015-07-09 ソニー株式会社 Controller, control method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4132150B2 (en) * 1997-10-06 2008-08-13 富士重工業株式会社 Centralized control device for in-vehicle equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211401A (en) 2009-03-09 2010-09-24 Sony Corp Information processor, information processing method, and information processing program
JP2013054467A (en) 2011-09-01 2013-03-21 Sony Computer Entertainment Inc Information processing device and information processing method
JP2013165334A (en) 2012-02-09 2013-08-22 Nec Saitama Ltd Mobile terminal device
JP2014154052A (en) 2013-02-13 2014-08-25 Mitsubishi Electric Corp Scroll control device and scroll control method
JP2015127871A (en) 2013-12-27 2015-07-09 ソニー株式会社 Controller, control method and program

Also Published As

Publication number Publication date
JP2020149353A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP5532300B2 (en) Touch panel device, touch panel control method, program, and recording medium
EP2652580B1 (en) Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US8749497B2 (en) Multi-touch shape drawing
JP3143462U (en) Electronic device having switchable user interface and electronic device having convenient touch operation function
WO2011142317A1 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
EP2500797B1 (en) Information processing apparatus, information processing method and program
TWI502479B (en) Unlocking method and electronic device
US20100309158A1 (en) Input apparatus, input determining method, and storage medium storing input program
JP2009048245A (en) Input reception device, area control method and program
US20140053113A1 (en) Processing user input pertaining to content movement
EP2652579A2 (en) Detecting gestures involving intentional movement of a computing device
EP2402844B1 (en) Electronic devices including interactive displays and related methods and computer program products
US20150242100A1 (en) Detecting intentional rotation of a mobile device
TWI689864B (en) Handheld apparatus, control method thereof of presenting mode and computer-readable recording medium
EP2899623A2 (en) Information processing apparatus, information processing method, and program
US20150277649A1 (en) Method, circuit, and system for hover and gesture detection with a touch screen
JP7272831B2 (en) Portable terminal device, information processing method and information processing program
JP6004105B2 (en) Input device, input control method, and input control program
JP5081952B2 (en) Item selection device, item selection method, and program
JP6233040B2 (en) Input device, display control method, program, and integrated circuit device
JP6484859B2 (en) Information processing apparatus, information processing method, and program
JP7272832B2 (en) Information processing device and program
JP5790963B1 (en) Information processing apparatus, information processing method, and information processing program
TWI475469B (en) Portable electronic device with a touch-sensitive display and navigation device and method
JP2016053948A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230427

R150 Certificate of patent or registration of utility model

Ref document number: 7272831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533