JP2013058024A - Mobile terminal, input reception method, and program - Google Patents

Mobile terminal, input reception method, and program Download PDF

Info

Publication number
JP2013058024A
JP2013058024A JP2011195113A JP2011195113A JP2013058024A JP 2013058024 A JP2013058024 A JP 2013058024A JP 2011195113 A JP2011195113 A JP 2011195113A JP 2011195113 A JP2011195113 A JP 2011195113A JP 2013058024 A JP2013058024 A JP 2013058024A
Authority
JP
Japan
Prior art keywords
image
selected image
display unit
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011195113A
Other languages
Japanese (ja)
Inventor
Toshinari Takagi
俊成 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011195113A priority Critical patent/JP2013058024A/en
Publication of JP2013058024A publication Critical patent/JP2013058024A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an input operation with a single hand without increasing the risk of dropping.SOLUTION: A mobile terminal comprises: a display unit that displays an image; an input unit that is stacked on the display unit, and detects a position where an object is in contact or in vicinity; an inclination detection unit that detects inclination; and a control unit that, based on the position detected by the input unit, recognizes an image displayed on the display unit corresponding to the position as a selection image, and then executes an operation corresponding to the recognized selection image and a change in the inclination detected by the inclination detection unit.

Description

本発明は、表示部と表示部に積層された入力部とを有する携帯端末、入力受付方法およびプログラムに関する。   The present invention relates to a mobile terminal having a display unit and an input unit stacked on the display unit, an input receiving method, and a program.

近年、携帯ゲーム機やスマートフォン等、タッチパネルを備えた携帯端末が普及してきている。タッチパネルは、画像を表示する表示部としての機能とともに、その表示部に積層され、携帯端末の操作者からの入力を受け付ける入力部としての機能を有している。   In recent years, portable terminals equipped with a touch panel, such as portable game machines and smartphones, have become widespread. The touch panel has a function as a display unit that displays an image and a function as an input unit that is stacked on the display unit and receives an input from an operator of the mobile terminal.

タッチパネルを備えた携帯端末の操作者は、指等の物体でタッチパネルを構成する表示部に接触することで、その携帯端末に文字を入力する等の入力操作を行う。   An operator of a mobile terminal provided with a touch panel performs an input operation such as inputting characters into the mobile terminal by touching a display unit that configures the touch panel with an object such as a finger.

図6は、携帯端末の操作者がその携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した複数の代表画像のうち「あ」を示す代表画像に携帯端末の操作者が指等の物体で接触したときの状態を示す図である。   6A and 6B are diagrams illustrating an example of an image used when the operator of the mobile terminal inputs characters to the mobile terminal. FIG. 6A is a diagram illustrating an example of a plurality of representative images, and FIG. FIG. 6 is a diagram illustrating a state when the operator of the mobile terminal touches the representative image indicating “A” among the plurality of representative images illustrated in FIG.

なお、代表画像とは、50音の各行の最初の文字を示す画像である。代表画像は、50音の各行の最初の文字だけではなく、文字として入力される複数の記号のそれぞれのうち、最初の文字として予め決められた文字を示す画像を含んでいてもよい。   The representative image is an image showing the first character of each line of 50 sounds. The representative image may include not only the first character of each line of 50 sounds but also an image showing a character predetermined as the first character among each of a plurality of symbols inputted as characters.

図6を参照しながら、携帯端末の操作者から「お」の入力を受け付けるときのその携帯端末の動作について説明する。   With reference to FIG. 6, the operation of the mobile terminal when receiving an input of “O” from the operator of the mobile terminal will be described.

まず、携帯端末の操作者は、タッチパネルを構成する表示部113に表示された「あ」〜「わ」のそれぞれを示す代表画像のうち「あ」を示す代表画像が表示された位置に指等の物体で接触する。   First, the operator of the portable terminal places a finger or the like at a position where a representative image indicating “A” is displayed among the representative images indicating each of “A” to “WA” displayed on the display unit 113 constituting the touch panel. Touch the object.

「あ」を示す代表画像の位置に指等の物体が接触すると、携帯端末は、「あ」を示す代表画像を、選択された画像である選択画像として認識する。   When an object such as a finger touches the position of the representative image indicating “A”, the mobile terminal recognizes the representative image indicating “A” as the selected image that is the selected image.

そして、携帯端末は図6(b)に示すように、表示部113において、選択画像として認識した「あ」を示す代表画像の周囲にあ行の「あ」以外の文字である「い」〜「お」のそれぞれを示す4つの画像を表示させる。   Then, as shown in FIG. 6B, the mobile terminal is a character other than “A” in the line around the representative image indicating “A” recognized as the selected image on the display unit 113. Four images showing each of “O” are displayed.

次に、携帯端末の操作者は、指等の物体を、表示部113上で弾くようにして「お」を示す画像が表示された方向へ向けて素早く移動させる。このような動作のことをフリック動作という。すると、携帯端末は、「お」を示す画像が示す文字を、入力された入力文字として認識する。   Next, the operator of the mobile terminal quickly moves an object such as a finger toward the direction in which the image indicating “O” is displayed as if it is flipped on the display unit 113. Such an operation is called a flick operation. Then, the mobile terminal recognizes the character indicated by the image indicating “O” as the input character that has been input.

そして、携帯端末は、入力文字として認識した「お」を、表示部113において入力文字表示エリア151に表示させる。   Then, the portable terminal displays “o” recognized as the input character in the input character display area 151 on the display unit 113.

なお、このような方法で文字を入力するための技術が例えば、特許文献1に開示されている。   A technique for inputting characters by such a method is disclosed in Patent Document 1, for example.

また、タッチパネルを備えた携帯端末を用いた文字入力の他の例としては、携帯端末の操作者が、「あ」を示す代表画像が表示された位置を指等の物体で4回タップすることで、携帯端末が「お」を入力文字として認識する方法もある。   As another example of character input using a portable terminal equipped with a touch panel, the operator of the portable terminal taps the position where the representative image indicating “A” is displayed four times with an object such as a finger. There is also a method in which the portable terminal recognizes “o” as an input character.

特表2005−535975号公報JP 2005-535975 A

携帯端末の操作者が、その携帯端末を片手で保持しつつ、上述したような方法で入力操作を行う場合、操作者は、表示部上で親指を動かすことになり、携帯端末を確実に保持することができなくなる。この場合、携帯端末を落下させてしまう危険性が増大してしまうという問題点がある。   When the operator of the portable terminal performs the input operation by the above-described method while holding the portable terminal with one hand, the operator moves the thumb on the display unit and securely holds the portable terminal. Can not do. In this case, there is a problem that the risk of dropping the mobile terminal increases.

本発明は、落下させてしまう危険性を増大させることなく、片手での入力操作を可能にする携帯端末、入力受付方法およびプログラムを提供することを目的とする。   An object of the present invention is to provide a portable terminal, an input receiving method, and a program that enable an input operation with one hand without increasing the risk of dropping.

上記目的を達成するために本発明の携帯端末は、
画像を表示する表示部と、
前記表示部に積層され、物体が接触または近接した位置を検知する入力部と、
傾きを検出する傾き検出部と、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識した後、該認識した選択画像と、前記傾き検出部にて検出された傾きの変化とに応じた動作を実行する制御部と、を有する。
In order to achieve the above object, the portable terminal of the present invention
A display for displaying an image;
An input unit that is stacked on the display unit and detects a position where an object is in contact with or close to the display unit;
An inclination detector for detecting inclination;
Based on the position detected by the input unit, after recognizing the image displayed on the display unit corresponding to the position as a selected image, the recognized selected image and the tilt detected by the tilt detecting unit And a control unit that executes an operation in accordance with the change in the.

また、上記目的を達成するために本発明の入力受付方法は、画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末における入力受付方法であって、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する処理と、
傾きを検出する処理と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付処理と、を有する。
In order to achieve the above object, an input receiving method of the present invention is a portable terminal having a display unit that displays an image, and an input unit that is stacked on the display unit and detects a position where an object touches or approaches. An input reception method,
Processing for recognizing an image displayed on the display unit corresponding to the position as a selected image based on the position detected by the input unit;
Processing to detect the tilt;
Receiving processing for executing an operation according to the recognized selection image and the detected change in inclination.

また、上記目的を達成するために本発明のプログラムは、画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末に、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する機能と、
傾きを検出する機能と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付機能と、を実現させる。
In order to achieve the above object, a program according to the present invention provides a mobile terminal having a display unit that displays an image and an input unit that is stacked on the display unit and detects a position where an object is in contact with or close to the display unit.
A function of recognizing an image displayed on the display unit corresponding to the position as a selected image based on the position detected by the input unit;
A function to detect tilt,
The reception function for executing the operation according to the recognized selection image and the detected change in inclination is realized.

本発明は以上説明したように構成されているので、落下させてしまう危険性を増大させることなく、片手での入力操作が可能となる。   Since the present invention is configured as described above, it is possible to perform an input operation with one hand without increasing the risk of dropping.

本発明の携帯端末の外観を示す斜視図である。It is a perspective view which shows the external appearance of the portable terminal of this invention. 本発明の携帯端末の実施の一形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the portable terminal of this invention. 図1に示した表示部に表示される、操作者が携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した代表画像のうち「あ」を示す代表画像に操作者が指等の物体で接触したときの状態を示す図である。It is a figure which shows an example of the image displayed when the operator inputs a character into a portable terminal displayed on the display part shown in FIG. 1, (a) is a figure which shows an example of several representative images, (b) ) Is a diagram illustrating a state when the operator touches a representative image indicating “A” with an object such as a finger among the representative images illustrated in FIG. 図2に示した制御部が記憶している第1〜第4の方向を説明するための図である。It is a figure for demonstrating the 1st-4th direction which the control part shown in FIG. 2 has memorize | stored. 図1〜図4に示した携帯端末が操作者からの文字入力を受け付けるときの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement when the portable terminal shown in FIGS. 1-4 is receiving the character input from an operator. 携帯端末の操作者がその携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した複数の代表画像のうち「あ」を示す代表画像に携帯端末の操作者が指等の物体で接触したときの状態を示す図である。It is a figure which shows an example of the image used when the operator of a portable terminal inputs a character into the portable terminal, (a) is a figure which shows an example of several representative images, (b) was shown to (a) It is a figure which shows a state when the operator of a portable terminal contacts the representative image which shows "A" among several representative images with objects, such as a finger | toe.

以下に、本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の携帯端末の外観を示す斜視図である。また、図2は、本発明の携帯端末の実施の一形態の構成を示すブロック図である。   FIG. 1 is a perspective view showing an appearance of a portable terminal of the present invention. FIG. 2 is a block diagram showing the configuration of an embodiment of the portable terminal of the present invention.

本実施形態の携帯端末10は図1に示すように、表示部13を備えている。携帯端末10の操作者(以降、単に操作者という)は、携帯端末10を保持して携帯端末10を任意の方向に傾けることができる。   As shown in FIG. 1, the mobile terminal 10 of this embodiment includes a display unit 13. An operator of the mobile terminal 10 (hereinafter simply referred to as an operator) can hold the mobile terminal 10 and tilt the mobile terminal 10 in an arbitrary direction.

図1に示した携帯端末10は図2に示すように、制御部11と、入力部12と、上述した表示部13と、傾き検出部14とを備えている。   As illustrated in FIG. 2, the mobile terminal 10 illustrated in FIG. 1 includes a control unit 11, an input unit 12, the above-described display unit 13, and an inclination detection unit 14.

表示部13は、制御部11からの指示に応じ、画像を表示する。具体的には例えば、表示部13は、操作者が携帯端末10に文字を入力する際に用いる画像を表示する。   The display unit 13 displays an image in response to an instruction from the control unit 11. Specifically, for example, the display unit 13 displays an image used when the operator inputs characters to the mobile terminal 10.

図3は、図1に示した表示部13に表示される、操作者が携帯端末10に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した代表画像のうち「あ」を示す代表画像に操作者が指等の物体で接触したときの状態を示す図である。   3 is a diagram illustrating an example of an image displayed on the display unit 13 illustrated in FIG. 1 and used when the operator inputs characters to the mobile terminal 10, and (a) illustrates an example of a plurality of representative images. (B) is a figure which shows a state when an operator contacts the representative image which shows "A" among the representative images shown to (a) with objects, such as a finger | toe.

図3に示した複数の代表画像52のそれぞれは、上述したのと同様に、50音の各行の最初の文字を示す画像である。なお、図3(b)に示した関連画像53については後述する。   Each of the plurality of representative images 52 shown in FIG. 3 is an image showing the first character of each line of 50 sounds, as described above. The related image 53 shown in FIG. 3B will be described later.

また、図3に示した終了用画像54は、操作者が携帯端末10への文字の入力の終了を指示する際に用いる画像である。   The end image 54 shown in FIG. 3 is an image used when the operator instructs the end of character input to the mobile terminal 10.

再度、図2を参照すると、入力部12は、表示部13に積層されており、操作者が指等の物体で表示部13に接触すると、その接触および接触した表示部13上の位置を検知する。そして、入力部12は、検知した位置を示す接触情報を制御部11へ出力する。また、入力部12は、接触を検知した後、その接触がなくなったことを検知すると、その旨を示す非接触情報を制御部11へ出力する。   Referring again to FIG. 2, the input unit 12 is stacked on the display unit 13, and when the operator touches the display unit 13 with an object such as a finger, the contact and the position on the display unit 13 in contact are detected. To do. Then, the input unit 12 outputs contact information indicating the detected position to the control unit 11. Further, after detecting the contact, the input unit 12 outputs non-contact information indicating that to the control unit 11 when detecting that the contact is lost.

制御部11は、表示部13に表示させた画像の表示部13における表示位置を記憶している。例えば、図3(a)に示した画像が表示部13に表示されている場合、制御部11は、複数の代表画像52のそれぞれを表示させた表示部13における表示位置を記憶している。また、制御部11は、終了用画像54の表示部13における表示位置を記憶している。また、制御部11は、入力部12から出力された接触情報を受け付ける。そして、制御部11は、表示部13に表示された画像と、受け付けた接触情報が示す位置とに応じた動作を実行する。例えば、図3(a)に示した画像が表示部13に表示されている場合、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれかである場合、制御部11は、その代表画像を、選択された画像である選択画像として認識する。そして、制御部11は、選択画像として認識した代表画像の表示形態を変更させる。具体的には例えば、制御部11は、「あ」を示す代表画像を選択画像として認識した場合、図3(b)に示したように、「あ」を示す代表画像を表示部13において反転表示させる。これにより、操作者は、自身が選択している文字を確認することができる。また、制御部11は、代表画像と、代表画像に関連付けられた関連画像との間の表示部13における表示位置の関係を表すものとして第1〜第4の方向を記憶している。なお、関連画像は、例えば代表画像が「あ」を示す画像である場合、「あ」行の「あ」以外の文字である「い」〜「お」のそれぞれを示す4つの画像である。   The control unit 11 stores the display position on the display unit 13 of the image displayed on the display unit 13. For example, when the image shown in FIG. 3A is displayed on the display unit 13, the control unit 11 stores a display position on the display unit 13 that displays each of the plurality of representative images 52. In addition, the control unit 11 stores the display position of the end image 54 on the display unit 13. Further, the control unit 11 receives the contact information output from the input unit 12. And the control part 11 performs the operation | movement according to the image displayed on the display part 13, and the position which the received contact information shows. For example, when the image shown in FIG. 3A is displayed on the display unit 13, the position indicated by the received contact information is one of the display positions on each display unit 13 of the plurality of representative images 52. In this case, the control unit 11 recognizes the representative image as a selected image that is a selected image. Then, the control unit 11 changes the display form of the representative image recognized as the selected image. Specifically, for example, when the control unit 11 recognizes the representative image indicating “A” as the selected image, the display unit 13 inverts the representative image indicating “A” as illustrated in FIG. Display. Thereby, the operator can confirm the character which he selected. Moreover, the control part 11 has memorize | stored the 1st-4th direction as what represents the relationship of the display position in the display part 13 between a representative image and the related image linked | related with the representative image. For example, when the representative image is an image indicating “A”, the related images are four images indicating “I” to “O” that are characters other than “A” in the “A” row.

図4は、図2に示した制御部11が記憶している第1〜第4の方向を説明するための図である。   FIG. 4 is a diagram for explaining the first to fourth directions stored in the control unit 11 shown in FIG.

図2に示した制御部11は図4に示すように、表示部13において図中下から上の方向を第1の方向として記憶している。同様に、制御部11は、表示部13において図中上から下の方向を第3の方向として記憶している。同様に、制御部11は、表示部13において図中左から右の方向を第2の方向として記憶している。同様に、制御部11は、表示部13において図中右から左の方向を第4の方向として記憶している。   As shown in FIG. 4, the control unit 11 shown in FIG. 2 stores the first direction from the bottom to the top in the figure on the display unit 13. Similarly, the control unit 11 stores a direction from the top to the bottom in the drawing as the third direction in the display unit 13. Similarly, the control unit 11 stores the left to right direction in the drawing as the second direction in the display unit 13. Similarly, the control unit 11 stores the right to left direction in the drawing as the fourth direction in the display unit 13.

そして、制御部11は、例えば「あ」を示す代表画像を選択画像として認識した場合、表示部13において、「あ」を示す代表画像の周囲に「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを記憶させる。具体的には、制御部11は、「あ」を示す代表画像の第1〜第4の方向のそれぞれに、「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させる。そして、制御部11は、第1〜第4の方向のうち「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させた方向を、その関連画像と対応付けて記憶する。図4を参照すると、例えば「い」を示す関連画像は、第1の方向と対応付けられる。同様に例えば、「お」を示す関連画像は、第4の方向と対応付けられる。ここで、例えば、や行や、わ行の場合、その行の最初の文字以外の文字は4文字よりも少なくなる。制御部11は、例えば「や」を示す代表画像を選択画像として認識した場合、表示部13において、「ゆ」を示す関連画像を例えば第2の方向に表示させ、「よ」を示す関連画像を例えば第4の方向に表示させる。その後、制御部11は、後述する傾き検出部14から出力された方向情報を受け付けると、認識している選択画像に代えて、受け付けた方向情報に対応付けられた関連画像を新たな選択画像として認識する。なお、方向情報は、上述した第1〜第4の方向のいずれかを示す情報である。具体的には例えば、制御部11は、「あ」を示す代表画像を選択画像として認識している場合、受け付けた方向情報が示す方向が第1の方向であると、「あ」を示す代表画像に代えて、第1の方向と対応付けられた「い」を示す関連画像を新たに選択画像として認識する。ここで、関連画像を選択画像として認識した場合、制御部11は、第1〜第4の方向のうちその関連画像からの代表画像の方向を代表画像と対応付けて記憶する。具体的には例えば、図4を参照すると、制御部11は、「い」を示す関連画像を選択画像として認識した場合、「い」を示す関連画像からの「あ」を示す代表画像の方向である第3の方向と、「あ」を示す代表画像とを対応付けて記憶する。そして、制御部11は、「い」を示す関連画像を選択画像として認識しているときに、受け付けた方向情報が示す方向が第3の方向である場合、「い」を示す関連画像に代えて、第3の方向と対応付けられた「あ」を示す代表画像を新たに選択画像として認識する。なお、「い」を示す関連画像を選択画像として認識しているときに、受け付けた方向情報が示す方向が第3の方向以外の方向である場合、受け付けた方向情報が示す方向と、代表画像とが対応付けられていないことになる。この場合には、制御部11は、選択画像として認識している「い」を示す関連画像をそのまま新たな選択画像として認識するようにすればよい。また、制御部11は、選択画像を認識しているときに、入力部12から出力された非接触情報を受け付けると、選択画像として認識している代表画像または関連画像のいずれかが示す文字を、入力された入力文字として認識する。そして、制御部11は、入力文字として認識した文字を、図3に示した入力文字表示エリア51に表示させる。   When the control unit 11 recognizes, for example, a representative image indicating “A” as the selected image, the display unit 13 indicates “i” to “O” around the representative image indicating “A” 4. Each of the two related images is memorized. Specifically, the control unit 11 displays each of the four related images indicating “I” to “O” in each of the first to fourth directions of the representative image indicating “A”. Then, the control unit 11 stores the direction in which each of the four related images indicating “I” to “O” among the first to fourth directions is displayed in association with the related image. Referring to FIG. 4, for example, the related image indicating “I” is associated with the first direction. Similarly, for example, the related image indicating “o” is associated with the fourth direction. Here, for example, in the case of a line or a line, the number of characters other than the first character in the line is less than four characters. For example, when the control unit 11 recognizes the representative image indicating “Y” as the selected image, the display unit 13 displays the related image indicating “Y” in the second direction, for example, and the related image indicating “Y”. Is displayed in the fourth direction, for example. After that, when the control unit 11 receives the direction information output from the inclination detection unit 14 described later, the related image associated with the received direction information is used as a new selection image instead of the recognized selection image. recognize. The direction information is information indicating one of the first to fourth directions described above. Specifically, for example, when the control unit 11 recognizes a representative image indicating “A” as the selected image, the representative indicating “A” when the direction indicated by the received direction information is the first direction. Instead of the image, a related image indicating “I” associated with the first direction is newly recognized as the selected image. Here, when the related image is recognized as the selected image, the control unit 11 stores the direction of the representative image from the related image among the first to fourth directions in association with the representative image. Specifically, for example, referring to FIG. 4, when the control unit 11 recognizes the related image indicating “I” as the selected image, the direction of the representative image indicating “A” from the related image indicating “I” Are stored in association with the representative image indicating “A”. When the control unit 11 recognizes the related image indicating “I” as the selected image and the direction indicated by the received direction information is the third direction, the control unit 11 replaces the related image indicating “Yes”. Thus, the representative image indicating “A” associated with the third direction is newly recognized as the selected image. When the related image indicating “I” is recognized as the selected image and the direction indicated by the received direction information is a direction other than the third direction, the direction indicated by the received direction information and the representative image are displayed. Are not associated with each other. In this case, the control part 11 should just recognize the related image which shows "I" recognized as a selection image as a new selection image as it is. When the control unit 11 recognizes the non-contact information output from the input unit 12 while recognizing the selection image, the control unit 11 displays the character indicated by either the representative image or the related image recognized as the selection image. , Recognized as input characters. And the control part 11 displays the character recognized as an input character on the input character display area 51 shown in FIG.

傾き検出部14は、例えばジャイロセンサーを備えており、携帯端末10の傾きとともに傾きの変化を検出する。そして、傾き検出部14は、検出した変化に応じ、上述した第1〜第4の方向のいずれかを携帯端末10が傾けられた方向として決定する。そして、傾き検出部14は、決定した方向を示す方向情報を制御部11へ出力する。   The inclination detection unit 14 includes a gyro sensor, for example, and detects a change in inclination together with the inclination of the mobile terminal 10. And the inclination detection part 14 determines either the 1st-4th direction mentioned above as a direction in which the portable terminal 10 was inclined according to the detected change. Then, the inclination detection unit 14 outputs direction information indicating the determined direction to the control unit 11.

以下に、上記のように構成された携帯端末10が操作者からの入力操作を受け付ける動作について説明する。ここでは、携帯端末10が操作者からの文字入力を受け付けるときの動作について説明する。   Below, the operation | movement which the portable terminal 10 comprised as mentioned above receives input operation from an operator is demonstrated. Here, an operation when the mobile terminal 10 receives a character input from the operator will be described.

図5は、図1〜図4に示した携帯端末10が操作者からの文字入力を受け付けるときの動作を説明するためのフローチャートである。ここでは、図3(a)に示した画像が表示部13に表示されているところから説明する。   FIG. 5 is a flowchart for explaining an operation when the mobile terminal 10 shown in FIGS. 1 to 4 receives a character input from the operator. Here, a description will be given from the point where the image shown in FIG.

まず、操作者は、指等の物体で表示部13に接触する。   First, the operator contacts the display unit 13 with an object such as a finger.

入力部12は、その接触および接触した表示部13上の位置を検知する(ステップS1)。   The input unit 12 detects the contact and the touched position on the display unit 13 (step S1).

そして、入力部12は、検知した位置を示す接触情報を制御部11へ出力する。   Then, the input unit 12 outputs contact information indicating the detected position to the control unit 11.

入力部12から出力された接触情報を受け付けた制御部11は、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置であるかどうかを確認する。すなわち、制御部11は、文字入力の終了の指示を受け付けたかどうかを確認する(ステップS2)。   The control unit 11 that has received the contact information output from the input unit 12 checks whether or not the position indicated by the received contact information is the display position on the display unit 13 of the end image 54. That is, the control unit 11 confirms whether an instruction to end character input has been received (step S2).

ステップS2における確認の結果、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置である場合、制御部11は、文字入力を受け付ける処理を終了する。   As a result of the confirmation in step S2, when the position indicated by the received contact information is the display position on the display unit 13 of the end image 54, the control unit 11 ends the process of receiving the character input.

一方、ステップS2における確認の結果、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置でない場合、制御部11は、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれかであるかどうかを確認する。すなわち、制御部11は、複数の代表画像のいずれかが選択されたかどうかを確認する(ステップS3)。   On the other hand, when the position indicated by the received contact information is not the display position on the display unit 13 of the end image 54 as a result of the confirmation in step S2, the control unit 11 determines that the position indicated by the received contact information is a plurality of representative images. It is confirmed whether the display position is one of the display positions of the respective display units 52. That is, the control unit 11 confirms whether any one of the plurality of representative images has been selected (step S3).

ステップS3における確認の結果、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれでもない場合、ステップS1の動作へ遷移する。   As a result of the confirmation in step S3, when the position indicated by the received contact information is not any of the display positions on the display units 13 of the plurality of representative images 52, the process proceeds to step S1.

一方、ステップS3における確認の結果、受け付けた接触情報が示す位置が、複数の代表画像52の表示部13における表示位置のいずれかである場合、制御部11は、その代表画像を選択画像として認識する(ステップS4)。以降の説明では、操作者は、表示部13上の「あ」を示す代表画像が表示された位置に指等の物体で接触したものとする。従って、ここでは、制御部11は、「あ」を示す代表画像を選択画像として認識することになる。   On the other hand, as a result of the confirmation in step S3, when the position indicated by the received contact information is one of the display positions on the display unit 13 of the plurality of representative images 52, the control unit 11 recognizes the representative image as the selected image. (Step S4). In the following description, it is assumed that the operator touches the position where the representative image indicating “A” on the display unit 13 is displayed with an object such as a finger. Therefore, here, the control unit 11 recognizes the representative image indicating “A” as the selected image.

次に、制御部11は、選択画像として認識した「あ」を示す代表画像を表示部13において反転表示させる(ステップS5)。   Next, the control unit 11 reversely displays the representative image indicating “A” recognized as the selected image on the display unit 13 (step S5).

次に、制御部11は、表示部13において、「あ」を示す代表画像の第1〜第4の方向のそれぞれに、「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させる(ステップS6)。   Next, the control unit 11 causes the display unit 13 to display each of the four related images indicating “I” to “O” in each of the first to fourth directions of the representative image indicating “A”. It is displayed (step S6).

次に、制御部11は、第1〜第4の方向のうち「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させた方向を、その関連画像と対応付けて記憶する。   Next, the control unit 11 stores the direction in which each of the four related images indicating “I” to “O” among the first to fourth directions is displayed in association with the related image. .

そして、制御部11は、入力部12から出力された非接触情報を受け付けたかどうかを確認する(ステップS7)。   And the control part 11 confirms whether the non-contact information output from the input part 12 was received (step S7).

ステップS7における確認の結果、入力部12から出力された非接触情報を受け付けた場合、制御部11は、選択画像が示す文字を入力文字として認識する(ステップS8)。   As a result of the confirmation in step S7, when the non-contact information output from the input unit 12 is received, the control unit 11 recognizes the character indicated by the selected image as the input character (step S8).

そして、制御部11は、入力文字として認識した文字を、図3に示した入力文字表示エリア51に表示させる(ステップS9)。そして、ステップS1の動作へ遷移する。   And the control part 11 displays the character recognized as an input character on the input character display area 51 shown in FIG. 3 (step S9). And it changes to operation | movement of step S1.

一方、ステップS7における確認の結果、入力部12から出力された非接触情報を受け付けていない場合、制御部11は、傾き検出部14から出力された方向情報を受け付けたかどうかを確認する(ステップS10)。   On the other hand, if the non-contact information output from the input unit 12 is not received as a result of the confirmation in step S7, the control unit 11 confirms whether the direction information output from the inclination detection unit 14 is received (step S10). ).

ステップS10における確認の結果、傾き検出部14から出力された方向情報を受け付けていない場合、ステップS7の動作へ遷移する。   If the direction information output from the inclination detector 14 is not accepted as a result of the confirmation in step S10, the process proceeds to the operation in step S7.

一方、ステップS10における確認の結果、傾き検出部14から出力された方向情報を受け付けた場合、制御部11は、認識している選択画像に代えて、受け付けた方向情報が示す方向に対応付けられた代表画像または関連画像を新たな選択画像として認識する(ステップS11)。   On the other hand, when the direction information output from the inclination detection unit 14 is received as a result of the confirmation in step S10, the control unit 11 is associated with the direction indicated by the received direction information instead of the recognized selected image. The representative image or related image is recognized as a new selected image (step S11).

次に、制御部11は、新たに選択画像として認識した代表画像または関連画像を表示部13において反転表示させる(ステップS12)。そして、ステップS7の動作へ遷移する。   Next, the control unit 11 reversely displays the representative image or the related image newly recognized as the selected image on the display unit 13 (step S12). And it changes to operation | movement of step S7.

このように本実施形態において携帯端末10は、表示部13と、表示部13に積層され、物体が接触または近接した位置を検知する入力部12と、傾きを検出する傾き検出部14とを備えている。   As described above, in the present embodiment, the mobile terminal 10 includes the display unit 13, the input unit 12 that is stacked on the display unit 13 and detects the position where the object is in contact with or close to, and the tilt detection unit 14 that detects the tilt. ing.

また、携帯端末10は、入力部12にて検知された位置に基づき、その位置に対応する表示部13に表示された画像を選択画像として認識した後、認識した選択画像と、傾き検出部14にて検出された傾きの変化とに応じた動作を実行する。   In addition, the mobile terminal 10 recognizes the image displayed on the display unit 13 corresponding to the position based on the position detected by the input unit 12 as a selected image, and then recognizes the selected image and the inclination detection unit 14. The operation corresponding to the change in the inclination detected in step S is executed.

これにより、落下させてしまう危険性を増大させることなく、片手での入力操作が可能となる。   Thereby, the input operation with one hand becomes possible without increasing the risk of dropping.

なお、上述した第1および第2の実施形態において、入力部12は指等の物体の接触を検知するものとして説明したが、入力部12は指等の物体の近接を検知するものであってもよい。   In the first and second embodiments described above, the input unit 12 has been described as detecting contact of an object such as a finger, but the input unit 12 detects proximity of an object such as a finger. Also good.

また、本実施形態においては、傾き検出部14が、携帯端末10の傾きの変化を検出し、検出した変化に応じ、携帯端末10が傾けられた方向を決定する場合について説明した。携帯端末10の傾きの変化を検出し、検出した変化に応じ、携帯端末10が傾けられた方向を決定する動作は、このようなものに限定されない。   Moreover, in this embodiment, the inclination detection part 14 detected the change of the inclination of the portable terminal 10, and demonstrated the case where the direction in which the portable terminal 10 was inclined was determined according to the detected change. The operation of detecting a change in the tilt of the mobile terminal 10 and determining the direction in which the mobile terminal 10 is tilted according to the detected change is not limited to this.

一例としては、傾き検出部14が、携帯端末10の傾きだけを検出し、検出した傾きを示す傾き情報を制御部11へ出力する。傾き検出部14から出力された傾き情報を受け付けた制御部11は、例えば、この傾き情報が示す傾きと、この傾き情報を受け付ける前に受け付けた傾き情報が示す傾きとを比較することで携帯端末10の傾きの変化を検出する。そして、制御部11は、検出した変化に応じ、携帯端末10が傾けられた方向を決定する。   As an example, the tilt detection unit 14 detects only the tilt of the mobile terminal 10 and outputs tilt information indicating the detected tilt to the control unit 11. The control unit 11 that has received the tilt information output from the tilt detection unit 14 compares, for example, the tilt indicated by the tilt information with the tilt indicated by the tilt information received before receiving the tilt information. 10 changes in slope are detected. And the control part 11 determines the direction in which the portable terminal 10 was tilted according to the detected change.

また、本発明においては、携帯端末内の処理は上述の専用のハードウェアにて実現されるもの以外に、その機能を実現するためのプログラムを携帯端末にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを携帯端末に読み込ませ、実行するものであっても良い。携帯端末にて読取可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、携帯端末に内蔵されたHDDなどを指す。   In the present invention, the processing in the mobile terminal is recorded on a recording medium that can be read by the mobile terminal, in addition to what is realized by the dedicated hardware described above. The program recorded on this recording medium may be read by a portable terminal and executed. The recording medium readable by the portable terminal refers to a HDD built in the portable terminal, in addition to a transferable recording medium such as a flexible disk, a magneto-optical disk, a DVD, and a CD.

10 携帯端末
11 制御部
12 入力部
13 表示部
14 傾き検出部
51 入力文字表示エリア
52 代表画像
53 関連画像
54 終了用画像
DESCRIPTION OF SYMBOLS 10 Portable terminal 11 Control part 12 Input part 13 Display part 14 Inclination detection part 51 Input character display area 52 Representative image 53 Related image 54 End image

Claims (9)

画像を表示する表示部と、
前記表示部に積層され、物体が接触または近接した位置を検知する入力部と、
傾きを検出する傾き検出部と、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識した後、該認識した選択画像と、前記傾き検出部にて検出された傾きの変化とに応じた動作を実行する制御部と、を有する携帯端末。
A display for displaying an image;
An input unit that is stacked on the display unit and detects a position where an object is in contact with or close to the display unit;
An inclination detector for detecting inclination;
Based on the position detected by the input unit, after recognizing the image displayed on the display unit corresponding to the position as a selected image, the recognized selected image and the tilt detected by the tilt detecting unit And a control unit that executes an operation in accordance with the change of the mobile terminal.
請求項1に記載の携帯端末において、
前記傾き検出部は、傾きの方向を決定し、
前記制御部は、前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させ、その後、前記傾き検出部にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する携帯端末。
The mobile terminal according to claim 1,
The inclination detection unit determines a direction of inclination,
The control unit causes the display unit to display a related image related to the selected image around the recognized selected image, and when the tilt direction is determined by the tilt detection unit, the display unit A portable terminal that recognizes a related image displayed in the determined direction of the selected image in the unit as a new selected image instead of the selected image.
請求項2に記載の携帯端末において、
前記選択画像として認識される画像は、文字を示す画像であり、
前記入力部は、前記物体の接触または近接がなくなったことを検知し、
前記制御部は、前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する携帯端末。
The mobile terminal according to claim 2,
The image recognized as the selected image is an image showing characters,
The input unit detects that the object is no longer in contact or proximity,
After the control unit recognizes the selected image and detects that the object is no longer in contact or proximity with the input unit, the control unit displays the character indicated by the selected image as the character input to the mobile terminal. Recognized mobile device.
画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末における入力受付方法であって、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する処理と、
傾きを検出する処理と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付処理と、を有する入力受付方法。
An input receiving method in a portable terminal having a display unit that displays an image and an input unit that is stacked on the display unit and detects a position where an object touches or approaches,
Processing for recognizing an image displayed on the display unit corresponding to the position as a selected image based on the position detected by the input unit;
Processing to detect the tilt;
An input receiving method comprising: a receiving process for executing an operation according to the recognized selection image and the detected change in inclination.
請求項4に記載の入力受付方法において、
傾きの方向を決定する傾き決定処理をさらに有し、
前記受付処理は、
前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させる処理と、
前記傾き決定処理にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する処理と、を含む入力受付方法。
In the input reception method according to claim 4,
A tilt determination process for determining a tilt direction;
The reception process is as follows:
In the display unit, a process of displaying a related image related to the selected image around the recognized selected image;
When the tilt direction is determined in the tilt determination process, the related image displayed in the determined direction of the selected image on the display unit is recognized as a new selected image instead of the selected image. And an input reception method including:
請求項5に記載の入力受付方法において、
前記選択画像として認識される画像は、文字を示す画像であり、
前記入力部が、前記物体の接触または近接がなくなったことを検知する処理と、
前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する処理と、さらに有する入力受付方法。
In the input reception method according to claim 5,
The image recognized as the selected image is an image showing characters,
Processing for detecting that the input unit is no longer in contact or proximity with the object;
A process of recognizing a character indicated by the selected image as a character input to the mobile terminal when the input unit detects that the object is no longer in contact or proximity after recognizing the selected image; Furthermore, the input reception method which has.
画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末に、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する機能と、
傾きを検出する機能と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付機能と、を実現させるためのプログラム。
To a portable terminal having a display unit that displays an image and an input unit that is stacked on the display unit and detects a position where the object is in contact with or close to
A function of recognizing an image displayed on the display unit corresponding to the position as a selected image based on the position detected by the input unit;
A function to detect tilt,
The program for implement | achieving the reception function which performs the operation | movement according to the recognized selection image and the detected change of the inclination.
請求項7に記載のプログラムにおいて、
前記携帯端末に、傾きの方向を決定する傾き決定機能をさらに実現させ、
前記受付機能は、
前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させる機能と、
前記傾き決定機能にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する機能と、を含むプログラム。
The program according to claim 7,
The mobile terminal further realizes an inclination determination function for determining an inclination direction,
The reception function is
In the display unit, a function of displaying a related image related to the selected image around the recognized selected image;
A function of recognizing a related image displayed in the determined direction of the selected image on the display unit as a new selected image instead of the selected image when the tilt direction is determined by the tilt determining function. And a program including:
請求項8に記載のプログラムにおいて、
前記選択画像として認識される画像は、文字を示す画像であり、
前記携帯端末に、
前記入力部が、前記物体の接触または近接がなくなったことを検知する機能と、
前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する機能と、をさらに実現させるためのプログラム。
The program according to claim 8, wherein
The image recognized as the selected image is an image showing characters,
In the mobile terminal,
A function of detecting that the input unit is out of contact or proximity of the object;
A function of recognizing a character indicated by the selection image as a character input to the mobile terminal when the input unit detects that the object is no longer in contact or proximity after the selection image is recognized; A program for further realizing this.
JP2011195113A 2011-09-07 2011-09-07 Mobile terminal, input reception method, and program Withdrawn JP2013058024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011195113A JP2013058024A (en) 2011-09-07 2011-09-07 Mobile terminal, input reception method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011195113A JP2013058024A (en) 2011-09-07 2011-09-07 Mobile terminal, input reception method, and program

Publications (1)

Publication Number Publication Date
JP2013058024A true JP2013058024A (en) 2013-03-28

Family

ID=48133880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011195113A Withdrawn JP2013058024A (en) 2011-09-07 2011-09-07 Mobile terminal, input reception method, and program

Country Status (1)

Country Link
JP (1) JP2013058024A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139171A (en) * 2014-01-24 2015-07-30 富士通株式会社 Terminal device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139171A (en) * 2014-01-24 2015-07-30 富士通株式会社 Terminal device and program

Similar Documents

Publication Publication Date Title
US10447845B2 (en) Invalid area specifying method for touch panel of mobile terminal
JP5529700B2 (en) Information processing apparatus, control method thereof, and program
CN103164156B (en) The touch inputting method and equipment of portable terminal
US20140333549A1 (en) Input device, input method, and program
JP2012155675A (en) Touch panel device
JP2014149589A (en) Input operation apparatus, display apparatus, and command selection method
US10101905B1 (en) Proximity-based input device
JP2013058024A (en) Mobile terminal, input reception method, and program
JP5827695B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP5709206B2 (en) Touch panel device, processing determination method, program, and touch panel system
WO2014034549A1 (en) Information processing device, information processing method, program, and information storage medium
JP2015038642A (en) Display processing apparatus and display processing method
US9996215B2 (en) Input device, display control method, and integrated circuit device
JP5841023B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof
JP5769234B2 (en) Display device, display method, and program
JP7035662B2 (en) Display control method for mobile terminal devices and mobile terminal devices
JP2012003457A (en) Item selection device, item selection method, and program
US20150091831A1 (en) Display device and display control method
JP5692796B2 (en) Information terminal, input method and program
JP2019160090A (en) Portable terminal device and display control method for portable terminal device
JP2013218486A (en) Display device and display program
WO2014020765A1 (en) Touch panel device, process determination method, program, and touch panel system
JP5982677B2 (en) Terminal device
JP6319238B2 (en) Portable terminal, invalid area specifying method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202