JP2014238705A - Input device, input method, and program - Google Patents

Input device, input method, and program Download PDF

Info

Publication number
JP2014238705A
JP2014238705A JP2013120841A JP2013120841A JP2014238705A JP 2014238705 A JP2014238705 A JP 2014238705A JP 2013120841 A JP2013120841 A JP 2013120841A JP 2013120841 A JP2013120841 A JP 2013120841A JP 2014238705 A JP2014238705 A JP 2014238705A
Authority
JP
Japan
Prior art keywords
prediction candidate
pictogram
input
display area
pictograms
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013120841A
Other languages
Japanese (ja)
Inventor
昌一 永田
Shoichi Nagata
昌一 永田
加藤 雅也
Masaya Kato
雅也 加藤
修佑 関野
Shusuke Sekino
修佑 関野
真穂 草野
Maho Kusano
真穂 草野
将人 渡邉
Masahito Watanabe
将人 渡邉
さき子 山岡
Sakiko Yamaoka
さき子 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Japan Co Ltd
Original Assignee
Samsung Electronics Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Japan Co Ltd filed Critical Samsung Electronics Japan Co Ltd
Priority to JP2013120841A priority Critical patent/JP2014238705A/en
Publication of JP2014238705A publication Critical patent/JP2014238705A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable input operation with improved user convenience.SOLUTION: There is provided an input device including an input control unit that receives, according to the operation to keys or pictograms displayed on at least one of a key pad area and a prediction candidate display area, the input of the character of the operated key or the operated pictogram, the operation being performed to a touch screen that can display pictograms having a plurality of attributes in a mixed state in a prediction candidate display area different from a key pad area; a storage unit that stores operation history information indicating a history of the operation to the pictograms in a history table for prediction candidates; and a display control unit that displays the predetermined number of pictograms selected from the pictograms having a plurality of attributes in the prediction candidate display area on the basis of the operation history information stored in the history table for prediction candidates.

Description

本発明は、入力装置、入力方法およびプログラムに関する。   The present invention relates to an input device, an input method, and a program.

タッチパネル又はタッチパッドを搭載した機器では、ユーザは、タッチ画面を用いて文字等を入力する。例えば、特許文献1には、タッチ画面上の文字入力キーを操作する際のキー入力方法が開示されている。   In a device equipped with a touch panel or a touch pad, a user inputs characters or the like using a touch screen. For example, Patent Literature 1 discloses a key input method for operating a character input key on a touch screen.

例えば、電子メールのメール文を作成する場合、通常の文字(平仮名、漢字、カタカナ)の他に絵文字等を入力することが想定される。タッチ画面のキーパッドエリアでは、文字入力キーとは別に、絵文字、顔文字及び記号の一覧の画面を切り替えて表示することで、一覧から絵文字等を入力することができる。   For example, when creating an e-mail message, it is assumed that pictographs and the like are input in addition to normal characters (Hiragana, Kanji, Katakana). In the keypad area of the touch screen, a pictograph, emoticon, and symbol list can be switched and displayed separately from the character input key to input pictograms and the like from the list.

特開2012−243014号公報JP 2012-243014 A

しかしながら、絵文字等を入力する場合、ユーザは、絵文字等の一覧の画面に切り替えるための特定のキーを操作する必要がある。つまり、ユーザは、特定のキーを操作すると文字、顔文字及び記号の一覧の画面に切り替わることを予め知っている必要がある。   However, when inputting pictograms or the like, the user needs to operate a specific key for switching to a screen for a list of pictograms or the like. That is, the user needs to know in advance that when a specific key is operated, the screen is switched to a list of characters, emoticons, and symbols.

また、絵文字等の一覧から自分の好みの絵文字、顔文字又は記号を探し出すことは、一覧に表示された情報量が多いため時間が掛かる場合がある。   Also, searching for a favorite pictogram, emoticon or symbol from a list of pictograms or the like may take time due to the large amount of information displayed in the list.

上記課題に鑑み、一側面では、ユーザの利便性を向上させた入力操作を提供することを目的とする。   In view of the above problems, an object of one aspect is to provide an input operation with improved user convenience.

上記課題を解決するために、一の態様によれば、
キーパッドエリアとは異なる予測候補表示エリアに複数の属性のピクトグラムを混在させて表示することが可能なタッチ画面に対する操作であって、前記キーパッドエリア及び前記予測候補表示エリアの少なくともいずれかに表示されたキー又はピクトグラムへの操作に応じて前記操作されたキーの文字又は前記操作されたピクトグラムを入力する入力制御部と、
前記ピクトグラムへの操作の履歴を示す操作履歴情報を予測候補用履歴テーブルに記憶する記憶部と、
前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき、前記複数の属性のピクトグラムから選択された所定数のピクトグラムを前記予測候補表示エリアに表示する表示制御部と、
を有することを特徴とする入力装置が提供される。
In order to solve the above problem, according to one aspect,
An operation on a touch screen capable of displaying a plurality of pictograms having a plurality of attributes in a prediction candidate display area different from the keypad area, and is displayed in at least one of the keypad area and the prediction candidate display area An input control unit that inputs characters of the operated key or the operated pictogram in response to an operation on the operated key or pictogram;
A storage unit that stores operation history information indicating a history of operations on the pictogram in the prediction candidate history table;
A display control unit that displays a predetermined number of pictograms selected from the pictograms of the plurality of attributes in the prediction candidate display area based on the operation history information stored in the prediction candidate history table;
An input device is provided.

一の実施形態によれば、ユーザの利便性を向上させた入力操作を提供することができる。   According to one embodiment, an input operation with improved user convenience can be provided.

一実施形態に係るスマートフォンの画面例を示した図。The figure which showed the screen example of the smart phone which concerns on one Embodiment. 一実施形態に係るスマートフォンの機能構成例を示した図。The figure which showed the function structural example of the smart phone which concerns on one Embodiment. 一実施形態に係る一覧用履歴テーブル例を示した図。The figure which showed the example history table for lists which concerns on one Embodiment. 一実施形態に係る予測候補用履歴テーブル例を示した図。The figure which showed the example history table for prediction candidates which concerns on one Embodiment. 一実施形態に係る入力処理を実行するためのフローチャート。The flowchart for performing the input process which concerns on one Embodiment. 一実施形態に係る入力操作とピクトグラムの表示とを説明するための図。The figure for demonstrating the input operation which concerns on one Embodiment, and the display of a pictogram. 一実施形態に係る予測候補用履歴テーブルの他の例を示した図。The figure which showed the other example of the log | history table for prediction candidates which concerns on one Embodiment. 一実施形態に係る入力処理を実行するためのフローチャート。The flowchart for performing the input process which concerns on one Embodiment. 一実施形態に係るスマートフォンのハードウェア構成例を示した図。The figure which showed the hardware structural example of the smart phone which concerns on one Embodiment.

以下、本発明の好適な実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の構成については、同一の符号を付することにより重複した説明を省く。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the substantially same structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[画面例]
まず、本発明の一実施形態に係る電子機器の画面例について、図1を参照しながら説明する。図1は、一例としてスマートフォンの画面例を示す。以下では、電子機器の一例としてスマートフォン1を用いて説明する。ただし、電子機器は、タッチパネル又はタッチパッドを有し、ユーザのタッチ画面への操作を認識可能な機能を有していれば、スマートフォン1に限られず、どんな情報機器であってもよい。例えば、電子機器は、PC(Personal Computer)、タブレット型端末、携帯電話、携帯音楽プレーヤ、携帯情報端末(PDA:Personal Digital Assistant)、携帯ゲーム機器、その他のウェブ機器であってもよい。電子機器は、プリンタやデジタル家電機器等であってもよい。
[Screen example]
First, a screen example of an electronic device according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 shows a screen example of a smartphone as an example. Below, it demonstrates using the smart phone 1 as an example of an electronic device. However, the electronic device is not limited to the smartphone 1 and may be any information device as long as it has a touch panel or a touch pad and has a function capable of recognizing a user's operation on the touch screen. For example, the electronic device may be a PC (Personal Computer), a tablet terminal, a mobile phone, a portable music player, a personal digital assistant (PDA), a portable game device, and other web devices. The electronic device may be a printer, a digital home appliance, or the like.

本実施形態では、スマートフォン1は、本体10に設けられた図示しないタッチパネルとその背後に配置されたタッチ画面11とを有する。スマートフォン1は、タッチ画面11への接触又は押下に応じた文字等を入力する。タッチ画面11としては、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)等を用いることができる。   In the present embodiment, the smartphone 1 has a touch panel (not shown) provided on the main body 10 and a touch screen 11 arranged behind the touch panel. The smartphone 1 inputs characters or the like in response to touching or pressing on the touch screen 11. As the touch screen 11, a liquid crystal display (LCD: Liquid Crystal Display), an organic electroluminescence display (organic EL, OELD: Organic Electroluminescence Display), or the like can be used.

タッチ画面11には、例えば、画面下からキーパッドエリア12、入力予測候補表示エリア15、入力表示エリア16の各表示エリアが設けられている。   On the touch screen 11, for example, display areas of a keypad area 12, an input prediction candidate display area 15, and an input display area 16 are provided from the bottom of the screen.

キーパッドエリア12には、ソフトウェアキーボードの一例として、例えば、中央に文字入力キー13が表示され、その左右に機能キー14が表示されている。本実施形態のスマートフォン1では、文字入力キー13を使用した文字の入力が可能である。   In the keypad area 12, as an example of a software keyboard, for example, a character input key 13 is displayed in the center, and function keys 14 are displayed on the left and right. In the smartphone 1 according to the present embodiment, characters can be input using the character input key 13.

例えば、トグル入力では、3×4のキーエリアに仕切られた文字入力キーの「あ」、「か」、「さ」・・・のいずれかのキーを繰り返しタップする(以下、タップ操作という。)ことで、タップされた「あ」、「か」、「さ」・・・のいずれかの行のタップ回数に応じた文字を入力する方法である。例えば、トグル入力では、「あ」のキーを1回タップすると「あ」が入力され、2回タップすると「い」が入力され、3回タップ操作すると「う」が入力される。   For example, in the toggle input, the character input key “A”, “KA”, “SA”,... Divided into 3 × 4 key areas is repeatedly tapped (hereinafter referred to as a tap operation). This is a method of inputting characters according to the number of taps in any of the tapped lines “a”, “ka”, “sa”. For example, in toggle input, “A” is input when the “A” key is tapped once, “I” is input when tapped twice, and “U” is input when tapped three times.

入力予測候補表示エリア15には、文字入力キー13への操作に応じて予測候補文字が表示される。例えば、図1に示した例では、「あ」→「さ」の順に文字入力キー13が押下され、入力予測候補表示エリア15には「あさ」、「あさ日」、「朝」、「朝日」及び「太陽のマーク」が表示される。ここで、太陽のマーク17sは絵文字の一例である。入力表示エリア16には、「あさ」の文字が表示される。ここでは、入力確定前であるため、「あさ」の文字にアンダーラインが引かれている。   In the input prediction candidate display area 15, prediction candidate characters are displayed in response to an operation on the character input key 13. For example, in the example shown in FIG. 1, the character input key 13 is pressed in the order of “A” → “SA”, and “Asa”, “Asahi”, “Morning”, “Asahi” are displayed in the input prediction candidate display area 15. ”And“ Sun mark ”are displayed. Here, the sun mark 17s is an example of a pictograph. In the input display area 16, the character “ASA” is displayed. Here, since the input is not yet confirmed, the character “ASA” is underlined.

入力表示エリア16には、文字入力キー13への操作に応じた文字が表示される。例えば、ユーザが、入力予測候補表示エリア15から所望の文字を選択すると、入力表示エリア16に表示された文字の入力が確定する。例えば、ユーザが、入力予測候補表示エリア15から「朝」を選択すると、入力表示エリア16には「朝」が表示される。   In the input display area 16, characters corresponding to operations on the character input keys 13 are displayed. For example, when the user selects a desired character from the input prediction candidate display area 15, the input of the character displayed in the input display area 16 is confirmed. For example, when the user selects “morning” from the input prediction candidate display area 15, “morning” is displayed in the input display area 16.

[機能構成例]
次に、本実施形態に係るスマートフォンの機能構成例について、図2を参照しながら説明する。図2は本実施形態に係るスマートフォンの機能構成例を示す。
[Function configuration example]
Next, a functional configuration example of the smartphone according to the present embodiment will be described with reference to FIG. FIG. 2 shows a functional configuration example of the smartphone according to the present embodiment.

スマートフォン1は、位置検出部21、入力制御部22、表示制御部23、記憶部24及び選択部25を有する。入力制御部22、表示制御部23、記憶部24及び選択部25により、本実施形態に係る入力装置101の機能が実現される。   The smartphone 1 includes a position detection unit 21, an input control unit 22, a display control unit 23, a storage unit 24, and a selection unit 25. The functions of the input device 101 according to the present embodiment are realized by the input control unit 22, the display control unit 23, the storage unit 24, and the selection unit 25.

位置検出部21は、タッチ画面11のタッチパネルへの指の接触位置に基づき、キーパッドエリア12や入力予測候補表示エリア15内のどの位置への操作が行われたかを検出する。   The position detection unit 21 detects which position in the keypad area 12 or the input prediction candidate display area 15 has been operated based on the contact position of the finger on the touch panel of the touch screen 11.

入力制御部22は、検出された操作に従い文字等の入力を制御する。例えば、入力制御部22は、検出された文字入力キー13への操作に応じた文字を入力する。また、入力制御部22は、絵文字、顔文字及び記号等の一覧の画面へ表示画面が切り替えられた場合には、絵文字等の一覧への操作に応じて絵文字等を入力する。   The input control unit 22 controls input of characters and the like according to the detected operation. For example, the input control unit 22 inputs a character corresponding to the detected operation on the character input key 13. In addition, when the display screen is switched to a screen of a list of pictograms, emoticons, symbols, and the like, the input control unit 22 inputs a pictogram and the like according to an operation on the list of pictograms and the like.

表示制御部23は、タッチ画面11のキーパッドエリア12に文字入力キー13及び機能キー14を含むソフトウェアキーと、絵文字等のピクトグラム(Pictogram)の一覧とを切り替えて表示する。表示制御部23は、特定の操作、例えば、検出された機能キー14への操作に応じてピクトグラムの一覧の画面に表示を切り替える。   The display control unit 23 switches and displays software keys including character input keys 13 and function keys 14 and a list of pictograms such as pictograms in the keypad area 12 of the touch screen 11. The display control unit 23 switches the display to a pictogram list screen according to a specific operation, for example, an operation to the detected function key 14.

ピクトグラムは、文字で表現し難い感情等の何らかの情報を示すために表示される視覚記号(サイン)の一つである。ピクトグラムは、少なくとも「絵文字」、「顔文字」、「記号」、「デコメ(登録商標)絵文字」の4つの属性の視覚記号を含むことができる。以下の説明では、ピクトグラムの例として、絵文字、顔文字及び記号の3つの属性のピクトグラムを使用する。   A pictogram is one of visual symbols (signs) displayed to indicate some information such as emotion that is difficult to express with letters. The pictogram can include at least four visual symbols of “pictogram”, “emoticon”, “symbol”, and “decome (registered trademark) pictogram”. In the following description, pictograms having three attributes of pictograms, emoticons, and symbols are used as examples of pictograms.

表示制御部23は、キーパッドエリア12とは異なる予測候補表示エリア17に複数の属性のピクトグラムを混在させて表示することが可能である。予測候補表示エリア17には、少なくとも絵文字、顔文字、記号から選択された所定数のピクトグラムが表示される。所定数は、図1に示したように、キーパッドエリア12上の予測候補表示エリア17に表示可能なピクトグラムの個数だけでなく、図6(e)に示したように、予測候補表示エリア17を拡大した(予測候補表示エリア17を開いた)ときに、予測候補表示エリア17に表示可能なピクトグラムの個数であってもよい。予測候補表示エリア17の表示位置は、入力予測候補表示エリア15の表示位置と同じであってもよいし、異なっていてもよい。   The display control unit 23 can display a plurality of pictograms having a plurality of attributes in the prediction candidate display area 17 different from the keypad area 12. In the prediction candidate display area 17, a predetermined number of pictograms selected from at least pictograms, emoticons, and symbols are displayed. The predetermined number is not only the number of pictograms that can be displayed in the prediction candidate display area 17 on the keypad area 12 as shown in FIG. 1, but also the prediction candidate display area 17 as shown in FIG. May be the number of pictograms that can be displayed in the prediction candidate display area 17 when the prediction candidate display area 17 is opened. The display position of the prediction candidate display area 17 may be the same as or different from the display position of the input prediction candidate display area 15.

記憶部24は、ピクトグラムへの操作の履歴を示す操作履歴情報を記憶する。図3及び図4には、ピクトグラムの操作履歴情報が記憶されたテーブル例が示されている。図3には、一覧用履歴テーブル24aを示し、図4には、予測候補用履歴テーブル24bを示す。   The storage unit 24 stores operation history information indicating a history of operations on the pictogram. 3 and 4 show examples of tables storing pictogram operation history information. FIG. 3 shows a list history table 24a, and FIG. 4 shows a prediction candidate history table 24b.

記憶部24は、一覧用履歴テーブル24aには、絵文字、顔文字、記号の各属性に分けてピクトグラムの操作履歴情報を記憶する。   The storage unit 24 stores pictogram operation history information for each attribute of pictograms, emoticons, and symbols in the list history table 24a.

例えば、図3に示したように、記憶部24は、絵文字、顔文字、記号の3つの属性の操作履歴情報を属性毎に分けて、一覧用履歴テーブル24aに記憶する。例えば、一覧用履歴テーブル24aには、絵文字の属性に対して、最新に使用された絵文字から順に絵文字の操作履歴情報が記憶される。例えば、新たに音符の絵文字が操作された場合、記憶部24は、絵文字の属性の先頭(No.1)に記憶する。その結果、絵文字の属性の先頭から順に記憶されていたピクトグラムは、絵文字の属性の2番目以降に記憶される。顔文字についても同様に、記憶部24は、最新に使用された顔文字から順に顔文字を一覧用履歴テーブル24aに記憶する。記号についても同様に、記憶部24は、最新に使用された記号から順に記号を一覧用履歴テーブル24aに記憶する。   For example, as shown in FIG. 3, the storage unit 24 stores operation history information of three attributes of pictographs, emoticons, and symbols for each attribute and stores them in the list history table 24a. For example, in the list history table 24a, operation history information of pictograms is stored in order from the most recently used pictogram for pictogram attributes. For example, when a pictograph of a note is newly operated, the storage unit 24 stores it at the top (No. 1) of the attribute of the pictograph. As a result, the pictograms stored in order from the top of the pictogram attributes are stored in the second and subsequent pictogram attributes. Similarly, for the emoticons, the storage unit 24 stores the emoticons in the list history table 24a in order from the most recently used emoticon. Similarly, for the symbols, the storage unit 24 stores the symbols in the list history table 24a in order from the most recently used symbol.

また、図4に示した予測候補用履歴テーブル24bには、絵文字、顔文字及び記号が混在したピクトグラムの操作履歴情報が記憶される。つまり、記憶部24は、絵文字、顔文字及び記号を混在させた操作履歴情報を記憶する。例えば、新たに音符の絵文字が操作された場合、記憶部24は、その絵文字を最新に使用されたピクトグラム24b1として先頭(No.1)に記憶する。その結果、先頭から順に記憶されていたピクトグラム24b2、24b3・・は、2番目以降に一つずつずらして記憶される。なお、ピクトグラムには、デコメ(登録商標)絵文字等の他の属性のピクトグラムが含まれ得る。   In addition, the prediction candidate history table 24b shown in FIG. 4 stores pictogram operation history information in which pictograms, emoticons, and symbols are mixed. That is, the storage unit 24 stores operation history information in which pictograms, emoticons, and symbols are mixed. For example, when a pictograph of a note is newly operated, the storage unit 24 stores the pictograph at the head (No. 1) as a pictogram 24b1 used most recently. As a result, the pictograms 24b2, 24b3,... Stored in order from the top are stored with being shifted one by one from the second. The pictogram may include pictograms of other attributes such as Decome (registered trademark) pictograms.

選択部25は、記憶部24により記憶された操作履歴情報に基づき、複数の属性のピクトグラムから予測候補表示エリア17に表示する所定数のピクトグラムを選択する。選択部25は、図4の予測候補用履歴テーブル24bに記憶された操作履歴情報に基づき、先頭(No.1)に記憶された操作履歴のピクトグラムから順に所定数のピクトグラムを選択してもよい。   The selection unit 25 selects a predetermined number of pictograms to be displayed in the prediction candidate display area 17 from a plurality of attribute pictograms based on the operation history information stored in the storage unit 24. The selection unit 25 may select a predetermined number of pictograms in order from the operation history pictogram stored in the head (No. 1) based on the operation history information stored in the prediction candidate history table 24b of FIG. .

よって、予測候補表示エリア17には、操作履歴情報に基づき、絵文字、顔文字、記号の複数の属性のピクトグラムが混在して表示され得る。ただし、予測候補用履歴テーブル24bに記憶されている先頭から所定数の操作履歴情報が、すべて同一の属性のピクトグラムの場合もあり得る。その場合には、その時点で予測候補表示エリア17に表示されるピクトグラムのすべてが同一の属性となる。   Therefore, pictograms having a plurality of attributes such as pictographs, emoticons, and symbols can be displayed in the prediction candidate display area 17 based on the operation history information. However, the predetermined number of operation history information stored in the prediction candidate history table 24b may be all pictograms having the same attribute. In that case, all the pictograms displayed in the prediction candidate display area 17 at that time have the same attribute.

[入力処理例1]
次に、一実施形態に係る入力処理のシーケンスについて、図5を参照しながら説明する。図5は、一実施形態に係る入力処理を実行するためのフローチャートである。
[Input processing example 1]
Next, an input processing sequence according to an embodiment will be described with reference to FIG. FIG. 5 is a flowchart for executing input processing according to an embodiment.

例えば、ユーザが、図1に示したキーパッドエリア12の文字入力キー13のいずれかのキーをタップ操作したとき、本実施形態に係る入力処理が開始される。   For example, when the user taps one of the character input keys 13 in the keypad area 12 shown in FIG. 1, the input process according to the present embodiment is started.

その際、まず、位置検出部21は、タッチ画面11のタッチパネルへの指の接触位置に基づき、文字入力キー13のいずれのキーがタップ操作されたかを検出する。入力制御部22は、検出されたタップ操作の位置の文字を入力する(ステップS10)。例えば、図6(a)に示した入力表示エリア16には、文字入力キー13の「か」と「た」と「わ」のキーがタップ操作され、カタカナ変換されて「キター」と入力された例が示されている。   At that time, first, the position detection unit 21 detects which key of the character input key 13 is tapped based on the contact position of the finger on the touch panel of the touch screen 11. The input control unit 22 inputs the character at the position of the detected tap operation (step S10). For example, in the input display area 16 shown in FIG. 6A, the “ka”, “ta”, and “wa” keys of the character input key 13 are tapped, converted into katakana, and “Kitter” is input. An example is shown.

図1に示したように、入力予測候補表示エリア15に入力予測候補の文字や絵文字、記号等が表示され(ステップS12)、ユーザがピクトグラムA(ここでは、絵文字17s)をタップ操作した場合、入力制御部22は、ピクトグラムAを入力する(ステップS14)。   As shown in FIG. 1, when input prediction candidate characters, pictograms, symbols, etc. are displayed in the input prediction candidate display area 15 (step S12), and the user taps the pictogram A (here, the pictogram 17s), The input control unit 22 inputs the pictogram A (step S14).

次に、記憶部24は、予測候補用履歴テーブル24bに記憶された操作履歴情報を更新する(ステップS16)。つまり、記憶部24は、ピクトグラムAを予測候補用履歴テーブル24bの先頭に記憶する。例えば、入力されたピクトグラムAが顔文字の場合、一覧用履歴テーブル24aの顔文字の属性の先頭(No.1)と予測候補用履歴テーブル24bの先頭(No.1)には、ピクトグラムAが記憶される。なお、ステップS18及びステップS28の操作については後述する。   Next, the storage unit 24 updates the operation history information stored in the prediction candidate history table 24b (step S16). That is, the storage unit 24 stores the pictogram A at the head of the prediction candidate history table 24b. For example, when the inputted pictogram A is a smiley face, the pictogram A is placed at the head (No. 1) of the emoticon attribute in the list history table 24a and the head (No. 1) of the prediction candidate history table 24b. Remembered. In addition, operation of step S18 and step S28 is mentioned later.

図6(a)に示したように、ユーザがキーパッドエリア12の数字キー14aを押下すると(ステップS20)、位置検出部21は、数字キー14aが押されたことを検出する。検出結果に基づき、表示制御部23は、図6(b)に示したように、キーパッドエリア12の文字入力キー13を文字から数字(数字キーパッド)に切り替える(ステップS22)。表示制御部23は、絵文字、顔文字、記号等のピクトグラムを予測候補表示エリア17に表示する(ステップS22)。具体的には、表示制御部23は、予測候補用履歴テーブル24bに記憶された操作履歴情報に基づき、図4の予測候補用履歴テーブル24bの先頭から所定数のピクトグラムが予測候補表示エリア17に表示される。よって、ピクトグラムは、その時点で最新に使用されたピクトグラムが先頭に表示され、使用が新しいピクトグラム程、前に表示される。   As shown in FIG. 6A, when the user presses the numeric key 14a in the keypad area 12 (step S20), the position detection unit 21 detects that the numeric key 14a is pressed. Based on the detection result, the display control unit 23 switches the character input key 13 in the keypad area 12 from a character to a number (numeric keypad) as shown in FIG. 6B (step S22). The display control unit 23 displays pictograms such as pictograms, emoticons, symbols, etc. in the prediction candidate display area 17 (step S22). Specifically, the display control unit 23 stores a predetermined number of pictograms in the prediction candidate display area 17 from the top of the prediction candidate history table 24b of FIG. 4 based on the operation history information stored in the prediction candidate history table 24b. Is displayed. Therefore, the pictogram used most recently at that time is displayed at the top of the pictogram, and the pictogram used more recently is displayed earlier.

ここで、ユーザがピクトグラムAをタップ操作した場合、入力制御部22は、ピクトグラムAを入力する(ステップS14)。例えば、ユーザが、図6(b)の予測候補表示エリア17に表示した顔文字17aをタップ操作した場合、入力制御部22は、顔文字17aを入力する。その結果、図6(c)の入力表示エリア16に示したように、「キター」の後に顔文字17aが入力される。次に、記憶部24は、予測候補用履歴テーブル24bに記憶された操作履歴情報を更新する(ステップS16)。これにより、顔文字17aが、予測候補用履歴テーブル24bの先頭に記憶される。   Here, when the user taps the pictogram A, the input control unit 22 inputs the pictogram A (step S14). For example, when the user taps the emoticon 17a displayed in the prediction candidate display area 17 in FIG. 6B, the input control unit 22 inputs the emoticon 17a. As a result, as shown in the input display area 16 of FIG. 6C, the emoticon 17a is input after “Kitter”. Next, the storage unit 24 updates the operation history information stored in the prediction candidate history table 24b (step S16). As a result, the emoticon 17a is stored at the head of the prediction candidate history table 24b.

また、図7(a)に示した操作履歴情報が予測候補用履歴テーブル24bに記憶されている状態において、ユーザが、ハートの絵文字24b4をタップした場合、入力制御部22は、絵文字24b4を入力する。このとき、記憶部24は、予測候補用履歴テーブル24bに記憶された操作履歴情報を更新する。これにより、予測候補用履歴テーブル24bの5番目に記憶されていた絵文字24b4は、図7(b)に示したように、予測候補用履歴テーブル24bの先頭に記憶される。   In addition, when the operation history information illustrated in FIG. 7A is stored in the prediction candidate history table 24b, when the user taps the heart pictogram 24b4, the input control unit 22 inputs the pictogram 24b4. To do. At this time, the storage unit 24 updates the operation history information stored in the prediction candidate history table 24b. As a result, the fifth pictogram 24b4 stored in the prediction candidate history table 24b is stored at the head of the prediction candidate history table 24b as shown in FIG. 7B.

図5に戻って、次に、位置検出部21は、クリアキーが押下されたかを判定する(ステップS18)。例えば、図6(d)には、クリアキー17fが「Clear」で示されている。   Returning to FIG. 5, next, the position detection unit 21 determines whether the clear key is pressed (step S18). For example, in FIG. 6D, the clear key 17f is indicated by “Clear”.

クリアキーが押下されていないと判定された場合、本処理はそのまま終了する。このとき、予測候補用履歴テーブル24bは、図7(b)に示した操作履歴情報を記憶した状態のままである。   If it is determined that the clear key has not been pressed, this processing ends. At this time, the prediction candidate history table 24b remains in a state where the operation history information shown in FIG. 7B is stored.

一方、ステップS18にてクリアキーが押下されたと判定された場合、その時点で入力表示エリア16のカーソルの直前にある文字の表示が削除される。また、記憶部24は、予測候補用履歴テーブル24bに記憶された操作履歴情報を更新しない(ステップS28)。つまり、記憶部24は、ステップS16の更新処理が行われる直前に予測候補用履歴テーブル24bに記憶されていた操作履歴情報を記憶する。   On the other hand, if it is determined in step S18 that the clear key has been pressed, the display of the character immediately before the cursor in the input display area 16 is deleted. The storage unit 24 does not update the operation history information stored in the prediction candidate history table 24b (step S28). That is, the storage unit 24 stores the operation history information stored in the prediction candidate history table 24b immediately before the update process in step S16 is performed.

例えば、入力表示エリア16のカーソルの前にある文字が「ハート」の絵文字であった場合、予測候補用履歴テーブル24bに記憶された操作履歴情報は、「ハート」の絵文字が入力された時点で図7(a)から図7(b)の状態に変化し、「ハート」の絵文字24b4が先頭に記憶される。   For example, if the character in front of the cursor in the input display area 16 is a “heart” pictogram, the operation history information stored in the prediction candidate history table 24b is the time when the “heart” pictogram is input. The state changes from FIG. 7A to the state of FIG. 7B, and the pictograph 24b4 of “heart” is stored at the head.

その状態で、図5のステップS18にてクリアキーが押下されると、表示制御部23は、この操作をユーザからの取り消し要求と判断し、「ハート」の絵文字の入力を取り消し、入力表示エリア16からカーソルの直前にある「ハート」の絵文字の表示を消去する。これとともに、予測候補用履歴テーブル24bに記憶された操作履歴情報は、図7(b)から図7(a)の状態に戻り、「ハート」の絵文字24b4は元の位置(図7(b)に示した先頭の位置になる直前の位置)に記憶される。つまり、図5のステップS28にて、操作履歴情報を更新しない状態となる。   In this state, when the clear key is pressed in step S18 of FIG. 5, the display control unit 23 determines that this operation is a cancel request from the user, cancels the input of the “heart” pictogram, and displays the input display area. The display of the pictograph of “heart” immediately before the cursor is deleted from 16. At the same time, the operation history information stored in the prediction candidate history table 24b returns from the state shown in FIG. 7B to the state shown in FIG. 7A, and the “heart” pictogram 24b4 is moved to the original position (FIG. 7B). The position immediately before the head position shown in FIG. That is, in step S28 in FIG. 5, the operation history information is not updated.

次に、図5のステップ24では、図6(b)に示したように、ユーザが、キーパッドエリア12の絵文字・記号キー14bを押下する。その場合、位置検出部21は、絵文字・記号キー14bが押されたことを検出する。検出結果に基づき、表示制御部23は、図6(d)に示したように、キーパッドエリア12を3つの属性のピクトグラムの属性毎(絵文字、顔文字、記号)の一覧画面に切り替える(ステップS26)。なお、このとき、図6(d)の入力表示エリア16の表示にかかわらず、入力表示エリア16には、「キター」と表示される。   Next, in step 24 of FIG. 5, as shown in FIG. 6B, the user presses the pictograph / symbol key 14 b in the keypad area 12. In that case, the position detector 21 detects that the pictograph / symbol key 14b has been pressed. Based on the detection result, the display control unit 23 switches the keypad area 12 to a list screen for each attribute (pictogram, emoticon, symbol) of the three attribute pictograms as shown in FIG. S26). At this time, “Kitter” is displayed in the input display area 16 regardless of the display of the input display area 16 in FIG.

図6(d)には、絵文字、顔文字、記号の一覧画面がそれぞれタブ18により切り替え可能に表示されている。図6(d)では、絵文字のタブ18が選択され、絵文字の一覧を示した画面19が表示されている。   In FIG. 6D, a list screen of pictograms, emoticons, and symbols is displayed in a switchable manner by tabs 18 respectively. In FIG. 6D, the pictogram tab 18 is selected, and a screen 19 showing a list of pictograms is displayed.

ステップS14以降の処理は既に説明したため、ここでは省略する。   Since the processing after step S14 has already been described, it is omitted here.

以上に説明したように、本実施形態に係るスマートフォン1によれば、最新に使用されたピクトグラムから順に複数の属性が混在したピクトグラムを予測候補表示エリア17に表示することができる。これにより、ユーザは、ユーザが使用したいピクトグラムをスムーズに入力することができ、ピクトグラムの属性毎に一覧表示した画面を表示させる操作手順と一覧表示から所望のピクトグラムを見つける手間を省くことができる。   As described above, according to the smartphone 1 according to the present embodiment, a pictogram in which a plurality of attributes are mixed in order from the most recently used pictogram can be displayed in the prediction candidate display area 17. Accordingly, the user can smoothly input a pictogram that the user wants to use, and an operation procedure for displaying a screen displaying a list for each attribute of the pictogram and a labor for finding a desired pictogram from the list display can be saved.

特に、本実施形態に係るスマートフォン1では、図6(d)に示したように、キーパッドエリアにピクトグラムの属性(絵文字、顔文字、記号)毎の一覧画面を切り替え表示することが可能である。また、キーパッドエリアとは異なる予測候補表示エリアに、例えば利用頻度に基づき選択されたピクトグラムを、属性を混在させて表示することが可能である。このように、本実施形態に係るスマートフォン1によれば、ユーザは、例えば、利用頻度別に2つの入力方法からピクトグラムの選択及び入力を行うことができる。   In particular, as shown in FIG. 6D, the smartphone 1 according to the present embodiment can switch and display a list screen for each pictogram attribute (pictogram, emoticon, symbol) in the keypad area. . In addition, for example, a pictogram selected based on the frequency of use can be displayed in a prediction candidate display area different from the keypad area, with attributes mixed. Thus, according to the smartphone 1 according to the present embodiment, the user can select and input a pictogram from, for example, two input methods for each usage frequency.

例えば、予測候補表示エリアには、ピクトグラムの使用履歴に応じて、スマートフォン1のユーザ毎に利用頻度が高いと想定されるピクトグラムが表示される。つまり、予測候補表示エリアには、ユーザ毎にカスタマイズされたピクトグラムが表示される。よって、ユーザは、予測候補表示エリアからよく利用しているピクトグラムをより早く選択して入力することができる。ただし、予測候補表示エリアには、利用頻度が高いピクトグラムが属性を跨って表示されるため、一度にすべてのピクトグラムを表示することはできない。   For example, in the prediction candidate display area, a pictogram that is assumed to be frequently used for each user of the smartphone 1 is displayed according to the use history of the pictogram. That is, a pictogram customized for each user is displayed in the prediction candidate display area. Therefore, the user can select and input a frequently used pictogram from the prediction candidate display area earlier. However, since pictograms with high usage frequency are displayed across the attributes in the prediction candidate display area, not all pictograms can be displayed at once.

一方、ピクトグラムの属性毎の一覧には、絵文字、顔文字又は記号の属性毎にカテゴリに分類された状態で、すべてのピクトグラムを表示することができる。よって、ユーザは、一般的には利用頻度は低いが入力したいピクトグラムについては、ピクトグラムの属性毎の一覧を表示させて、その一覧から必要なピクトグラムを選択して入力することができる。また、一般的には利用頻度が少ないピクトグラムであっても、そのユーザがよく入力するピクトグラムは、その使用履歴を反映して予測候補表示エリアに表示されるピクトグラムの候補となり得る。このように、予測候補表示エリアは、一般的には利用頻度が少ないピクトグラムであっても、そのユーザがよく入力するピクトグラムを入力し易い環境を提供する機能も有する。   On the other hand, in the list for each pictogram attribute, all pictograms can be displayed in a state where the pictogram, emoticon, or symbol attribute is classified into categories. Therefore, the user can generally display a list for each pictogram attribute for a pictogram to be input although the usage frequency is low, and select and input a necessary pictogram from the list. In general, even if a pictogram is used less frequently, a pictogram frequently input by the user can be a candidate for a pictogram displayed in the prediction candidate display area reflecting its usage history. As described above, the prediction candidate display area also has a function of providing an environment in which it is easy to input a pictogram that the user often inputs even if it is a pictogram that is generally less frequently used.

なお、本実施形態に係るスマートフォン1では、最新に使用されたピクトグラムを予測候補表示エリア17に表示したが、予測候補表示エリア17に表示するピクトグラムの順番はこれに限られない。例えば、使用頻度の高いピクトグラムから順に予測候補表示エリア17に表示してもよい。予測候補用履歴テーブル24bに記憶される操作履歴情報には、対象となるピクトグラムの使用回数や使用時刻が含まれることが好ましい。そして、表示制御部23は、使用回数や使用時刻に基づき、ユーザが好んで使用する可能性が高いピクトグラムから順に予測候補表示エリア17に表示することが好ましい。これにより、ユーザの利便性を更に向上させた入力操作を提供することができる。   In addition, in the smart phone 1 which concerns on this embodiment, although the pictogram used most recently was displayed on the prediction candidate display area 17, the order of the pictogram displayed on the prediction candidate display area 17 is not restricted to this. For example, you may display in the prediction candidate display area 17 in an order from a pictogram with high use frequency. The operation history information stored in the prediction candidate history table 24b preferably includes the number of times and the use time of the target pictogram. And it is preferable that the display control part 23 displays on the prediction candidate display area 17 in an order from the pictogram which a user has high possibility of using based on the frequency | count of use and use time. Thereby, it is possible to provide an input operation that further improves user convenience.

また、本実施形態に係るスマートフォン1によれば、クリアキー17fの操作により、誤入力に対する意図しない操作履歴情報を予測候補表示エリア17の表示に反映することを防ぐことができる。これにより、予測候補表示エリア17に表示するピクトグラムの精度を高め、ユーザの利便性を更に向上させた入力操作を提供することができる。   Further, according to the smartphone 1 according to the present embodiment, it is possible to prevent the operation history information that is not intended for erroneous input from being reflected in the display of the prediction candidate display area 17 by the operation of the clear key 17f. Thereby, the precision of the pictogram displayed on the prediction candidate display area 17 can be improved, and the input operation which further improved the convenience for the user can be provided.

[削除]
本実施形態では、図6(d)のクリアーキー17fとは別に、削除キー51が設けられている。例えば、図6(e)に示したように、ユーザが「ハート」の絵文字を選択して長押し操作すると、画面は、図6(g)に示した編集画面に遷移する。ユーザが、編集画面の「リストから削除」で示される削除キー51を選択した場合、記憶部24は、予測候補用履歴テーブル24bから「ハート」の絵文字を削除する。例えば、図7(a)に示した操作履歴情報が予測候補用履歴テーブル24bに記憶されている場合、ユーザが「ハート」の絵文字を選択して削除キー51を押下すると、図7(a)に示した予測候補用履歴テーブル24bから「ハート」の絵文字24b4が削除される。その結果、図6(h)に示したように、予測候補表示エリア17には、「ハート」の絵文字17eは表示されないことになる。
[Delete]
In the present embodiment, a delete key 51 is provided separately from the clear key 17f in FIG. For example, as illustrated in FIG. 6E, when the user selects the “heart” pictograph and performs a long press operation, the screen changes to the editing screen illustrated in FIG. When the user selects the delete key 51 indicated by “delete from list” on the editing screen, the storage unit 24 deletes the pictograph of “heart” from the prediction candidate history table 24b. For example, when the operation history information shown in FIG. 7A is stored in the prediction candidate history table 24b, when the user selects the pictograph “heart” and presses the delete key 51, the operation history information shown in FIG. The “heart” pictogram 24b4 is deleted from the prediction candidate history table 24b shown in FIG. As a result, as shown in FIG. 6H, the “heart” pictogram 17 e is not displayed in the prediction candidate display area 17.

[入力処理例2]
次に、一実施形態に係る入力処理のシーケンスについて、図8を参照しながら説明する。図8は、一実施形態に係る入力処理の他の例を示したフローチャートである。ここでは、ユーザがキーパッドエリア12の数字キー14aを押下すると(ステップS30)、位置検出部21は、数字キー14aが押されたことを検出する。検出した結果、表示制御部23は、図6(b)に示したように、キーパッドエリア12の文字入力キー13を文字から数字に切り替える。このとき、表示制御部23は、入力制御部22により入力が行われる入力表示エリア16の属性を確認し(ステップS32)、入力表示エリアの属性に合致した絵文字、顔文字、記号等のピクトグラムを予測候補表示エリア17に表示する(ステップS34)。ピクトグラムは、入力表示エリア16の属性に合致しないピクトグラムを除き、その時点で最新に使用されたピクトグラムを先頭にして、使用が新しいピクトグラム程、前に表示される。
[Input processing example 2]
Next, an input processing sequence according to an embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating another example of input processing according to an embodiment. Here, when the user presses the numeric key 14a in the keypad area 12 (step S30), the position detection unit 21 detects that the numeric key 14a has been pressed. As a result of the detection, the display control unit 23 switches the character input key 13 in the keypad area 12 from a character to a number as shown in FIG. At this time, the display control unit 23 confirms the attributes of the input display area 16 to which input is performed by the input control unit 22 (step S32), and displays pictograms such as pictograms, emoticons, symbols and the like that match the attributes of the input display area. It displays on the prediction candidate display area 17 (step S34). A pictogram that does not match the attributes of the input display area 16 is displayed at the front of the pictogram that has been used most recently, and the pictogram that has been used is displayed earlier.

ここで、入力表示エリア16の属性とは、入力表示エリア16に表示される入力文字に対して実行されるアプリケーションの属性である。入力表示エリア16の属性によって予測候補表示エリア17に表示されるピクトグラムの属性が異なる場合がある。   Here, the attribute of the input display area 16 is an attribute of an application executed for an input character displayed in the input display area 16. Depending on the attribute of the input display area 16, the attribute of the pictogram displayed in the prediction candidate display area 17 may be different.

例えば、入力表示エリア16の属性がメール文の入力の場合、入力表示エリア16の入力文字に対して実行されるアプリケーションはメールアプリケーションである。その場合、絵文字、顔文字、記号及びデコメ(登録商標)絵文字の4つの属性を含むピクトグラムが使用可能である。よって、予測候補表示エリア17に表示されるピクトグラムには、絵文字、顔文字、記号及びデコメ(登録商標)絵文字の4つの属性が含まれることが好ましい。この場合、入力表示エリア16の属性に応じて、予測候補表示エリア17に表示するピクトグラムの属性を制限しなくてよい。   For example, when the attribute of the input display area 16 is a mail text input, the application executed for the input characters in the input display area 16 is a mail application. In that case, a pictogram including four attributes of a pictograph, an emoticon, a symbol, and a Decome (registered trademark) pictograph can be used. Therefore, it is preferable that the pictogram displayed in the prediction candidate display area 17 includes four attributes of pictograph, emoticon, symbol, and Decome (registered trademark) pictograph. In this case, the attributes of the pictogram displayed in the prediction candidate display area 17 need not be limited according to the attributes of the input display area 16.

一方、入力表示エリア16の属性がSMS(ショートメッセージサービス)やメモの場合、入力表示エリア16の入力文字に対してSMSやメモのアプリケーションが実行される。この場合、絵文字及びデコメ(登録商標)絵文字は、入力文字として使用できない。よって、予測候補表示エリア17に表示可能なピクトグラムの属性を記号及び顔文字に制限し、絵文字及びデコメ(登録商標)絵文字は表示されないようにする。   On the other hand, when the attribute of the input display area 16 is SMS (short message service) or memo, the SMS or memo application is executed for the input characters in the input display area 16. In this case, pictograms and Decome (registered trademark) pictograms cannot be used as input characters. Therefore, the pictogram attributes that can be displayed in the prediction candidate display area 17 are limited to symbols and emoticons so that pictograms and Decome (registered trademark) pictograms are not displayed.

また、入力表示エリア16の属性がURLの入力の場合、入力文字に応じてウェブアプリケーションが実行される。この場合、絵文字、顔文字及びデコメ(登録商標)絵文字は、URLの入力文字として使用できない。よって、予測候補表示エリア17に表示するピクトグラムの属性を記号のみに制限し、絵文字、顔文字及びデコメ(登録商標)絵文字は表示されないようにする。   When the attribute of the input display area 16 is URL input, the web application is executed according to the input character. In this case, pictograms, emoticons, and Decome (registered trademark) pictograms cannot be used as URL input characters. Therefore, the pictogram attributes displayed in the prediction candidate display area 17 are limited to symbols only, so that pictograms, emoticons, and Decome (registered trademark) pictograms are not displayed.

つまり、入力表示エリア16の属性がSMSやURLの場合、表示制御部23は、予測候補表示エリア17に表示されるピクトグラムの属性を制限する。   That is, when the attribute of the input display area 16 is SMS or URL, the display control unit 23 restricts the attribute of the pictogram displayed in the prediction candidate display area 17.

このようにして、表示制御部23は、入力表示エリア16の属性に合致した絵文字、顔文字、記号等のピクトグラムを予測候補表示エリア17に表示する(ステップS34)。次に、表示制御部23は、予測候補表示エリア17に表示されるピクトグラムが長押し操作された場合、図6(g)の編集画面を表示し、位置検出部21は、優先表示が設定されたかを判定する(ステップS36)。   In this way, the display control unit 23 displays pictograms such as pictograms, emoticons, symbols, and the like that match the attributes of the input display area 16 in the prediction candidate display area 17 (step S34). Next, when the pictogram displayed in the prediction candidate display area 17 is operated for a long time, the display control unit 23 displays the editing screen of FIG. 6G, and the position detection unit 21 is set to display priority. (Step S36).

ユーザがお気に入りのピクトグラムは、予測候補表示エリア17に優先的に表示させたい。その場合、ユーザは、編集画面の「優先表示」で示される優先表示キー52を選択する。優先表示キー52が選択されると、記憶部24は、操作されたピクトグラムに対する優先表示の要求と判断し、予測候補用履歴テーブル24bの先頭(No.1)に長押し操作されたピクトグラム(ここでは、図6(e)の絵文字17e)の操作履歴情報を記憶する。その結果、図6(i)に示したように、表示制御部23は、予測候補用履歴テーブル24bに記憶された操作履歴情報に基づき、長押し操作されたピクトグラム(ここでは、絵文字17e)を予測候補表示エリア17の先頭に表示する(ステップS40)。その後、本処理を終了する。これにより、表示制御部23は、優先表示が設定された絵文字17eを予測候補表示エリア17の先頭に常に優先して表示する。   The user's favorite pictogram is to be displayed preferentially in the prediction candidate display area 17. In this case, the user selects the priority display key 52 indicated by “priority display” on the editing screen. When the priority display key 52 is selected, the storage unit 24 determines that it is a request for priority display with respect to the operated pictogram, and the pictogram (here, which is operated by long-pressing the head (No. 1) of the prediction candidate history table 24b) Then, the operation history information of the pictograph 17e) of FIG. 6 (e) is stored. As a result, as shown in FIG. 6 (i), the display control unit 23 displays the pictogram (here, the pictogram 17e) that has been pressed and pressed based on the operation history information stored in the prediction candidate history table 24b. It displays on the head of the prediction candidate display area 17 (step S40). Thereafter, this process is terminated. Accordingly, the display control unit 23 always displays the pictograph 17e for which priority display is set at the top of the prediction candidate display area 17 with priority.

一方、ステップS36にて、優先表示キー52が選択されていないと判定された場合、通常通り、表示制御部23は、予測候補用履歴テーブル24bに記憶された操作履歴情報に基づき、ピクトグラムを予測候補表示エリア17に表示する(ステップS38)。その後、本処理を終了する。   On the other hand, when it is determined in step S36 that the priority display key 52 is not selected, the display control unit 23 predicts a pictogram based on the operation history information stored in the prediction candidate history table 24b as usual. The information is displayed in the candidate display area 17 (step S38). Thereafter, this process is terminated.

以上に説明したように、本実施形態に係るスマートフォン1によれば、入力表示エリア16の属性に応じて、予測候補表示エリア17に表示するピクトグラムの属性を制限することができる。これにより、ユーザが利用したいピクトグラムが予測候補表示エリア17中に含まれる可能性が高くなるとともに、誤入力を軽減することができる。   As described above, according to the smartphone 1 according to the present embodiment, the attributes of the pictogram displayed in the prediction candidate display area 17 can be limited according to the attributes of the input display area 16. Thereby, the possibility that the pictogram that the user wants to use is included in the prediction candidate display area 17 is increased, and erroneous input can be reduced.

また、本実施形態に係るスマートフォン1によれば、ユーザが優先表示したいピクトグラムを設定することができる。これによれば、優先表示が設定されたピクトグラムは、予測候補表示エリア17の先頭に表示される。これにより、よく利用するピクトグラムが、予測候補表示エリア17の下方に表示されるか非表示となることを回避することができる。なお、本実施形態では、優先表示が設定されたピクトグラムは、予測候補表示エリア17の先頭に表示されたが、これに限られず、予測候補表示エリア17であれば、先頭でなくてもよい。ただし、予測候補表示エリア17の先頭付近に表示されることが好ましい。   Moreover, according to the smart phone 1 which concerns on this embodiment, the user can set the pictogram which a user wants to display preferentially. According to this, the pictogram for which priority display is set is displayed at the top of the prediction candidate display area 17. Thereby, it can avoid that the pictogram used well is displayed below the prediction candidate display area 17, or it becomes non-display. In the present embodiment, the pictogram for which priority display is set is displayed at the top of the prediction candidate display area 17, but is not limited to this. However, it is preferably displayed near the top of the prediction candidate display area 17.

(ハードウェア構成例)
最後に、一実施形態に係るスマートフォン1のハードウェア構成例について、図9を参照しながら説明する。図9は、一実施形態に係るスマートフォンのハードウェア構成例を示した図である。
(Hardware configuration example)
Finally, a hardware configuration example of the smartphone 1 according to an embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating a hardware configuration example of the smartphone according to the embodiment.

本実施形態に係るスマートフォン1は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108などを備え、それぞれがバスBで相互に接続されている。   The smartphone 1 according to the present embodiment includes an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, and a communication I / F 107. , And HDD (Hard Disk Drive) 108, etc., which are connected to each other via a bus B.

入力装置101は、キーボードやマウスなどを含み、スマートフォン1に各操作信号を入力するために用いられる。表示装置102は、タッチパネルを搭載したディスプレイなどを含み、タッチ画面に情報を表示する。   The input device 101 includes a keyboard and a mouse, and is used to input each operation signal to the smartphone 1. The display device 102 includes a display equipped with a touch panel and displays information on a touch screen.

通信I/F107は、スマートフォン1を無線ネットワークに接続するインタフェースである。これにより、スマートフォン1は、通信I/F107を介して、他の機器(「他のスマートフォン」等の機器)とデータ通信や通話を行うことができる。   The communication I / F 107 is an interface that connects the smartphone 1 to a wireless network. Thereby, the smartphone 1 can perform data communication and a call with other devices (devices such as “other smartphones”) via the communication I / F 107.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェアであるOS(Operating System)、及びOS上において各種機能を提供するアプリケーションソフトウェアなどがある。また、HDD108は、格納しているプログラムやデータを、所定のファイルシステム及び/又はDB(Data Base)により管理している。   The HDD 108 is a non-volatile storage device that stores programs and data. The stored programs and data include an OS (Operating System) that is basic software for controlling the entire apparatus, and application software that provides various functions on the OS. The HDD 108 manages stored programs and data by a predetermined file system and / or DB (Data Base).

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。これにより、スマートフォン1は、外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、フロッピー(商標又は登録商標)ディスク、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)などがある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. Thereby, the smartphone 1 can read and / or write the recording medium 103 a via the external I / F 103. The recording medium 103a includes a floppy (trademark or registered trademark) disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card, a USB memory (Universal Serial Bus memory), and the like. is there.

ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、プログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。記憶部24は、RAM104又はHDD108の記憶領域を用いて一覧用履歴テーブル24a及び予測候補用履歴テーブル24b内の操作履歴情報を記憶してもよい。   The ROM 105 is a nonvolatile semiconductor memory (storage device) that can retain internal data even when the power is turned off. The ROM 105 stores programs and data. The RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data. The storage unit 24 may store the operation history information in the list history table 24 a and the prediction candidate history table 24 b using the storage area of the RAM 104 or the HDD 108.

CPU106は、上記記憶装置(例えば「HDD」や「ROM」等)から、プログラムやデータをRAM104上に読み出し、処理を実行することで、スマートフォン1の全体の制御や搭載機能を実現する演算装置である。例えば、スマートフォン1は、CPU106がROM105内に格納された各種の制御プログラムを実行することにより、入力制御や表示制御等の全体の制御を実行する。上記実施形態のスマートフォン1の位置検出部21、入力制御部22、表示制御部23、選択部25は、HDD108等にインストールされたプログラムがCPU106に実行させる処理により実現される。   The CPU 106 is an arithmetic device that realizes overall control and mounting functions of the smartphone 1 by reading a program and data from the storage device (for example, “HDD” or “ROM”) onto the RAM 104 and executing the processing. is there. For example, the smartphone 1 executes overall control such as input control and display control by the CPU 106 executing various control programs stored in the ROM 105. The position detection unit 21, the input control unit 22, the display control unit 23, and the selection unit 25 of the smartphone 1 according to the above embodiment are realized by a process that is executed by the CPU 106 by a program installed in the HDD 108 or the like.

以上、一実施形態に係る入力装置及び入力方法について説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態において説明した入力処理は、矛盾しない範囲で組み合わせることができる。   Although the input device and the input method according to the embodiment have been described above, the present invention is not limited to the above-described embodiments, and various modifications and improvements can be made within the scope of the present invention. The input processes described in the above embodiments can be combined within a consistent range.

1:スマートフォン、10:本体、11:タッチ画面、12:キーパッドエリア、13:文字入力キー、14:機能キー、16:入力表示エリア、17:予測候補表示エリア、21:位置検出部、22:入力制御部、23:表示制御部、24:記憶部、24a:一覧用履歴テーブル、24a1、24a2、24a3:操作履歴情報、24b:予測候補用履歴テーブル、24b1,24b2,24b3:操作履歴情報、25:選択部、51:削除キー、52:優先表示キー   1: Smartphone, 10: Main body, 11: Touch screen, 12: Keypad area, 13: Character input key, 14: Function key, 16: Input display area, 17: Prediction candidate display area, 21: Position detection unit, 22 : Input control unit, 23: display control unit, 24: storage unit, 24a: list history table, 24a1, 24a2, 24a3: operation history information, 24b: prediction candidate history table, 24b1, 24b2, 24b3: operation history information 25: selection part, 51: delete key, 52: priority display key

Claims (9)

キーパッドエリアとは異なる予測候補表示エリアに複数の属性のピクトグラムを混在させて表示することが可能なタッチ画面に対する操作であって、前記キーパッドエリア及び前記予測候補表示エリアの少なくともいずれかに表示されたキー又はピクトグラムへの操作に応じて前記操作されたキーの文字又は前記操作されたピクトグラムを入力する入力制御部と、
前記ピクトグラムへの操作の履歴を示す操作履歴情報を予測候補用履歴テーブルに記憶する記憶部と、
前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき、前記複数の属性のピクトグラムから選択された所定数のピクトグラムを前記予測候補表示エリアに表示する表示制御部と、
を有することを特徴とする入力装置。
An operation on a touch screen capable of displaying a plurality of pictograms having a plurality of attributes in a prediction candidate display area different from the keypad area, and is displayed in at least one of the keypad area and the prediction candidate display area An input control unit that inputs characters of the operated key or the operated pictogram in response to an operation on the operated key or pictogram;
A storage unit that stores operation history information indicating a history of operations on the pictogram in the prediction candidate history table;
A display control unit that displays a predetermined number of pictograms selected from the pictograms of the plurality of attributes in the prediction candidate display area based on the operation history information stored in the prediction candidate history table;
An input device comprising:
前記表示制御部は、
前記予測候補用履歴テーブルが更新されたタイミングに応じて、前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき前記予測候補表示エリアに表示するピクトグラムを更新する、
ことを特徴とする請求項1に記載の入力装置。
The display control unit
Updating the pictogram displayed in the prediction candidate display area based on the operation history information stored in the prediction candidate history table according to the timing when the prediction candidate history table is updated.
The input device according to claim 1.
前記記憶部は、
前記操作されたピクトグラムに対する取り消しの要求に応じて、前記予測候補用履歴テーブルを最後に更新した直前の操作履歴情報を前記予測候補用履歴テーブルに記憶する、
ことを特徴とする請求項1又は2に入力装置。
The storage unit
In response to a cancellation request for the operated pictogram, the operation history information immediately before the prediction candidate history table was last updated is stored in the prediction candidate history table.
The input device according to claim 1 or 2, characterized in that
前記表示制御部は、
前記入力制御部により入力が行われる入力表示エリアの属性に応じて、前記予測候補表示エリアに表示するピクトグラムの属性を制限する、
ことを特徴とする請求項1〜3のいずれか一項に記載の入力装置。
The display control unit
According to the attribute of the input display area where input is performed by the input control unit, the attribute of the pictogram to be displayed in the prediction candidate display area is limited.
The input device according to claim 1, wherein the input device is an input device.
前記表示制御部は、
前記操作されたピクトグラムに対する優先表示の要求に応じて、前記優先表示の要求がされたピクトグラムを前記予測候補表示エリアに優先して表示する、
ことを特徴とする請求項1〜4のいずれか一項に記載の入力装置。
The display control unit
In response to a request for priority display for the operated pictogram, the pictogram for which the priority display is requested is displayed preferentially in the prediction candidate display area.
The input device according to claim 1, wherein:
前記記憶部は、
前記操作されたピクトグラムに対する削除の要求に応じて、前記削除の要求がされたピクトグラムの操作履歴情報を前記予測候補用履歴テーブルから削除する、
ことを特徴とする請求項1〜5のいずれか一項に入力装置。
The storage unit
In response to a request for deletion of the operated pictogram, the operation history information of the pictogram for which the deletion request has been made is deleted from the prediction candidate history table.
The input device according to claim 1, wherein the input device is an input device.
キーパッドエリアに複数の属性のピクトグラムの属性毎の一覧を切り替えて表示し、前記キーパッドエリアとは異なる予測候補表示エリアに複数の属性のピクトグラムを混在させて表示することが可能なタッチ画面に対する操作であって、前記キーパッドエリア及び前記予測候補表示エリアの少なくともいずれかに表示されたキー又はピクトグラムへの操作に応じて前記操作されたキーの文字又は前記操作されたピクトグラムを入力する入力制御部と、
前記ピクトグラムへの操作の履歴を示す操作履歴情報を予測候補用履歴テーブルに記憶する記憶部と、
前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき、前記ピクトグラムの属性毎の一覧とは別に、前記複数の属性のピクトグラムから選択された所定数のピクトグラムを前記予測候補表示エリアに表示する表示制御部と、
を有することを特徴とする入力装置。
A touch screen that can display a list of each pictogram attribute of a plurality of attributes in the keypad area, and can display a mixture of pictograms of a plurality of attributes in a prediction candidate display area different from the keypad area. An input control for inputting a character of the operated key or the operated pictogram in response to an operation on the key or pictogram displayed in at least one of the keypad area and the prediction candidate display area. And
A storage unit that stores operation history information indicating a history of operations on the pictogram in the prediction candidate history table;
Based on the operation history information stored in the prediction candidate history table, a predetermined number of pictograms selected from the plurality of attribute pictograms are displayed in the prediction candidate display area separately from the list for each attribute of the pictogram. A display control unit;
An input device comprising:
キーパッドエリアとは異なる予測候補表示エリアに複数の属性のピクトグラムを混在させて表示することが可能なタッチ画面に対する操作であって、前記キーパッドエリア及び前記予測候補表示エリアの少なくともいずれかに表示されたキー又はピクトグラムへの操作に応じて前記操作されたキーの文字又は前記操作されたピクトグラムを入力し、
前記ピクトグラムへの操作の履歴を示す操作履歴情報を予測候補用履歴テーブルに記憶し、
前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき、前記複数の属性のピクトグラムから選択された所定数のピクトグラムを前記予測候補表示エリアに表示する、
処理をコンピュータが実行する入力方法。
An operation on a touch screen capable of displaying a plurality of pictograms having a plurality of attributes in a prediction candidate display area different from the keypad area, and is displayed in at least one of the keypad area and the prediction candidate display area In response to an operation on the operated key or pictogram, input a character of the operated key or the operated pictogram,
Storing operation history information indicating a history of operations on the pictogram in the prediction candidate history table;
Based on the operation history information stored in the prediction candidate history table, a predetermined number of pictograms selected from the plurality of attribute pictograms are displayed in the prediction candidate display area.
An input method in which the computer executes the process.
キーパッドエリアとは異なる予測候補表示エリアに複数の属性のピクトグラムを混在させて表示することが可能なタッチ画面に対する操作であって、前記キーパッドエリア及び前記予測候補表示エリアの少なくともいずれかに表示されたキー又はピクトグラムへの操作に応じて前記操作されたキーの文字又は前記操作されたピクトグラムを入力し、
前記ピクトグラムへの操作の履歴を示す操作履歴情報を予測候補用履歴テーブルに記憶し、
前記予測候補用履歴テーブルに記憶された操作履歴情報に基づき、前記複数の属性のピクトグラムから選択された所定数のピクトグラムを前記予測候補表示エリアに表示する、
処理をコンピュータに実行させるプログラム。
An operation on a touch screen capable of displaying a plurality of pictograms having a plurality of attributes in a prediction candidate display area different from the keypad area, and is displayed in at least one of the keypad area and the prediction candidate display area In response to an operation on the operated key or pictogram, input a character of the operated key or the operated pictogram,
Storing operation history information indicating a history of operations on the pictogram in the prediction candidate history table;
Based on the operation history information stored in the prediction candidate history table, a predetermined number of pictograms selected from the plurality of attribute pictograms are displayed in the prediction candidate display area.
A program that causes a computer to execute processing.
JP2013120841A 2013-06-07 2013-06-07 Input device, input method, and program Pending JP2014238705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013120841A JP2014238705A (en) 2013-06-07 2013-06-07 Input device, input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120841A JP2014238705A (en) 2013-06-07 2013-06-07 Input device, input method, and program

Publications (1)

Publication Number Publication Date
JP2014238705A true JP2014238705A (en) 2014-12-18

Family

ID=52135822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120841A Pending JP2014238705A (en) 2013-06-07 2013-06-07 Input device, input method, and program

Country Status (1)

Country Link
JP (1) JP2014238705A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10534506B2 (en) 2016-03-23 2020-01-14 Casio Computer Co., Ltd. Task management device, task management method and computer readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10534506B2 (en) 2016-03-23 2020-01-14 Casio Computer Co., Ltd. Task management device, task management method and computer readable recording medium

Similar Documents

Publication Publication Date Title
US10775967B2 (en) Context-aware field value suggestions
US9645730B2 (en) Method and apparatus for providing user interface in portable terminal
US9292161B2 (en) Pointer tool with touch-enabled precise placement
CN103370684B (en) Electronic equipment, display methods and non-transient storage medium
US8689138B2 (en) Method and arrangment for a primary actions menu for applications with sequentially linked pages on a handheld electronic device
AU2010327453B2 (en) Method and apparatus for providing user interface of portable device
US8302004B2 (en) Method of displaying menu items and related touch screen device
US20100103124A1 (en) Column Organization of Content
CN105630327B (en) The method of the display of portable electronic device and control optional element
US20080163112A1 (en) Designation of menu actions for applications on a handheld electronic device
US20130263039A1 (en) Character string shortcut key
US9690479B2 (en) Method and apparatus for controlling application using key inputs or combination thereof
US11079926B2 (en) Method and apparatus for providing user interface of portable device
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
US8839123B2 (en) Generating a visual user interface
JP2009276889A (en) Server unit, client unit, server-based computing system, server control method, and client control method
US10795569B2 (en) Touchscreen device
US8949731B1 (en) Input from a soft keyboard on a touchscreen display
JP2014238704A (en) Input device, input method, and program
US10712914B2 (en) Method, apparatus and computer program product for user interface dynamic display based on time that a device has been in locked state
CN107203280B (en) Punctuation input method and terminal
JP2014238705A (en) Input device, input method, and program
KR102250609B1 (en) Method, user terminal and computer program for providing chinese character list priority setting function
JP2014093029A (en) Electronic equipment, information management method, and information management program
JP5818605B2 (en) Portable terminal device, program, and document storage control method