JP2014027561A - Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium - Google Patents

Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium Download PDF

Info

Publication number
JP2014027561A
JP2014027561A JP2012167666A JP2012167666A JP2014027561A JP 2014027561 A JP2014027561 A JP 2014027561A JP 2012167666 A JP2012167666 A JP 2012167666A JP 2012167666 A JP2012167666 A JP 2012167666A JP 2014027561 A JP2014027561 A JP 2014027561A
Authority
JP
Japan
Prior art keywords
user
input
information processing
input surface
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012167666A
Other languages
Japanese (ja)
Inventor
Manabu Kato
加藤  学
Issei Manabe
一成 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012167666A priority Critical patent/JP2014027561A/en
Publication of JP2014027561A publication Critical patent/JP2014027561A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve user convenience by enhancing the operability of an input interface.SOLUTION: An information processing apparatus includes: a locus determination section 11 for, when a user operation 4a is detected in an arbitrary position on an input screen 41, determining whether or not a locus 1 connecting a specified position 7a detected by the input screen 41 and a specified position 7b further detected as the user operation moves along the input screen satisfies a predetermined condition; an accuracy distribution decision section 12 for deciding a distribution 2 of accuracy with which the user operation 4a specifies the position on the input screen 41; and an interface setting section 13 for setting an input interface 3 with differently sized keys 5.

Description

本発明は、ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置等に関するものである。   The present invention relates to an information processing apparatus that includes an input surface capable of detecting a position designated by a user operation and is capable of inputting information based on the designated position.

近年、電子機器の操作は、ボタンを介したハードウェア的なものではなく、タッチパネルを介したソフトウェア的なものが主流である。ソフトウェアキーによって入力インターフェースが実現されれば、キーが増加しても製造コストや機器の重量は増加することがないなどの理由により、柔軟にインターフェースの設計を行えるからである。   In recent years, the operation of electronic devices is not a hardware operation via buttons, but a software operation via touch panels. This is because if the input interface is realized by the software key, the interface can be designed flexibly because the manufacturing cost and the weight of the device do not increase even if the key is increased.

一方で、上記電子機器に対する文字の入力はユーザの操作負担が大きいため、これを軽減する試みが広く行われている。例えば、下記の特許文献1には、筐体を左右のどちらの手で持っても無理なく操作することができる携帯端末が開示されている。   On the other hand, the input of characters to the electronic device places a heavy burden on the user, so attempts to reduce this are widely made. For example, Patent Document 1 below discloses a portable terminal that can be operated without difficulty even if the right and left hands hold the casing.

また、下記の特許文献2には、複数のアイコンがタッチセンシティブディスプレイ上に表示され、当該アイコンの表示が変更されることによって、当該タッチセンシティブディスプレイに対する接触と記号との対応関係が示されるキーボードが開示されている。   Further, in Patent Document 2 below, there is a keyboard in which a plurality of icons are displayed on a touch-sensitive display, and the display of the icons is changed to indicate the correspondence between the touch on the touch-sensitive display and the symbols. It is disclosed.

さらに、下記の特許文献3には、携帯情報端末等のソフトウェアキーボードを利用した文字入力の操作を改善する選択入力システムが開示されている。また、下記の特許文献4には、ポインタ位置の規則的な移動操作だけで簡単に文字を入力できる文字入力装置が開示されている。   Further, Patent Document 3 below discloses a selection input system that improves a character input operation using a software keyboard such as a portable information terminal. Patent Document 4 below discloses a character input device that allows a character to be easily input only by a regular movement operation of the pointer position.

特開2009−169820号公報(2009年07月30日公開)JP 2009-169820 A (released on July 30, 2009) 特開2009−522697号公報(2009年06月11日公開)JP 2009-522697 A (released on June 11, 2009) 特開2005−018318号公報(2005年01月20日公開)JP 2005-018318 A (published January 20, 2005) 特開2004−280531号公報(2004年10月07日公開)JP 2004-280531 A (released on October 07, 2004)

ユーザがタッチパネルにおける位置を指定する精度は、当該タッチパネルの位置によって異なることが通常である。例えば、ユーザが電子機器を右手に把持し、当該右手の親指でソフトウェアキーにタッチすることにより文字を入力する場合、当該右手のひらに近いタッチパネルの右下隅ほど位置を指定する精度は高く、当該右手のひらから遠いタッチパネルの左上隅ほど当該精度は低い。   The accuracy with which the user specifies the position on the touch panel is usually different depending on the position of the touch panel. For example, when a user inputs a character by holding the electronic device with the right hand and touching a software key with the thumb of the right hand, the lower right corner of the touch panel closer to the right hand has a higher accuracy in specifying the position. The accuracy is lower in the upper left corner of the touch panel far from the palm.

これは、上記右下隅に近いほど、ユーザは親指を折りたたみ、タッチパネルに対して略垂直になるように親指を立て、その指先で上記位置を指定する一方で、右下隅から遠いほど、ユーザは親指を伸長し、その腹で上記位置を指定するからである。   The closer to the lower right corner, the more the user folds the thumb and puts the thumb so that it is substantially perpendicular to the touch panel, and the fingertip specifies the position, while the farther from the lower right corner, the more the user This is because the position is designated by the belly.

上記の特許文献1〜4には、上記精度がタッチパネルの位置によって異なることを考慮して、入力インターフェースを設計することは開示されていない。例えば、上記の特許文献1には、右手での片手操作か左手での片手操作かを判断し、片手での操作を行いやすいようにモニタ上に表示する操作ボタンの配置を変更する技術が開示されている。しかし、当該技術は、上記精度の違いを考慮に入れて、入力インターフェースの設計を変化させるものではない。   The above Patent Documents 1 to 4 do not disclose that an input interface is designed in consideration that the accuracy differs depending on the position of the touch panel. For example, Patent Document 1 discloses a technique for determining whether a right-handed one-handed operation or a left-handed one-handed operation and changing the arrangement of operation buttons displayed on the monitor so that the one-handed operation can be easily performed. Has been. However, this technique does not change the design of the input interface taking into account the difference in accuracy.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザが入力面における位置を指定する精度に応じて、入力インターフェースの設計を変化させることにより、当該入力インターフェースの操作性を高め、ユーザの利便性を向上させることのできる情報処理装置等を提供することである。   The present invention has been made in view of the above problems, and its purpose is to change the design of the input interface according to the accuracy with which the user designates the position on the input surface, thereby operating the input interface. It is to provide an information processing apparatus and the like that can improve the convenience and improve the convenience of the user.

上記の課題を解決するために、本発明の情報処理装置は、
(1)ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置であって、
(2)前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定手段と、
(3)前記判定手段によって判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定手段と、
(4)前記決定手段によって決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定手段とを備えたことを特徴としている。
In order to solve the above problems, an information processing apparatus according to the present invention provides:
(1) An information processing apparatus including an input surface capable of detecting a position designated by a user operation and capable of inputting information based on the designated position,
(2) When a user operation is detected at an arbitrary position on the input surface, the first designated position detected by the input surface and the user operation further move along the input surface. Determination means for determining whether or not the locus connecting the detected second designated position satisfies a predetermined condition;
(3) A determining unit that determines a distribution of accuracy in which a position on the input surface is designated by the user's operation according to a result determined by the determining unit;
(4) It is characterized by comprising setting means for setting an input interface in which the size of the area where the information to be inputted can be specified is varied according to the accuracy distribution determined by the determining means.

また、上記の課題を解決するために、本発明の情報処理装置の制御方法は、
(1)ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置の制御方法であって、
(2)前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定ステップと、
(3)前記判定ステップにおいて判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定ステップと、
(4)前記決定ステップにおいて決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定ステップとを含むことを特徴としている。
In addition, in order to solve the above-described problem, the control method of the information processing apparatus of the present invention
(1) A method of controlling an information processing apparatus that includes an input surface capable of detecting a position designated by a user operation and is capable of inputting information based on the designated position,
(2) When a user operation is detected at an arbitrary position on the input surface, the first designated position detected by the input surface and the user operation further move along the input surface. A determination step of determining whether or not a locus connecting the detected second designated position satisfies a predetermined condition;
(3) A determination step of determining a distribution of accuracy with which a position on the input surface is designated by an operation of the user according to a result determined in the determination step;
(4) including a setting step of setting an input interface in which the size of an area in which information to be input can be specified is different according to the accuracy distribution determined in the determination step.

上記の構成(1)〜(4)によれば、本発明の情報処理装置および当該装置の制御方法は、第1の指定位置と第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定し、当該判定の結果に応じて、ユーザの操作により入力面における位置が指定される精度の分布を決定する。   According to said structure (1)-(4), as for the information processing apparatus of this invention, and the control method of the said apparatus, the locus | trajectory which connects a 1st specified position and a 2nd specified position satisfies predetermined conditions. In accordance with the result of the determination, the distribution of accuracy with which the position on the input surface is designated by the user's operation is determined.

上記の先行技術文献などに記載された従来技術は、ユーザの使用状況に応じた処理を実行することを目的として、右手での片手操作か左手での片手操作かを判定するために、装置筐体の側面に備えたセンサを利用する。しかし、上記判定のためだけに新たにセンサを備えることは、費用対効果の観点から好ましくない場合がある。   The prior art described in the above prior art documents and the like is for the purpose of executing a process according to the use situation of the user in order to determine whether the operation is a one-hand operation with the right hand or a one-hand operation with the left hand. Use sensors on the side of the body. However, providing a new sensor only for the determination may not be preferable from the viewpoint of cost effectiveness.

上記の構成を備えた上記情報処理装置等は、新たにセンサを備えることなく、ユーザが入力面に対して入力した軌跡が所定の条件を満たしているか否かを判定するだけで、上記精度の分布を決定するという当該判定に応じた処理を実行できる。   The information processing apparatus or the like having the above configuration does not include a new sensor, and merely determines whether or not the locus input by the user to the input surface satisfies a predetermined condition. A process according to the determination of determining the distribution can be executed.

そして、上記情報処理装置等は、当該精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する。例えば、上記情報処理装置等は、位置を指定する精度の高い入力面の位置に対応する位置に表示される上記領域が小さく、上記精度の高い入力面の位置に対応する位置に表示される上記領域が大きいような入力インターフェースを設定できる。   Then, the information processing apparatus or the like sets an input interface in which the size of an area in which information to be input can be specified is changed according to the accuracy distribution. For example, the information processing apparatus or the like has a small area displayed at a position corresponding to the position of the input surface with high accuracy for specifying the position, and is displayed at a position corresponding to the position of the input surface with high accuracy. An input interface with a large area can be set.

すなわち、上記の情報処理装置等は、ユーザが入力面における位置を指定する精度に応じて、入力インターフェースの設計を変化させることができる。したがって、本発明の情報処理装置および当該装置の制御方法は、入力インターフェースの操作性を高め、ユーザの利便性を向上させることができる。   In other words, the information processing apparatus and the like described above can change the design of the input interface according to the accuracy with which the user designates the position on the input surface. Therefore, the information processing apparatus and the control method for the apparatus of the present invention can improve the operability of the input interface and improve the convenience for the user.

また、本発明の情報処理装置では、
(1)前記決定手段は、前記判定手段によって判定された結果に応じて、所定の方向へ段階的に前記精度が変化するように、前記精度の分布を決定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The determining unit determines the accuracy distribution so that the accuracy changes stepwise in a predetermined direction according to the result determined by the determining unit.

上記の構成(1)によれば、上記情報処理装置は、上記判定の結果に応じて、所定の方向へ段階的に精度が変化するように、上記精度の分布を決定することができる。言い換えれば、当該精度の分布では、上記軌跡が所定の条件を満たしているか否かを判定した結果に応じた方向へ、上記精度が段階的に変化する。   According to the configuration (1), the information processing apparatus can determine the accuracy distribution so that the accuracy changes stepwise in a predetermined direction according to the determination result. In other words, in the accuracy distribution, the accuracy changes stepwise in a direction corresponding to a result of determining whether or not the trajectory satisfies a predetermined condition.

例えば、ユーザの右手によって上記軌跡が入力されたと判定される所定の条件を、当該軌跡が満たした場合、上記情報処理装置は、当該右手のひらに向かう方向へ段階的に精度が高くなるように、上記精度の分布を決定することができる。   For example, when the trajectory satisfies a predetermined condition that is determined that the trajectory is input by the user's right hand, the information processing apparatus increases stepwise in the direction toward the right hand, The accuracy distribution can be determined.

すなわち、上記の情報処理装置は、ユーザが入力面における位置を指定する精度に応じて、入力インターフェースの設計を変化させることができる。したがって、本発明の情報処理装置は、入力インターフェースの操作性をさらに高め、ユーザの利便性をいっそう向上させることができる。   That is, the information processing apparatus described above can change the design of the input interface according to the accuracy with which the user designates the position on the input surface. Therefore, the information processing apparatus of the present invention can further improve the operability of the input interface and further improve the convenience for the user.

また、本発明の情報処理装置では、
(1)前記決定手段は、前記入力面における所定の位置から前記ユーザの操作により指定された位置までの距離に反比例して前記精度が高くなるように、前記精度の分布を決定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The determining unit determines the accuracy distribution so that the accuracy increases in inverse proportion to a distance from a predetermined position on the input surface to a position designated by the user's operation. It is said.

上記の構成(1)によれば、上記情報処理装置は、入力面における所定の位置(例えば右下隅または左下隅等)からユーザの操作により指定された位置までの距離に反比例して、上記精度を高くすることができる。   According to the configuration (1), the information processing apparatus is configured so that the accuracy is in inverse proportion to a distance from a predetermined position (for example, the lower right corner or the lower left corner) on the input surface to a position specified by a user operation. Can be high.

例えば、上記情報処理装置は、入力面の右下隅を上記所定の位置とし、当該所定の位置から上記指定された位置までの距離が長いほど精度を低く、短いほど精度を高くすることができる。   For example, the information processing apparatus can set the lower right corner of the input surface as the predetermined position, and the accuracy is lower as the distance from the predetermined position to the specified position is longer, and the accuracy is higher as the distance is shorter.

したがって、本発明の情報処理装置は、入力インターフェースの操作性をさらに高め、ユーザの利便性をいっそう向上させることができる。   Therefore, the information processing apparatus of the present invention can further improve the operability of the input interface and further improve the convenience for the user.

また、本発明の情報処理装置では、
(1)前記設定手段は、前記精度に比例して前記領域が小さくなるように、前記入力インターフェースを設定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The setting means sets the input interface so that the area becomes smaller in proportion to the accuracy.

上記の構成(1)によれば、上記情報処理装置は、上記入力インターフェースにおいて、上記精度に比例して上記領域を小さくする。上記精度が高ければ、当該領域が小さくとも、ユーザは正確に入力する情報を指定できるからである。逆に、上記情報処理装置は、上記精度が低い位置の領域を大きくする。   According to said structure (1), the said information processing apparatus makes the said area | region small in proportion to the said precision in the said input interface. This is because if the accuracy is high, the user can specify information to be input accurately even if the area is small. Conversely, the information processing apparatus enlarges the region at the position where the accuracy is low.

これにより、本発明の情報処理装置は、ユーザの誤操作を防止することができる。したがって、上記情報処理装置は、入力インターフェースの操作性をさらに高め、ユーザの利便性をいっそう向上させることができる。   Thereby, the information processing apparatus of this invention can prevent a user's misoperation. Therefore, the information processing apparatus can further improve the operability of the input interface and further improve the convenience for the user.

また、本発明の情報処理装置では、
(1)前記設定手段は、母音と子音とを組み合わせたキーを前記領域として、当該キーを所定の方向に配列したソフトウェアキーボードを、前記入力インターフェースとして設定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The setting means sets a software keyboard in which a key combining vowels and consonants is used as the area and the keys are arranged in a predetermined direction as the input interface.

上記の構成(1)に示すように、上記情報処理装置における入力インターフェースは、母音と子音とを組み合わせたキーを所定の方向に配列したソフトウェアキーボードがあげられる。   As shown in the configuration (1), the input interface in the information processing apparatus is a software keyboard in which keys combining vowels and consonants are arranged in a predetermined direction.

上記情報処理装置が上記配列のソフトウェアキーボードを設定することにより、上記情報処理装置は、ユーザに母音の位置を容易に把握させることができる。また、ユーザが当該ソフトウェアキーボードにおける子音と母音との組み合わせを覚えさえすれば、上記情報処理装置は、当該ユーザに文字入力を容易に行わせることができる。したがって、本発明の情報処理装置は、ユーザの利便性を、さらに向上させることができる。   When the information processing apparatus sets the software keyboard with the arrangement, the information processing apparatus can make the user easily grasp the position of the vowel. In addition, as long as the user learns a combination of consonants and vowels on the software keyboard, the information processing apparatus can easily allow the user to input characters. Therefore, the information processing apparatus of the present invention can further improve user convenience.

また、本発明の情報処理装置では、
(1)前記判定手段は、前記第1の指定位置と第2の指定位置とを結ぶ軌跡が略円弧と一致するか否かを、前記所定の条件の1つとして判定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The determination means determines, as one of the predetermined conditions, whether or not a trajectory connecting the first designated position and the second designated position matches a substantially arc. .

上記の構成(1)に示すように、上記情報処理装置は、上記軌跡と略円弧とが一致するか否かを、上記所定の条件の1つとすることができる。例えば、上記情報処理装置を把持する手の親指などによって、ユーザは上記略円弧を簡単に入力できる。   As shown in the configuration (1), the information processing apparatus can set one of the predetermined conditions as to whether or not the trajectory and the substantially arc match. For example, the user can easily input the approximate arc with the thumb of a hand holding the information processing apparatus.

したがって、本発明の情報処理装置は、ユーザに入力インターフェースを簡単に呼び出させることができるため、入力インターフェースの操作性をさらに高め、ユーザの利便性をいっそう向上させることができる。   Therefore, the information processing apparatus according to the present invention allows the user to call the input interface easily, so that the operability of the input interface can be further improved and the convenience of the user can be further improved.

また、本発明の情報処理装置では、
(1)前記判定手段は、前記第1の指定位置と第2の指定位置とを対角の頂点とする矩形の面積が所定のしきい値を超えているか否かを、前記所定の条件の1つとして判定することを特徴としている。
In the information processing apparatus of the present invention,
(1) The determination means determines whether the area of a rectangle having the first designated position and the second designated position as diagonal vertices exceeds a predetermined threshold value. It is characterized by determining as one.

上記の構成(1)に示すように、上記情報処理装置は、第1の指定位置と第2の指定位置とを対角の頂点とする矩形の面積が所定のしきい値を超えているか否かを、上記所定の条件の1つとすることができる。   As shown in the configuration (1), the information processing apparatus determines whether a rectangular area having the first designated position and the second designated position as diagonal vertices exceeds a predetermined threshold value. Can be one of the predetermined conditions.

したがって、本発明の情報処理装置は、ユーザに入力インターフェースを簡単に呼び出させることができるため、入力インターフェースの操作性をさらに高め、ユーザの利便性をいっそう向上させることができる。   Therefore, the information processing apparatus according to the present invention allows the user to call the input interface easily, so that the operability of the input interface can be further improved and the convenience of the user can be further improved.

なお、前記情報処理装置はコンピュータによって実現してもよい。この場合には、コンピュータを前記情報処理装置の各手段として動作させることにより、前記情報処理装置をコンピュータで実現させる制御プログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The information processing apparatus may be realized by a computer. In this case, a control program for causing the information processing apparatus to be realized by the computer by operating the computer as each unit of the information processing apparatus, and a computer-readable recording medium on which the control program is recorded fall within the scope of the present invention. .

以上のように、本発明の情報処理装置は、前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定手段と、前記判定手段によって判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定手段と、前記決定手段によって決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定手段とを備えた構成である。   As described above, when a user operation is detected at an arbitrary position on the input surface, the information processing apparatus of the present invention is configured so that the first designated position detected by the input surface and the user operation are A determination unit that determines whether or not a trajectory connecting the second designated position detected by moving along the input surface satisfies a predetermined condition; and a result determined by the determination unit Determining means for determining an accuracy distribution in which a position on the input surface is designated by the user's operation, and a size of an area in which information to be input can be designated according to the accuracy distribution determined by the determining means And setting means for setting an input interface with different values.

また、本発明の情報処理装置の制御方法は、前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定ステップと、前記判定ステップにおいて判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定ステップと、前記決定ステップにおいて決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定ステップとを含む構成である。   In addition, when a user operation is detected at an arbitrary position on the input surface, the control method for the information processing apparatus according to the present invention is configured such that the first designated position detected by the input surface and the user operation are A determination step for determining whether or not a trajectory connecting the second designated position detected by moving along the input surface satisfies a predetermined condition, and depending on the result determined in the determination step A determination step of determining an accuracy distribution in which a position on the input surface is specified by the user's operation, and a size of an area in which information to be input can be specified according to the accuracy distribution determined in the determination step And a setting step for setting an input interface with different values.

したがって、本発明の情報処理装置および当該装置の制御方法は、入力インターフェースの操作性を高め、ユーザの利便性を向上させることができるという効果を奏する。   Therefore, the information processing apparatus and the control method for the apparatus according to the present invention have the effect of improving the operability of the input interface and improving the convenience for the user.

本発明の一実施の形態に係るスマートフォンの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the smart phone which concerns on one embodiment of this invention. (a)は、上記スマートフォンの外観例を表した模式図であり、(b)は、ユーザによる当該スマートフォンの操作例を表した模式図である。(A) is the schematic diagram showing the external appearance example of the said smart phone, (b) is the schematic diagram showing the operation example of the said smart phone by a user. ユーザが入力面における位置を指定する精度分布を示す模式図であり、(a)は、ユーザが上記スマートフォンを右手に把持し、右手の親指で上記位置を指定する場合の精度分布を示し、(b)は、ユーザが上記スマートフォンを左手に把持し、左手の親指で上記位置を指定する場合の精度分布を示す。It is a schematic diagram showing the accuracy distribution in which the user designates the position on the input surface, (a) shows the accuracy distribution when the user holds the smartphone in the right hand and designates the position with the thumb of the right hand, b) shows the accuracy distribution when the user holds the smartphone with the left hand and designates the position with the thumb of the left hand. 上記スマートフォンが設定する入力インターフェースの一例として、ソフトウェアキーボードを示す模式図であり、(a)は、ユーザが右手の親指で操作する場合に設定される右手用のソフトウェアキーボードを示し、(b)は、ユーザが左手の親指で操作する場合に設定される左手用のソフトウェアキーボードを示す。FIG. 4 is a schematic diagram illustrating a software keyboard as an example of an input interface set by the smartphone, where (a) illustrates a right-hand software keyboard that is set when a user operates with the thumb of the right hand, and (b) illustrates The left-hand side software keyboard set when the user operates with the thumb of the left hand is shown. 入力面によって検知された第1の指定位置と、ユーザ操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡を示す模式図であり、(a)は、ユーザが上記スマートフォンを右手で把持して右手の親指で操作する場合に、当該親指の操作によって描かれる軌跡の一例を示し、(b)は、ユーザが上記スマートフォンを左手で把持して左手の親指で操作する場合に、当該親指の操作によって描かれる軌跡の一例を示す。It is a schematic diagram which shows the locus | trajectory which connects the 1st designated position detected by the input surface, and the 2nd designated position further detected when user operation moved along the said input surface, (a). When the user holds the smartphone with the right hand and operates with the thumb of the right hand, an example of a locus drawn by the operation of the thumb is shown, (b) shows the left hand with the user holding the smartphone with the left hand. An example of a locus drawn by the operation of the thumb when operating with the thumb is shown. ソフトウェアキーボードの構成を示す模式図であり、(a)は、上側2行に母音(AIUEO)のみを所定の方向に配列したものを示し、(b)は、上側2行に子音のみを所定の方向に配列したものを示し、(c)は、母音と子音とを組み合わせたキーを、所定の方向に配列したソフトウェアキーボードを示す。It is a schematic diagram which shows the structure of a software keyboard, (a) shows what arranged only the vowel (AIUEO) in the predetermined direction in the upper two lines, (b) shows only the consonant in the upper two lines. (C) shows the software keyboard which arranged the key which combined the vowel and the consonant in the predetermined direction. ユーザが図6の(c)に示すキーをタッチした場合、上記スマートフォンが表示するソフトウェアキーボードの変化を示す模式図であり、(a)は、上側2行に母音のみを所定の方向に配列したものを示し、(b)は、上側2行に子音のみを所定の方向に配列したものを示し、(c)は、ユーザがキーをタッチすることで表示されるソフトウェアキーボードであって、母音と子音とを組み合わせたキーを、所定の方向に配列したソフトウェアキーボードを示す。FIG. 7 is a schematic diagram showing a change of the software keyboard displayed by the smartphone when the user touches the key shown in (c) of FIG. 6, and (a) shows only vowels arranged in a predetermined direction in the upper two rows. (B) shows an arrangement in which only consonants are arranged in a predetermined direction in the upper two rows, and (c) is a software keyboard displayed by the user touching a key, A software keyboard in which keys combined with consonants are arranged in a predetermined direction is shown. ユーザが平仮名の「じ」を入力する場合、上記スマートフォンが表示するソフトウェアキーボードの変化を示す模式図であり、(a)は、ユーザが図6の(c)に示すキーをタッチすることで表示されるソフトウェアキーボードを示し、(b)は、図8の(a)の状態からキートップに「じ」が表示されたキーに、ユーザが指を移動させた状態を示し、(c)は、図8の(b)の状態からユーザが入力面から指を離した場合の表示を示し、(d)は、「じ」の文字入力を確定させた場合の表示を示す。FIG. 7 is a schematic diagram showing a change of a software keyboard displayed by the smartphone when the user inputs a hiragana “ji”, and (a) is displayed when the user touches a key shown in (c) of FIG. 6. FIG. 8B shows a state where the user has moved his / her finger from the state of FIG. 8A to the key with “ji” displayed on the key top, and FIG. FIG. 8B shows a display when the user lifts his / her finger from the input surface from the state of FIG. 8B, and FIG. 8D shows a display when the character input of “ji” is confirmed. ユーザが平仮名の「ぺ」を入力する場合、上記スマートフォンが表示するソフトウェアキーボードの変化を示す模式図であり、(a)は、ユーザが図6の(c)に示すキーをタッチすることで表示されるソフトウェアキーボードを示し、(b)は、図9の(a)の状態からキートップに「ぺ」が表示されたキーに、ユーザが指を移動させた状態を示し、(c)は、図9の(b)の状態からユーザが入力面から指を離した場合の表示を示し、(d)は、「ぺ」の文字入力を確定させた場合の表示を示す。FIG. 7 is a schematic diagram showing a change of a software keyboard displayed by the smartphone when a user inputs a hiragana character “P”, and (a) is displayed when the user touches a key shown in FIG. 6C. (B) shows a state where the user has moved his / her finger from the state of FIG. 9 (a) to the key with “Pe” displayed on the key top, and (c) FIG. 9B shows a display when the user lifts his / her finger from the input surface from the state of FIG. 9B, and FIG. 9D shows a display when the character input of “P” is confirmed. ユーザが例外的な操作を行った場合、および当該操作から復帰した場合、上記スマートフォンが表示するソフトウェアキーボードの変化を示す模式図であり、(a)は、ユーザが図9の(a)に示すキーをタッチした後、当該タッチした親指を入力面に接触させたまま、ソフトウェアキーボードの枠外、または当該ソフトウェアキーボードの下2行に親指を移動させた状態を示し、(b)は、図10の(a)の状態から、ユーザがタッチした親指を入力面に接触させたまま、再度ソフトウェアキーボードの枠内に親指を移動させた状態を示す。FIG. 10 is a schematic diagram illustrating a change in the software keyboard displayed by the smartphone when the user performs an exceptional operation and when the user returns from the operation, and FIG. FIG. 10 shows a state in which the thumb is moved outside the frame of the software keyboard or in the lower two rows of the software keyboard while the touched thumb is in contact with the input surface after touching the key. From the state of (a), a state is shown in which the thumb is again moved into the frame of the software keyboard while keeping the thumb touched by the user in contact with the input surface. ユーザが平仮名の「ぺ」を入力する場合、上記スマートフォンが表示するソフトウェアキーボードの変化を示す模式図であり、(a)は、ユーザが図6の(c)に示すキーをタッピングした場合の表示を示し、(b)は、ユーザが図11の(a)の状態からさらにタッピングを繰り返した場合の表示を示し、(c)は、ユーザが図11の(b)の状態からキーをタッピングした場合の表示を示す。FIG. 7 is a schematic diagram showing a change of a software keyboard displayed by the smartphone when a user inputs a hiragana “pe”, and (a) is a display when the user taps the key shown in (c) of FIG. 6. (B) shows a display when the user repeats tapping further from the state of FIG. 11 (a), and (c) shows the user tapping the key from the state of FIG. 11 (b). The display of the case is shown. ソフトウェアキーボードを表示する際に、上記スマートフォンが実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said smart phone performs when displaying a software keyboard. ユーザからキー入力があった際に、上記スマートフォンが実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said smart phone performs when there exists key input from a user.

図1〜図13に基づいて、本発明の実施の形態を詳細に説明する。   Based on FIGS. 1-13, embodiment of this invention is described in detail.

以下では、ある部材が複数存在することを明示するために、同一の部材番号にアルファベットをさらに付して当該部材を示すことがある。例えば、「キー5a」、「キー5b」、「キー5c」、「キー5d」、「キー5e」、「キー5f」、および「キー5g」などと示す。また、上記アルファベットを省略し、当該部材を総称することがある。例えば、キー5a〜5g、およびこれらの任意の組み合わせを「キー5」と総称することがある。   In the following, in order to clearly indicate that there are a plurality of members, the members may be indicated by adding an alphabet to the same member number. For example, “key 5a”, “key 5b”, “key 5c”, “key 5d”, “key 5e”, “key 5f”, and “key 5g” are indicated. Moreover, the said alphabet may be abbreviate | omitted and the said member may be named generically. For example, the keys 5a to 5g and any combination thereof may be collectively referred to as “key 5”.

以下の記載および上記図面においては、ユーザがスマートフォン100(図1参照)を右手に把持し、右手の親指を入力面に接触させる場合を想定して説明する。しかし、スマートフォン100を把持する手は右手であっても左手であってもよいし、入力面に接触させる指は親指以外の指であってもよい。   In the following description and the above-mentioned drawings, description will be made assuming that the user holds the smartphone 100 (see FIG. 1) with the right hand and brings the thumb of the right hand into contact with the input surface. However, the hand that holds the smartphone 100 may be the right hand or the left hand, and the finger that contacts the input surface may be a finger other than the thumb.

また、以下の記載および上記図面においては、「ユーザが入力面に指を接触させる」として説明する。しかし、入力面41(図1参照)が、例えば指の近接を検知可能なタッチパネルである場合、スマートフォン100は、入力面41に対するユーザの指の近接を検出することによっても、接触の場合と同様に動作可能である。   Further, in the following description and the above drawings, the description will be given as “the user touches the input surface with a finger”. However, when the input surface 41 (see FIG. 1) is, for example, a touch panel that can detect the proximity of a finger, the smartphone 100 also detects the proximity of the user's finger to the input surface 41 and is similar to the case of contact. It is possible to operate.

さらに、ユーザはスマートフォン100を操作するために、指ではなくスタイラスなどの指示具を用いることもできる。すなわち、以下の記載において、「ユーザの(親)指」には「スタイラスなどの指示具」が含まれる。ただし、記載の簡潔性を担保するため、以下では単に「ユーザの(親)指」とのみ記載する。   Furthermore, the user can use an indicator such as a stylus instead of a finger to operate the smartphone 100. That is, in the following description, “user's (parent) finger” includes “indicator such as stylus”. However, in order to ensure the conciseness of description, only “user's (parent) finger” is described below.

〔スマートフォン100の概要〕
図1に基づいて、スマートフォン100の概略を説明する。図1は、スマートフォン100の要部構成を示すブロック図である。
[Outline of smartphone 100]
An outline of the smartphone 100 will be described based on FIG. FIG. 1 is a block diagram illustrating a main configuration of the smartphone 100.

スマートフォン(情報処理装置)100は、ユーザ操作(ユーザの操作)4aにより指定された位置を検知可能な入力面41を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置である。   The smartphone (information processing apparatus) 100 includes an input surface 41 capable of detecting a position designated by a user operation (user operation) 4a, and is an information processing apparatus capable of inputting information based on the designated position. is there.

図2に基づいて、スマートフォン100の外観および操作の一例を説明する。図2の(a)は、スマートフォン100の外観例を表した模式図であり、図2の(b)は、ユーザによるスマートフォン100の操作例を表した模式図である。   An example of the appearance and operation of the smartphone 100 will be described based on FIG. 2A is a schematic diagram illustrating an appearance example of the smartphone 100, and FIG. 2B is a schematic diagram illustrating an operation example of the smartphone 100 by the user.

図2の(a)に示すように、スマートフォン100は、入力面41、表示面72、および電源スイッチ43を備える。   As shown in FIG. 2A, the smartphone 100 includes an input surface 41, a display surface 72, and a power switch 43.

なお、各構成が有する機能を明示するために、図1は入力面41と表示面72とを分離して示すが、例えば入力面41をタッチパネルで、表示面72を液晶ディスプレイで実現する場合、図2の(a)に示すように、両者は一体として構成されてよい。これにより、入力面41に対するユーザの指の接触位置と、表示面72が当該接触に応じて表示する図形等の表示位置とが一致するため、ユーザは自然な入力感覚を得ることができる。   In addition, in order to clarify the function which each structure has, FIG. 1 shows the input surface 41 and the display surface 72 separately. For example, when the input surface 41 is a touch panel and the display surface 72 is a liquid crystal display, As shown to (a) of FIG. 2, both may be comprised as integral. Thereby, since the contact position of the user's finger with respect to the input surface 41 and the display position of the figure or the like displayed on the display surface 72 according to the contact match, the user can obtain a natural input feeling.

図2の(b)に示すように、ユーザは入力面41をタッチし、スマートフォン100に当該入力面における位置を指定することにより(入力面上の座標を与えることにより)、アイコンを選択するなどの指示情報をスマートフォン100に与えることができる。   As shown in FIG. 2B, the user touches the input surface 41 and designates a position on the input surface (giving coordinates on the input surface) to the smartphone 100, thereby selecting an icon, etc. Can be given to the smartphone 100.

上記のように、スマートフォン100は携帯型の情報端末である。また、スマートフォン100と同等の機能は、携帯電話、パーソナルコンピュータ(特に携帯性のあるノートパソコン)、タブレット型端末などでも実現できる。すなわち、必要な情報を入出力可能な電子機器でありさえすれば、端末はスマートフォンでなくともよい。   As described above, the smartphone 100 is a portable information terminal. In addition, a function equivalent to that of the smartphone 100 can be realized by a mobile phone, a personal computer (particularly a portable notebook personal computer), a tablet terminal, or the like. That is, the terminal may not be a smartphone as long as it is an electronic device that can input and output necessary information.

図3に基づいて、ユーザが入力面41における位置を指定する精度の分布(精度分布2)を説明する。図3は、ユーザが入力面41における位置を指定する精度分布2を示す模式図である。   Based on FIG. 3, the accuracy distribution (accuracy distribution 2) by which the user designates the position on the input surface 41 will be described. FIG. 3 is a schematic diagram showing the accuracy distribution 2 in which the user specifies the position on the input surface 41.

図3の(a)は、ユーザがスマートフォン100を右手に把持し、右手の親指で上記位置を指定する場合の精度分布2を示し、図3の(b)はユーザがスマートフォン100を左手に把持し、左手の親指で上記位置を指定する場合の精度分布2を示す。なお、図3に示す精度分布2は、色が濃いほどユーザが入力面41における位置を指定する精度が高いことを示す。   3A shows the accuracy distribution 2 when the user holds the smartphone 100 with the right hand and designates the position with the thumb of the right hand, and FIG. 3B shows the accuracy distribution 2 when the user holds the smartphone 100 with the left hand. The accuracy distribution 2 when the position is designated with the thumb of the left hand is shown. Note that the accuracy distribution 2 shown in FIG. 3 indicates that the darker the color, the higher the accuracy with which the user specifies the position on the input surface 41.

図3の(a)に示すように、ユーザが入力面41における位置を指定する精度は、当該入力面の右下隅(所定の位置)と上記位置との距離に比例して悪化する。前述のように、入力面41の右下隅(スマートフォン100を把持する右手のひら)に近いほどユーザは親指を折りたたみ、入力面41に対して略垂直になるように親指を立て、その指先で上記位置を指定する一方で、右下隅から遠いほどユーザは親指を伸長し、その腹で上記位置を指定するからである。   As shown in FIG. 3A, the accuracy with which the user designates the position on the input surface 41 deteriorates in proportion to the distance between the lower right corner (predetermined position) of the input surface and the position. As described above, the closer to the lower right corner of the input surface 41 (the right palm that holds the smartphone 100), the user folds the thumb, puts the thumb so as to be substantially perpendicular to the input surface 41, and the above-mentioned position with the fingertip This is because the user extends the thumb as the distance from the lower right corner increases, and designates the position using the belly.

図3の(b)に示すように、ユーザがスマートフォン100を左手で把持する場合、ユーザが入力面41における位置を指定する精度は、当該入力面の左下隅(所定の位置)と上記位置との距離に比例して悪化する。   As shown in FIG. 3B, when the user holds the smartphone 100 with the left hand, the accuracy with which the user designates the position on the input surface 41 is the lower left corner (predetermined position) of the input surface and the above position. It gets worse in proportion to the distance.

したがって、スマートフォン100は、所定の方向(例えば、入力面41の右下隅または左下隅など、スマートフォン100を把持するユーザの手のひらに向かう方向)へ段階的に精度が変化するように精度分布2を決定する。   Therefore, the smartphone 100 determines the accuracy distribution 2 so that the accuracy changes stepwise in a predetermined direction (for example, a direction toward the palm of the user holding the smartphone 100 such as the lower right corner or the lower left corner of the input surface 41). To do.

図4に基づいて、スマートフォン100が設定する入力インターフェース3を説明する。図4は、スマートフォン100が設定する入力インターフェース3の一例として、ソフトウェアキーボード6を示す模式図であり、(a)は、ユーザが右手の親指で操作する場合に設定される右手用のソフトウェアキーボード6を示し、(b)は、ユーザが左手の親指で操作する場合に設定される左手用のソフトウェアキーボード6を示す。   Based on FIG. 4, the input interface 3 which the smart phone 100 sets is demonstrated. FIG. 4 is a schematic diagram showing a software keyboard 6 as an example of the input interface 3 set by the smartphone 100. FIG. 4A is a software keyboard 6 for the right hand that is set when the user operates with the thumb of the right hand. (B) shows the software keyboard 6 for the left hand set when the user operates with the thumb of the left hand.

図4の(a)に示すように、スマートフォン100は精度分布2に応じて、キー(入力する情報を指定可能な領域)5の大きさを異ならせたソフトウェアキーボード6を設定する。具体的には、スマートフォン100は、入力面41の右下隅に対応する表示面72の位置に配置されるキー(図4の(a)においては、例えばキー5d・5eなど)を小さく表示する。前述したように、入力面41の右下隅ほど位置を指定する精度が高く、キーが小さくとも、ユーザは正確に当該キーをタッチできるからである。   As illustrated in FIG. 4A, the smartphone 100 sets the software keyboard 6 in which the sizes of the keys (areas in which information to be input can be designated) 5 are different according to the accuracy distribution 2. Specifically, the smartphone 100 displays a small key (for example, the keys 5d and 5e in FIG. 4A) arranged at the position of the display surface 72 corresponding to the lower right corner of the input surface 41. As described above, the lower right corner of the input surface 41 is more accurate in specifying the position, and even if the key is small, the user can touch the key accurately.

一方、スマートフォン100は、入力面41の左上隅に対応する表示面72の位置に配置されるキー(図4の(a)においては、例えばキー5a・5b・5cなど)を大きく表示する。入力面41の左上隅ほど位置を指定する精度が低く、キーが大きくなければ、ユーザは正確に当該キーをタッチしにくいからである。   On the other hand, the smartphone 100 displays a large key (for example, the keys 5a, 5b, and 5c in FIG. 4A) arranged at the position of the display surface 72 corresponding to the upper left corner of the input surface 41. This is because the accuracy of specifying the position in the upper left corner of the input surface 41 is low and the user cannot touch the key accurately unless the key is large.

図4の(b)に示すように、ユーザがスマートフォン100を左手で把持する場合、スマートフォン100は、入力面41の左下隅に対応する表示面72の位置に配置されるキーを小さく表示する。一方、スマートフォン100は、入力面41の右上隅に対応する表示面72の位置に配置されるキーを大きく表示する。   As illustrated in FIG. 4B, when the user holds the smartphone 100 with the left hand, the smartphone 100 displays a small key arranged at the position of the display surface 72 corresponding to the lower left corner of the input surface 41. On the other hand, the smartphone 100 displays a large key arranged at the position of the display surface 72 corresponding to the upper right corner of the input surface 41.

図5に基づいて、ソフトウェアキーボード6の呼び出し操作を説明する。図5は、入力面41によって検知された指定位置7aと、ユーザ操作4aが当該入力面に沿って移動することによってさらに検知された指定位置7bとを結ぶ軌跡1を示す模式図である。   Based on FIG. 5, the calling operation of the software keyboard 6 will be described. FIG. 5 is a schematic diagram showing a locus 1 connecting the designated position 7a detected by the input surface 41 and the designated position 7b further detected by the user operation 4a moving along the input surface.

図5の(a)は、ユーザがスマートフォン100を右手で把持して右手の親指で操作する場合に、当該親指の操作によって描かれる軌跡1の一例を示し、図5の(b)は、ユーザがスマートフォン100を左手で把持して左手の親指で操作する場合に、当該親指の操作によって描かれる軌跡1の一例を示す。   FIG. 5A shows an example of the locus 1 drawn by the operation of the thumb when the user grips the smartphone 100 with the right hand and operates it with the thumb of the right hand. FIG. Shows an example of the locus 1 drawn by the operation of the thumb when the smartphone 100 is held with the left hand and operated with the thumb of the left hand.

図5の(a)に示すように、ユーザが右手の親指を、入力面41の右上から左下に略円弧(厳密に円弧である必要はない)を描くように移動させた場合(いわゆる「スワイプ」と呼ばれる操作を行った場合)、スマートフォン100は、ユーザは右手で当該スマートフォンを操作していると識別し、右手用のソフトウェアキーボード6(図4の(a)参照)を表示面72に表示する。   As shown in FIG. 5A, when the user moves the thumb of the right hand from the upper right to the lower left of the input surface 41 so as to draw a substantially arc (not necessarily an arc) (so-called “swipe”). The smartphone 100 identifies that the user is operating the smartphone with the right hand, and displays the software keyboard 6 for the right hand (see FIG. 4A) on the display surface 72. To do.

図5の(b)に示すように、ユーザが左手の親指を、入力面41の左上から右下に略円弧を描くように移動させた場合、スマートフォン100は、ユーザは左手で当該スマートフォンを操作していると識別し、左手用のソフトウェアキーボード6(図4の(b)参照)を表示面72に表示する。   As shown in FIG. 5B, when the user moves the thumb of the left hand so as to draw a substantially arc from the upper left of the input surface 41 to the lower right, the smartphone 100 operates the smartphone with the left hand. The software keyboard 6 for the left hand (see FIG. 4B) is displayed on the display surface 72.

すなわち、ユーザはスマートフォン100を右手で把持している場合は図5の(a)に示すような略円弧を入力することによって、左手で把持している場合は図5の(b)に示すような略円弧を入力することによって、それぞれ右手用/左手用のソフトウェアキーボード6を呼び出すことができる。なお、上記呼び出し操作が満たすべき条件を、後で詳細に説明する。   That is, when the user holds the smartphone 100 with the right hand, the user inputs a substantially arc as shown in FIG. 5A, and when the user holds the smartphone 100 with the left hand, as shown in FIG. 5B. By inputting an approximate arc, the right-hand / left-hand software keyboard 6 can be called up, respectively. The conditions that the call operation should satisfy will be described in detail later.

以上の概要をまとめると、スマートフォン100は次の(1)〜(3)のステップで動作する。すなわち、スマートフォン100は、
(1)当該スマートフォンを把持するユーザの手(右手または左手)に応じた、ソフトウェアキーボード6の呼び出し操作を検出し(図5参照)、
(2)上記呼び出し操作によって識別される、右手または左手に応じた精度分布2を決定し(図3参照)、
(3)精度分布2に応じたソフトウェアキーボード6を設定する(図4参照)。
Summarizing the above outline, the smartphone 100 operates in the following steps (1) to (3). That is, the smartphone 100
(1) Detecting a call operation of the software keyboard 6 corresponding to the user's hand (right hand or left hand) holding the smartphone (see FIG. 5)
(2) Determine the accuracy distribution 2 corresponding to the right hand or the left hand identified by the calling operation (see FIG. 3),
(3) The software keyboard 6 corresponding to the accuracy distribution 2 is set (see FIG. 4).

これにより、スマートフォン100は、ユーザが入力面41における位置を指定する精度に応じて、入力インターフェース3の設計を変化させることができる。したがって、スマートフォン100は、入力インターフェース3の操作性を高め、ユーザの利便性を向上させることができる。   Thereby, the smartphone 100 can change the design of the input interface 3 according to the accuracy with which the user designates the position on the input surface 41. Therefore, the smartphone 100 can improve the operability of the input interface 3 and improve the convenience for the user.

〔スマートフォン100の構成〕
図1に基づいて、スマートフォン100の構成を説明する。なお、記載の簡潔性を担保する観点から、本実施の形態に直接関係のない部分は構成の説明およびブロック図から省略した。ただし、実施の実情に則して、スマートフォン100は当該省略した構成を含んでもよい。
[Configuration of Smartphone 100]
Based on FIG. 1, the structure of the smart phone 100 is demonstrated. Note that, from the viewpoint of ensuring the simplicity of the description, portions not directly related to the present embodiment are omitted from the description of the configuration and the block diagram. However, the smartphone 100 may include the omitted configuration in accordance with the actual situation.

以下、入力部40(入力面41、入力制御部42)、制御部10(軌跡判定部11、精度分布決定部12、インターフェース設定部13)、表示部70(表示制御部71、表示面72)、記憶部30の順序で各構成が担う機能を説明する。   Hereinafter, the input unit 40 (input surface 41, input control unit 42), control unit 10 (trajectory determination unit 11, accuracy distribution determination unit 12, interface setting unit 13), display unit 70 (display control unit 71, display surface 72). The functions of the components in the order of the storage unit 30 will be described.

入力部(入力手段)40は、ユーザからの操作(ユーザ操作4a)を受け付ける。入力部40は、入力面41と入力制御部42とを含む。   The input unit (input unit) 40 receives an operation (user operation 4a) from the user. The input unit 40 includes an input surface 41 and an input control unit 42.

入力面41は、当該入力面に接触したユーザの指の当該入力面上における2次元の座標情報4bを入力制御部42に出力する。なお、入力面41は、ユーザによる操作で接触位置を検知可能な入力機器でありさえすれば、ハードウェアの種類はタッチパネルに限定されない。   The input surface 41 outputs two-dimensional coordinate information 4b on the input surface of the user's finger that has touched the input surface to the input control unit 42. Note that the input surface 41 is not limited to a touch panel as long as it is an input device that can detect a contact position by a user operation.

入力制御部(入力制御手段)42は、入力面41に対するユーザ操作4aの軌跡1を検出する。例えば、入力制御部42は、入力面41から座標情報4bを所定の時間間隔で取得し、その一連の座標データを軌跡1として軌跡判定部11へ出力する。   The input control unit (input control means) 42 detects the locus 1 of the user operation 4a with respect to the input surface 41. For example, the input control unit 42 acquires the coordinate information 4b from the input surface 41 at predetermined time intervals, and outputs the series of coordinate data to the locus determination unit 11 as the locus 1.

制御部(制御手段)10は、スマートフォン100の各種機能を統括的に制御するものである。   The control unit (control unit) 10 comprehensively controls various functions of the smartphone 100.

具体的には、制御部10は、(1)入力面41がユーザからのタッチを検知すると、当該タッチされたキーを特定する、(2)当該特定されたキーが所定の時間だけタッチし続けられたか否かを判定する、(3)当該特定されたキーをタッチする指が所定の距離だけドラッグされたか否かを判定する、(4)タッチが入力面41から離れたか否かを判定するなどの処理を行う。   Specifically, the control unit 10 (1) specifies the touched key when the input surface 41 detects a touch from the user, and (2) continues to touch the specified key for a predetermined time. (3) It is determined whether or not the finger touching the specified key has been dragged by a predetermined distance. (4) It is determined whether or not the touch is separated from the input surface 41. Process such as.

なお、制御部10の各機能は、例えばRAM(Random Access Memory)やフラッシュメモリなどの記憶素子に記憶されたプログラムを、CPU(Central Processing Unit)が実行することによって実現されてもよい。制御部10は、軌跡判定部11、精度分布決定部12、およびインターフェース設定部13を含む。   Each function of the control unit 10 may be realized by a CPU (Central Processing Unit) executing a program stored in a storage element such as a RAM (Random Access Memory) or a flash memory. The control unit 10 includes a locus determination unit 11, an accuracy distribution determination unit 12, and an interface setting unit 13.

軌跡判定部(判定手段)11は、入力面41における任意の位置でユーザ操作4aが検知された場合、当該入力面によって検知された指定位置(第1の指定位置)7aと、当該ユーザ操作が当該入力面に沿って移動することによってさらに検知された指定位置(第2の指定位置)7bとを結ぶ軌跡1が、所定の条件を満たしているか否かを判定する。   When the user operation 4a is detected at an arbitrary position on the input surface 41, the trajectory determination unit (determination unit) 11 performs the specified position (first specified position) 7a detected by the input surface and the user operation. It is determined whether or not the locus 1 connecting the designated position (second designated position) 7b further detected by moving along the input surface satisfies a predetermined condition.

具体的には、入力制御部42から軌跡1が入力されると、軌跡判定部11は、当該軌跡が所定の条件を満たしているか否かを判定し、判定結果4cを精度分布決定部12に出力する。   Specifically, when the trajectory 1 is input from the input control unit 42, the trajectory determination unit 11 determines whether or not the trajectory satisfies a predetermined condition, and the determination result 4 c is sent to the accuracy distribution determination unit 12. Output.

ここで、判定結果4cは、軌跡1が上記所定の条件を満たしているか否かを判定した結果を示す情報である。より具体的には、ユーザの右手によって軌跡1が入力されたと、軌跡判定部11が識別する所定の条件(右手用の条件、図5の(a)参照)を当該軌跡が満たした場合、判定結果4cは「軌跡1が右手用の条件を満たした」ことを示す。   Here, the determination result 4c is information indicating a result of determining whether or not the trajectory 1 satisfies the predetermined condition. More specifically, when the trajectory 1 is input by the user's right hand, the determination is made when the trajectory satisfies a predetermined condition (the right hand condition, see FIG. 5A) identified by the trajectory determination unit 11. The result 4c indicates that “the locus 1 satisfies the condition for the right hand”.

一方、ユーザの左手によって軌跡1が入力されたと、軌跡判定部11が識別する所定の条件(左手用の条件、図5の(b)参照)を当該軌跡が満たした場合、判定結果4cは「軌跡1が左手用の条件を満たした」ことを示す。そして、軌跡判定部11は判定結果4cを精度分布決定部12に出力する。   On the other hand, when the trajectory 1 is input by the user's left hand, when the trajectory satisfies a predetermined condition (the left hand condition, see FIG. 5B) identified by the trajectory determination unit 11, the determination result 4c is “ Trajectory 1 satisfies the condition for the left hand ". Then, the locus determination unit 11 outputs the determination result 4 c to the accuracy distribution determination unit 12.

すなわち、上述した軌跡判定部11の処理を言い換えれば、軌跡判定部11は、入力面41における任意の位置でユーザ操作4aが検知された場合、当該入力面によって検知された指定位置7aと、当該ユーザ操作が当該入力面に沿って移動することによってさらに検知された指定位置7bとを結ぶ軌跡1が、所定の条件を満たしているか否かを判定することにより、ユーザがスマートフォン100を右手で操作しているか左手で操作しているかを識別(判定)する。   In other words, in other words, when the user operation 4a is detected at an arbitrary position on the input surface 41, the trajectory determination unit 11 includes the designated position 7a detected by the input surface, The user operates the smartphone 100 with the right hand by determining whether or not the locus 1 connecting the designated position 7b further detected by the user operation moving along the input surface satisfies a predetermined condition. To identify (determine) whether it is operating with the left hand.

なお、軌跡判定部11は、指定位置7aと指定位置7bとを結ぶ軌跡1が略円弧と一致するか否かを、上記所定の条件の1つとして判定してもよいし、指定位置7aと指定位置7bとを対角の頂点とする矩形の面積が所定のしきい値を超えているか否かを、上記所定の条件の1つとして判定してもよい。上記右手用の条件および左手用の条件(ユーザが入力インターフェース3を呼び出すために行う操作によって描かれる軌跡1が満たすべき条件)を、後で詳細に説明する。   The trajectory determination unit 11 may determine whether or not the trajectory 1 connecting the designated position 7a and the designated position 7b coincides with a substantially circular arc as one of the predetermined conditions. It may be determined as one of the predetermined conditions whether or not the area of a rectangle having the designated position 7b as a diagonal vertex exceeds a predetermined threshold value. The right-handed condition and the left-handed condition (conditions that should be satisfied by the locus 1 drawn by an operation performed by the user to call the input interface 3) will be described in detail later.

また、指定位置7aと指定位置7bとの差分(2点のx座標およびy座標の差)を抽出(計算)し、距離(の2乗)を計算する。そして、軌跡判定部11は、当該距離が所定のしきい値を下回っているか否かを判定する。軌跡判定部11によって下回っていると判定されることにより、右手または左手のいずれとも識別できない場合、インターフェース設定部13(後述)は、一般的な入力インターフェース(例えば、通常使用される両手用のソフトウェアキーボードなど)を表示するように、表示制御部71に命令を出力してもよい(図示せず)。   Further, the difference (difference between two x-coordinates and y-coordinates) between the designated position 7a and the designated position 7b is extracted (calculated), and the distance (the square) is calculated. And the locus | trajectory determination part 11 determines whether the said distance is less than a predetermined threshold value. If it is determined by the trajectory determination unit 11 that the right hand or the left hand cannot be identified, the interface setting unit 13 (described later) displays a general input interface (for example, software for both hands that is normally used). A command may be output to the display control unit 71 so as to display a keyboard (not shown).

精度分布決定部(決定手段)12は、軌跡判定部11によって判定された結果に応じて、ユーザ操作4aにより入力面41における位置が指定される精度分布2を決定する。   The accuracy distribution determination unit (determination means) 12 determines the accuracy distribution 2 in which the position on the input surface 41 is designated by the user operation 4a according to the result determined by the trajectory determination unit 11.

具体的には、軌跡1が右手用の条件を満たしたことを示す判定結果4cが軌跡判定部11から入力されると、精度分布決定部12は、例えば入力面41の右下隅など、当該右手のひらに向かう方向へ段階的に精度が高くなるように、精度分布2を決定する(図3の(a)参照)。   Specifically, when the determination result 4c indicating that the trajectory 1 satisfies the right-hand condition is input from the trajectory determination unit 11, the accuracy distribution determination unit 12 determines that the right side of the input surface 41, for example, the right The accuracy distribution 2 is determined so that the accuracy increases stepwise toward the palm (see FIG. 3A).

一方、軌跡1が左手用の条件を満たしたことを示す判定結果4cが軌跡判定部11から入力されると、精度分布決定部12は、例えば入力面41の左下隅など、当該左手のひらに向かう方向へ段階的に精度が高くなるように、精度分布2を決定する(図3の(b)参照)。   On the other hand, when the determination result 4c indicating that the trajectory 1 satisfies the condition for the left hand is input from the trajectory determination unit 11, the accuracy distribution determination unit 12 moves toward the left palm such as the lower left corner of the input surface 41, for example. The accuracy distribution 2 is determined so that the accuracy increases stepwise in the direction (see FIG. 3B).

すなわち、精度分布決定部12は、入力面41における所定の位置(例えば、入力面41の右下隅または左下隅)からユーザ操作4aにより指定された位置までの距離に反比例して、当該入力面における位置が指定される精度が高くなるように、精度分布2を決定するとも言える。精度分布決定部12は、決定した精度分布2を、インターフェース設定部13に出力する。   That is, the accuracy distribution determination unit 12 is in inverse proportion to the distance from a predetermined position on the input surface 41 (for example, the lower right corner or the lower left corner of the input surface 41) to the position specified by the user operation 4a. It can be said that the accuracy distribution 2 is determined so that the accuracy with which the position is specified is increased. The accuracy distribution determination unit 12 outputs the determined accuracy distribution 2 to the interface setting unit 13.

インターフェース設定部(設定手段)13は、精度分布決定部12によって決定された精度分布2に応じて、キー5の大きさを異ならせた入力インターフェース3を設定する。具体的には、精度分布決定部12から精度分布2が入力されると、インターフェース設定部13は、位置を指定する精度の高い入力面41の位置に対応する、表示面72の位置に配置されるキー5が小さく、上記精度の低い入力面41の位置に対応する、表示面72の位置に配置されるキー5が大きく表示されるような(精度に比例してキーが小さくなるように)、入力インターフェース3を表示制御部71に出力する(図4参照)。   The interface setting unit (setting unit) 13 sets the input interface 3 in which the size of the key 5 is changed according to the accuracy distribution 2 determined by the accuracy distribution determining unit 12. Specifically, when the accuracy distribution 2 is input from the accuracy distribution determining unit 12, the interface setting unit 13 is arranged at the position of the display surface 72 corresponding to the position of the input surface 41 with high accuracy for specifying the position. The key 5 is small and the key 5 arranged at the position of the display surface 72 corresponding to the position of the input surface 41 with low accuracy is displayed large (so that the key becomes smaller in proportion to the accuracy). The input interface 3 is output to the display control unit 71 (see FIG. 4).

ここで、当該インターフェースは、例えば母音と子音とを組み合わせたキー5を、所定の方向に配列したソフトウェアキーボード6(後で詳述する)でもよいし、スマートフォン100に所定の処理の実行を指示するアイコンなどであってもよい。   Here, the interface may be, for example, a software keyboard 6 (which will be described in detail later) in which keys 5 in which vowels and consonants are combined are arranged in a predetermined direction, or instructs the smartphone 100 to execute predetermined processing. It may be an icon or the like.

表示部(表示手段)70は、制御部10の内部で処理された結果の情報を、ユーザに対して表示する。   The display unit (display unit) 70 displays information on the result processed in the control unit 10 to the user.

具体的には、表示部70は、(1)表示面72に文字の入力領域を表示する、(2)インターフェース設定部13によって設定された入力インターフェース3(ソフトウェアキーボード6)を表示する、(3)ユーザがタッチしたキーのキートップの色を変更する、(4)当該キーのキートップの色を元に戻す、(5)制御部10からの指示にしたがってソフトウェアキーボード6の表示を切り替える、(6)入力された文字を上記入力領域に表示するなどの処理を行う。表示部70は、表示制御部71と表示面72とを含む。   Specifically, the display unit 70 (1) displays a character input area on the display surface 72, (2) displays the input interface 3 (software keyboard 6) set by the interface setting unit 13, (3 ) Change the color of the key top of the key touched by the user, (4) Restore the key top color of the key, (5) Switch the display of the software keyboard 6 according to the instruction from the control unit 10 ( 6) Perform processing such as displaying input characters in the input area. The display unit 70 includes a display control unit 71 and a display surface 72.

表示制御部(表示制御手段)71は、入力インターフェース3を表示面72に表示できるように、表示用データ4dを表示面72へ出力する。表示用データ4dは、例えばビットマップ形式の画像であってよいし、他の形式に従う画像、またはその他表示に適したデータ形式であってもよい。なお、表示制御部71は、表示すべき内容を表示用データ4dへ形式変換できるものを含んでいればよい。   The display control unit (display control means) 71 outputs the display data 4 d to the display surface 72 so that the input interface 3 can be displayed on the display surface 72. The display data 4d may be, for example, an image in a bitmap format, an image according to another format, or another data format suitable for display. The display control unit 71 only needs to include content that can be converted into display data 4d.

表示面72は、表示制御部71から入力される表示用データ4dを表示する装置である。本実施の形態では主に液晶ディスプレイ(Liquid Crystal Display;LCD)を想定しているが、表示機能を有する装置(特に、フラットパネルディスプレイ)でありさえすればハードウェアの種類は限定されない。例えば、プラズマディスプレイ(Plasma Display Panel;PDP)やEL(Electroluminescence)ディスプレイなどの表示素子と、表示制御部71から入力された表示用データ4dに基づいて、表示素子を駆動するドライバ回路とを備える装置等で、表示面72を構成できる。   The display surface 72 is a device that displays the display data 4 d input from the display control unit 71. In this embodiment, a liquid crystal display (LCD) is mainly assumed. However, the type of hardware is not limited as long as the device has a display function (particularly, a flat panel display). For example, an apparatus including a display element such as a plasma display panel (PDP) or an EL (Electroluminescence) display, and a driver circuit that drives the display element based on display data 4d input from the display control unit 71 Thus, the display surface 72 can be configured.

前述したように、入力面41をタッチパネルで、表示面72を液晶ディスプレイで実現する場合、両者は一体として構成されてよい。この場合、入力面41は、矩形板状に形成されたガラス等の透明な透過部材で構成され、表示面72を覆うように一体的に形成されてよい。これにより、入力面41に対するユーザの指の接触位置と、表示面72が当該接触に応じて表示する図形等の表示位置とが一致するため、ユーザは自然な入力感覚を得ることができる。   As described above, when the input surface 41 is realized by a touch panel and the display surface 72 is realized by a liquid crystal display, both may be configured as one body. In this case, the input surface 41 is made of a transparent transmissive member such as glass formed in a rectangular plate shape, and may be integrally formed so as to cover the display surface 72. Thereby, since the contact position of the user's finger with respect to the input surface 41 and the display position of the figure or the like displayed on the display surface 72 according to the contact match, the user can obtain a natural input feeling.

記憶部(記憶手段)30は、スマートフォン100によって処理される各種情報を格納可能な記憶機器である。記憶部30は、例えばハードディスク、半導体メモリ、DVDなどで構成できる。なお、本実施の形態では、記憶部30は、スマートフォン100に内蔵される機器として図1に示しているが、スマートフォン100の外部に通信可能に接続された外部記憶装置であってもよい。   The storage unit (storage unit) 30 is a storage device that can store various types of information processed by the smartphone 100. The storage unit 30 can be constituted by, for example, a hard disk, a semiconductor memory, a DVD, or the like. In addition, in this Embodiment, although the memory | storage part 30 is shown in FIG. 1 as an apparatus incorporated in the smart phone 100, the external storage device connected to the exterior of the smart phone 100 so that communication was possible may be sufficient.

〔ソフトウェアキーボード6の呼び出し操作〕
図5に基づいて、ソフトウェアキーボード6の呼び出し操作が満たすべき条件を詳細に説明する。なお、入力面41の左下隅を原点とする2次元座標において、指定位置7aおよび指定位置7bの座標が、それぞれ(x,y)、(x’,y’)と表されるとする。
[Calling operation of the software keyboard 6]
Based on FIG. 5, conditions to be satisfied by the call operation of the software keyboard 6 will be described in detail. In the two-dimensional coordinates having the lower left corner of the input surface 41 as the origin, the coordinates of the designated position 7a and the designated position 7b are expressed as (x, y) and (x ′, y ′), respectively.

軌跡判定部11は、軌跡1の曲率を計算することにより、当該軌跡が略円弧と一致するか否かを判定する。または、軌跡判定部11は、軌跡1と所定のパターン(例えば、右手用/左手用の円弧)とを照合することにより、両者が一致するか否かを判定してもよい。   The locus determination unit 11 calculates the curvature of the locus 1 to determine whether or not the locus coincides with a substantially arc. Or the locus | trajectory determination part 11 may determine whether both are matched by collating the locus | trajectory 1 and a predetermined pattern (for example, arc for right hand / left hand).

一致すると判定される場合、軌跡判定部11は、以下の式(1)で計算されるSの絶対値(指定位置7aと指定位置7bとを対角の頂点とする矩形の面積と等価である)が、所定のしきい値λを超過しているか否かを判定する。   When it is determined that they match, the trajectory determination unit 11 is equivalent to the absolute value of S calculated by the following expression (1) (the area of a rectangle having the designated position 7a and the designated position 7b as diagonal vertices). ) Exceeds a predetermined threshold value λ.

S=X×Y=(x−x’)×(y−y’) ・・・(1)
超過していると判定される場合、軌跡判定部11は、Sの符号の正負に基づいて、ユーザがスマートフォン100を右手で把持しているか、左手で把持しているかを識別する。
S = X × Y = (xx ′) × (y−y ′) (1)
When it determines with having exceeded, the locus | trajectory determination part 11 identifies whether the user is holding the smart phone 100 with the right hand or the left hand based on the sign of S.

すなわち、(x−x’)の符号が正であることによりSの符号も正となる場合((y−y’)は常に正であることに注意する)、軌跡判定部11は、ユーザはスマートフォン100を右手で把持していると識別し、軌跡1が右手用の条件を満たしたことを示す判定結果4cを、精度分布決定部12に出力する。   That is, when the sign of (xx ′) is positive and the sign of S is also positive (note that (yy−y ′) is always positive), the trajectory determination unit 11 The smart phone 100 is identified as being held with the right hand, and the determination result 4c indicating that the locus 1 satisfies the right hand condition is output to the accuracy distribution determination unit 12.

一方、(x−x’)の符号が負であることによりSの符号も負となる場合、軌跡判定部11は、ユーザはスマートフォン100を左手で把持していると識別し、軌跡1が左手用の条件を満たしたことを示す判定結果4cを、精度分布決定部12に出力する。   On the other hand, when the sign of (xx ′) is negative and the sign of S is also negative, the locus determination unit 11 identifies that the user is holding the smartphone 100 with the left hand, and the locus 1 is the left hand. The determination result 4c indicating that the condition for use is satisfied is output to the accuracy distribution determination unit 12.

〔ソフトウェアキーボード6のキー配列〕
図6に基づいて、スマートフォン100が設定するソフトウェアキーボード6のキー配列を説明する。図6は、ソフトウェアキーボード6の構成を示す模式図である。
[Key layout of software keyboard 6]
Based on FIG. 6, the key arrangement of the software keyboard 6 set by the smartphone 100 will be described. FIG. 6 is a schematic diagram showing the configuration of the software keyboard 6.

図6の(a)は、上側2行に母音(AIUEO)のみを所定の方向(同図の例では左から右の方向)に配列したものを示し、図6の(b)は、上側2行に子音のみを所定の方向に配列したものを示す。図6の(c)は、母音(図6の(a))と子音(図6の(b))とを組み合わせたキーを、所定の方向に配列したソフトウェアキーボード6を示す。なお、以下の図6〜図11において、右手用ソフトウェアキーボードを例示して説明するが、左手用ソフトウェアキーボードも同じ要領で説明可能である。   FIG. 6A shows an arrangement in which only vowels (AIUEO) are arranged in a predetermined direction (left to right direction in the example of FIG. 6) in the upper two rows, and FIG. A row in which only consonants are arranged in a predetermined direction is shown. FIG. 6C shows the software keyboard 6 in which keys combining vowels (FIG. 6A) and consonants (FIG. 6B) are arranged in a predetermined direction. 6 to 11, the right-hand software keyboard will be described as an example, but the left-hand software keyboard can also be described in the same manner.

図6の(a)に示すように、スマートフォン100は、ソフトウェアキーボード6における母音の配置をあらかじめ決定しておく(同図の例では左から右の方向に「AIUEO」と配列する)。また、図6の(b)に示すように、スマートフォン100は、ソフトウェアキーボード6における各行(あ行、か行、さ行・・・)の子音の配置もあらかじめ決定しておく。   As shown in FIG. 6A, the smartphone 100 determines in advance the arrangement of vowels on the software keyboard 6 (in the example of FIG. 6, “AIUEO” is arranged from left to right). Further, as shown in FIG. 6B, the smartphone 100 also determines in advance the arrangement of consonants in each row (A row, Ka row, Sa row ...) on the software keyboard 6.

図6の(c)に示すように、スマートフォン100は、図6の(a)の母音の配列と図6の(b)の子音の配列とを組み合わせて、ソフトウェアキーボード6を構成する。すなわち、ソフトウェアキーボード6のキー5aのキートップには「あ」(A+「あ行」)が、キー5bのキートップには「き」(I+「か行」)が、キー5cのキートップには「す」(U+「さ行」)が表示される。なお、スマートフォン100が実際に表示するソフトウェアキーボード6は、図6の(a)または(b)に示したものではなく、図6の(c)に示したものであることに注意する。   As shown in FIG. 6C, the smartphone 100 configures the software keyboard 6 by combining the vowel arrangement shown in FIG. 6A and the consonant arrangement shown in FIG. That is, the key top of the key 5a of the software keyboard 6 has “A” (A + “A line”), the key top of the key 5b has “KI” (I + “KA line”), and the key 5c has a key top. “S” (U + “Sa line”) is displayed. Note that the software keyboard 6 actually displayed by the smartphone 100 is not shown in FIG. 6A or 6B but shown in FIG. 6C.

図7に基づいて、ユーザが図6の(c)に示すキー5c(キートップに「す」が表示されたキー)をタッチした場合の、スマートフォン100の動作例を説明する。図7は、ユーザが図6の(c)に示すキー5cをタッチした場合、スマートフォン100が表示するソフトウェアキーボード6の変化を示す模式図である。なお、以下では、ユーザによっていずれかのキーがタッチされている状態(図7の(c)の状態)を、「フォーカスがあたった状態」と称することがある。   Based on FIG. 7, an operation example of the smartphone 100 when the user touches the key 5c (a key with “su” displayed on the key top) illustrated in FIG. 6C will be described. FIG. 7 is a schematic diagram showing a change of the software keyboard 6 displayed on the smartphone 100 when the user touches the key 5c shown in FIG. 6C. Hereinafter, a state in which any key is touched by the user (a state in FIG. 7C) may be referred to as a “focused state”.

図7の(a)は、上側2行に母音(AIUEO)のみを所定の方向に配列したものを示し、図7の(b)は、上側2行に子音のみ(「さ行」を表す「S」と「ざ行」を表す「Z」)を所定の方向に配列したものを示す。図7の(c)は、ユーザがキー5cをタッチすることで表示されるソフトウェアキーボード6であって、母音(図7の(a))と子音(図7の(b))とを組み合わせたキーを、所定の方向に配列したソフトウェアキーボード6を示す。   FIG. 7A shows an arrangement in which only the vowels (AIUEO) are arranged in a predetermined direction in the upper two rows, and FIG. 7B shows only the consonant (“sa row” in the upper two rows “ S "and" Z "representing" clap ") are arranged in a predetermined direction. (C) of FIG. 7 is a software keyboard 6 displayed when the user touches the key 5c, and is a combination of vowels ((a) of FIG. 7) and consonants ((b) of FIG. 7). A software keyboard 6 in which keys are arranged in a predetermined direction is shown.

図7の(c)に示すように、図6の(c)に示すキー5cをユーザがタッチすると、スマートフォン100は「さ行」の子音と「ざ行」の子音とがキートップに表示されたキーを、所定の方向に配列したソフトウェアキーボード6を表示する。   As shown in (c) of FIG. 7, when the user touches the key 5 c shown in (c) of FIG. 6, the smartphone 100 displays “conform” consonant and “conform” consonant on the key top. The software keyboard 6 in which the keys are arranged in a predetermined direction is displayed.

なお、ユーザが任意のキー5にタッチすると、スマートフォン100は当該キーのキートップの色を変化させる(例えば、ユーザがタッチしていないキーの色は白、タッチしているキーの色は薄青など)。言い換えれば、表示部70(表示手段)は、ユーザの操作によりキー(入力する情報を指定可能な領域)が指定された場合、当該キーの色を変更する。これにより、スマートフォン100は、ユーザがいずれのキーをタッチしているかを当該ユーザに明示できる。   When the user touches any key 5, the smartphone 100 changes the color of the key top of the key (for example, the color of the key not touched by the user is white, and the color of the touched key is light blue) Such). In other words, when a key (an area in which information to be input can be specified) is specified by a user operation, the display unit 70 (display unit) changes the color of the key. Thereby, the smartphone 100 can clearly indicate to the user which key the user is touching.

図7の(c)に示すように、スマートフォン100は、図7の(a)の母音の配列と図7の(b)の子音の配列とを組み合わせて、ソフトウェアキーボード6を構成する。すなわち、ソフトウェアキーボード6のキー5aのキートップには「ざ」(A+「ざ行」)が、キー5bのキートップには「じ」(I+「ざ行」)が、キー5cのキートップには「す」(U+「さ行」)が表示される。なお、スマートフォン100が実際に表示するソフトウェアキーボード6は、図7の(a)または(b)に示したものではなく、図7の(c)に示したものであることに注意する。   As shown in FIG. 7C, the smartphone 100 configures the software keyboard 6 by combining the vowel arrangement shown in FIG. 7A and the consonant arrangement shown in FIG. 7B. That is, "Z" (A + "Zag") is on the key top of the key 5a of the software keyboard 6, "Ji" (I + "Zag") is on the key top of the key 5b, and the key top of the key 5c. “S” (U + “Sa line”) is displayed. Note that the software keyboard 6 actually displayed by the smartphone 100 is not shown in FIG. 7A or 7B but shown in FIG. 7C.

図6の(a)および図7の(a)に示すように、スマートフォン100は、ソフトウェアキーボード6における母音の配列を常に固定する。したがって、スマートフォン100は、ユーザに母音の位置を容易に把握させることができる。   As shown in (a) of FIG. 6 and (a) of FIG. 7, the smartphone 100 always fixes the arrangement of vowels in the software keyboard 6. Therefore, the smartphone 100 can make the user easily grasp the position of the vowel.

図6の(c)および図7の(c)に示すように、ユーザがソフトウェアキーボード6を操作していない場合、当該ユーザは子音の配列を一目で把握できる。したがって、ユーザがソフトウェアキーボード6における子音と母音との組み合わせを覚えさえすれば、スマートフォン100は、当該ユーザに文字入力を容易に行わせることができる。   As shown in FIGS. 6C and 7C, when the user is not operating the software keyboard 6, the user can grasp the consonant arrangement at a glance. Therefore, as long as the user learns the combination of consonants and vowels on the software keyboard 6, the smartphone 100 can easily cause the user to input characters.

図7の(b)に示すように、「ざ行」(Z)の各子音は、図6の(c)に示すソフトウェアキーボード6の最上行に、さらに追加された行に配列される各キーに表示される。これにより、例えばユーザが「す」をタッチした場合、当該タッチした指で「ざ行」のキーが隠れることがない。したがって、スマートフォン100は、ユーザにキーの配列を確実に把握させることができる。   As shown in FIG. 7B, the consonants of “zapping” (Z) are keys arranged on the top row of the software keyboard 6 shown in FIG. Is displayed. Thus, for example, when the user touches “su”, the “zap” key is not hidden by the touched finger. Therefore, the smart phone 100 can make a user grasp | ascertain the arrangement | sequence of a key reliably.

なお、上記では濁音の子音のみを説明したが、スマートフォン100は、半濁音や拗音の子音を上記説明と同様に表示できる。また、上記では濁音の子音をソフトウェアキーボード6の「最上行に」表示すると説明したが、例えば「最下行に」表示してもよい。さらに、上記では母音を左から右の方向に配列する例を説明したが、右から左であってもよいし、上から下であってもよいし、下から上であってもよい。   In addition, although only the consonant of the muddy sound was demonstrated above, the smart phone 100 can display a semi-turbid sound and the consonant of a stuttering sound similarly to the said description. In the above description, the consonant of the muddy sound has been described as being displayed “in the top row” of the software keyboard 6. Furthermore, the example in which vowels are arranged from left to right has been described above, but may be from right to left, from top to bottom, or from bottom to top.

すなわち、上記したソフトウェアキーボード6におけるキー配列は、あくまでも一例であって、他の配列が任意に考えられる。例えば、スマートフォン100は、ユーザがタッチする頻度の高いキーを、位置を指定する精度の高い入力面41の位置に対応する、表示面72の位置に表示してもよい。   That is, the above-described key arrangement in the software keyboard 6 is merely an example, and other arrangements are arbitrarily conceivable. For example, the smartphone 100 may display a key that is frequently touched by the user at a position on the display surface 72 corresponding to the position of the input surface 41 with high accuracy for specifying the position.

言い換えれば、精度分布決定部12(決定手段)は、ユーザ操作4a(ユーザの操作)の頻度に比例して入力面41における位置が指定される精度が高くなるように、精度分布2(精度の分布)を決定し、インターフェース設定部13(設定手段)は、精度分布決定部12(決定手段)によって決定された精度分布2(精度の分布)の精度に比例してキー5(入力する情報を指定可能な領域)が小さくなるように、入力インターフェース3を設定する。   In other words, the accuracy distribution determination unit 12 (determination means) determines the accuracy distribution 2 (accuracy of accuracy) so that the accuracy of specifying the position on the input surface 41 is increased in proportion to the frequency of the user operation 4a (user operation). The interface setting unit 13 (setting unit) determines the key 5 (information to be input) in proportion to the accuracy of the accuracy distribution 2 (accuracy distribution) determined by the accuracy distribution determining unit 12 (determination unit). The input interface 3 is set so that the area that can be specified becomes smaller.

〔ソフトウェアキーボード6の操作方法〕
図8に基づいて、ソフトウェアキーボード6の操作方法を説明する。図8は、ユーザが平仮名の「じ」を入力する場合、スマートフォン100が表示するソフトウェアキーボード6の変化を示す模式図である。
[How to operate the software keyboard 6]
Based on FIG. 8, the operation method of the software keyboard 6 is demonstrated. FIG. 8 is a schematic diagram showing a change of the software keyboard 6 displayed on the smartphone 100 when the user inputs the hiragana “ji”.

図8の(a)は、図7の(c)と同様に、ユーザが図6の(c)に示すキー5cをタッチすることで表示されるソフトウェアキーボード6を示し、図8の(b)は、図8の(a)の状態からユーザがキー5e(キートップに「じ」が表示されたキー)に指を移動させた状態を示す。図8の(c)は、図8の(b)の状態からユーザが入力面41から指を離した場合の表示を示し、図8の(d)は、「じ」の文字入力を確定させた場合の表示を示す。   FIG. 8A shows the software keyboard 6 displayed when the user touches the key 5c shown in FIG. 6C, as in FIG. 7C, and FIG. Indicates a state in which the user has moved his / her finger from the state of FIG. 8A to the key 5e (a key having “ji” displayed on the key top). FIG. 8C shows a display when the user lifts his / her finger from the input surface 41 from the state of FIG. 8B, and FIG. 8D confirms the character input of “ji”. The display is shown when

図8の(a)〜(b)に示すように、ユーザは図6の(c)に示すキー5cをタッチし、当該タッチした親指を入力面41に接触させたまま、キートップに「じ」が表示されたキーまで親指を移動させる(いわゆる「ドラッグ」と呼ばれる操作)。   As shown in FIGS. 8A and 8B, the user touches the key 5c shown in FIG. 6C, and touches the key top while keeping the touched thumb in contact with the input surface 41. The thumb is moved to a key displaying “” (an operation called “drag”).

そして、ユーザが当該入力面から親指を離すと(いわゆる「タッチアップ」と呼ばれる操作)、図8の(c)に示すように、かな漢字変換が未確定の状態(入力した文字に下線が付された状態)の「じ」が文字入力エリアに表示される。この状態でユーザが「確定」キーをタッチすると、図8の(d)に示すように、「じ」の入力が確定した状態となる(上記下線が付されていない状態)。   Then, when the user removes his / her thumb from the input surface (an operation called “touch-up”), as shown in FIG. 8C, the kana-kanji conversion has not been confirmed (the input character is underlined). “Ji” is displayed in the character input area. When the user touches the “confirm” key in this state, the input of “ji” is confirmed as shown in FIG. 8D (state where the underline is not added).

前述したように、スマートフォン100は、ユーザに母音の位置を容易に把握させることができる。すなわち、図8に示すように、ユーザが「じ」を入力する場合、「じ」と「さ行」で共通する「す」をタッチすれば、目的の「じ」が左から2番目に表示されることをユーザは予測できる。スマートフォン100がソフトウェアキーボード6における母音の配列を、常に固定して表示するためである。   As described above, the smartphone 100 allows the user to easily grasp the position of the vowel. That is, as shown in FIG. 8, when the user inputs “ji”, if the “ji” common to “ji” and “sa line” is touched, the target “ji” is displayed second from the left. The user can expect to be done. This is because the smartphone 100 always displays the vowel arrangement on the software keyboard 6 in a fixed manner.

なお、図8の(a)〜(b)に示すように、スマートフォン100は、タッチ位置の移動に追随して、キートップの色を連続的に変化させることに注意する。これにより、スマートフォン100は、ユーザがいずれのキーをタッチしているかを当該ユーザに明示できる。言い換えれば、インターフェース設定部13(設定手段)は、ユーザ操作4a(ユーザの操作)により指定された位置の移動に追随して、入力インターフェース3のキー(入力する情報を指定可能な領域)の色を連続的に変化させる。   Note that, as illustrated in FIGS. 8A to 8B, the smartphone 100 continuously changes the color of the key top following the movement of the touch position. Thereby, the smartphone 100 can clearly indicate to the user which key the user is touching. In other words, the interface setting unit 13 (setting unit) follows the movement of the position specified by the user operation 4a (user operation), and the color of the key of the input interface 3 (the area where information to be input can be specified). Is continuously changed.

図9に基づいて、ソフトウェアキーボード6の操作方法をさらに説明する。図9は、ユーザが平仮名の「ぺ」を入力する場合、スマートフォン100が表示するソフトウェアキーボード6の変化を示す模式図である。   Based on FIG. 9, the operation method of the software keyboard 6 is further demonstrated. FIG. 9 is a schematic diagram showing a change of the software keyboard 6 displayed on the smartphone 100 when the user inputs hiragana “pe”.

図9の(a)は、ユーザが図6の(c)に示すキー5d(キートップに「は」が表示されたキー)をタッチすることで表示されるソフトウェアキーボード6を示し、図9の(b)は、図9の(a)の状態からユーザがキー5f(キートップに「ぺ」が表示されたキー)に指を移動させた状態を示す。図9の(c)は、図9の(b)の状態からユーザが入力面41から指を離した場合の表示を示し、図9の(d)は、「ぺ」の文字入力を確定させた場合の表示を示す。   FIG. 9A shows the software keyboard 6 displayed when the user touches the key 5d shown in FIG. 6C (the key having “ha” displayed on the key top). FIG. 9B shows a state where the user has moved his / her finger from the state of FIG. 9A to the key 5f (a key having “pe” displayed on the key top). FIG. 9C shows a display when the user lifts his / her finger from the input surface 41 from the state of FIG. 9B, and FIG. 9D confirms the character input of “P”. The display is shown when

図9の(a)〜(b)に示すように、ユーザが図6の(c)に示すキー5dをタッチし、当該タッチした親指を入力面41に接触させたまま、キートップに「ぺ」が表示されたキーまで親指を移動させ、当該入力面から親指を離すと、図9の(c)に示すように、かな漢字変換が未確定の状態(入力した文字に下線が付された状態)の「ぺ」が文字入力エリアに表示される。この状態でユーザが「確定」キーをタッチすると、図9の(d)に示すように、「ぺ」の入力が確定した状態となる。   As shown in FIGS. 9A to 9B, the user touches the key 5d shown in FIG. 6C, and with the touched thumb being in contact with the input surface 41, the key top is set to “PET”. When the thumb is moved to the key displaying “” and the thumb is released from the input surface, as shown in FIG. 9C, the kana-kanji conversion is in an unconfirmed state (the input character is underlined) ) Is displayed in the character input area. When the user touches the “confirm” key in this state, the input of “pe” is confirmed as shown in FIG.

図10に基づいて、ユーザが例外的な操作を行った場合、および当該操作から復帰した場合のスマートフォン100の動作例を説明する。図10は、ユーザが例外的な操作を行った場合、および当該操作から復帰した場合、スマートフォン100が表示するソフトウェアキーボード6の変化を示す模式図である。   Based on FIG. 10, an operation example of the smartphone 100 when the user performs an exceptional operation and when the user returns from the operation will be described. FIG. 10 is a schematic diagram illustrating changes in the software keyboard 6 displayed on the smartphone 100 when the user performs an exceptional operation and when the user returns from the operation.

図10の(a)は、ユーザが図9の(a)に示すキー5dをタッチした後、当該タッチした親指を入力面41に接触させたまま、ソフトウェアキーボード6の枠外、または当該ソフトウェアキーボードの下2行に親指を移動させた状態を示す。図10の(b)は、図10の(a)の状態から、ユーザがタッチした親指を入力面41に接触させたまま、再度ソフトウェアキーボード6の枠内(同図ではキー5f)に親指を移動させた状態を示す。   FIG. 10A shows that after the user touches the key 5d shown in FIG. 9A, the touched thumb is kept in contact with the input surface 41 and the outside of the software keyboard 6 or the software keyboard. The bottom two lines show the state where the thumb is moved. FIG. 10B shows the state of FIG. 10A, with the thumb touched by the user in contact with the input surface 41 and again with the thumb in the frame of the software keyboard 6 (key 5f in the figure). Indicates the moved state.

図10の(a)に示すように、ユーザが図9の(a)に示すキー5dをタッチした後、当該タッチした親指を入力面41に接触させたまま、ソフトウェアキーボード6の枠外、または当該ソフトウェアキーボードの下2行に親指を移動させた場合、スマートフォン100はフォーカスを外す。したがって、図10の(a)では、いずれのキーも色が変更されない。   As shown in FIG. 10 (a), after the user touches the key 5d shown in FIG. 9 (a), the touched thumb is kept in contact with the input surface 41, or outside the frame of the software keyboard 6 or When the thumb is moved to the lower two lines of the software keyboard, the smartphone 100 removes the focus. Accordingly, in FIG. 10A, the color of any key is not changed.

図10の(b)に示すように、図10の(a)の状態から、ユーザがタッチした親指を入力面41に接触させたまま、再度ソフトウェアキーボード6の枠内に親指を移動させると、スマートフォン100はフォーカスを復帰させる。したがって、図10の(b)では、キー5fの色が変更される。   As shown in FIG. 10B, from the state of FIG. 10A, when the thumb touched by the user is kept in contact with the input surface 41 and moved again into the frame of the software keyboard 6, The smartphone 100 returns the focus. Therefore, in FIG. 10B, the color of the key 5f is changed.

なお、図10の(a)の状態のままユーザが入力面41から親指を離すと、スマートフォン100は、図6の(c)に示す表示の状態(ソフトウェアキーボード6の初期表示の状態)に戻すことに注意する。   When the user lifts his / her thumb from the input surface 41 in the state of FIG. 10A, the smartphone 100 returns to the display state (the initial display state of the software keyboard 6) shown in FIG. Note that.

図11に基づいて、ソフトウェアキーボード6の異なる操作方法を説明する。図11は、ユーザが平仮名の「ぺ」を入力する場合、スマートフォン100が表示するソフトウェアキーボード6の変化を示す模式図である。   Based on FIG. 11, a different operation method of the software keyboard 6 will be described. FIG. 11 is a schematic diagram showing a change of the software keyboard 6 displayed on the smartphone 100 when the user inputs the hiragana “pe”.

図11の(a)は、ユーザが図6の(c)に示すキー5dをタッピング(親指を入力面41に接触させてすぐに離す操作をいう)した場合の表示を示し、図11の(b)は、ユーザが図11の(a)の状態からさらにタッピングを繰り返した場合の表示を示し、図11の(c)は、ユーザが図11の(b)の状態からキー5g(キートップに「゛゜大⇔小」が表示されたキー)をタッピングした場合の表示を示す。   FIG. 11A shows a display when the user taps the key 5d shown in FIG. 6C (refers to an operation in which the thumb is brought into contact with the input surface 41 and immediately released). FIG. 11B shows a display when the user repeats tapping from the state of FIG. 11A, and FIG. 11C shows the key 5g (key top) from the state of FIG. Shows the display when tapping the key with “゛”.

図11の(a)〜(c)に示すように、ユーザはソフトウェアキーボード6をタッピングすることによっても文字を入力できる。なお、図11の(c)に示す状態でユーザが「確定」キーをタッチすると、図9の(d)に示すように、「ぺ」の入力が確定した状態となる。   As shown in FIGS. 11A to 11C, the user can also input characters by tapping the software keyboard 6. When the user touches the “confirm” key in the state shown in FIG. 11C, the input of “pe” is confirmed as shown in FIG. 9D.

〔スマートフォン100が実行する処理〕
図12に基づいて、スマートフォン100が実行する処理の流れを説明する。図12は、ソフトウェアキーボード6を表示する際に、スマートフォン100が実行する処理の一例を示すフローチャートである。なお、以下の説明において、カッコ書きの「〜ステップ」は制御方法の各ステップを表す。
[Processes executed by the smartphone 100]
Based on FIG. 12, the flow of processing executed by the smartphone 100 will be described. FIG. 12 is a flowchart illustrating an example of processing executed by the smartphone 100 when the software keyboard 6 is displayed. In the following description, parenthesized “˜step” represents each step of the control method.

まず、表示部70は、表示面72に文字の入力領域を表示する(ステップ1:S1のように略記する)。次に、入力面41は、指定位置7a(第1の指定位置)を検知し(S2)、さらに指定位置7b(第2の指定位置)を検知する(S3)。軌跡判定部11は、当該2つの指定位置の差分を抽出し(S4)、距離(の2乗)を計算する。そして、軌跡判定部11は、当該距離が所定のしきい値を下回っているか否かを判定する(S5)。下回っていると判定される場合(S5においてYES)、インターフェース設定部13は、入力領域にカーソルを表示し、両手用のソフトウェアキーボードを設定する(S6)。   First, the display unit 70 displays a character input area on the display surface 72 (step 1: abbreviated as S1). Next, the input surface 41 detects the designated position 7a (first designated position) (S2), and further detects the designated position 7b (second designated position) (S3). The trajectory determination unit 11 extracts the difference between the two specified positions (S4) and calculates the distance (the square). And the locus | trajectory determination part 11 determines whether the said distance is less than a predetermined threshold value (S5). If it is determined that the number is lower (YES in S5), the interface setting unit 13 displays a cursor in the input area and sets a software keyboard for both hands (S6).

一方、下回っていないと判定される場合(S5においてNO)、軌跡判定部11は、軌跡1が略円弧と一致するか否かを判定する(S7、判定ステップ)。一致すると判定される場合(S7においてYES)、上述した式(1)で計算されるSの絶対値が、所定のしきい値を超過しているか否かを判定する(S8、判定ステップ)。超過すると判定される場合(S8においてYES)、軌跡判定部11は、Sの符号が正か否か判定する(S9、判定ステップ)。   On the other hand, when it is determined that it is not lower (NO in S5), the trajectory determination unit 11 determines whether or not the trajectory 1 matches a substantially arc (S7, determination step). When it is determined that they match (YES in S7), it is determined whether or not the absolute value of S calculated by the above-described equation (1) exceeds a predetermined threshold (S8, determination step). When it determines with exceeding (in S8 YES), the locus | trajectory determination part 11 determines whether the code | symbol of S is positive (S9, determination step).

Sの符号が正である場合(S9においてYES)、精度分布決定部12は、右手のひらに向かう方向へ段階的に精度が高くなるように、精度分布2を決定する(S10a、決定ステップ)。そして、インターフェース設定部13は、入力面41の右下隅に対応する表示面72の位置に配置されるキーを小さく表示し、左上隅に対応する表示面72の位置に配置されるキーを大きく表示するような、右手用のソフトウェアキーボード6を設定する(S11、設定ステップ)。   When the sign of S is positive (YES in S9), the accuracy distribution determination unit 12 determines the accuracy distribution 2 so that the accuracy increases stepwise toward the right palm (S10a, determination step). Then, the interface setting unit 13 displays a small key disposed at the position of the display surface 72 corresponding to the lower right corner of the input surface 41 and displays a large key disposed at the position of the display surface 72 corresponding to the upper left corner. Such a right-hand software keyboard 6 is set (S11, setting step).

一方、Sの符号が負である場合(S9においてNO)、精度分布決定部12は、左手のひらに向かう方向へ段階的に精度が高くなるように、入力面41における位置が指定される精度が高くなるように、精度分布2を決定する(S10b、決定ステップ)。そして、インターフェース設定部13は、入力面41の左下隅に対応する表示面72の位置に配置されるキーを小さく表示し、右上隅に対応する表示面72の位置に配置されるキーを大きく表示するような、左手用のソフトウェアキーボード6を設定する(S12、設定ステップ)。   On the other hand, when the sign of S is negative (NO in S9), the accuracy distribution determination unit 12 has the accuracy of specifying the position on the input surface 41 so that the accuracy increases stepwise toward the left palm. The accuracy distribution 2 is determined so as to be higher (S10b, determination step). Then, the interface setting unit 13 displays a small key disposed at the position of the display surface 72 corresponding to the lower left corner of the input surface 41 and displays a large key disposed at the position of the display surface 72 corresponding to the upper right corner. Such a left-hand software keyboard 6 is set (S12, setting step).

図13に基づいて、スマートフォン100が実行する異なる処理の流れを説明する。図13は、ユーザからキー入力があった際に、スマートフォン100が実行する処理の一例を示すフローチャートである。   Based on FIG. 13, the flow of different processes executed by the smartphone 100 will be described. FIG. 13 is a flowchart illustrating an example of processing executed by the smartphone 100 when a key is input from the user.

表示部70は、インターフェース設定部13によって設定された入力インターフェース3(ソフトウェアキーボード6)を表示する(S20)。入力面41がユーザからのタッチを検知すると(S21においてYES)、制御部10は当該タッチされたキーを特定し(S22)、表示部70は当該特定されたキーのキートップの色を変更する(S23)。   The display unit 70 displays the input interface 3 (software keyboard 6) set by the interface setting unit 13 (S20). When the input surface 41 detects a touch from the user (YES in S21), the control unit 10 specifies the touched key (S22), and the display unit 70 changes the color of the key top of the specified key. (S23).

制御部10は、当該特定されたキーが所定の時間だけタッチし続けられたか否かを判定する(S24)。タッチし続けられていないと判定される場合(S24においてNO)、制御部10は、上記特定されたキーをタッチする指が所定の距離だけドラッグされたか否かを判定する(S25)。ドラッグされていないと判定される場合(S25においてNO)、表示部70は、上記特定されたキーのキートップの色を元に戻す(S26)。   The control unit 10 determines whether or not the specified key has been touched for a predetermined time (S24). When it is determined that the touch is not continued (NO in S24), the control unit 10 determines whether or not the finger touching the identified key has been dragged by a predetermined distance (S25). When it is determined that the key is not dragged (NO in S25), the display unit 70 restores the key top color of the identified key (S26).

一方、タッチし続けられたと判定される場合(S24においてYES)、またはドラッグされたと判定される場合(S25においてYES)、表示部70は、ソフトウェアキーボード6の表示を、子音+母音・濁音・半濁音・拗音の表示に切り替える(S29、例えば図7の(c)参照)。また、制御部10は、タッチが入力面41から離れたか否かを判定する(S30)。   On the other hand, when it is determined that the touch has been continued (YES in S24) or when it is determined that it has been dragged (YES in S25), display unit 70 displays the display of software keyboard 6 as consonant + vowel, muddy, semi The display is switched to the display of muddy / stuttering (S29, for example, see FIG. 7C). Moreover, the control part 10 determines whether the touch left | separated from the input surface 41 (S30).

タッチが入力面41から離れたと判定される場合(S30においてYES)、表示部70は、上記特定されたキーに対応する文字を入力領域に表示し(S27)、当該キーのキートップの色を元に戻す(S28)。   When it is determined that the touch is away from the input surface 41 (YES in S30), the display unit 70 displays characters corresponding to the specified key in the input area (S27), and changes the key top color of the key. Return to the original (S28).

〔スマートフォン100が奏する効果〕
スマートフォン100は、入力インターフェース3(特にソフトウェアキーボード6)の操作性を高め、ユーザの利便性を向上させることができるという効果を奏する。
[Effects of smartphone 100]
The smartphone 100 has an effect that the operability of the input interface 3 (particularly the software keyboard 6) can be improved and the convenience of the user can be improved.

〔各実施の形態に含まれる構成(技術的手段)の組み合わせについて〕
上述した実施の形態に含まれる構成は、適宜組み合わせられることに注意する。すなわち、上記の実施の形態で説明したすべての構成は、当該説明に係る実施の形態のみならず、他の実施の形態においても当該構成の全部または一部を組み合わせて利用でき、それによって得られる実施の形態についても本発明の技術的範囲に含まれる。
[Combination of configurations (technical means) included in each embodiment]
Note that the configurations included in the above-described embodiments can be combined as appropriate. In other words, all the configurations described in the above embodiments can be used in combination with all or a part of the configurations in the other embodiments as well as the embodiment according to the above description. Embodiments are also included in the technical scope of the present invention.

〔ソフトウェアによる実現例〕
最後に、スマートフォン100の各ブロック、特に制御部10(軌跡判定部11、精度分布決定部12、インターフェース設定部13)は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPUを用いてソフトウェア的に実現してもよい。
[Example of software implementation]
Finally, each block of the smartphone 100, in particular, the control unit 10 (the trajectory determination unit 11, the accuracy distribution determination unit 12, and the interface setting unit 13) is implemented in hardware by a logic circuit formed on an integrated circuit (IC chip). It may be realized or may be realized by software using a CPU.

後者の場合、スマートフォン100は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備える。そして、本発明の目的は、上述した機能を実現するソフトウェアであるスマートフォン100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記スマートフォン100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the smartphone 100 includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM that expands the program, a memory that stores the program and various data, and the like Storage device (recording medium). An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the smartphone 100 that is software that realizes the above-described functions is recorded in a computer-readable manner. This can also be achieved by supplying to the smartphone 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include non-transitory tangible medium, such as magnetic tape and cassette tape, magnetic disk such as floppy (registered trademark) disk / hard disk, and CD-ROM / MO. Discs including optical discs such as / MD / DVD / CD-R, cards such as IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM (registered trademark) / flash ROM Alternatively, logic circuits such as PLD (Programmable Logic Device) and FPGA (Field Programmable Gate Array) can be used.

また、スマートフォン100を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the smartphone 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by radio such as High Data Rate (NFC), Near Field Communication (NFC), Digital Living Network Alliance (DLNA), mobile phone network, satellite line, and digital terrestrial network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

このように、本明細書においては、手段とは必ずしも物理的手段を意味せず、各手段の機能がソフトウェアによって実現される場合も含む。また、1つの手段の機能が2つ以上の物理的手段により実現されてもよいし、2つ以上の手段の機能が1つの物理的手段により実現されてもよい。   As described above, in this specification, the means does not necessarily mean a physical means, and includes the case where the function of each means is realized by software. Further, the function of one means may be realized by two or more physical means, and the function of two or more means may be realized by one physical means.

本発明は、スマートフォン、タブレット端末など、ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置に幅広く適用できる。   The present invention can be widely applied to information processing apparatuses such as smartphones and tablet terminals that include an input surface capable of detecting a position designated by a user operation and capable of inputting information based on the designated position.

1 軌跡(軌跡)
2 精度分布(精度の分布)
3 入力インターフェース(入力インターフェース)
4a ユーザ操作(ユーザの操作)
5a〜g キー(キー)
6 ソフトウェアキーボード(ソフトウェアキーボード)
7a 指定位置(第1の指定位置)
7b 指定位置(第2の指定位置)
11 軌跡判定部(判定手段)
12 精度分布決定部(決定手段)
13 インターフェース設定部(設定手段)
41 入力面(入力面)
100 スマートフォン(情報処理装置)
1 Trajectory
2 Accuracy distribution (accuracy distribution)
3 Input interface (input interface)
4a User operation (user operation)
5a-g key (key)
6 Software keyboard (Software keyboard)
7a Designated position (first designated position)
7b Designated position (second designated position)
11 Trajectory determination unit (determination means)
12 Accuracy distribution determination unit (determination means)
13 Interface setting part (setting means)
41 Input side (input side)
100 Smartphone (information processing device)

Claims (10)

ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置であって、
前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定手段と、
前記判定手段によって判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定手段と、
前記決定手段によって決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定手段とを備えたことを特徴とする情報処理装置。
An information processing apparatus comprising an input surface capable of detecting a position designated by a user operation and capable of inputting information based on the designated position,
When a user operation is detected at an arbitrary position on the input surface, the first designated position detected by the input surface and further detected by moving the user operation along the input surface. Determination means for determining whether or not a trajectory connecting the second designated position satisfies a predetermined condition;
A determination unit that determines a distribution of accuracy in which a position on the input surface is designated by an operation of the user according to a result determined by the determination unit;
An information processing apparatus comprising: setting means for setting an input interface in which the size of an area in which information to be input can be specified is changed according to the accuracy distribution determined by the determining means.
前記決定手段は、前記判定手段によって判定された結果に応じて、所定の方向へ段階的に前記精度が変化するように、前記精度の分布を決定することを特徴とする請求項1に記載の情報処理装置。   2. The determination unit according to claim 1, wherein the determination unit determines the accuracy distribution so that the accuracy changes stepwise in a predetermined direction according to a result determined by the determination unit. Information processing device. 前記決定手段は、前記入力面における所定の位置から前記ユーザの操作により指定された位置までの距離に反比例して前記精度が高くなるように、前記精度の分布を決定することを特徴とする請求項1または2に記載の情報処理装置。   The determination means determines the accuracy distribution so that the accuracy increases in inverse proportion to a distance from a predetermined position on the input surface to a position specified by the user's operation. Item 3. The information processing device according to item 1 or 2. 前記設定手段は、前記精度に比例して前記領域が小さくなるように、前記入力インターフェースを設定することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the setting unit sets the input interface so that the area becomes smaller in proportion to the accuracy. 前記設定手段は、母音と子音とを組み合わせたキーを前記領域として、当該キーを所定の方向に配列したソフトウェアキーボードを、前記入力インターフェースとして設定することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。   5. The setting unit according to claim 1, wherein a key combining a vowel and a consonant is set as the area, and a software keyboard having the keys arranged in a predetermined direction is set as the input interface. The information processing apparatus according to item 1. 前記判定手段は、前記第1の指定位置と第2の指定位置とを結ぶ軌跡が略円弧と一致するか否かを、前記所定の条件の1つとして判定することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。   The determination means determines whether one of the predetermined conditions is whether or not a trajectory connecting the first designated position and the second designated position coincides with a substantially circular arc. 6. The information processing apparatus according to any one of items 1 to 5. 前記判定手段は、前記第1の指定位置と第2の指定位置とを対角の頂点とする矩形の面積が所定のしきい値を超えているか否かを、前記所定の条件の1つとして判定することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。   The determination means determines whether one of the predetermined conditions is whether a rectangular area having the first designated position and the second designated position as diagonal vertices exceeds a predetermined threshold value. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined. ユーザの操作により指定された位置を検知可能な入力面を備え、当該指定された位置に基づいて情報の入力が可能な情報処理装置の制御方法であって、
前記入力面における任意の位置でユーザの操作が検知された場合、当該入力面によって検知された第1の指定位置と、当該ユーザの操作が当該入力面に沿って移動することによってさらに検知された第2の指定位置とを結ぶ軌跡が、所定の条件を満たしているか否かを判定する判定ステップと、
前記判定ステップにおいて判定された結果に応じて、前記ユーザの操作により入力面における位置が指定される精度の分布を決定する決定ステップと、
前記決定ステップにおいて決定された精度の分布に応じて、入力する情報を指定可能な領域の大きさを異ならせた入力インターフェースを設定する設定ステップとを含むことを特徴とする情報処理装置の制御方法。
An information processing apparatus control method comprising an input surface capable of detecting a position designated by a user operation and capable of inputting information based on the designated position,
When a user operation is detected at an arbitrary position on the input surface, the first designated position detected by the input surface and further detected by moving the user operation along the input surface. A determination step of determining whether or not a trajectory connecting the second designated position satisfies a predetermined condition;
A determination step for determining a distribution of accuracy in which a position on the input surface is designated by an operation of the user according to a result determined in the determination step;
And a setting step for setting an input interface in which the size of the area where the information to be input can be specified is changed according to the accuracy distribution determined in the determination step. .
請求項1から7のいずれか1項に記載の情報処理装置を動作させるための制御プログラムであって、コンピュータを前記各手段として機能させるための制御プログラム。   A control program for operating the information processing apparatus according to any one of claims 1 to 7, wherein the control program causes a computer to function as each of the means. 請求項9に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the control program according to claim 9 is recorded.
JP2012167666A 2012-07-27 2012-07-27 Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium Pending JP2014027561A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012167666A JP2014027561A (en) 2012-07-27 2012-07-27 Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012167666A JP2014027561A (en) 2012-07-27 2012-07-27 Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium

Publications (1)

Publication Number Publication Date
JP2014027561A true JP2014027561A (en) 2014-02-06

Family

ID=50200801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012167666A Pending JP2014027561A (en) 2012-07-27 2012-07-27 Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2014027561A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153289A (en) * 2014-02-18 2015-08-24 学校法人日本大学 Information processing apparatus, information processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153289A (en) * 2014-02-18 2015-08-24 学校法人日本大学 Information processing apparatus, information processing method and program

Similar Documents

Publication Publication Date Title
US10359932B2 (en) Method and apparatus for providing character input interface
US20190369817A1 (en) Information processing apparatus
US9116616B2 (en) Portable electronic device and method of controlling same
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
US10379626B2 (en) Portable computing device
US9354805B2 (en) Method and apparatus for text selection
JP2013238935A (en) Input device, input device controlling method, controlling program, and recording medium
US20140152585A1 (en) Scroll jump interface for touchscreen input/output device
KR20140073245A (en) Method for inputting back surface and an electronic device thereof
US20150363095A1 (en) Method of arranging icon and electronic device supporting the same
JP2011034494A (en) Display apparatus, information input method, and program
TWI482064B (en) Portable device and operating method thereof
JP6017995B2 (en) Portable information processing apparatus, input method thereof, and computer-executable program
JPWO2012161237A1 (en) Information processing apparatus and control method thereof
JP2010218286A (en) Information processor, program, and display method
CN108351758A (en) Electronic equipment for showing more pictures and its control method
US9244556B2 (en) Display apparatus, display method, and program
JP6057441B2 (en) Portable device and input method thereof
EP2741194A1 (en) Scroll jump interface for touchscreen input/output device
JP2014045387A (en) Input device, method of controlling input device, control program, and recording medium
JP2014027561A (en) Information processing apparatus, method of controlling information processing apparatus, control program, and recording medium
KR101561783B1 (en) Method for inputing characters on touch screen of terminal
JP2013182342A (en) Input device, method and program of controlling input device, and recording medium
KR101434419B1 (en) Apparatus and Method for Inputting Korean Based On Dreg
US20150091831A1 (en) Display device and display control method