JP2014167712A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2014167712A
JP2014167712A JP2013039253A JP2013039253A JP2014167712A JP 2014167712 A JP2014167712 A JP 2014167712A JP 2013039253 A JP2013039253 A JP 2013039253A JP 2013039253 A JP2013039253 A JP 2013039253A JP 2014167712 A JP2014167712 A JP 2014167712A
Authority
JP
Japan
Prior art keywords
input
information processing
touch panel
processing apparatus
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013039253A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kamiyama
義之 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2013039253A priority Critical patent/JP2014167712A/en
Publication of JP2014167712A publication Critical patent/JP2014167712A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to input a letter to a software key in a desired input mode without performing special operation to switch an input mode.SOLUTION: An information processing device includes: a detecting part which detects proximity or contact of an object to a touch panel; a selecting part which selects one of a plurality of input modes based on the detection result; and a reception part which receives an input of a letter by the selected input mode corresponding to the detection result.

Description

本発明は、情報処理装置、情報処理装置およびプログラムに関し、例えば、ソフトウェアキーによる文字入力機能を備えたスマートフォン、タブレット端末、ノートPC(Personal Computer)その他の情報処理装置、ユーザによる情報処理装置への入力操作の処理方法、および、プログラムに関する。   The present invention relates to an information processing device, an information processing device, and a program. For example, a smartphone, a tablet terminal, a notebook computer (Personal Computer) or other information processing device having a character input function using software keys, and an information processing device by a user. The present invention relates to an input operation processing method and a program.

スマートフォンの登場により、ユーザがタッチパネルに表示されたテンキー(ソフトウェアキー)に対して指先やタッチペンなどで接触(タッチ)することによる文字入力が主流となってきている。   With the advent of smartphones, character input by a user touching (touching) a numeric keypad (software key) displayed on a touch panel with a fingertip or a touch pen has become mainstream.

関連技術として、特許文献1には、ユーザからのタッチパネル画面の切り替え指示を検知すると、ソフトウェアキーを本文に重ねて表示する携帯端末が記載されている。   As a related technique, Patent Literature 1 describes a portable terminal that displays a software key superimposed on a text when detecting a touch panel screen switching instruction from a user.

また、特許文献2には、操作者の指または物体が表示画面に一定の面積未満の面積で接触している場合、および、指または物体がと表示画面との距離が一定距離以内かつ非接触の場合、ハードウェアキーの半押しに相当する半入力状態と判別する入力装置が記載されている。   Patent Document 2 discloses that when the operator's finger or object is in contact with the display screen in an area less than a certain area, and the distance between the finger or object and the display screen is within a certain distance and non-contact In this case, an input device for determining a half-input state corresponding to half-press of a hardware key is described.

さらに、特許文献3には、1つのキー項目に複数の選択候補キーが割り当てられている文字入力をタッチパネルで行う場合に、指の接近を検出すると、複数の選択候補キーを表示することで、ユーザが候補キーを視認できるようにした情報入力装置が記載されている。   Furthermore, in Patent Document 3, when the touch of a finger is detected when character input in which a plurality of selection candidate keys are assigned to one key item is performed on the touch panel, a plurality of selection candidate keys are displayed. An information input device that allows a user to visually recognize a candidate key is described.

特開2009−288873号公報JP 2009-288873 A 国際公開第2011/108291号International Publication No. 2011/108291 特開2011−215937号公報JP 2011-215937 A

上記の特許文献の全開示内容は、本書に引用をもって繰り込み記載されているものとする。以下の分析は、本発明者によってなされたものである。   The entire disclosure of the above patent document is incorporated herein by reference. The following analysis was made by the present inventors.

上述のように、スマートフォンの登場により、ソフトウェアキーを用いた文字入力が主流となっている。ソフトウェアキーの操作において入力される文字の種別を変更する(例えば、入力モードを「ひらがな入力モード」から「英字入力モード」に切り替える)場合、関連技術によると、ユーザは予め用意された専用のソフトウェアキーを押下する必要がある。しかしながら、文字入力はユーザが頻繁に行う操作であるため、入力モードを切り替える都度、所定のタッチ操作を行うことは、ユーザにとって煩雑であるという問題がある。   As described above, with the advent of smartphones, character input using software keys has become mainstream. When changing the type of characters to be input in the software key operation (for example, switching the input mode from “Hiragana input mode” to “English input mode”), according to the related technology, the user has prepared a dedicated software prepared in advance. It is necessary to press a key. However, since character input is an operation frequently performed by the user, there is a problem that performing a predetermined touch operation every time the input mode is switched is complicated for the user.

例えば、特許文献1に記載された携帯端末によると、ユーザは各入力モードに対応する複数のソフトウェアキーの中から所望のソフトウェアキー(例えば、漢字入力モードのソフトウェアキー)を選択するために、所望のソフトウェアキーのタブに接触する必要がある。したがって、特許文献1に記載された携帯端末によると、ユーザは入力モードを切り替えるためにタッチパネルへのタッチ操作を行う必要があり、文字の入力操作が煩雑となる。   For example, according to the portable terminal described in Patent Document 1, the user can select a desired software key (for example, a software key for the Chinese character input mode) from a plurality of software keys corresponding to each input mode. Need to touch the software key tab. Therefore, according to the portable terminal described in Patent Document 1, the user needs to perform a touch operation on the touch panel to switch the input mode, and the character input operation becomes complicated.

特許文献2に記載された表示装置によると、ソフトウェアキーに基づいて入力ボタンに対する半入力状態の検出を可能とし、半入力状態の入力ボタンを強調表示(色の反転、拡大)することで、ユーザによる入力ボタンの操作ミスを防ぐことができる。また、特許文献3に記載された情報入力装置によると、特定の入力モード(例えば、ひらがな入力モード)において、指の接近の検出に応じて1つのキー(例えば、「ら」)に割当てられた複数の選択候補キー(例えば、「り」、「る」、「れ」、「ろ」)が表示される。しかし、特許文献2、3に記載された技術によると、入力モード自体が切り替わることがないため、上述の問題を解消することはできない。   According to the display device described in Patent Literature 2, it is possible to detect a half-input state with respect to an input button based on a software key, and to highlight the input button in the half-input state (reversal of color, enlargement), thereby enabling a user It is possible to prevent an input button operation error due to. Further, according to the information input device described in Patent Document 3, in a specific input mode (for example, hiragana input mode), it is assigned to one key (for example, “ra”) in response to detection of the approach of a finger. A plurality of selection candidate keys (for example, “RI”, “RU”, “RE”, “RO”) are displayed. However, according to the techniques described in Patent Documents 2 and 3, since the input mode itself is not switched, the above-described problem cannot be solved.

そこで、ユーザが入力モードを切り替えるために特別な操作を行うことなく、ソフトウェアキーに対して所望の入力モードで文字を入力できるようにすることが要望される。本発明の目的は、かかる要望に寄与する情報処理装置、情報処理方法およびプログラムを提供することにある。   Therefore, it is desired that the user can input characters in a desired input mode without performing a special operation for switching the input mode. The objective of this invention is providing the information processing apparatus, the information processing method, and program which contribute to this request.

本発明の第1の視点に係る情報処理装置は、
タッチパネルへの対象物の近接ないし接触を検出する検出部と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する選択部と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける受付部と、を備える。
An information processing apparatus according to the first aspect of the present invention provides:
A detection unit for detecting proximity or contact of an object to the touch panel;
A selection unit that selects one of a plurality of input modes based on the detection result;
A reception unit that receives input of characters in the selected input mode according to the detection result.

本発明の第2の視点に係る情報処理方法は、
情報処理装置が、タッチパネルへの対象物の近接ないし接触を検出する工程と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する工程と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける工程と、を含む。
An information processing method according to the second aspect of the present invention includes:
A process in which the information processing device detects proximity or contact of an object to the touch panel;
Selecting one of a plurality of input modes based on the detection result;
Receiving a character input in the selected input mode according to the detection result.

本発明の第3の視点に係るプログラムは、
タッチパネルへの対象物の近接ないし接触を検出する処理と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する処理と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける処理と、をコンピュータに実行させる。
なお、プログラムは、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)に記録されたプログラム製品として提供することができる。
The program according to the third aspect of the present invention is:
A process for detecting proximity or contact of an object to the touch panel;
A process of selecting one of a plurality of input modes based on the detection result;
Processing for accepting input of characters in the selected input mode according to the detection result is executed by a computer.
The program can be provided as a program product recorded on a non-transitory computer-readable storage medium.

本発明に係る情報処理装置、情報処理方法およびプログラムによると、ユーザが入力モードを切り替えるために特別な操作を行うことなく、所望の入力モードでソフトウェアキーに対して文字を入力することが可能となる。   According to the information processing apparatus, the information processing method, and the program according to the present invention, the user can input characters to the software key in a desired input mode without performing a special operation to switch the input mode. Become.

第1の実施形態に係る情報処理装置の構成を一例として示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on 1st Embodiment as an example. 第2の実施形態に係る情報処理装置の構成を一例として示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on 2nd Embodiment as an example. 第2の実施形態に係る情報処理装置に対する入力操作を模式的に示す図である。It is a figure which shows typically input operation with respect to the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置の動作を一例として示すフロー図である。It is a flowchart which shows operation | movement of the information processing apparatus which concerns on 2nd Embodiment as an example. 第2の実施形態に係る情報処理装置の指紋センサの動作について説明するための図である。It is a figure for demonstrating operation | movement of the fingerprint sensor of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置の送風動作について説明するための図である。It is a figure for demonstrating the ventilation operation | movement of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置における送風動作について説明するための図である。It is a figure for demonstrating the ventilation operation | movement in the information processing apparatus which concerns on 2nd Embodiment.

(実施形態1)
第1の実施形態に係る情報処理装置について、図面を参照して説明する。図1は、本実施形態に係る情報処理装置の構成を一例として示すブロック図である。図1を参照すると、情報処理装置10は、検出部12、選択部14および受付部16を備えている。
(Embodiment 1)
An information processing apparatus according to a first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an example of the configuration of the information processing apparatus according to the present embodiment. Referring to FIG. 1, the information processing apparatus 10 includes a detection unit 12, a selection unit 14, and a reception unit 16.

検出部12は、タッチパネル(図1において、非図示)への対象物(例えば、ユーザの指先、タッチペンその他のスタイラスなど)の近接ないし接触を検出する。   The detection unit 12 detects proximity or contact of an object (for example, a user's fingertip, touch pen, or other stylus) to a touch panel (not shown in FIG. 1).

選択部14は、検出部12による検出結果に従って、複数の入力モードのうちの1つを選択する。   The selection unit 14 selects one of a plurality of input modes according to the detection result by the detection unit 12.

入力モードとして、例えば、ひらがな入力モード、漢字入力モード、英字入力モード、数字入力モード、および、これらの入力モードから選択した複数の入力モードの組み合わせ(例えば、ひらがな/漢字入力モード、英数字入力モード)が考えられる。ただし、入力モードは、これらの入力モードに限定されず、半角/全角入力モード、シフト入力モードなどと組み合わせてもよい。   As input modes, for example, hiragana input mode, kanji input mode, alphabetic input mode, number input mode, and combinations of a plurality of input modes selected from these input modes (for example, hiragana / kanji input mode, alphanumeric input mode ) Is considered. However, the input mode is not limited to these input modes, and may be combined with a half-width / full-width input mode, a shift input mode, or the like.

受付部16は、選択部14が選択した入力モードにおける文字の入力を、検出部12による検出結果に応じて受け付ける。例えば、選択部14が選択した入力モードがひらがな入力モードであれば、受付部16は、検出部12による検出結果に応じてひらがな(例えば「あ」)を受け付ける。検出部12よる検出結果は、接触または近接のいずれが行われたのかを示す情報、接触または近接が行われたタッチパネル上の位置を示す情報などを含むことが好ましい。なお、受付部16は、受け付けた文字をタッチパネルに表示してもよい。   The accepting unit 16 accepts input of characters in the input mode selected by the selecting unit 14 according to the detection result by the detecting unit 12. For example, if the input mode selected by the selection unit 14 is the hiragana input mode, the reception unit 16 receives hiragana (for example, “A”) according to the detection result by the detection unit 12. The detection result by the detection unit 12 preferably includes information indicating whether contact or proximity is performed, information indicating a position on the touch panel where contact or proximity is performed, and the like. In addition, the reception part 16 may display the received character on a touch panel.

検出部12よる検出内容、および、選択部14によって選択される入力モードの種類や個数に応じて、入力モードの選択方法として様々な態様が考えられる。以下、検出部12および選択部14の動作について例示する。   Various modes can be considered as input mode selection methods depending on the detection contents by the detection unit 12 and the type and number of input modes selected by the selection unit 14. Hereinafter, operations of the detection unit 12 and the selection unit 14 will be exemplified.

選択部14は、対象物(指、スタイラスなど)がタッチパネルに近接したか、または接触したかに基づいて、複数の入力モードのうちの1つを選択するようにしてもよい。例えば、入力モードが2種類である場合、選択部14は、検出部12が対象物の近接を検出したときには第1の入力モードを選択し、検出部12が対象物の接触を検出したときには第2の入力モードを選択するようにしてもよい。   The selection unit 14 may select one of a plurality of input modes based on whether an object (finger, stylus, etc.) is close to or touches the touch panel. For example, when there are two types of input modes, the selection unit 14 selects the first input mode when the detection unit 12 detects the proximity of the object, and selects the first input mode when the detection unit 12 detects the contact of the object. Two input modes may be selected.

また、検出部12は、対象物がタッチパネルに接触した面積を検出するようにしてもよい。このとき、選択部14は、検出部12によって検出された面積に基づいて、複数の入力モードのうちの1つを選択するようにしてもよい。例えば、選択部14は、検出部12よって検出された面積が所定の面積以上であるか否かに基づいて、入力モードを選択するようにしてもよい。   Moreover, you may make it the detection part 12 detect the area which the target object contacted the touch panel. At this time, the selection unit 14 may select one of a plurality of input modes based on the area detected by the detection unit 12. For example, the selection unit 14 may select the input mode based on whether or not the area detected by the detection unit 12 is greater than or equal to a predetermined area.

さらに、検出部12は、対象物がユーザの指先である場合、指先がタッチパネルに接触した箇所の指紋の有無を検出するようにしてもよい。このとき、選択部14は、指紋の有無に基づいて、複数の入力モードのうちの1つを選択するようにしてもよい。   Furthermore, when the object is the user's fingertip, the detection unit 12 may detect the presence or absence of a fingerprint at a location where the fingertip touches the touch panel. At this time, the selection unit 14 may select one of a plurality of input modes based on the presence or absence of a fingerprint.

また、検出部12は、対象物がユーザの指またはスタイラスのいずれであるかを検出するようにしてもよい。このとき、選択部14は、対象物が指またはスタイラスのいずれであるかに基づいて、複数の入力モードのうちの1つを選択するようにしてもよい。   Moreover, you may make it the detection part 12 detect whether a target object is a user's finger | toe or a stylus. At this time, the selection unit 14 may select one of a plurality of input modes based on whether the object is a finger or a stylus.

さらに、情報処理装置10は、ユーザの複数の指の指紋を保持する記憶部(図1において非図示)をさらに備えていてもよい。このとき、検出部12は、ユーザの指先がタッチパネルに接触した箇所の指紋を検出するとともに、検出した指紋と記憶部に記録された指紋とを照合し、当該指先に対応する指が複数の指のいずれであるかを検出するようにしてもよい。また、選択部14は、複数の指のいずれであるかに基づいて、複数の入力モードのうちの1つを選択するようにしてもよい。   Furthermore, the information processing apparatus 10 may further include a storage unit (not shown in FIG. 1) that holds fingerprints of a plurality of fingers of the user. At this time, the detection unit 12 detects a fingerprint at a location where the user's fingertip touches the touch panel, collates the detected fingerprint with the fingerprint recorded in the storage unit, and the finger corresponding to the fingertip has a plurality of fingers. It may be detected which one of the following. The selection unit 14 may select one of a plurality of input modes based on which of the plurality of fingers is selected.

以上、検出部12および選択部14の動作について例示したが、検出部12および選択部14の動作はこれらに限定されない。例えば、選択部14は、検出部12よる複数の検出結果の組合せに基づいて、入力モードを選択するようにしてもよい。一例として、入力モードが3種類の場合、選択部14は、検出部12が対象物の近接を検出した場合には第1の入力モードを選択し、検出部12が対象物の接触を検出するとともに接触部の面積が所定の面積以上である場合には第2の入力モードを選択し、検出部12が対象物の接触を検出するとともに接触部の面積が所定の面積未満である場合には第3の入力モードを選択するようにしてもよい。   As mentioned above, although operation | movement of the detection part 12 and the selection part 14 was illustrated, operation | movement of the detection part 12 and the selection part 14 is not limited to these. For example, the selection unit 14 may select the input mode based on a combination of a plurality of detection results from the detection unit 12. As an example, when there are three input modes, the selection unit 14 selects the first input mode when the detection unit 12 detects the proximity of the object, and the detection unit 12 detects the contact of the object. When the area of the contact part is equal to or larger than the predetermined area, the second input mode is selected, and when the detection part 12 detects the contact of the object and the area of the contact part is less than the predetermined area, The third input mode may be selected.

情報処理装置10によると、選択部14が検出部12よる検出結果に基づいて複数の入力モードのうちの1つの入力モードを選択するとともに、受付部16が選択された入力モードにおける文字の入力を当該検出結果に応じて受け付ける。情報処理装置10によると、ユーザが入力モードを切り替えるために特別な操作を行うことなく、所望の入力モードでソフトウェアキーに対して文字を入力することが可能となる。   According to the information processing apparatus 10, the selection unit 14 selects one input mode from the plurality of input modes based on the detection result by the detection unit 12, and the character input in the input mode in which the reception unit 16 is selected. Accept according to the detection result. According to the information processing apparatus 10, it is possible for a user to input characters to a software key in a desired input mode without performing a special operation for switching the input mode.

(実施形態2)
第2の実施形態に係る情報処理装置について、図面を参照して説明する。ここでは、一例として、情報処理装置がスマートフォンである場合について説明する。ただし、情報処理装置は、携帯電話、スマートフォン等に限定されず、ゲーム機、タブレットPC(Personal Computer)、ノートPC、PDA(Personal Data Assistants:携帯情報端末)などの情報処理装置であってもよい。
(Embodiment 2)
An information processing apparatus according to the second embodiment will be described with reference to the drawings. Here, a case where the information processing apparatus is a smartphone will be described as an example. However, the information processing apparatus is not limited to a mobile phone, a smartphone, or the like, and may be an information processing apparatus such as a game machine, a tablet PC (Personal Computer), a notebook PC, or a PDA (Personal Data Assistants). .

図2は、本実施形態に係る情報処理装置20の構成を一例として示すブロック図である。図2を参照すると、情報処理装置20は、アンテナ21と、無線通信部22と、通話機能部23と、タッチパネル24と、近接センサ26および指紋センサ27を含む検出部28と、非接触タップ制御部31およびタップ種別判別部32を含む選択部33と、送風部34と、受付部35と、出力部36とを備えている。   FIG. 2 is a block diagram illustrating an example of the configuration of the information processing apparatus 20 according to the present embodiment. Referring to FIG. 2, the information processing apparatus 20 includes an antenna 21, a wireless communication unit 22, a call function unit 23, a touch panel 24, a detection unit 28 including a proximity sensor 26 and a fingerprint sensor 27, and non-contact tap control. A selection unit 33 including a unit 31 and a tap type determination unit 32, a blower unit 34, a reception unit 35, and an output unit 36.

無線通信部22は、アンテナ21を介して基地局その他の外部の装置(非図示)と情報処理装置20との間におけるデータのやりとりを行う。通話機能部23は、ユーザに対して通話機能を提供する。   The wireless communication unit 22 exchanges data between the base station and other external devices (not shown) and the information processing device 20 via the antenna 21. The call function unit 23 provides a call function to the user.

タッチパネル24は、タッチパネル型のディスプレイ装置である。   The touch panel 24 is a touch panel type display device.

近接センサ26は、ユーザが指によって非接触のタップ動作を試みた場合、指がタッチパネル24に近づいたことを感知する。また、近接センサ26は、指とタッチパネル24との距離を検出する。さらに、近接センサ26は、タッチパネル24上の指が近接した位置を検出する。   The proximity sensor 26 detects that the finger has approached the touch panel 24 when the user attempts a non-contact tap operation with the finger. The proximity sensor 26 detects the distance between the finger and the touch panel 24. Further, the proximity sensor 26 detects the position where the finger on the touch panel 24 approaches.

記憶部25は、ユーザの指と指紋とを対応付けて保持する。   The storage unit 25 holds the user's finger and fingerprint in association with each other.

指紋センサ27は、タッチパネル24に接触(タッチ)したユーザの指紋の有無を検出する。また、指紋センサ27は、ユーザの指先とタッチパネル24との接触部の面積が所定の面積以上であるかどうかを判定する。さらに、指紋センサ27は、検出した指紋と、記憶部25に記録された指紋とを照合して、検出した指紋に相当する指がどの指か(例えば、人差し指、中指など)を判別するようにしてもよい。   The fingerprint sensor 27 detects the presence or absence of the fingerprint of the user who has touched (touched) the touch panel 24. The fingerprint sensor 27 determines whether the area of the contact portion between the user's fingertip and the touch panel 24 is equal to or larger than a predetermined area. Further, the fingerprint sensor 27 collates the detected fingerprint with the fingerprint recorded in the storage unit 25 to determine which finger corresponds to the detected fingerprint (for example, index finger, middle finger, etc.). May be.

指紋の有無、および、接触部の面積の大小に基づいて、ユーザがタッチパネル24に指の腹で接触したのか、または、爪先で接触したのかを識別することが可能になる。また、記憶部25に記録された指紋との照合により、入力操作を行った指を判別することができる。   Based on the presence or absence of the fingerprint and the size of the area of the contact portion, it is possible to identify whether the user has touched the touch panel 24 with the belly of the finger or the fingertip. Further, it is possible to determine the finger that has performed the input operation by collating with the fingerprint recorded in the storage unit 25.

以下では、タッチパネル24に対してユーザが指の腹で接触したのか、または、爪先で接触したのかに応じて、入力モードを切り替える場合について説明する。ただし、タッチパネル24に接触した指がどの指であるかに応じて、入力モードを切り替えるようにしてもよい。   Hereinafter, a case will be described in which the input mode is switched depending on whether the user has touched the touch panel 24 with the belly of the finger or the fingertip. However, the input mode may be switched according to which finger is in contact with the touch panel 24.

タップ種別判別部32は、指紋センサ27の検出結果に基づいて、入力モードを選択する。一例として、タップ種別判別部32は、ユーザが指の腹でタッチパネル24に接触した場合、「ひらがな入力モード」を選択し、ユーザが爪先でタッチパネル24に接触した場合、「数字入力モード」を選択して、受付部35に通知する。   The tap type determination unit 32 selects an input mode based on the detection result of the fingerprint sensor 27. As an example, the tap type determination unit 32 selects “Hiragana input mode” when the user touches the touch panel 24 with the finger pad, and selects “number input mode” when the user touches the touch panel 24 with the toe. Then, the reception unit 35 is notified.

非接触タップ制御部31は、近接センサ26の検出結果に基づいて入力モードを選択する。一例として、近接センサ26によりユーザの指が近接したことが検出されると、「英字入力モード」を選択して、受付部35に通知する。また、非接触タップ制御部31は、近接センサ26が指の近接を感知したタッチパネル24上の位置、および、指とタッチパネル24間の距離に応じて、風を吹き出す場所、および、風力を決定して、送風部34に通知する。   The non-contact tap control unit 31 selects an input mode based on the detection result of the proximity sensor 26. As an example, when the proximity sensor 26 detects that the user's finger is approaching, the “alphabet input mode” is selected and notified to the reception unit 35. In addition, the non-contact tap control unit 31 determines a wind blowing location and wind power according to the position on the touch panel 24 where the proximity sensor 26 senses the proximity of the finger and the distance between the finger and the touch panel 24. Then, the air blower 34 is notified.

送風部34は、非接触タップ制御部31から通知された指の近接位置および風力に基づいて、タッチパネル24に設けられた穴のうちの当該近接位置に対応する穴から、当該風力で風を吹き出すように出力部36に指示する。   Based on the proximity position of the finger and the wind force notified from the non-contact tap control unit 31, the blower unit 34 blows out wind with the wind force from the hole corresponding to the proximity position among the holes provided in the touch panel 24. Instruct the output unit 36 as follows.

受付部35は、タップ種別判別部32および非接触タップ制御部31から通知された入力モードで、文字の入力を受け付ける。例えば、ユーザが指の腹でタッチパネル24に接触しながら入力操作を行った場合、受付部35は、当該入力操作に基づいてひらがなの文字入力を受け付ける。一方、ユーザが爪先でタッチパネル24に接触しながら入力操作を行った場合、受付部35は当該入力操作に基づいて数字の文字入力を受け付ける。また、ユーザがタッチパネル24に接触することなくタッチパネル24近傍の空中でタップと同様の入力操作を行った場合、受付部35は当該入力操作に基づいて英字の文字入力を受け付ける。受付部35は、受け付けた文字入力を出力部36に通知する。   The accepting unit 35 accepts input of characters in the input mode notified from the tap type discriminating unit 32 and the non-contact tap control unit 31. For example, when the user performs an input operation while touching the touch panel 24 with the finger pad, the receiving unit 35 receives a hiragana character input based on the input operation. On the other hand, when the user performs an input operation while touching the touch panel 24 with a toe, the reception unit 35 receives a numeric character input based on the input operation. When the user performs an input operation similar to a tap in the air near the touch panel 24 without touching the touch panel 24, the receiving unit 35 receives an English character input based on the input operation. The accepting unit 35 notifies the output unit 36 of the accepted character input.

出力部36は、送風部34からの指示に従って、タッチパネル24に設けられた穴から風を吹き出す。また、出力部36は、受付部35から通知された文字入力に従って、タッチパネル24に文字を表示する。   The output unit 36 blows out air from a hole provided in the touch panel 24 in accordance with an instruction from the blower unit 34. The output unit 36 displays characters on the touch panel 24 in accordance with the character input notified from the reception unit 35.

図3は、ユーザによる文字入力操作の様子を模式的に示す図である。本実施形態では、情報処理装置20は、ソフトウェアキーに基づくテンキー文字入力として、タッチパネル24を指の腹でタップして文字入力行う方法(方法A、図3(a))、タッチパネル24を爪先でタップして文字入力を行う方法(方法B、図3(b))、および、タッチパネル24に接触することなくタッチパネル24の近傍の空中で行われるタップと同様の動作(以下、「非接触タップ」という。)に基づいて文字入力を行う方法(方法C、図3(c))の3種類の方法による入力を受け付ける。   FIG. 3 is a diagram schematically illustrating a character input operation by the user. In the present embodiment, the information processing apparatus 20 performs a method of inputting characters by tapping the touch panel 24 with the belly of a finger as a numeric keypad character input based on software keys (Method A, FIG. 3A), and touching the touch panel 24 with a toe. A method of performing character input by tapping (Method B, FIG. 3B) and an operation similar to a tap performed in the air in the vicinity of the touch panel 24 without touching the touch panel 24 (hereinafter referred to as “non-contact tap”) The input by the three types of methods (method C, FIG. 3C) of inputting characters based on the above is accepted.

情報処理装置20は、方法Aに基づいて「ひらがな入力」を受け付け、方法Bに基づいて「数字入力」を受け付け、方法Cに基づいて「英字入力」を受け付ける。   The information processing apparatus 20 accepts “Hiragana input” based on the method A, accepts “numerical input” based on the method B, and accepts “alphabetic character input” based on the method C.

情報処理装置20によると、入力される文字種別を変更する(すなわち、入力モードを切り替える)ために、ユーザは、わざわざ、専用のソフトウェアキーを操作したり、ハードウェアキーを押下する必要がなくなる。   According to the information processing apparatus 20, in order to change the character type to be input (that is, to switch the input mode), the user does not have to bother to operate a dedicated software key or press a hardware key.

ところで、方法Cに基づく入力操作(すなわち、非接触タップ)は空中で行われるため、ユーザは文字の入力が行われたかどうかを知覚することが困難となる。したがって、方法Cに基づく入力操作が行われた場合、ユーザにクリック操作と同様の操作感を与えること好ましい。そこで、本実施形態では、タッチパネル24上の各キーが表示される箇所に微小な穴を設け、穴から風を送り出す。また、タッチパネル24と指との距離に応じて、穴から吹き出す風の風力を変化させる。穴から吹き出した風をユーザの指先に当てることで、ユーザに対してクリックと同様の操作感を与えることができる。   By the way, since the input operation based on the method C (that is, the non-contact tap) is performed in the air, it is difficult for the user to perceive whether or not a character has been input. Therefore, when an input operation based on the method C is performed, it is preferable to give the user a feeling of operation similar to the click operation. Therefore, in the present embodiment, a minute hole is provided at a position where each key on the touch panel 24 is displayed, and the wind is sent out from the hole. Moreover, the wind force of the wind blown out from the hole is changed according to the distance between the touch panel 24 and the finger. By applying the wind blown out from the hole to the fingertip of the user, it is possible to give the user a feeling of operation similar to clicking.

次に、情報処理装置20(図2)の動作について説明する。図4は、情報処理装置20の動作を一例として示すフロー図である。   Next, the operation of the information processing apparatus 20 (FIG. 2) will be described. FIG. 4 is a flowchart illustrating an operation of the information processing apparatus 20 as an example.

図4を参照すると、ユーザが行う入力操作において、指先がタッチパネル24に接触すると(ステップS1のYes)、指紋センサ27は、ユーザの指先とタッチパネル24の接触部の面積が所定の面積以上であるかを判定するとともに、接触部における指紋の有無を検出する(ステップS2)。   Referring to FIG. 4, in the input operation performed by the user, when the fingertip contacts the touch panel 24 (Yes in step S <b> 1), the fingerprint sensor 27 has an area of the contact portion between the user's fingertip and the touch panel 24 equal to or larger than a predetermined area. And the presence or absence of a fingerprint at the contact portion is detected (step S2).

接触部の面積が所定の面積以上であり、かつ、指紋が存在する場合(ステップS2のYes)、タップ種別判別部32は「ひらがな入力モード」を選択する(ステップS3)。それ以外の場合(ステップS2のNo)、タップ種別判別部32は「数字入力モード」を選択する(ステップS4)。   When the area of the contact portion is equal to or larger than the predetermined area and a fingerprint is present (Yes in step S2), the tap type determination unit 32 selects “Hiragana input mode” (step S3). In other cases (No in step S2), the tap type determination unit 32 selects “numeric input mode” (step S4).

上記入力操作として、指先がタッチパネル24に接触しない非接触タップが行われた場合(ステップS1のNo)、非接触タップ制御部31は「英字入力モード」を選択する(ステップS5)。また、非接触タップ制御部31が送風部34に対して送風を指示することで、ユーザの指先に向けて送風が行われる(ステップS6)。   When a non-contact tap in which the fingertip does not touch the touch panel 24 is performed as the input operation (No in Step S1), the non-contact tap control unit 31 selects “English character input mode” (Step S5). Further, when the non-contact tap control unit 31 instructs the air blowing unit 34 to blow air, air is blown toward the user's fingertip (step S6).

次に、受付部35は、ステップS1における入力操作に基づく文字入力を、ステップS3、S4、S5で選択した入力モードで受け付ける(ステップS7)。文字入力の受け付けが完了すると、情報処理装置20における処理はステップS1に戻る。以下、情報処理装置20は、同様の処理を繰り返すことで、複数の文字の入力を受け付ける。   Next, the accepting unit 35 accepts character input based on the input operation in step S1 in the input mode selected in steps S3, S4, and S5 (step S7). When the acceptance of the character input is completed, the processing in the information processing apparatus 20 returns to step S1. Hereinafter, the information processing apparatus 20 receives input of a plurality of characters by repeating the same processing.

情報処理装置20が図4に示したフロー図に従って動作することにより、ユーザは、ひらがな、数字および英字を含む文字列を入力モードを切り替えるための操作を行うことなく、連続して入力することが可能になる。   When the information processing apparatus 20 operates according to the flowchart shown in FIG. 4, the user can continuously input a character string including hiragana, numerals, and alphabetic characters without performing an operation for switching the input mode. It becomes possible.

次に、図5ないし図7を参照しつつ、情報処理装置20(図2)の動作についてさらに詳細に説明する。   Next, the operation of the information processing apparatus 20 (FIG. 2) will be described in more detail with reference to FIGS.

図5は、ユーザがタッチパネル24に対して指の腹で接触した場合(図5(a))と、爪先で接触した場合(図5(b))における接触部の様子を模式的に示す。   FIG. 5 schematically shows the state of the contact portion when the user touches the touch panel 24 with the belly of the finger (FIG. 5A) and when the user touches with the toe (FIG. 5B).

図5(a)に示すように、指とタッチパネル24との接触部の面積が所定の面積以上であり、かつ、指紋が存在する場合(図4のステップS2のYes)、指紋センサ27は、ユーザが指の腹でタッチパネル24をタップしたものと判定する。一方、図5(b)に示すように、タッチパネル24へのタップ面積が所定の面積未満であるか、または、指紋が存在しない場合(図4のステップS2のNo)、指紋センサ27は、ユーザが爪先でタップしたものと判定する。   As shown in FIG. 5A, when the area of the contact portion between the finger and the touch panel 24 is equal to or larger than a predetermined area and a fingerprint is present (Yes in step S2 in FIG. 4), the fingerprint sensor 27 is It is determined that the user has tapped the touch panel 24 with the belly of the finger. On the other hand, as shown in FIG. 5B, when the tap area to the touch panel 24 is less than a predetermined area or when there is no fingerprint (No in step S2 in FIG. 4), the fingerprint sensor 27 is Is determined to have been tapped with a toe.

図6は、近接センサ26、非接触タップ制御部31および送風部34による送風動作について説明するための図である。図6に示すように、近接センサ26は、タッチパネル24の表面から垂直方向への距離D1以内に指先が存在することを検出する。また、近接センサ26は、指先がタッチパネル24の表面から距離D2(D2<D1)よりも離れているか否かを検出する。近接センサ26の感度に応じて、距離D1およびD2として適切な値を設定しておく。   FIG. 6 is a diagram for explaining a blowing operation by the proximity sensor 26, the non-contact tap control unit 31, and the blowing unit 34. As shown in FIG. 6, the proximity sensor 26 detects the presence of a fingertip within a distance D <b> 1 in the vertical direction from the surface of the touch panel 24. Further, the proximity sensor 26 detects whether or not the fingertip is separated from the surface of the touch panel 24 by a distance D2 (D2 <D1). Depending on the sensitivity of the proximity sensor 26, appropriate values are set as the distances D1 and D2.

図6(a)に示すように、指先とタッチパネル24の表面との距離がD1より大きい場合、近接センサ26により指先が検出されない。このとき、非接触タップ制御部31は、送風部34に対して送風の指示を行わない。   As shown in FIG. 6A, when the distance between the fingertip and the surface of the touch panel 24 is larger than D1, the fingertip is not detected by the proximity sensor 26. At this time, the non-contact tap control unit 31 does not instruct the air blowing unit 34 to send air.

図6(b)、(c)に示すように、指先とタッチパネル24との距離がD1以内かつD2以上となると、非接触タップ制御部31は、送風部34に対して送風を指示する。また、図6(b)、(c)に示すように、指先とタッチパネル24との距離が短くなるに従って、非接触タップ制御部31はより強い風を吹き出すように送風部34に指示する。   As shown in FIGS. 6B and 6C, when the distance between the fingertip and the touch panel 24 is within D1 and equal to or greater than D2, the non-contact tap control unit 31 instructs the blowing unit 34 to blow air. Further, as shown in FIGS. 6B and 6C, the non-contact tap control unit 31 instructs the air blowing unit 34 to blow stronger wind as the distance between the fingertip and the touch panel 24 becomes shorter.

ユーザが、空中で指を動かして非接触タップを行った場合、例えば、図6(b)→(c)→(b)の動作が繰り返されることになり、ボタンをじかにクリック操作する際の操作感をユーザに与えることができる。   When the user performs a non-contact tap by moving his / her finger in the air, for example, the operations shown in FIGS. 6 (b) → (c) → (b) will be repeated. A feeling can be given to the user.

なお、図6(d)に示すように、ユーザの指先が非接触タップ動作を行うことなくタッチパネル24に接触した場合、すなわち、指先とタッチパネル24との距離が単調に減少して指先がタッチパネル24に接触した場合、非接触タップ制御部31は、ユーザが直接タッチパネル24をタップする動作に基づいて入力操作を行っていると判定する。このとき、非接触タップ制御部31は送風部34に対して送風を指示しない。   As shown in FIG. 6D, when the user's fingertip touches the touch panel 24 without performing a non-contact tap operation, that is, the distance between the fingertip and the touch panel 24 decreases monotonously, and the fingertip touches the touch panel 24. When the contact is made, the non-contact tap control unit 31 determines that the user is performing an input operation based on an operation of directly tapping the touch panel 24. At this time, the non-contact tap control unit 31 does not instruct the blowing unit 34 to blow.

図7は、情報処理装置20のタッチパネル24の構成を一例として示す図である。図7を参照すると、タッチパネル24には、ソフトウェアキーの各キーが表示される箇所に微小な穴が設けられている。各穴は、タッチパネル24の背面に設けられた送風用のパイプ41を経由して送風部34に繋がっている。また、各穴には、穴を塞ぐための蓋42が設けられている。非接触タップ制御部31は、近接センサ26から受け取った情報に基づいて、いずれの穴から送風すべきかを判別し、判別した穴に設けられた蓋42を開くように制御する。また、送風部34は、非接触タップ制御部31から指示された風力で風を吹き出す。   FIG. 7 is a diagram illustrating a configuration of the touch panel 24 of the information processing apparatus 20 as an example. Referring to FIG. 7, the touch panel 24 is provided with a minute hole at a position where each key of the software key is displayed. Each hole is connected to the blower 34 via a blower pipe 41 provided on the back surface of the touch panel 24. Each hole is provided with a lid 42 for closing the hole. Based on the information received from the proximity sensor 26, the non-contact tap control unit 31 determines which hole the air should be blown from and controls to open the lid 42 provided in the determined hole. Further, the air blowing unit 34 blows out wind with the wind force instructed from the non-contact tap control unit 31.

本実施形態の情報処理装置20によると、ユーザは専用のソフトウェアキーを操作することなく、入力される文字種別を切り換えることができる。その理由は、情報処理装置20では、指の腹を用いたタップ操作、爪先を用いたタップ操作、および、非接触タップ操作を、それぞれ、異なる入力モードにおける入力操作として受け付けることができるからである。   According to the information processing apparatus 20 of this embodiment, the user can switch the character type to be input without operating a dedicated software key. The reason is that the information processing apparatus 20 can accept a tap operation using the belly of a finger, a tap operation using a toe, and a non-contact tap operation as input operations in different input modes. .

また、本実施形態の情報処理装置20によると、非接触タップ操作に基づいて入力を行うユーザに対して、クリック動作と同様の操作感を与えることができる。その理由は、情報処理装置20では、非接触タップ操作を受け付けると、ユーザの指とタッチパネルとの距離に応じて風力を制御しつつユーザの指に風を吹き付けるからである。   Further, according to the information processing apparatus 20 of the present embodiment, it is possible to give the same operational feeling as the click operation to the user who performs input based on the non-contact tap operation. The reason is that when the non-contact tap operation is accepted, the information processing apparatus 20 blows wind on the user's finger while controlling the wind according to the distance between the user's finger and the touch panel.

なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   It should be noted that the disclosures of the above patent documents are incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiment can be changed and adjusted based on the basic technical concept. Further, various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment, each element of each drawing, etc.) are possible within the scope of the claims of the present invention. It is. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical value or small range included in the range should be construed as being specifically described even if there is no specific description.

なお、本発明において、付記として記載する以下の形態が可能である。
[付記1]
上記第1の視点に係る情報処理装置のとおりである。
[付記2]
前記選択部は、前記対象物が前記タッチパネルに近接したか、または接触したかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記1に記載の情報処理装置。
[付記3]
前記検出部は、前記対象物が前記タッチパネルに接触した面積を検出し、
前記選択部は、前記検出された面積に基づいて、前記複数の入力モードのうちの1つを選択する、
付記1または2に記載の情報処理装置。
[付記4]
前記検出部は、前記対象物がユーザの指先である場合、該指先が前記タッチパネルに接触した箇所の指紋の有無を検出し、
前記選択部は、前記指紋の有無に基づいて、前記複数の入力モードのうちの1つを選択する、
付記1ないし3のいずれか一に記載の情報処理装置。
[付記5]
前記検出部は、前記対象物がユーザの指またはスタイラスのいずれであるかを検出し、
前記選択部は、前記対象物が指またはスタイラスのいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記1ないし4のいずれか一に記載の情報処理装置。
[付記6]
ユーザの複数の指の指紋を保持する記憶部をさらに備え、
前記検出部は、前記ユーザの指先が前記タッチパネルに接触した箇所の指紋を検出するとともに、検出した指紋と前記記憶部に記録された指紋とを照合し、該指先に対応する指が前記複数の指のいずれであるかを検出し、
前記選択部は、前記複数の指のいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記1ないし5のいずれか一に記載の情報処理装置。
[付記7]
前記複数の入力モードは、ひらがな入力モード、漢字入力モード、英字入力モード、数字入力モード、および、これらの入力モードから選択した複数の入力モードの組み合わせのうちの少なくともいずれかを含む、
付記1ないし6のいずれか一に記載の情報処理装置。
[付記8]
タッチパネルを貫通するように設けられた穴から風を吹き出す送風部を備え、
前記検出部は、前記対象物とタッチパネルとの距離を検出し、
前記送風部は、前記検出された距離に応じた強度で前記穴から前記対象物に向けて風を吹き出す、
付記1ないし7のいずれか一に記載の情報処理装置。
[付記9]
前記送風部は、前記検出された距離が短くなるに従って強い風を吹き出す、
付記8に記載の情報処理装置。
[付記10]
上記第2の視点に係る情報処理方法のとおりである。
[付記11]
前記選択工程において、前記対象物が前記タッチパネルに近接したか、または接触したかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記10に記載の情報処理方法。
[付記12]
前記検出工程において、前記対象物が前記タッチパネルに接触した面積を検出し、
前記選択工程において、前記検出された面積に基づいて、前記複数の入力モードのうちの1つを選択する、
付記10または11に記載の情報処理方法。
[付記13]
前記検出工程において、前記対象物がユーザの指先である場合、該指先が前記タッチパネルに接触した箇所の指紋の有無を検出し、
前記選択工程において、前記指紋の有無に基づいて、前記複数の入力モードのうちの1つを選択する、
付記10ないし12のいずれか一に記載の情報処理方法。
[付記14]
前記検出工程において、前記対象物がユーザの指またはスタイラスのいずれであるかを検出し、
前記選択工程において、前記対象物が指またはスタイラスのいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記10ないし13のいずれか一に記載の情報処理方法。
[付記15]
ユーザの複数の指の指紋を記憶部に保持する工程をさらに含み、
前記検出工程において、前記ユーザの指先が前記タッチパネルに接触した箇所の指紋を検出するとともに、検出した指紋と前記記憶部に記録された指紋とを照合し、該指先に対応する指が前記複数の指のいずれであるかを検出し、
前記選択工程において、前記複数の指のいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記10ないし14のいずれか一に記載の情報処理方法。
[付記16]
前記複数の入力モードは、ひらがな入力モード、漢字入力モード、英字入力モード、数字入力モード、および、これらの入力モードから選択した複数の入力モードの組み合わせのうちの少なくともいずれかを含む、
付記10ないし15のいずれか一に記載の情報処理方法。
[付記17]
上記第3の視点に係るプログラムのとおりである。
[付記18]
前記選択処理において、前記対象物が前記タッチパネルに近接したか、または接触したかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記17に記載のプログラム。
[付記19]
前記検出処理において、前記対象物が前記タッチパネルに接触した面積を検出し、
前記選択処理において、前記検出された面積に基づいて、前記複数の入力モードのうちの1つを選択する、
付記17または18に記載のプログラム。
[付記20]
前記検出処理において、前記対象物がユーザの指先である場合、該指先が前記タッチパネルに接触した箇所の指紋の有無を検出し、
前記選択処理において、前記指紋の有無に基づいて、前記複数の入力モードのうちの1つを選択する、
付記17ないし19のいずれか一に記載のプログラム。
[付記21]
前記検出処理において、前記対象物がユーザの指またはスタイラスのいずれであるかを検出し、
前記選択処理において、前記対象物が指またはスタイラスのいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記17ないし20のいずれか一に記載のプログラム。
[付記22]
ユーザの複数の指の指紋を記憶部に保持する処理をさらに前記コンピュータに実行させ、
前記検出処理において、前記ユーザの指先が前記タッチパネルに接触した箇所の指紋を検出するとともに、検出した指紋と前記記憶部に記録された指紋とを照合し、該指先に対応する指が前記複数の指のいずれであるかを検出し、
前記選択処理において、前記複数の指のいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
付記17ないし21のいずれか一に記載のプログラム。
[付記23]
前記複数の入力モードは、ひらがな入力モード、漢字入力モード、英字入力モード、数字入力モード、および、これらの入力モードから選択した複数の入力モードの組み合わせのうちの少なくともいずれかを含む、
付記17ないし22のいずれか一に記載のプログラム。
In the present invention, the following modes described as appendices are possible.
[Appendix 1]
The information processing apparatus according to the first aspect is as described above.
[Appendix 2]
The selection unit selects one of the plurality of input modes based on whether the object is close to or touches the touch panel.
The information processing apparatus according to attachment 1.
[Appendix 3]
The detection unit detects an area where the object is in contact with the touch panel,
The selection unit selects one of the plurality of input modes based on the detected area.
The information processing apparatus according to appendix 1 or 2.
[Appendix 4]
When the object is a user's fingertip, the detection unit detects the presence or absence of a fingerprint where the fingertip touches the touch panel;
The selection unit selects one of the plurality of input modes based on the presence or absence of the fingerprint;
The information processing apparatus according to any one of appendices 1 to 3.
[Appendix 5]
The detection unit detects whether the object is a user's finger or a stylus,
The selection unit selects one of the plurality of input modes based on whether the object is a finger or a stylus.
The information processing apparatus according to any one of appendices 1 to 4.
[Appendix 6]
A storage unit that holds fingerprints of a plurality of fingers of the user;
The detection unit detects a fingerprint at a location where the user's fingertip touches the touch panel, collates the detected fingerprint with a fingerprint recorded in the storage unit, and a finger corresponding to the fingertip includes the plurality of fingers. Detect which one is your finger,
The selection unit selects one of the plurality of input modes based on which of the plurality of fingers is selected.
The information processing apparatus according to any one of appendices 1 to 5.
[Appendix 7]
The plurality of input modes include at least one of a hiragana input mode, a kanji input mode, an alphabet input mode, a number input mode, and a combination of a plurality of input modes selected from these input modes.
The information processing apparatus according to any one of appendices 1 to 6.
[Appendix 8]
It is equipped with a blower that blows out the wind from a hole provided to penetrate the touch panel,
The detection unit detects a distance between the object and the touch panel,
The blower blows wind from the hole toward the object with an intensity according to the detected distance.
The information processing apparatus according to any one of appendices 1 to 7.
[Appendix 9]
The blower blows strong wind as the detected distance becomes shorter,
The information processing apparatus according to appendix 8.
[Appendix 10]
The information processing method according to the second viewpoint is as described above.
[Appendix 11]
In the selection step, one of the plurality of input modes is selected based on whether the object is close to or touches the touch panel.
The information processing method according to attachment 10.
[Appendix 12]
In the detection step, the area where the object touches the touch panel is detected,
In the selection step, one of the plurality of input modes is selected based on the detected area.
The information processing method according to appendix 10 or 11.
[Appendix 13]
In the detection step, when the object is a user's fingertip, the presence or absence of a fingerprint where the fingertip touches the touch panel is detected,
In the selection step, one of the plurality of input modes is selected based on the presence or absence of the fingerprint.
The information processing method according to any one of appendices 10 to 12.
[Appendix 14]
In the detection step, it is detected whether the object is a user's finger or a stylus,
In the selection step, one of the plurality of input modes is selected based on whether the object is a finger or a stylus.
The information processing method according to any one of appendices 10 to 13.
[Appendix 15]
Further comprising the step of holding the fingerprints of the plurality of fingers of the user in the storage unit,
In the detection step, the fingerprint of the location where the user's fingertip touches the touch panel is detected, the detected fingerprint and the fingerprint recorded in the storage unit are collated, and the finger corresponding to the fingertip is the plurality of fingers. Detect which one is your finger,
In the selecting step, one of the plurality of input modes is selected based on which of the plurality of fingers.
The information processing method according to any one of appendices 10 to 14.
[Appendix 16]
The plurality of input modes include at least one of a hiragana input mode, a kanji input mode, an alphabet input mode, a number input mode, and a combination of a plurality of input modes selected from these input modes.
The information processing method according to any one of appendices 10 to 15.
[Appendix 17]
The program is related to the third viewpoint.
[Appendix 18]
In the selection process, one of the plurality of input modes is selected based on whether the object is close to or touches the touch panel.
The program according to appendix 17.
[Appendix 19]
In the detection process, the area where the object touches the touch panel is detected,
In the selection process, one of the plurality of input modes is selected based on the detected area.
The program according to appendix 17 or 18.
[Appendix 20]
In the detection process, when the object is a user's fingertip, the presence or absence of a fingerprint where the fingertip touches the touch panel is detected,
In the selection process, one of the plurality of input modes is selected based on the presence or absence of the fingerprint.
The program according to any one of appendices 17 to 19.
[Appendix 21]
In the detection process, it is detected whether the object is a user's finger or a stylus,
In the selection process, one of the plurality of input modes is selected based on whether the object is a finger or a stylus.
The program according to any one of appendices 17 to 20.
[Appendix 22]
Further causing the computer to execute a process of holding the fingerprints of the plurality of fingers of the user in the storage unit,
In the detection process, the fingerprint of the part where the user's fingertip touches the touch panel is detected, the detected fingerprint and the fingerprint recorded in the storage unit are collated, and the fingers corresponding to the fingertip are the plurality of fingers. Detect which one is your finger,
In the selection process, one of the plurality of input modes is selected based on which of the plurality of fingers is selected.
The program according to any one of appendices 17 to 21.
[Appendix 23]
The plurality of input modes include at least one of a hiragana input mode, a kanji input mode, an alphabet input mode, a number input mode, and a combination of a plurality of input modes selected from these input modes.
The program according to any one of appendices 17 to 22.

10、20 情報処理装置
12、28 検出部
14、33 選択部
16、35 受付部
21 アンテナ
22 無線通信部
23 通話機能部
24 タッチパネル
25 記憶部
26 近接センサ
27 指紋センサ
28 検出部
31 非接触タップ制御部
32 タップ種別判別部
34 送風部
36 出力部
41 パイプ
42 蓋
10, 20 Information processing device 12, 28 Detection unit 14, 33 Selection unit 16, 35 Reception unit 21 Antenna 22 Wireless communication unit 23 Call function unit 24 Touch panel 25 Storage unit 26 Proximity sensor 27 Fingerprint sensor 28 Detection unit 31 Non-contact tap control Unit 32 Tap type discriminating unit 34 Blower unit 36 Output unit 41 Pipe 42 Lid

Claims (10)

タッチパネルへの対象物の近接ないし接触を検出する検出部と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する選択部と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける受付部と、
を備える、情報処理装置。
A detection unit for detecting proximity or contact of an object to the touch panel;
A selection unit that selects one of a plurality of input modes based on the detection result;
A reception unit that receives input of characters in the selected input mode according to the detection result;
An information processing apparatus comprising:
前記選択部は、前記対象物が前記タッチパネルに近接したか、または接触したかに基づいて、前記複数の入力モードのうちの1つを選択する、
請求項1に記載の情報処理装置。
The selection unit selects one of the plurality of input modes based on whether the object is close to or touches the touch panel.
The information processing apparatus according to claim 1.
前記検出部は、前記対象物が前記タッチパネルに接触した面積を検出し、
前記選択部は、前記検出された面積に基づいて、前記複数の入力モードのうちの1つを選択する、
請求項1または2に記載の情報処理装置。
The detection unit detects an area where the object is in contact with the touch panel,
The selection unit selects one of the plurality of input modes based on the detected area.
The information processing apparatus according to claim 1 or 2.
前記検出部は、前記対象物がユーザの指先である場合、該指先が前記タッチパネルに接触した箇所の指紋の有無を検出し、
前記選択部は、前記指紋の有無に基づいて、前記複数の入力モードのうちの1つを選択する、
請求項1ないし3のいずれか1項に記載の情報処理装置。
When the object is a user's fingertip, the detection unit detects the presence or absence of a fingerprint where the fingertip touches the touch panel;
The selection unit selects one of the plurality of input modes based on the presence or absence of the fingerprint;
The information processing apparatus according to any one of claims 1 to 3.
前記検出部は、前記対象物がユーザの指またはスタイラスのいずれであるかを検出し、
前記選択部は、前記対象物が指またはスタイラスのいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
請求項1ないし4のいずれか1項に記載の情報処理装置。
The detection unit detects whether the object is a user's finger or a stylus,
The selection unit selects one of the plurality of input modes based on whether the object is a finger or a stylus.
The information processing apparatus according to any one of claims 1 to 4.
ユーザの複数の指の指紋を保持する記憶部をさらに備え、
前記検出部は、前記ユーザの指先が前記タッチパネルに接触した箇所の指紋を検出するとともに、検出した指紋と前記記憶部に記録された指紋とを照合し、該指先に対応する指が前記複数の指のいずれであるかを検出し、
前記選択部は、前記複数の指のいずれであるかに基づいて、前記複数の入力モードのうちの1つを選択する、
請求項1ないし5のいずれか1項に記載の情報処理装置。
A storage unit that holds fingerprints of a plurality of fingers of the user;
The detection unit detects a fingerprint at a location where the user's fingertip touches the touch panel, collates the detected fingerprint with a fingerprint recorded in the storage unit, and a finger corresponding to the fingertip includes the plurality of fingers. Detect which one is your finger,
The selection unit selects one of the plurality of input modes based on which of the plurality of fingers is selected.
The information processing apparatus according to any one of claims 1 to 5.
前記複数の入力モードは、ひらがな入力モード、漢字入力モード、英字入力モード、数字入力モード、および、これらの入力モードから選択した複数の入力モードの組み合わせのうちの少なくともいずれかを含む、
請求項1ないし6のいずれか1項に記載の情報処理装置。
The plurality of input modes include at least one of a hiragana input mode, a kanji input mode, an alphabet input mode, a number input mode, and a combination of a plurality of input modes selected from these input modes.
The information processing apparatus according to any one of claims 1 to 6.
タッチパネルを貫通するように設けられた穴から風を吹き出す送風部を備え、
前記検出部は、前記対象物とタッチパネルとの距離を検出し、
前記送風部は、前記検出された距離に応じた強度で前記穴から前記対象物に向けて風を吹き出す、
請求項1ないし7のいずれか1項に記載の情報処理装置。
It is equipped with a blower that blows out the wind from a hole provided to penetrate the touch panel,
The detection unit detects a distance between the object and the touch panel,
The blower blows wind from the hole toward the object with an intensity according to the detected distance.
The information processing apparatus according to any one of claims 1 to 7.
情報処理装置が、タッチパネルへの対象物の近接ないし接触を検出する工程と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する工程と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける工程と、
を含む、情報処理方法。
A process in which the information processing device detects proximity or contact of an object to the touch panel;
Selecting one of a plurality of input modes based on the detection result;
Accepting input of characters in the selected input mode according to the detection result;
Including an information processing method.
タッチパネルへの対象物の近接ないし接触を検出する処理と、
前記検出結果に基づいて、複数の入力モードのうちの1つを選択する処理と、
前記選択した入力モードにおける文字の入力を、前記検出結果に応じて受け付ける処理と、
をコンピュータに実行させる、プログラム。
A process for detecting proximity or contact of an object to the touch panel;
A process of selecting one of a plurality of input modes based on the detection result;
A process of accepting input of characters in the selected input mode according to the detection result;
A program that causes a computer to execute.
JP2013039253A 2013-02-28 2013-02-28 Information processing device, information processing method, and program Pending JP2014167712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013039253A JP2014167712A (en) 2013-02-28 2013-02-28 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013039253A JP2014167712A (en) 2013-02-28 2013-02-28 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2014167712A true JP2014167712A (en) 2014-09-11

Family

ID=51617372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013039253A Pending JP2014167712A (en) 2013-02-28 2013-02-28 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2014167712A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219841A (en) * 2013-05-08 2014-11-20 住友電工ネットワークス株式会社 Operation input device and operation input program
JP2016115272A (en) * 2014-12-17 2016-06-23 京セラドキュメントソリューションズ株式会社 Touch panel device and image processing apparatus
WO2016208564A1 (en) * 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, and operating method and control program for electronic device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219841A (en) * 2013-05-08 2014-11-20 住友電工ネットワークス株式会社 Operation input device and operation input program
JP2016115272A (en) * 2014-12-17 2016-06-23 京セラドキュメントソリューションズ株式会社 Touch panel device and image processing apparatus
CN105721733A (en) * 2014-12-17 2016-06-29 京瓷办公信息系统株式会社 Touch panel device and image processing apparatus
US9648181B2 (en) 2014-12-17 2017-05-09 Kyocera Document Solutions Inc. Touch panel device and image processing apparatus
CN105721733B (en) * 2014-12-17 2018-08-03 京瓷办公信息系统株式会社 Touch control panel device and image processing apparatus
WO2016208564A1 (en) * 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, and operating method and control program for electronic device
JP2017016170A (en) * 2015-06-26 2017-01-19 京セラ株式会社 Electronic apparatus and operation method for electronic apparatus

Similar Documents

Publication Publication Date Title
EP2674849B1 (en) Method and apparatus for controlling touch input of terminal
US9442655B2 (en) Character input device, and method and program for inputting character
KR20120136796A (en) Method and apparatus for providing interface for inpputing character
US20130021256A1 (en) Mobile terminal with touch panel function and input method for same
CN105630327A (en) Portable electronic device and method of controlling display of selectable elements
US10564844B2 (en) Touch-control devices and methods for determining keys of a virtual keyboard
KR101434495B1 (en) Terminal with touchscreen and method for inputting letter
JP2014167712A (en) Information processing device, information processing method, and program
KR101064836B1 (en) Touch Type Character Input Apparatus and Method
JP5891540B2 (en) Character input device, character input method, and program
US20230236673A1 (en) Non-standard keyboard input system
KR101013219B1 (en) Method and system for input controlling by using touch type
KR20080078336A (en) Method for inputing notes and communication terminal for using the same
JP2010055267A (en) Input apparatus, portable terminal apparatus, and input method for input apparatus
US10082882B2 (en) Data input apparatus and method therefor
CN103713840B (en) Portable apparatus and its key hit area adjustment method
KR101149892B1 (en) Mobile device, letter input method thereof and
WO2019090765A1 (en) Writing board, writing board assembly and writing method for writing board
KR100800833B1 (en) Method and apparatus for inputting character in mobile terminal with touchscreen
KR20090087177A (en) Method for inputting letter in terminal having touch screen
JP2016218889A (en) Electronic device and information input method
JP2022023367A (en) Electronic device
JP2016218890A (en) Electronic device and input method
JP5395599B2 (en) Information processing device, input device, and input method for information processing device
EP2811371B1 (en) Method and system for previewing characters based on finger position on keyboard