JP2010102381A - Portable terminal and program - Google Patents

Portable terminal and program Download PDF

Info

Publication number
JP2010102381A
JP2010102381A JP2008270858A JP2008270858A JP2010102381A JP 2010102381 A JP2010102381 A JP 2010102381A JP 2008270858 A JP2008270858 A JP 2008270858A JP 2008270858 A JP2008270858 A JP 2008270858A JP 2010102381 A JP2010102381 A JP 2010102381A
Authority
JP
Japan
Prior art keywords
finger
pressing
imaging
press
touch pad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008270858A
Other languages
Japanese (ja)
Other versions
JP5224355B2 (en
Inventor
Toshihisa Ito
利久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Hitachi Mobile Communications Co Ltd
Original Assignee
Casio Hitachi Mobile Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Hitachi Mobile Communications Co Ltd filed Critical Casio Hitachi Mobile Communications Co Ltd
Priority to JP2008270858A priority Critical patent/JP5224355B2/en
Publication of JP2010102381A publication Critical patent/JP2010102381A/en
Application granted granted Critical
Publication of JP5224355B2 publication Critical patent/JP5224355B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable terminal which improves operability of input through a touch pad. <P>SOLUTION: The portable terminal includes: a touch pad which detects pressing force; and an imaging part imaging a face of the touch pad. When the touch pad detects the pressing force, a CPU of the portable terminal analyzes the latest image data which is obtained by imaging the face of the touch pad, and detects the number of fingers of a user on the face of the touch pad during pressing. Then the CPU determines a user's operation command based on the detected number of the fingers and the OS executes the determined operation command. Two kinds of operations to one object (for example, left and right click operations of a mouse) are facilitated, and operability is improved. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、タッチパッドによる入力機能を搭載した携帯端末及びプログラムに関する。   The present invention relates to a portable terminal equipped with an input function using a touch pad and a program.

携帯端末の表示部にタッチパッドを搭載し、表示部の画面を押圧することにより入力を行う端末は既に製品化されている。しかし、単純な画面の押圧だけではコンピュータにおけるマウスの左クリック操作相当の処理、すなわち、選択・実行等の処理しか行うことができない。コンピュータにおけるマウスの右クリック操作のようなその他の操作も行えるようにするために、画面への接触時間に応じて、入力された命令を判断したり(例えば、特許文献1)、接触面積の大小及び接触点の個数を検知することで、入力された命令を判断したりする装置が提案されている(例えば、特許文献2)。   A terminal in which a touch pad is mounted on a display unit of a portable terminal and input is performed by pressing a screen of the display unit has already been commercialized. However, only a simple screen press can perform processing equivalent to a left-click operation of the mouse in the computer, that is, processing such as selection / execution. In order to perform other operations such as a right-click operation of a mouse in a computer, an input command is determined according to the contact time with the screen (for example, Patent Document 1), and the contact area is large or small. In addition, an apparatus for determining an input command by detecting the number of contact points is proposed (for example, Patent Document 2).

特開2007−80291JP2007-80291 特開2000−284912JP 2000-284912 A

しかしながら、上記特許文献1では、所望の操作指令を入力するために、所定の時間、画面を押圧しなければならず、入力に時間がかかるという問題がある。また、上記特許文献2では、1つの操作指令を入力するために、画面上の複数の座標点を押圧しなければならず、タッチパッド入力のメリットである直感性を損ない、操作が複雑になるという問題がある。   However, in the above-mentioned Patent Document 1, there is a problem that it takes a long time to input a screen because a screen must be pressed for a predetermined time in order to input a desired operation command. In Patent Document 2, in order to input one operation command, a plurality of coordinate points on the screen must be pressed, the intuition that is the merit of touchpad input is lost, and the operation is complicated. There is a problem.

本発明は、上記問題を鑑みてなされたもので、タッチパッドを介した入力の操作性を向上し得る携帯端末及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a portable terminal and a program that can improve the operability of input via a touch pad.

上記目的を達成するため、本発明の第1の観点に係る携帯端末は、
押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
該タッチパッドの面上を撮像する撮像手段と、
該撮像手段の撮像によって得られた画像データを記憶する記憶手段と、
前記タッチパッドが押圧を検出した際、前記記憶手段に記憶されている前記画像データを解析して、当該押圧の際に該タッチパッドの面上に存在した指の本数を検出する指本数検出手段と、
該指本数検出手段によって検出された指の本数に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備えることを特徴とする。
In order to achieve the above object, a mobile terminal according to the first aspect of the present invention provides:
A touchpad that detects pressing and outputs position information of the detected area;
Imaging means for imaging the surface of the touchpad;
Storage means for storing image data obtained by imaging by the imaging means;
When the touch pad detects a press, the image data stored in the storage means is analyzed, and the number of fingers detecting means for detecting the number of fingers existing on the surface of the touch pad at the time of the press When,
And an operation type determining unit that determines an operation type to be processed based on the number of fingers detected by the finger number detecting unit.

また、本発明の第2の観点に係る携帯端末は、
押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
該タッチパッドの面上を撮像する撮像手段と、
該撮像手段の撮像によって得られた画像データを記憶する記憶手段と、
前記タッチパッドが押圧を検出した際、前記記憶手段に記憶されている前記画像データを解析して、当該押圧に使用した押圧指を特定する押圧指特定手段と、
該押圧指特定手段により特定された前記押圧指と、該押圧指と異なる他の指との当該押圧の際における位置関係に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備えることを特徴とする。
A portable terminal according to the second aspect of the present invention is
A touchpad that detects pressing and outputs position information of the detected area;
Imaging means for imaging the surface of the touchpad;
Storage means for storing image data obtained by imaging by the imaging means;
When the touchpad detects a press, the image data stored in the storage means is analyzed, and a press finger specifying means for specifying the press finger used for the press;
An operation type determining means for determining an operation type to be processed based on a positional relationship at the time of the pressing between the pressing finger specified by the pressing finger specifying means and another finger different from the pressing finger; It is characterized by providing.

上記の場合、前記押圧指特定手段は、所定時間分の前記画像データを解析して、最も大きく位置変化が認められる指を前記押圧指として特定してもよい。   In the above case, the pressing finger specifying unit may analyze the image data for a predetermined time and specify a finger having the largest position change as the pressing finger.

また、本発明の第3の観点に係る携帯端末は、
押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
前記押圧した指の種別を特定する指種別特定手段と、
該指種別特定手段によって特定された指の種別に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備えることを特徴とする。
A portable terminal according to the third aspect of the present invention is
A touchpad that detects pressing and outputs position information of the detected area;
Finger type specifying means for specifying the type of the pressed finger;
And an operation type determining unit that determines an operation type to be processed based on the finger type specified by the finger type specifying unit.

上記の場合、前記指種別特定手段は、前記押圧した指の指紋を検出し、検出した指紋と、予め保持しているユーザの各指の指紋データとを照合することで、押圧した指の種別を特定してもよい。   In the above case, the finger type specifying means detects the fingerprint of the pressed finger, and collates the detected fingerprint with the fingerprint data of each finger of the user that is held in advance, whereby the type of the pressed finger May be specified.

また、本発明の第4の観点に係るプログラムは、
コンピュータを、
タッチパッドが押圧を検出した際、撮像手段の撮像によって得られ、記憶手段に記憶されている画像データを解析して、当該押圧の際に前記タッチパッドの面上に存在した指の本数を検出する指本数検出手段、
該指本数検出手段によって検出された指の本数に基づいて、処理すべき操作種別を判別する操作種別判別手段、として機能させることを特徴とする。
A program according to the fourth aspect of the present invention is:
Computer
When the touchpad detects a press, it analyzes the image data obtained by the imaging means and stored in the storage means to detect the number of fingers present on the surface of the touchpad at the time of the press Finger number detection means to perform,
It is made to function as an operation type discrimination means for discriminating an operation type to be processed based on the number of fingers detected by the finger number detection means.

また、本発明の第5の観点に係るプログラムは、
コンピュータを、
タッチパッドが押圧を検出した際、撮像手段の撮像によって得られ、記憶手段に記憶されている画像データを解析して、当該押圧に使用した押圧指を特定する押圧指特定手段、
該押圧指特定手段により特定された前記押圧指と、該押圧指と異なる他の指との当該押圧の際における位置関係に基づいて、処理すべき操作種別を判別する操作種別判別手段、として機能させることを特徴とする。
A program according to the fifth aspect of the present invention is:
Computer
When the touch pad detects a press, a pressing finger specifying unit that analyzes the image data obtained by imaging of the imaging unit and stored in the storage unit, and specifies the pressing finger used for the pressing,
Function as an operation type determining unit that determines an operation type to be processed based on a positional relationship between the pressing finger specified by the pressing finger specifying unit and another finger different from the pressing finger at the time of the pressing It is characterized by making it.

本発明によれば、タッチパッドを介した入力操作に関して、複数の操作指令を直感性を損なわず簡単に入力することができ、操作性の向上が図れる。   According to the present invention, it is possible to easily input a plurality of operation commands with respect to an input operation via the touch pad without impairing intuition, and operability can be improved.

(実施形態1)
図1は、本発明の実施形態1に係る携帯端末100の構成を示すブロック図である。図1に示すように、携帯端末100は、制御部110と、広域無線通信モジュール120と、記憶部130と、表示部140と、入力部150と、撮像部160と、から構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a mobile terminal 100 according to Embodiment 1 of the present invention. As illustrated in FIG. 1, the mobile terminal 100 includes a control unit 110, a wide area wireless communication module 120, a storage unit 130, a display unit 140, an input unit 150, and an imaging unit 160.

制御部110は、OS(Operating System)の処理を含めたシステム制御と様々なプログラムを実行するCPU(Central Processing Unit:中央処理装置)111、CPU111が実行するタッチパッド入力制御プログラムを含む各種プログラムを格納するROM (Read Only Memory)112、プログラム実行時のワークエリアとして使用したり、ユーザからの入力情報を一時保持するため等に使用するRAM(Random Access Memory)113等から構成される。   The control unit 110 includes various programs including a CPU (Central Processing Unit) 111 that executes system control and various programs including OS (Operating System) processing, and a touchpad input control program that the CPU 111 executes. A ROM (Read Only Memory) 112 to be stored, a RAM (Random Access Memory) 113 used as a work area at the time of program execution, temporarily used to hold input information from the user, and the like are configured.

広域無線通信モジュール120は、制御部110の要求に応じ広域無線網を通して通信を行う。広域無線通信モジュール120が使用する広域無線網通信システムとしては携帯電話無線システムを用いる。この場合、広域無線通信モジュール120は、例えば、携帯電話システムの無線基地局との間で通信を行う。   The wide area wireless communication module 120 performs communication through a wide area wireless network in response to a request from the control unit 110. A cellular phone radio system is used as the wide area radio network communication system used by the wide area radio communication module 120. In this case, the wide area wireless communication module 120 performs communication with, for example, a wireless base station of a mobile phone system.

記憶部130は、例えばフラッシュメモリ131等から構成され、サービス加入情報や通信によって取得したデータ、アプリケーションプログラム用のデータ等を記憶する。表示部140は、本実施形態の如く液晶ディスプレイ(LCD)141や有機EL(Electro Luminescence)によるディスプレイ装置等から構成され、制御部110からの指令に基づき、ユーザ操作のための画面(ユーザI/F画面)、ユーザの入力結果やユーザの所望するデータ等の表示を行う。   The storage unit 130 includes, for example, a flash memory 131 and the like, and stores service subscription information, data acquired through communication, data for application programs, and the like. The display unit 140 is configured by a liquid crystal display (LCD) 141 or a display device using organic EL (Electro Luminescence) as in the present embodiment, and a screen (user I / O) for user operation based on a command from the control unit 110. F screen), the user input result, data desired by the user, and the like are displayed.

入力部150は、キーパッド151、タッチパッド152等から構成され、ユーザからの入力を受け付ける処理を行う。タッチパッド152は、静電容量の変化を検出する透明な平板状の静電容量センサから構成される。タッチパッド152は、LCD141に重ねて実装され、ユーザの指先や専用のペン等によるタッチパッド面(ユーザにとってはLCD141の表示画面)の接触(押圧)を検出し、その位置の情報(座標データ)を出力する。   The input unit 150 includes a keypad 151, a touchpad 152, and the like, and performs processing for receiving input from the user. The touch pad 152 is composed of a transparent flat plate capacitive sensor that detects a change in capacitance. The touch pad 152 is mounted on the LCD 141 so as to detect contact (press) of the touch pad surface (for the user, the display screen of the LCD 141) with a user's fingertip, a dedicated pen, or the like, and information on the position (coordinate data). Is output.

撮像部160は、CMOSイメージセンサ161、レンズユニット162等から構成され、動画像や静止画を撮像する。図2に示すように、撮像部160を収容する筐体170は、携帯端末100の上部(長手方向の側面)に、矢印方向に回動自在に取り付けられている。また、レンズユニット162は、例えば、筐体170をA1方向に最大限回転させた場合に、LCD141の表面全域を網羅可能となるように配置されている。したがって、ユーザは、自らがタッチパッド152を押圧する様子を撮像させたい場合は、筐体170をA1方向に最大限回転させ、その他の被写体を撮像させたい場合には、筐体170をA2方向に回転させ、レンズユニット162の向きを適宜切り替えることができる。   The imaging unit 160 includes a CMOS image sensor 161, a lens unit 162, and the like, and captures moving images and still images. As shown in FIG. 2, the housing 170 that houses the imaging unit 160 is attached to the upper portion (side surface in the longitudinal direction) of the mobile terminal 100 so as to be rotatable in the arrow direction. In addition, the lens unit 162 is disposed so that the entire surface of the LCD 141 can be covered when the housing 170 is rotated to the maximum in the A1 direction, for example. Therefore, when the user wants to capture an image of his or her own pressing of the touch pad 152, the user can rotate the housing 170 to the maximum in the A1 direction, and to capture images of other subjects, the housing 170 can be moved in the A2 direction. The direction of the lens unit 162 can be switched as appropriate.

続いて、ユーザによるタッチパッド152の押圧からユーザの操作指令を判別し、その判別した操作指令をOSに実行させる処理(タッチパッド入力制御処理)について、図3のフローチャートに沿って説明する。タッチパッド入力制御処理は、携帯端末100の電源投入後、CPU111によりROM112に記憶されたタッチパッド入力制御プログラムが読み出され、実行されることで開始される。   Next, processing (touch pad input control processing) for determining the user's operation command from the press of the touch pad 152 by the user and causing the OS to execute the determined operation command will be described with reference to the flowchart of FIG. The touch pad input control process starts when the portable terminal 100 is powered on, and the touch pad input control program stored in the ROM 112 is read and executed by the CPU 111.

タッチパッド入力制御処理が開始されると、CPU111は、撮像部160を起動させ、LCD141の表面(即ち、タッチパッド152の表面)の撮像を開始させる(ステップS101)。撮像部160により撮像した動画像データはRAM113に記憶される(フラッシュメモリ131に保存されるようにしてもよい)。RAM113には、タッチパッド入力制御処理の実行中、所定時間分の動画像データ(所定時間前から現時点までの動画像データ)が常時記憶される。   When the touch pad input control process is started, the CPU 111 activates the imaging unit 160 and starts imaging the surface of the LCD 141 (that is, the surface of the touch pad 152) (step S101). The moving image data captured by the imaging unit 160 is stored in the RAM 113 (may be stored in the flash memory 131). During the execution of the touchpad input control process, the RAM 113 always stores moving image data for a predetermined time (moving image data from a predetermined time before to the current time).

なお、消費電力を抑制するため、電源投入時において、レンズユニット162がLCD141の表面に向いていない場合には、撮像部160を起動させないとする仕様であってもよい(但し、ユーザのキーパッド151等の操作によって撮像部160を起動させることはできる)。あるいは、電源投入時において、レンズユニット162がLCD141の表面に向いていない場合には、タッチパッド入力制御処理自体を開始させないようにしてもよい。これらの場合、電源投入後に、ユーザが、筐体170をA1方向に最大限回転させることで、自動的に撮像部160が撮像を開始し、あるいはタッチパッド入力制御処理の実行が開始されるようにしてもよい。   In order to reduce power consumption, the specification may be that the imaging unit 160 is not activated when the lens unit 162 is not facing the surface of the LCD 141 when the power is turned on (however, the user's keypad may be used). The imaging unit 160 can be activated by an operation such as 151. Alternatively, when the lens unit 162 is not facing the surface of the LCD 141 when the power is turned on, the touch pad input control process itself may not be started. In these cases, after the power is turned on, the imaging unit 160 automatically starts imaging or the execution of the touch pad input control process is started when the user rotates the casing 170 to the maximum in the A1 direction. It may be.

しかる後、ユーザによりタッチパッド152がタッチ(押圧)されると(ステップS102でYES)、CPU111は、タッチパッド152が検出した座標データを取得する(ステップS103)とともに、RAM113から読み出した動画像データを解析して、押圧時の指本数を検出する(ステップS104)。   Thereafter, when the touch pad 152 is touched (pressed) by the user (YES in step S102), the CPU 111 acquires coordinate data detected by the touch pad 152 (step S103) and the moving image data read from the RAM 113. And the number of fingers at the time of pressing is detected (step S104).

指が撮像されているか否かの判別については、予めROM112あるいはフラッシュメモリ131に記憶されている何通りかの指の画像データを使用した周知のパターン認識法を採用する。あるいは、撮像された物体の画像の輪郭を取り出し、その輪郭が細長い形状(例えば、幅対高さの比が1:5)であれば、その物体を指であると認識する手法を採用してもよい。   In order to determine whether or not the finger is imaged, a known pattern recognition method using image data of some kinds of fingers stored in advance in the ROM 112 or the flash memory 131 is employed. Alternatively, a technique is adopted in which the contour of the image of the imaged object is taken out and the object is recognized as a finger if the contour is elongated (for example, the ratio of width to height is 1: 5). Also good.

以上のようにして検出された指の本数が1本以下の場合(ステップS105でYES)、CPU111は、ユーザにより第1の押圧操作が行われたものとして、取得した座標データとともに第1の押圧イベントをOSに通知する(ステップS106)。   When the number of fingers detected as described above is one or less (YES in step S105), the CPU 111 determines that the first pressing operation has been performed by the user, and the first pressing together with the acquired coordinate data. The event is notified to the OS (step S106).

一方、検出された指の本数が2本以上の場合(ステップS105でNO)、即ち、ユーザが、タッチパッド152を押圧する際、他の指を添えて押圧した場合、CPU111は、ユーザにより第2の押圧操作が行われたものとして、取得した座標データとともに第2の押圧イベントをOSに通知する(ステップS107)。   On the other hand, when the number of detected fingers is two or more (NO in step S105), that is, when the user presses the touch pad 152 with another finger, the CPU 111 causes the user to Assuming that the second pressing operation has been performed, the OS notifies the OS of a second pressing event together with the acquired coordinate data (step S107).

OSは、第1の押圧イベント又は第2の押圧イベントの通知を受けると、それぞれのイベントに応じた処理を行う。例えば、OSは、第1の押圧イベントが通知されると、LCD141の表示画面における第1の押圧イベントに付随する座標データが示す位置に、ある画像データを示すアイコン等のシンボルが存在する場合、当該画像データをLCD141に表示させる。   When the OS receives the notification of the first pressing event or the second pressing event, the OS performs processing corresponding to each event. For example, when the OS is notified of the first press event, when there is a symbol such as an icon indicating certain image data at the position indicated by the coordinate data associated with the first press event on the display screen of the LCD 141, The image data is displayed on the LCD 141.

一方、第2の押圧イベントが通知されると、OSは、LCD141の表示画面における第2の押圧イベントに付随する座標データが示す位置に、ある画像データを示すアイコン等のシンボルが存在する場合、当該画像データの情報、具体的には、データサイズ、画像圧縮形式、画像表示サイズ、画像データ作成日時等の属性情報(いわゆるプロパティ)をLCD141に表示させる。   On the other hand, when the second press event is notified, the OS, when a symbol such as an icon indicating certain image data exists at the position indicated by the coordinate data associated with the second press event on the display screen of the LCD 141, Information on the image data, specifically, attribute information (so-called properties) such as data size, image compression format, image display size, image data creation date and time, is displayed on the LCD 141.

タッチパッド入力制御処理は、携帯端末100の電源がOFFにされるまで継続する。なお、ユーザにより、筐体170がA2方向に回され、レンズユニット162の向きが切り替えられた場合には、タッチパッド入力制御処理を終了するようにしてもよい。   The touch pad input control process continues until the mobile terminal 100 is turned off. When the user rotates the casing 170 in the A2 direction and switches the direction of the lens unit 162, the touch pad input control process may be terminated.

以上のようなタッチパッド入力制御処理が実行されることで、ユーザは、タッチパッド152を押圧する際、当該押圧指に他の指を添えなかった場合(図4(a)参照)と、他の指を添えた場合(図4の(b))とで、異なった操作(第1の押圧操作及び第2の押圧操作)を携帯端末100に対して行うことができる。これにより、ユーザは、1つのオブジェクトに対する2種類の操作(例えば、マウスの左及び右クリックに相当する操作)を簡単に行うことが可能となり、操作性の向上が図れる。   By executing the touch pad input control process as described above, when the user presses the touch pad 152, the user does not attach another finger to the pressing finger (see FIG. 4A), and others. Different operations (first pressing operation and second pressing operation) can be performed on the portable terminal 100 when the finger is attached (FIG. 4B). Thus, the user can easily perform two types of operations (for example, operations corresponding to the left and right mouse clicks) on one object, and the operability can be improved.

なお、上記タッチパッド入力制御処理において、CPU111は、検出した指の本数に応じた3種類以上の押圧イベントをOSに通知してもよい。このようにすれば、1つのオブジェクトに対して、さらに多くの種類の操作を行うことができる。   In the touch pad input control process, the CPU 111 may notify the OS of three or more types of pressing events corresponding to the detected number of fingers. In this way, more types of operations can be performed on one object.

(実施形態2)
続いて、本発明の実施形態2に係る携帯端末100について説明する。実施形態2に係る携帯端末100は、上記実施形態1に係る携帯端末100と同一の構成(図1及び図2参照)を有するが、実行するタッチパッド入力制御処理の内容が実施形態1に係る携帯端末100と異なる。より詳細には、双方のタッチパッド入力制御処理では、ユーザが行った押圧操作(第1の押圧操作及び第2の押圧操作)の判別手法が異なる。
(Embodiment 2)
Then, the portable terminal 100 which concerns on Embodiment 2 of this invention is demonstrated. The mobile terminal 100 according to the second embodiment has the same configuration (see FIGS. 1 and 2) as the mobile terminal 100 according to the first embodiment, but the content of the touch pad input control process to be executed is related to the first embodiment. Different from the mobile terminal 100. More specifically, in both touchpad input control processes, the determination methods of the pressing operations (first pressing operation and second pressing operation) performed by the user are different.

図5は、実施形態2のタッチパッド入力制御処理における押圧操作の判別手法を説明するためのフローチャートである。図5のフローチャートは、図3のフローチャートと異なる部分のみを示している。以下、かかる部分について詳細に説明する。   FIG. 5 is a flowchart for explaining a technique for determining a pressing operation in the touchpad input control process according to the second embodiment. The flowchart of FIG. 5 shows only the parts different from the flowchart of FIG. Hereinafter, this part will be described in detail.

ユーザによりタッチパッド152が押圧され、検出された指の本数が2本以上の場合(図3のステップS105でNO)、CPU111は、実際に押圧した指を特定する(図5のステップS501)。具体的には、CPU111は、先に取得した動画像データを解析して、検出された指の中で最も動きの大きいものを実際に押圧に使用した指として特定する。   When the touch pad 152 is pressed by the user and the number of detected fingers is two or more (NO in step S105 in FIG. 3), the CPU 111 specifies the actually pressed finger (step S501 in FIG. 5). Specifically, the CPU 111 analyzes the previously acquired moving image data and specifies the detected finger that has the largest movement as the finger that is actually used for pressing.

そして、CPU111は、動画像データを解析して、その特定した指(押圧したものとみなした指)の左側に他の指が存在している(撮像されている)か否かを判別する(ステップS502)。左側に他の指が存在しない場合(ステップS502でNO)、CPU111は、ユーザにより第1の押圧操作が行われたものとして(図6(a)参照)、取得した座標データとともに第1の押圧イベントをOSに通知する(ステップS503)。   Then, the CPU 111 analyzes the moving image data and determines whether or not another finger is present (captured) on the left side of the identified finger (finger that is regarded as pressed) ( Step S502). If there is no other finger on the left side (NO in step S502), the CPU 111 assumes that the first pressing operation has been performed by the user (see FIG. 6A), and the first pressing together with the acquired coordinate data. An event is notified to the OS (step S503).

一方、押圧したものとみなした指の左側に他の指が存在する場合(ステップS502でYES)、CPU111は、ユーザにより第2の押圧操作が行われたものとして(図6(b)参照)、取得した座標データとともに第2の押圧イベントをOSに通知する(ステップS504)。   On the other hand, if there is another finger on the left side of the finger considered to be pressed (YES in step S502), the CPU 111 assumes that the user has performed a second pressing operation (see FIG. 6B). The second press event is notified to the OS together with the acquired coordinate data (step S504).

以上のように、本実施形態のタッチパッド入力制御処理によれば、ユーザは、複数の指(例えば、右手人差し指と右手中指)をタッチパッド152(LCD141)の近傍、つまり、撮像部160の撮像範囲内(レンズユニット162の視野内)に置いたままで、第1の押圧操作及び第2の押圧操作を行うことができる。したがって、1つのオブジェクトに対する2種類の操作(例えば、マウスの左及び右クリックに相当する操作)がより簡便に行え、操作性がさらに向上する。   As described above, according to the touch pad input control process of the present embodiment, the user places a plurality of fingers (for example, the right index finger and the right middle finger) in the vicinity of the touch pad 152 (LCD 141), that is, the image pickup by the image pickup unit 160. The first pressing operation and the second pressing operation can be performed while being placed within the range (within the visual field of the lens unit 162). Therefore, two types of operations on one object (for example, operations corresponding to the left and right mouse clicks) can be performed more easily, and the operability is further improved.

なお、上記タッチパッド入力制御処理において、CPU111は、押圧したものと特定した指の隣に存在する指の本数に応じた押圧イベントをOSに通知してもよい。このようにすれば、1つのオブジェクトに対して、さらに多くの種類の操作を行うことができる。   In the touch pad input control process, the CPU 111 may notify the OS of a pressing event corresponding to the number of fingers existing next to the finger identified as pressed. In this way, more types of operations can be performed on one object.

(実施形態3)
続いて、本発明の実施形態3に係る携帯端末100について説明する。実施形態3に係る携帯端末100は、上記実施形態1及び実施形態2に係る携帯端末100と同一の構成(図1及び図2参照)を有するが、実行するタッチパッド入力制御処理における押圧操作(第1の押圧操作及び第2の押圧操作)の判別手法が、実施形態1及び実施形態2に係る携帯端末100と異なる。
(Embodiment 3)
Then, the portable terminal 100 which concerns on Embodiment 3 of this invention is demonstrated. The mobile terminal 100 according to the third embodiment has the same configuration (see FIGS. 1 and 2) as the mobile terminal 100 according to the first and second embodiments, but a pressing operation in the touch pad input control process to be executed ( The discrimination method of the first pressing operation and the second pressing operation) is different from that of the portable terminal 100 according to the first embodiment and the second embodiment.

実施形態3では、図7に示すように、押圧の際の指は、撮像部160によって横方向から撮像される。図8は、実施形態3のタッチパッド入力制御処理における押圧操作の判別手法を説明するためのフローチャートである。図8のフローチャートは、図3のフローチャートと異なる部分のみを示している。以下、かかる部分について詳細に説明する。   In the third embodiment, as shown in FIG. 7, the finger at the time of pressing is imaged from the lateral direction by the imaging unit 160. FIG. 8 is a flowchart for explaining a method for determining a pressing operation in the touchpad input control process according to the third embodiment. The flowchart of FIG. 8 shows only the parts different from the flowchart of FIG. Hereinafter, this part will be described in detail.

ユーザによりタッチパッド152が押圧されると、CPU111は、RAM113から読み出した動画像データを解析して、押圧時の指本数を検出する(図3のステップS104)。その指本数が0本の場合(図8のステップS801でYES)、CPU111は、ユーザにより第1の押圧操作が行われたものとして、先に取得した座標データとともに第1の押圧イベントをOSに通知する(ステップS802)。   When the touch pad 152 is pressed by the user, the CPU 111 analyzes the moving image data read from the RAM 113 and detects the number of fingers at the time of pressing (step S104 in FIG. 3). If the number of fingers is zero (YES in step S801 in FIG. 8), the CPU 111 determines that the first pressing operation has been performed by the user, and sends the first pressing event to the OS together with the previously acquired coordinate data. Notification is made (step S802).

検出した指本数が1本の場合(ステップS803でYES)、CPU111は、先に取得した動画像データを解析して、その検出した指の背後に(後方に)大きく動く物体が存在するか否かを判別する(ステップS804)。その結果、背後に大きく動く物体が存在する場合(ステップS804でYES)、CPU111は、当該物体を実際に押圧に使用した指として特定し、ユーザにより第2の押圧操作が行われたものとして、先に取得した座標データとともに第2の押圧イベントをOSに通知する(ステップS805)。一方、背後に大きく動く物体が存在しない場合(ステップS804でNO)、CPU111は、検出した指を実際に押圧に使用した指として特定し、ユーザにより第1の押圧操作が行われたものとして、先に取得した座標データとともに第1の押圧イベントをOSに通知する(ステップS806)。   If the number of detected fingers is one (YES in step S803), the CPU 111 analyzes the previously acquired moving image data and determines whether there is an object that moves greatly behind (behind) the detected finger. Is determined (step S804). As a result, if there is an object that moves greatly behind (YES in step S804), the CPU 111 identifies the object as a finger that was actually used for pressing, and the user has performed a second pressing operation. The second press event is notified to the OS together with the previously acquired coordinate data (step S805). On the other hand, if there is no moving object behind (NO in step S804), the CPU 111 identifies the detected finger as the finger actually used for pressing, and the first pressing operation is performed by the user. A first pressing event is notified to the OS together with the previously acquired coordinate data (step S806).

検出した指本数が複数の場合(ステップS803でNO)、CPU111は、実際に押圧した指を特定する(ステップS807)。具体的には、CPU111は、先に取得した動画像データを解析して、検出された指の中で最も動きの大きいものを実際に押圧に使用した指として特定する。   When the detected number of fingers is plural (NO in step S803), the CPU 111 identifies the finger actually pressed (step S807). Specifically, the CPU 111 analyzes the previously acquired moving image data and specifies the detected finger that has the largest movement as the finger that is actually used for pressing.

そして、CPU111は、動画像データを解析して、その特定した指(押圧したものとみなした指)が他の指によって遮られているか否かを判別する(ステップS808)。例えば、CPU111は、当該特定した指の動作中における形状変化の度合いに基づいて、かかる判別を行う。即ち、動作中において、その形状が大きく変化していない場合は、他の指によって遮られていないものとしてみなし、形状が大きく変化している場合は、他の指によって遮られているものとみなす。   Then, the CPU 111 analyzes the moving image data and determines whether or not the specified finger (finger that has been pressed) is blocked by another finger (step S808). For example, the CPU 111 performs such determination based on the degree of shape change during the movement of the identified finger. In other words, if the shape does not change significantly during operation, it is considered that the finger is not obstructed by another finger, and if the shape is greatly changed, it is assumed that the finger is blocked by another finger. .

その結果、特定した指が他の指によって遮られていない場合(ステップS808でNO)、CPU111は、ユーザにより第1の押圧操作が行われたものとして(図9(a)参照)、先に取得した座標データとともに第1の押圧イベントをOSに通知する(ステップS809)。一方、特定した指が他の指によって遮られてる場合(ステップS808でYES)、CPU111は、ユーザにより第2の押圧操作が行われたものとして(図9(b)参照)、先に取得した座標データとともに第2の押圧イベントをOSに通知する(ステップS810)。   As a result, if the specified finger is not blocked by another finger (NO in step S808), the CPU 111 determines that the first pressing operation has been performed by the user (see FIG. 9A) first. A first pressing event is notified to the OS together with the acquired coordinate data (step S809). On the other hand, when the specified finger is blocked by another finger (YES in step S808), the CPU 111 obtains the first, assuming that the second pressing operation is performed by the user (see FIG. 9B). A second pressing event is notified to the OS together with the coordinate data (step S810).

以上のように、本実施形態のタッチパッド入力制御処理によれば、ユーザの指が撮像部160によって横方向から撮像される場合であっても、上記実施形態2と同様、ユーザは、複数の指(例えば、右手人差し指と右手中指)をタッチパッド152(LCD141)の近傍、つまり、撮像部160の撮像範囲内(レンズユニット162の視野内)に置いたままで、第1の押圧操作及び第2の押圧操作を行うことができる。   As described above, according to the touchpad input control process of the present embodiment, even when the user's finger is imaged from the lateral direction by the imaging unit 160, the user can While the finger (for example, the right index finger and the right middle finger) is placed in the vicinity of the touch pad 152 (LCD 141), that is, within the imaging range of the imaging unit 160 (in the field of view of the lens unit 162), the first pressing operation and the second The pressing operation can be performed.

なお、上記タッチパッド入力制御処理において、CPU111がOSに通知する押圧イベントは、第1の押圧イベント及び第2の押圧イベントのみに限定されることはない。例えば、CPU111は、押圧した指を遮る他の指の本数に応じた押圧イベントをOSに通知してもよい。このようにすれば、1つのオブジェクトに対して、さらに多くの種類の操作を行うことができる。   In the touch pad input control process, the press event that the CPU 111 notifies the OS is not limited to the first press event and the second press event. For example, the CPU 111 may notify the OS of a pressing event corresponding to the number of other fingers that block the pressed finger. In this way, more types of operations can be performed on one object.

なお、本発明は、上記何れの実施形態にも限定されず、本発明の要旨を逸脱しない範囲での種々の変更は勿論可能である。   The present invention is not limited to any of the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、タッチパッド152を押圧した指の種類(人差し指、中指など)を特定し、その種類に応じて、ユーザの押圧操作を判別し、判別した押圧操作に応じた押圧イベントをOSに通知してもよい。この場合、例えば、携帯端末100に、タッチパッド152を押圧した指の指紋を検出する機能(指紋センサなど)を持たせ、予め登録しておいたユーザの各指の指紋データ(例えば、フラッシュメモリ131に記憶される)と、検出した指紋とを照合することにより押圧した指の種類を特定することができる。   For example, the type of finger (for example, index finger or middle finger) that pressed the touch pad 152 is specified, the user's pressing operation is determined according to the type, and the OS is notified of the pressing event corresponding to the determined pressing operation. Also good. In this case, for example, the portable terminal 100 is provided with a function (such as a fingerprint sensor) for detecting the fingerprint of the finger that pressed the touch pad 152, and the fingerprint data (for example, flash memory) of each user's finger registered in advance. The type of the pressed finger can be specified by comparing the detected fingerprint with the detected fingerprint.

これにより、ユーザは、押圧する指を替えることで、1つのオブジェクトに対する複数種類の操作(例えば、マウスの左及び右クリックに相当する操作)を簡単に行うことが可能となり、操作性の向上が図れる。   Thereby, the user can easily perform a plurality of types of operations (for example, operations corresponding to the left and right mouse clicks) on one object by changing the finger to be pressed, and the operability is improved. I can plan.

また、タッチパッド152を押圧した指の部位(指先の爪、指の腹など)を特定し、その指の部位に応じて、ユーザの押圧操作を判別し、判別した押圧操作に応じた押圧イベントをOSに通知してもよい。この場合、例えば、携帯端末100に、タッチパッド152を押圧した物体の色を検出する機能(色センサなど)を持たせ、予め登録され、フラッシュメモリ131等に記憶されているユーザの指先の爪の色と指の腹の色のデータと、検出した物体の色とを照合することで、押圧した物体が指先の爪であるか指の腹であるかを判別することができる。   Further, the finger part (fingertip nail, finger belly, etc.) that pressed the touch pad 152 is specified, the user's pressing operation is determined according to the finger part, and the pressing event corresponding to the determined pressing operation May be notified to the OS. In this case, for example, the portable terminal 100 is provided with a function (color sensor or the like) for detecting the color of an object that presses the touch pad 152, and is registered in advance and stored in the flash memory 131 or the like. It is possible to determine whether the pressed object is a fingernail or a finger belly by comparing the color of the finger and the color of the finger belly with the color of the detected object.

これにより、ユーザは、押圧する指を替えずに、1つのオブジェクトに対する2種類の操作を簡単に行うことができる。   Thus, the user can easily perform two types of operations on one object without changing the finger to be pressed.

また、プログラムの適用により、既存の携帯端末(例えば、カメラ付き携帯電話など)を本発明に係る携帯端末として機能させることも可能である。即ち、上述したCPU111が実行したようなプログラムを、既存の携帯端末に適用し、当該携帯端末を制御するコンピュータ(CPUなど)がそのプログラムを実行することで、上述した各機能構成や処理が実現され得る。   Further, by applying the program, it is possible to cause an existing portable terminal (for example, a camera-equipped cellular phone) to function as the portable terminal according to the present invention. That is, by applying the program executed by the CPU 111 described above to an existing mobile terminal and executing the program by a computer (such as a CPU) that controls the mobile terminal, the above-described functional configurations and processes are realized. Can be done.

このようなプログラムの配布方法は任意であり、例えば、メモリカードなどの記録媒体に格納して配布可能である他、例えば、インターネットなどの通信ネットワークを介して配布することもできる。そして、このようにして配布されたプログラムを携帯電話等の携帯端末にインストールして適用することで、上述した携帯端末100と同様な機能を実現することができる。   Such a program distribution method is arbitrary. For example, the program can be distributed by being stored in a recording medium such as a memory card, or can be distributed through a communication network such as the Internet. Then, by installing and applying the distributed program in a mobile terminal such as a mobile phone, the same function as that of the mobile terminal 100 described above can be realized.

本発明の各実施形態に係る携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal which concerns on each embodiment of this invention. 図1の携帯端末の外観を示す概略図である。It is the schematic which shows the external appearance of the portable terminal of FIG. 実施形態1におけるタッチパッド入力制御処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure of touch pad input control processing according to the first embodiment. 実施形態1において、ユーザによる押圧操作の様子を示す図であり、(a)は、第1の押圧操作時の様子を示し(b)は、第2の押圧操作時の様子を示す。In Embodiment 1, it is a figure which shows the mode of the press operation by a user, (a) shows the mode at the time of 1st press operation, (b) shows the mode at the time of 2nd press operation. 実施形態2におけるタッチパッド入力制御処理の押圧操作の判別手法を説明するためのフローチャートである。10 is a flowchart for explaining a method for determining a pressing operation in a touchpad input control process according to the second embodiment. 実施形態2において、ユーザによる押圧操作の様子を示す図であり、(a)は、第1の押圧操作時の様子を示し(b)は、第2の押圧操作時の様子を示す。In Embodiment 2, it is a figure which shows the mode of the press operation by a user, (a) shows the mode at the time of 1st press operation, (b) shows the mode at the time of 2nd press operation. 実施形態3における携帯端末の使用例を示す図である。It is a figure which shows the usage example of the portable terminal in Embodiment 3. FIG. 実施形態3におけるタッチパッド入力制御処理の押圧操作の判別手法を説明するためのフローチャートである。14 is a flowchart for explaining a method for determining a pressing operation in a touchpad input control process according to the third embodiment. 実施形態3において、ユーザによる押圧操作の様子を示す図であり、(a)は、第1の押圧操作時の様子を示し(b)は、第2の押圧操作時の様子を示す。In Embodiment 3, it is a figure which shows the mode of the press operation by a user, (a) shows the mode at the time of 1st press operation, (b) shows the mode at the time of 2nd press operation.

符号の説明Explanation of symbols

100…携帯端末、110…制御部、111…CPU、112…ROM、113…RAM、120…広域無線通信モジュール、130…記憶部、131…フラッシュメモリ、140…表示部、141…LCD、150…入力部、151…キーパッド、152…タッチパッド、160…撮像部、161…CMOSイメージセンサ、162…レンズユニット、170…筐体   DESCRIPTION OF SYMBOLS 100 ... Portable terminal, 110 ... Control part, 111 ... CPU, 112 ... ROM, 113 ... RAM, 120 ... Wide area wireless communication module, 130 ... Memory | storage part, 131 ... Flash memory, 140 ... Display part, 141 ... LCD, 150 ... Input unit 151 ... keypad 152 ... touch pad 160 ... imaging unit 161 ... CMOS image sensor 162 ... lens unit 170 ... housing

Claims (7)

押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
該タッチパッドの面上を撮像する撮像手段と、
該撮像手段の撮像によって得られた画像データを記憶する記憶手段と、
前記タッチパッドが押圧を検出した際、前記記憶手段に記憶されている前記画像データを解析して、当該押圧の際に該タッチパッドの面上に存在した指の本数を検出する指本数検出手段と、
該指本数検出手段によって検出された指の本数に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備える、
ことを特徴とする携帯端末。
A touchpad that detects pressing and outputs position information of the detected area;
Imaging means for imaging the surface of the touchpad;
Storage means for storing image data obtained by imaging by the imaging means;
When the touch pad detects a press, the image data stored in the storage means is analyzed, and the number of fingers detecting means for detecting the number of fingers existing on the surface of the touch pad at the time of the press When,
An operation type determination unit that determines an operation type to be processed based on the number of fingers detected by the finger number detection unit;
A portable terminal characterized by that.
押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
該タッチパッドの面上を撮像する撮像手段と、
該撮像手段の撮像によって得られた画像データを記憶する記憶手段と、
前記タッチパッドが押圧を検出した際、前記記憶手段に記憶されている前記画像データを解析して、当該押圧に使用した押圧指を特定する押圧指特定手段と、
該押圧指特定手段により特定された前記押圧指と、該押圧指と異なる他の指との当該押圧の際における位置関係に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備える、
ことを特徴とする携帯端末。
A touchpad that detects pressing and outputs position information of the detected area;
Imaging means for imaging the surface of the touchpad;
Storage means for storing image data obtained by imaging by the imaging means;
When the touchpad detects a press, the image data stored in the storage means is analyzed, and a press finger specifying means for specifying the press finger used for the press;
An operation type determining means for determining an operation type to be processed based on a positional relationship at the time of the pressing between the pressing finger specified by the pressing finger specifying means and another finger different from the pressing finger; Prepare
A portable terminal characterized by that.
前記押圧指特定手段は、所定時間分の前記画像データを解析して、最も大きく位置変化が認められる指を前記押圧指として特定する、
ことを特徴とする請求項2に記載の携帯端末。
The pressing finger specifying means analyzes the image data for a predetermined time, and specifies a finger having a largest position change as the pressing finger.
The mobile terminal according to claim 2.
押圧を検出し、検出した領域の位置情報を出力するタッチパッドと、
前記押圧した指の種別を特定する指種別特定手段と、
該指種別特定手段によって特定された指の種別に基づいて、処理すべき操作種別を判別する操作種別判別手段と、を備える、
ことを特徴とする携帯端末。
A touchpad that detects pressing and outputs position information of the detected area;
Finger type specifying means for specifying the type of the pressed finger;
An operation type determining means for determining an operation type to be processed based on the finger type specified by the finger type specifying means;
A portable terminal characterized by that.
前記指種別特定手段は、前記押圧した指の指紋を検出し、検出した指紋と、予め保持しているユーザの各指の指紋データとを照合することで、押圧した指の種別を特定する、
ことを特徴とする請求項4に記載の携帯端末。
The finger type specifying means detects the fingerprint of the pressed finger, and specifies the type of the pressed finger by comparing the detected fingerprint with the fingerprint data of each finger of the user held in advance.
The mobile terminal according to claim 4.
コンピュータを、
タッチパッドが押圧を検出した際、撮像手段の撮像によって得られ、記憶手段に記憶されている画像データを解析して、当該押圧の際に前記タッチパッドの面上に存在した指の本数を検出する指本数検出手段、
該指本数検出手段によって検出された指の本数に基づいて、処理すべき操作種別を判別する操作種別判別手段、として機能させる、
ことを特徴とするプログラム。
Computer
When the touchpad detects a press, it analyzes the image data obtained by the imaging means and stored in the storage means to detect the number of fingers present on the surface of the touchpad at the time of the press Finger number detection means to perform,
Based on the number of fingers detected by the finger number detection means, function as an operation type determination means for determining an operation type to be processed;
A program characterized by that.
コンピュータを、
タッチパッドが押圧を検出した際、撮像手段の撮像によって得られ、記憶手段に記憶されている画像データを解析して、当該押圧に使用した押圧指を特定する押圧指特定手段、
該押圧指特定手段により特定された前記押圧指と、該押圧指と異なる他の指との当該押圧の際における位置関係に基づいて、処理すべき操作種別を判別する操作種別判別手段、として機能させる、
ことを特徴とするプログラム。
Computer
When the touch pad detects a press, a pressing finger specifying unit that analyzes the image data obtained by imaging of the imaging unit and stored in the storage unit, and specifies the pressing finger used for the pressing,
Function as an operation type determining unit that determines an operation type to be processed based on a positional relationship between the pressing finger specified by the pressing finger specifying unit and another finger different from the pressing finger at the time of the pressing Let
A program characterized by that.
JP2008270858A 2008-10-21 2008-10-21 Mobile terminal and program Expired - Fee Related JP5224355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008270858A JP5224355B2 (en) 2008-10-21 2008-10-21 Mobile terminal and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008270858A JP5224355B2 (en) 2008-10-21 2008-10-21 Mobile terminal and program

Publications (2)

Publication Number Publication Date
JP2010102381A true JP2010102381A (en) 2010-05-06
JP5224355B2 JP5224355B2 (en) 2013-07-03

Family

ID=42293005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008270858A Expired - Fee Related JP5224355B2 (en) 2008-10-21 2008-10-21 Mobile terminal and program

Country Status (1)

Country Link
JP (1) JP5224355B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021073611A (en) * 2021-02-03 2021-05-13 マクセル株式会社 Mobile terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072578A (en) * 2005-09-05 2007-03-22 Denso Corp Input device
WO2007061057A1 (en) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. Gesture input device and method
JP2008084158A (en) * 2006-09-28 2008-04-10 Toyota Motor Corp Input device
JP2008123032A (en) * 2006-11-08 2008-05-29 Toyota Motor Corp Information input device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072578A (en) * 2005-09-05 2007-03-22 Denso Corp Input device
WO2007061057A1 (en) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. Gesture input device and method
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2008084158A (en) * 2006-09-28 2008-04-10 Toyota Motor Corp Input device
JP2008123032A (en) * 2006-11-08 2008-05-29 Toyota Motor Corp Information input device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021073611A (en) * 2021-02-03 2021-05-13 マクセル株式会社 Mobile terminal

Also Published As

Publication number Publication date
JP5224355B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
US9921684B2 (en) Intelligent stylus
TWI793085B (en) Hand-written information processing apparatus, hand-written information processing method and hand-written information processing program
TWI557649B (en) Electronic device and control method for fingerprint recognition apparatus
JP4899806B2 (en) Information input device
JP5977627B2 (en) Information processing apparatus, information processing method, and program
KR101153144B1 (en) Integrated control for navigation, authentication, power on and rotation
CN109428969B (en) Edge touch method and device of double-screen terminal and computer readable storage medium
JP6000797B2 (en) Touch panel type input device, control method thereof, and program
US20120218231A1 (en) Electronic Device and Method for Calibration of a Touch Screen
KR102496531B1 (en) Method for providing fingerprint recognition, electronic apparatus and storage medium
US20130113955A1 (en) Method for controlling mobile terminal status and mobile terminal
US9727147B2 (en) Unlocking method and electronic device
JP2009276926A (en) Information processor and display information editing method thereof
US11048342B2 (en) Dual mode optical navigation device
US20120162061A1 (en) Activation objects for interactive systems
JP2003298689A (en) Cellular telephone
CN104508605A (en) Improvements in devices for use with computers
US20150212725A1 (en) Information processing apparatus, information processing method, and program
EP3832446A1 (en) Method and device for fingerprint acquisition, and touchpad
JP5224355B2 (en) Mobile terminal and program
JP2005301669A (en) Information processor and information processing program
JP5808705B2 (en) Information input device
US20190129609A1 (en) Electronic apparatus
JP3201596U (en) Operation input device
CN109814764B (en) Equipment control method and device and electronic equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

R150 Certificate of patent or registration of utility model

Ref document number: 5224355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees