JP2009266097A - 入力機器 - Google Patents

入力機器 Download PDF

Info

Publication number
JP2009266097A
JP2009266097A JP2008117329A JP2008117329A JP2009266097A JP 2009266097 A JP2009266097 A JP 2009266097A JP 2008117329 A JP2008117329 A JP 2008117329A JP 2008117329 A JP2008117329 A JP 2008117329A JP 2009266097 A JP2009266097 A JP 2009266097A
Authority
JP
Japan
Prior art keywords
user
input
unit
input device
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008117329A
Other languages
English (en)
Inventor
Ryosuke Hiramatsu
良介 平松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008117329A priority Critical patent/JP2009266097A/ja
Priority to US12/343,002 priority patent/US20090267896A1/en
Publication of JP2009266097A publication Critical patent/JP2009266097A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者の筆記動作により様々な情報を入力可能な入力機器を提供する。
【解決手段】入力機器は、利用者特定情報及び筆記動作を検出するセンサ部と、利用者を特定する利用者情報と、利用者ごとに入力内容とコマンドとを予め関連づけた変換コマンドデータベースとを格納する記憶部と、センサ部が検出した利用者特定情報から利用者を識別して該当する利用者情報を取得するとともに、取得した利用者情報に基づいて該当する変換コマンドデータベースを取得する利用者識別部と、センサ部が検出した筆記動作から入力内容を認識する入力認識部と、変換コマンドデータベースと入力内容とに基づいてコマンドを出力する変換出力部とを有する。
【選択図】図1

Description

本発明は、入力機器に関する。
従来の技術として、ペングリップ部の圧力センサ、及び内蔵されたジャイロセンサによりペンの向き、入力している利用者、及び入力内容を判断する入力機器がある(例えば、特許文献1参照)。
この入力機器は、ペン型の外形を有しており、利用者の指によって握られるペングリップ部に設けられた圧力センサと、本体内に設けられたジャイロセンサと、利用者情報及び利用者辞書を格納する記憶部と、利用者識別部及び入力内容識別部として動作する制御部とを有し、制御部の利用者識別部は、圧力センサで検出した圧力の分布に基づいて利用者を判断し、判断結果から利用者情報、及び利用者辞書を選択して、入力内容識別部が圧力センサ及びジャイロセンサで検出した筆記動作をパターン認識するため、筆記動作に基づく入力内容を利用者に合わせて正確に判断することができる。
特開平10−198509号公報
しかし、従来の入力機器によると、筆記動作のパターン認識によって文字入力等を行うことができるが、文字情報の入力以外の動作が考慮されていない。また、利用者辞書に登録された文字以外の筆記動作は認識されない。
従って、本発明の目的は、利用者の筆記動作により様々な情報を入力可能な入力機器を提供することにある。
(1)本発明は上記目的を達成するため、筆記動作を検出するセンサ部と、前記センサ部が検出した前記筆記動作から入力内容を認識する入力認識部と、前記入力内容とコマンドとを予め関連づけた変換コマンドデータベースとを格納する記憶部と、前記変換コマンドデータベースと前記入力内容とに基づいてコマンドを出力する変換出力部とを有することを特徴とする入力機器を提供する。
上記した構成によれば、入力内容を変換コマンドデータベースに基づいてコマンドに変換するため、利用者の筆記動作により様々な情報を入力できる。
(2)本発明は上記目的を達成するため、利用者特定情報及び筆記動作を検出するセンサ部と、利用者を特定する利用者情報と、前記利用者ごとに入力内容とコマンドとを予め関連づけた変換コマンドデータベースとを格納する記憶部と、前記センサ部が検出した前記利用者特定情報から前記利用者を識別して該当する前記利用者情報を取得するとともに、取得した前記利用者情報に基づいて該当する前記変換コマンドデータベースを取得する利用者識別部と、前記センサ部が検出した前記筆記動作から入力内容を認識する入力認識部と、前記変換コマンドデータベースと前記入力内容とに基づいてコマンドを出力する変換出力部とを有することを特徴とする入力機器を提供する。
上記した構成によれば、(1)の効果に加え、利用者を特定して、特定した利用者用の変換コマンドデータベースを取得するため、利用者の筆記動作に合わせて様々な情報を入力できる。
本発明によれば、利用者の筆記動作により様々な情報を入力することができる。
以下に、本発明の入力機器の実施の形態を、図面を参照して詳細に説明する。
図1は、本発明の実施の形態に係る入力機器の外観を示す概略図である。
入力機器1は、尖状の先端部1aを有するペン型形状を有しており、利用者によって筆記操作がなされると、グリップ部に配された圧力センサ部10によって入力内容を認識し、入力内容を表示部12に表示する。また、入力機器1は、例えば、無線LAN(Local Area Network)モジュール等の無線通信部を内蔵しており、アンテナ11Aを介して情報処理装置2と通信して、入力内容を送信することができ、情報処理装置2は、受信した入力内容に基づいて文字入力を行ったり、音声ファイルの再生や停止、テレビ放送チャンネルの切替等を行う。
圧力センサ部10は、例えば、フレキシブル基板上に設けた下部電極と、フィルム上に設けた上部電極とを有し、下部電極と上部電極とを空気層を介して向かい合わせに配置することでコンデンサを形成して構成する。下部電極及び上部電極の対からなる圧力センサ素子は、500dpi程度の解像度で配置され、圧力分布を検出するとともに、把持している指の指紋を検出することができる。
(入力機器の構成)
図2は、本発明の実施の形態に係る入力機器の構成例を示すブロック図である。
入力機器1は、複数の圧力センサ素子からなり圧力の分布を検出する圧力センサ部10と、アンテナ11Aを介して無線LAN等の通信規格に基づいて外部機器と無線通信する通信部11と、筆記操作によって入力された入力内容等を表示する小型の液晶ディスプレイパネルからなる表示部12と、入力機器1内の各部の動作を制御する制御部13と、情報を読み書き可能に格納する不揮発性フラッシュメモリ等の記憶部14とを有する。
制御部13は、圧力センサ部10において検出される利用者の指紋に基づいて利用者を識別する利用者識別部13Aと、筆記操作に基づく圧力センサ部10の出力に基づいて入力内容を識別する入力識別部13Bと、入力識別部13Bによって識別された入力内容を後述する変換コマンドデータベース14Bに基づいてコマンドに変換する変換出力部13Cとを有する。
記憶部14は、圧力センサ部10において検出される指紋と利用者とを関連づける利用者情報14Aと、利用者ごとに入力識別部13Bによって識別された入力内容と予め定められたコマンドとを関連づける変換コマンドデータベース14Bとを有する。また、変換コマンドデータベース14Bは、利用者ごとに用意され利用者情報14Aと関連づけられている。また、変換コマンドデータベース14Bは、利用者によって書き換え可能としてもよい。
図3Aは、本発明の実施の形態に係る入力機器の筆記動作例を示す概略図である。
入力機器1は、利用者の手3によって把持され、一般的に人指し指3aの先のA点と、親指3bの先のB点と、中指3cの側面のC点と、人指し指3aの基節のD点とで把持される。圧力センサ部10は、A点〜D点の圧力をそれぞれ検出する。筆記動作の開始は、A点〜D点の圧力特性から入力認識部13Bが判断する。
図3Bは、本発明の実施の形態に係る入力機器の筆記動作例を示す概略図である。
図3Aの入力方法の他、入力機器1は、利用者の手3によって把持され、圧力センサ部10が、A点〜D点の圧力をそれぞれ検出するとともに、先端部1aが筆記面4に対して接しているかどうかによって筆記動作の開始を入力判断部13Bが判断するようにしてもよい。
以上のように、本発明において筆記動作とは、図3Bに示すように筆記面4に対して書き込む動作に限らず、図3Aに示すように空中に3次元的に書き込む動作も含む。また、筆記動作に対応する筆記内容は、文字や記号等に限らず、圧力センサ部10が圧力の時間的変化を検出できる状態であればどのような筆跡でもよい。
図4は、本発明の実施の形態に係る入力機器の圧力センサ部において認識される利用者の指紋の一例を示す概略図である。
指紋30は、圧力センサ部10の複数の圧力センサ素子において認識され、利用者識別部13Aは、指紋30を分析して中心点、三角州、端点、分岐点等を検出し、利用者情報14Aと比較することで利用者を識別する。また、入力識別部13Bは、指紋30の中心点、三角州、端点、分岐点の位置関係からペンの傾き、ペンの向き等を検知する。
図5の(a)及び(b)は、本発明の実施の形態に係る入力機器の圧力センサ部において認識される圧力特性と入力文字の対応例を示す概略図である。
圧力センサ部10において図3に示すA点〜D点の圧力は独立して検出され、例えば、図5(a)のように時間変化として検出される。入力認識部13Bは、A点〜D点の圧力変化の組み合わせから、図5(b)に示す入力内容を識別する。入力内容の識別のためのデータベースは、利用者情報14Aに含まれるものとする。
図6は、本発明の実施の形態に係る入力機器に対する入力内容と出力コマンドとの対応例を示す概略図である。
変換コマンドデータベース14Bは、入力内容を出力コマンドに対応づける。例えば、図6(a)に示すように、入力内容が「252786」である場合、「252786(西原さんの電話)」というように対応付ける。また、図6(b)に示すように、入力内容が「山川 正」である場合、「080123456」というように電話番号を対応付ける。また、図6(c)に示すように、入力内容が「TV−3」である場合、情報処理装置2において受信するテレビのチャンネルを3chに設定するコマンドを対応付ける。また、図6(d)に示すように、入力内容が独自のサインである場合、図示しない周辺機器Bの電源をOFFするコマンドを対応付ける。
(動 作)
以下に、本発明の実施の形態における入力機器の動作を各図を参照しつつ説明する。
図7は、本発明の実施の形態に係る入力機器の動作を示すフローチャートである。
まず、利用者識別部13Aは、利用者が圧力センサ部10に触れた際に指紋30を検出して利用者を識別して利用者情報14Aを取得する(S1)。次に、利用者情報14Aに基づいて利用者に対応付けられた変換コマンドデータベース14Bを取得する(S2)。
次に、利用者によって筆記操作がなされると(S3;Yes)、入力認識部は、圧力センサ部10のA点〜D点の圧力変化を取得して入力内容を認識する(S4)。次に、変換出力部13Cは、入力認識部13Bが認識した入力内容が変換コマンドデータベース14Bに存在するか否かを確認する(S5)。
入力内容が変換コマンドデータベース14Bに存在する場合(S5;Yes)、変換出力部13Cは、変換コマンドデータベース14Bに基づいてコマンドを出力する(S6)。また、入力内容が変換コマンドデータベース14Bに存在しない場合(S5;No)、入力内容をテキストデータ等の文字情報に変換して出力する(S7)。
ステップS6及びS7において出力されたコマンド及び文字情報は、表示部12に表示されるとともに(S8)、通信部11及びアンテナ11Aを介して外部機器、例えば、情報処理装置2に送信される(S9)。
(実施の形態の効果)
上記した実施の形態によると、入力機器1は、入力内容をコマンドに変換する変換コマンドベース14Bを有するため、筆記操作により文字情報以外の様々な情報を入力することができる。また、指紋30を取得することで利用者を識別し、利用者ごとに用意された変換コマンドベース14Bを取得するため、利用者の意向に合わせたコマンド変換を実行することができる。
また、文字コードに存在しない独自のサインを認識してコマンドに変換するため、利用者以外の人にコマンドの内容を知られることなく筆記操作することができる。
なお、利用者識別に関しては、静脈認証、虹彩認証、顔認証等の方法によって行ってもよく、方法は限定されない。また、筆記動作開始の検出に関しては、ジャイロセンサ、加速度センサ等を併用してもよい。
また、外部機器は、情報処理装置2に限られず、複数の外部機器に同時に接続してもよい。また、通信は、アクセスポイントとインターネットを介して遠隔地の外部機器を制御するようにしてもよい。
また、変換コマンドデータベース14Bは、学習機能部を設けることで利用者の入力内容の統計情報から学習して書き換える構成にしてもよい。
本発明の実施の形態に係る入力機器の外観を示す概略図である。 本発明の実施の形態に係る入力機器の構成例を示すブロック図である。 本発明の実施の形態に係る入力機器の筆記動作例を示す概略図である。 本発明の実施の形態に係る入力機器の筆記動作例を示す概略図である。 本発明の実施の形態に係る入力機器の圧力センサ部において認識される利用者の指紋の一例を示す概略図である。 (a)及び(b)は、本発明の実施の形態に係る入力機器の圧力センサ部において認識される圧力特性と入力文字の対応例を示す概略図である。 本発明の実施の形態に係る入力機器に対する入力内容と出力コマンドとの対応例を示す概略図である。 本発明の実施の形態に係る入力機器の動作を示すフローチャートである。
符号の説明
1…入力機器、1a…先端部、2…情報処理装置、3…手、3a…人指し指、3b…親指、3c…中指、4…筆記面、10…圧力センサ部、11…通信部、11A…アンテナ、12…表示部、13…制御部、13A…利用者識別部、13B…入力識別部、13C…変換出力部、14…記憶部、14A…利用者情報、14B…変換コマンドデータベース、30…指紋

Claims (7)

  1. 筆記動作を検出するセンサ部と、
    前記センサ部が検出した前記筆記動作から入力内容を認識する入力認識部と、
    前記入力内容とコマンドとを予め関連づけた変換コマンドデータベースとを格納する記憶部と、
    前記変換コマンドデータベースと前記入力内容とに基づいてコマンドを出力する変換出力部とを有することを特徴とする入力機器。
  2. 利用者特定情報及び筆記動作を検出するセンサ部と、
    利用者を特定する利用者情報と、前記利用者ごとに入力内容とコマンドとを予め関連づけた変換コマンドデータベースとを格納する記憶部と、
    前記センサ部が検出した前記利用者特定情報から前記利用者を識別して該当する前記利用者情報を取得するとともに、取得した前記利用者情報に基づいて該当する前記変換コマンドデータベースを取得する利用者識別部と、
    前記センサ部が検出した前記筆記動作から入力内容を認識する入力認識部と、
    前記変換コマンドデータベースと前記入力内容とに基づいてコマンドを出力する変換出力部とを有することを特徴とする入力機器。
  3. 前記センサ部は、圧力センサであり、
    前記利用者識別部は、前記センサ部から前記利用者特定情報として前記利用者の指紋を取得することを特徴とする請求項2に記載の入力機器。
  4. 前記変換コマンドデータベースは、前記変換コマンドデータベースに該当する入力内容がない場合、前記入力内容をテキストデータとして出力することを特徴とする請求項1又は2に記載の入力機器。
  5. 前記変換出力部は、通信部を介して外部機器に前記コマンドを出力することを特徴とする請求項1又は2に記載の入力機器。
  6. 前記変換出力部は、前記変換コマンドデータベースを前記利用者の操作に基づき変更することを特徴とする請求項1又は2に記載の入力機器。
  7. 前記変換出力部は、前記変換コマンドデータベースを前記利用者の操作履歴の統計情報に基づき変更することを特徴とする請求項1又は2に記載の入力機器。
JP2008117329A 2008-04-28 2008-04-28 入力機器 Pending JP2009266097A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008117329A JP2009266097A (ja) 2008-04-28 2008-04-28 入力機器
US12/343,002 US20090267896A1 (en) 2008-04-28 2008-12-23 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008117329A JP2009266097A (ja) 2008-04-28 2008-04-28 入力機器

Publications (1)

Publication Number Publication Date
JP2009266097A true JP2009266097A (ja) 2009-11-12

Family

ID=41214522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008117329A Pending JP2009266097A (ja) 2008-04-28 2008-04-28 入力機器

Country Status (2)

Country Link
US (1) US20090267896A1 (ja)
JP (1) JP2009266097A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242821A (ja) * 2012-05-23 2013-12-05 Hitachi Consumer Electronics Co Ltd 映像表示装置、およびその映像操作方法
JP2017517813A (ja) * 2014-06-12 2017-06-29 マイクロソフト テクノロジー ライセンシング,エルエルシー ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関
WO2019220803A1 (ja) * 2018-05-18 2019-11-21 株式会社ワコム 位置指示装置及び情報処理装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994646B2 (en) 2010-12-17 2015-03-31 Microsoft Corporation Detecting gestures involving intentional movement of a computing device
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US8988398B2 (en) * 2011-02-11 2015-03-24 Microsoft Corporation Multi-touch input device with orientation sensing
US8982045B2 (en) 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
JP2012212430A (ja) * 2011-03-24 2012-11-01 Nikon Corp 電子装置、操作者推定方法およびプログラム
US20130181953A1 (en) * 2012-01-13 2013-07-18 Microsoft Corporation Stylus computing environment
US8902181B2 (en) 2012-02-07 2014-12-02 Microsoft Corporation Multi-touch-movement gestures for tablet computing devices
KR102170321B1 (ko) * 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
US9870083B2 (en) 2014-06-12 2018-01-16 Microsoft Technology Licensing, Llc Multi-device multi-user sensor correlation for pen and computing device interaction
CN111399668A (zh) * 2015-01-20 2020-07-10 Otm技术有限公司 用于生成输入的设备和方法
US9830001B2 (en) * 2015-02-03 2017-11-28 Sony Mobile Communications Inc. Method, device and system for collecting writing pattern using ban
KR20170022192A (ko) * 2015-08-19 2017-03-02 삼성전자주식회사 터치 센서를 구비하고 있는 전자장치
US10248652B1 (en) 2016-12-09 2019-04-02 Google Llc Visual writing aid tool for a mobile writing device
TWI621971B (zh) * 2016-12-30 2018-04-21 華碩電腦股份有限公司 書寫姿勢提醒方法與使用其之電子系統

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181329B1 (en) * 1997-12-23 2001-01-30 Ricoh Company, Ltd. Method and apparatus for tracking a hand-held writing instrument with multiple sensors that are calibrated by placing the writing instrument in predetermined positions with respect to the writing surface
US6539101B1 (en) * 1998-04-07 2003-03-25 Gerald R. Black Method for identity verification
CN1425150A (zh) * 2000-12-27 2003-06-18 株式会社Ntt都科摩 手写数据输入装置及方法和个人认证装置及方法
GB2412153A (en) * 2004-03-20 2005-09-21 Hewlett Packard Development Co Digital pen with a memory tag reader/writer
US20060007189A1 (en) * 2004-07-12 2006-01-12 Gaines George L Iii Forms-based computer interface
JP2007109118A (ja) * 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242821A (ja) * 2012-05-23 2013-12-05 Hitachi Consumer Electronics Co Ltd 映像表示装置、およびその映像操作方法
JP2017517813A (ja) * 2014-06-12 2017-06-29 マイクロソフト テクノロジー ライセンシング,エルエルシー ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関
WO2019220803A1 (ja) * 2018-05-18 2019-11-21 株式会社ワコム 位置指示装置及び情報処理装置
JPWO2019220803A1 (ja) * 2018-05-18 2021-06-10 株式会社ワコム 位置指示装置及び情報処理装置
JP2021114346A (ja) * 2018-05-18 2021-08-05 株式会社ワコム 位置指示装置、コンピュータ、制御方法
JP7373258B2 (ja) 2018-05-18 2023-11-02 株式会社ワコム 位置指示装置、コンピュータ、制御方法

Also Published As

Publication number Publication date
US20090267896A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP2009266097A (ja) 入力機器
EP2680110B1 (en) Method and apparatus for processing multiple inputs
JP7061465B2 (ja) 指紋認識を用いる操作方法、装置、およびモバイル端末
US9274551B2 (en) Method and apparatus for data entry input
KR101345755B1 (ko) 휴대용 단말기의 조작제어장치 및 그 방법
US9551590B2 (en) Gesture-based information and command entry for motor vehicle
WO2017024748A1 (zh) 指纹识别系统及方法、显示装置
CN106502570A (zh) 一种手势识别的方法、装置及车载系统
JP5172485B2 (ja) 入力装置及び入力装置の制御方法
US20170153804A1 (en) Display device
US20150074796A1 (en) User Verification for Changing a Setting of an Electronic Device
CN104704453A (zh) 在触敏输入面板上使用形状书写来进行文本输入
US20040239624A1 (en) Freehand symbolic input apparatus and method
US20150365515A1 (en) Method of triggering authentication mode of an electronic device
US20170270357A1 (en) Handwritten auto-completion
CN109117704A (zh) 压力识别装置和包括压力识别装置的电子装置
KR20140044585A (ko) 휴대단말기의 사용 방법 및 장치
KR20190093003A (ko) 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법
KR20160143428A (ko) 펜 단말기 및 그 제어방법
WO2020244401A1 (zh) 基于靠近嘴部检测的语音输入唤醒装置、方法和介质
JP2015018413A (ja) 携帯端末、画像表示方法、及びプログラム
KR101053411B1 (ko) 문자 입력 방법 및 그 단말기
CN103425406A (zh) 一种移动终端的输入方法及装置
JP2010128666A (ja) 情報処理装置
KR102032196B1 (ko) 점자 인식이 가능한 하이브리드 워치

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091117