JP4043447B2 - 筆記モーションの画区分認識システムおよびその認識方法 - Google Patents

筆記モーションの画区分認識システムおよびその認識方法 Download PDF

Info

Publication number
JP4043447B2
JP4043447B2 JP2004076002A JP2004076002A JP4043447B2 JP 4043447 B2 JP4043447 B2 JP 4043447B2 JP 2004076002 A JP2004076002 A JP 2004076002A JP 2004076002 A JP2004076002 A JP 2004076002A JP 4043447 B2 JP4043447 B2 JP 4043447B2
Authority
JP
Japan
Prior art keywords
time
image
standard deviation
predetermined
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004076002A
Other languages
English (en)
Other versions
JP2004280836A (ja
Inventor
遠 ▲チュル▼ 方
東 潤 金
旭 張
京 浩 姜
恩 碩 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004280836A publication Critical patent/JP2004280836A/ja
Application granted granted Critical
Publication of JP4043447B2 publication Critical patent/JP4043447B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air

Description

本発明は、モーションの認識システムに関し、特に、空間上で生じたモーションを認識するシステムおよびその認識方法に関する。
近年に入って、PDA、セルラーホン、ノートブック等のパーソナルモバイル機器の市場が広範囲に拡大しつつある。この種のパーソナルモバイル機器は、携帯し易いことから何時何所にでも情報を活用しようとするユビキタス環境に最も符合しているといえる。即ち、最近のモバイル機器は、従前の情報利用環境が家庭内に設置されたデスクトップPC等に限定されていたことから移動中でも情報が利用できるようにすることによって、何時何所にでも情報を活用することができるようにしている。
しかし、この種のモバイル機器は、携帯し易い分全体的な嵩が減少するに伴い、ユーザーのディスプレイを介しての認識および命令入力等に多少不便を強いられるという不具合がある。このように、モバイル機器においては、携帯の容易性と情報の入出力の容易性とが相反するため、これを克服するための方法が工夫されつつある。
最近、モバイル機器をより利用し易くするための代案として、ペン型入力システムが台頭しつつある。一般のペン型入力システムは、二次元平面上で道具を介して入力された筆記動作または選択動作を認識し、この認識した情報によって画面に内容を表示したり、対応する動作をするように設計されている。
図1は、従来のペン型入力システムの入力形態を示す図である。ペン型入力システムは、ユーザーが手に取って筆記または選択動作を行なえるスタイラスペン10およびディスプレイ22を有する。同図には、ディスプレイ22の二次元平面上にペン10の一部が接触した状態からメニュー選択命令および/または筆記動作を認識し、メニュー選択による対応動作または筆記内容をディスプレイ22に表示するPDA20を示している。ここで、ペン10は、別の電気的な手段を要することなく、単にポインティング道具または筆記道具としての役割を果たし、PDA20は、ペン10先の接触部位に対応する信号処理を行なう。
前記のようなペン型入力システムは、ディスプレイ22が有する二次元平面へのペン先の接触状態によって入力情報を判断する仕組みとなっている。即ち、PDA20は、ディスプレイに表示された現在の画面がメニューを表示する画面である場合、ペン10先の接触する領域に対応する情報をメニュー選択情報と判断し、この選択した位置情報に基づいて該当命令を行なう。また、PDA20は、筆記内容が認識できる画面を表示した状態では、ペン10の接触位置が連続して変る情報を獲得し、この獲得した情報から筆記内容をディスプレイ22の画面に表示する。
しかし、前記のようなペン型入力システムでは、ユーザーが二次元平面を有するディスプレイ上で筆記を行なうため、より正確に筆記内容が認識できるものの、メニュー選択または筆記動作を限定されたディスプレイ22画面内で行なう必要があることから、依然としてユーザーの入力動作には不便が伴うという不具合を抱えている。このような不具合を解決するために、特許文献1及び2は、ペンの内部にモーションを検出するためのセンサーを組み込み、ユーザーの三次元空間上での筆記動作を該センサーを介して検出し認識するシステムを提案している。
米国特許第6181329号公報 米国特許第6212296号公報
前記特許文献1及び2に開示されたペン型入力システムでは、三次元空間上で行われた筆記動作が認識でき、ユーザーが筆記面積に制限を受けることなく情報が入力できるようにする。しかし、このシステムでは、ユーザーの三次元空間上での筆記時、子音および母音またはアルファベット等の様々な記号が連続して発生することにより、認識エラーが生じ得る素地が大であるという不具合を抱えている。即ち、人々は、大半が筆記動作をする時、第3者が筆記内容をより把握し易いように子音および母音または各アルファベット等の記号を相互分節して筆記を行なう。しかし、前記ペン型システムの場合、ペンと筆記平面との摩擦による高周波信号を把握し、子音および母音並びにアルファベット等の記号が分節されたことと認識するため、三次元空間上で行われた筆記動作に対しては、更なる分節の認識ができなくなる。従って、三次元空間上での筆記動作による内容をディスプレイ等に表示したい場合、ユーザーの意図とは裏腹に連続した筆記体の内容としか表示できず、第3者が情報を認識するにおいて容易ではないという不具合がある。
本発明の目的は、前記のような問題点を解決するために、別の筆記面を要することなく、空間上での筆記動作による複数の記号に対し、純粋筆記内容のための記号だけを分節し認識する空間モーションの認識システムおよびその認識方法を提供することにある。
前記目的を達成するための本発明に係る空間モーションの認識システムは、3次元の空間上でシステム本体の動きによる加速度を検知し、電気的信号に出力するモーション検出部;および前記モーション検出部から出力された電気的信号より前記システム本体のモーションが一時停止された区間を最終筆記内容をなしている少なくとも1つの画が有する開始点と終わり点である前記画の分節と判断し、所定のサンプルに対する前記モーション検出部で検出された前記加速度の標準偏差と予め定められた所定の標準偏差の閾値とに基づき前記画の開始時間と前記画の終わり時間とを判断し、前記筆記内容を復元する制御部と;を含む。
また、前記目的を達成するための本発明に係る空間モーションの認識方法は、3次元の空間上でシステム本体の加速度を検出するステップと;前記システム本体のモーションが一時停止した区間が存在すると、最終筆記内容をなしている少なくとも1つの画を有している開始点と終わり点である前記画の分節と判断し、所定のサンプルに対する前記モーション検出部で検出された前記加速度の標準偏差と予め定められた所定の標準偏差の閾値とに基づき前記画の開始時間と前記画の終わり時間とを判断するステップ;および前記判断結果によって前記システム本体の筆記内容を復元するステップと;を含む。
以上のような本発明に係る空間モーションの認識システムおよび方法によると、ユーザーの空間上で行なった筆記動作に対し、画を区分して認識できるため、ユーザーの筆記内容を層一層正確に復元および再生できるようになる。
以上で説明した本発明に係る空間モーションの認識システムおよび方法によると、空間上での筆記動作に対し、画を区分することができるようになるため、より一層正確な認識を行なうことができることで認識エラーを画期的に低減することができ、ディスプレイ等により明確にユーザーの意図が表示できるようになる。
以下、添付した図面を参照して、本発明を詳細に説明する。
図2は、本発明の実施例に係る空間モーションの認識システムの概略的なブロック図である。システム100は、モーション検出部110、ディスプレイ120、送受信部130、および制御部140を含む。
モーション検出部110は、システム本体の加速度の変化および位置変化を連続して検出する。このために、モーション検出部110は、複数のジャイロセンサー、複数の加速度センサー、および各センサーから伝わった電気的信号から演算処理を行なう演算回路を含む構成を有する。
ディスプレイ120は、システム本体のモーションを画面から表示する。ここで、ディスプレイ120は、一つの本体を有する認識システム内に組み込まれてもよく、更には、他のシステム内に組み込まれた画面表示手段であってもよい。
送受信部130は、制御部140の制御下で認識されたモーション情報またはモーション情報に対応する制御信号を外部の他のシステムに伝送する。
制御部140は、モーション検出部110から検出されたシステム本体の加速度の変化および位置変化を検出し、システム本体の移動加速度および位置変化の情報に基づき、ユーザーの三次元空間上で行なった筆記内容を認識する。この時、制御部140は、システム本体の検出されたモーション情報に基づき、システム本体のモーションが一時停止した区間に対し分節区間と判断して筆記内容を復元する。
ここで、分節は、ユーザーの空間筆記動作によりシステム本体が動くことから一画の軌跡を分離することといえる。言い換えれば、三次元空間上での一画の軌跡は、毎画の開始と終りを見つけだすことといえる。三次元空間上で行われた筆記動作において二画の間に一画の一部または無意味な動きのある区間を識別することは容易なことではない。しかし、本発明のシステムでは、三次元空間上での筆記動作に対し、ユーザーにより意図的に毎画の開始と終りの間で停止する動作から画を区分するようになる。
モーション検出部110を介しての停止区間の検出は、一見して容易であるように思われるが、実際の応用では、手振れといった幾つかの障害要素がある。手振れに対する対処方法として、加速度測定値の臨界値を予め定義し、臨界値より小さい測定値を所定の時間維持するかどうかを測定することで簡単に解決できるようにみえる。しかし、ユーザーが他の方向にシステムの向きを切り換えると、加速度は瞬間的にゼロに近い値に測定される。この時、所定の時間以上に加速度が臨界値より小さい値を維持すると、検出エラーが発生する。従って、加速度がほぼゼロであることを必ずしも一時停止区間と決めつけることはできない。ユーザーがシステムを動かす間加速度を一定に保つことは非常に難しいことであるため、加速度の標準偏差に対して制御部140は一時停止を検出するために、次のような基準を有する。
1)所定の時間kに対し、時間区間[k、k+H]の間、下式(1)が成立する場合、kは画の開始k1である。
σs |An|(k)σth ・・・・・ (1)
2)所定の時間k≧k1+Wに対し、時間区間[k、k+H]の間、下式(2)が成立する場合、(k−S)は、画の終りk2である。
σs |An|(k)σth ・・・・・ (2)
ここで、σs |An|(k):時間kの直前のS個のサンプルに対する絶対値加速度|An|の標準偏差
σth:|An|に対する標準偏差の臨界値
W:一画を書くための最小の時間区間として予め設定される
H:臨界値σthより小となるσs |An|(k)を維持する最小の時間区間として予め設定される。
ここで、留意すべきことは、σs |An|(k)がk以前の複数のサンプルSにより影響を受けるため、基準2)において画の終りがkでなく、(k−S)になるという点である。
図3は、検出された加速度に対する標準偏差の典型的な推移と加速度の大きさを示す図である。また、図3には、空間上での筆記動作において一画の開始と終り部分を示す部分に対し拡大して示している。同図において、線A|An(k)|は、システム加速度において重力加速度の差を示し、線 B (σs |An|(k))はkまでのS個のサンプルに対する加速度の標準偏差を示し、線Cは標準偏差と臨界値の差を示す。図3の拡大された部分において、大きさの一致する二つのサンプル区間は、ユーザーにより一時停止動作が行われた区間を示す。
図4は、空間上で‘samsung’と書いた動作に対し、システムで分節部分を認識し表示しているシミュレーション図である。純粋な記号の区間は、多少高い加速度の変化を示し、ユーザーの一時停止動作による区間は、ほぼ一定な加速度を示していることが分かる。
以上では、本発明の好適な実施例について説明したが、本発明は、上述した特定の実施例に限定されるものではなく、請求の範囲で請求する本発明の要旨を逸脱することなく当該発明の属する技術分野における通常の知識を有する者であれば誰でも種々の変形実施が可能であることはもとより、そのような変更は、請求の範囲記載の範囲内にあることが明らかである。
三次元空間上での入力システムであって、モバイル機器のポータビリティーの向上のために適用される。
従来のペン型入力システムの入力形態の例を示す図である。 本発明の実施例に係る空間モーションの認識システムの概略的なブロック図である。 加速度に対する標準偏差の典型的な推移と加速度の大きさを示す図である。 空間上で‘samsung’と書いた動作に対し、システムで分節部分を認識し表示しているシミュレーション図である。
符号の説明
10:スタイラスペン
20:PDA
22:ディスプレイ面
100:システム
110:モーション検出部
120:ディスプレイ
130:送受信部
140:制御部

Claims (4)

  1. 3次元の空間上でシステム本体の動きによる加速度を検知し、電気的信号に出力するモーション検出部と、
    前記モーション検出部から出力された電気的信号から前記システム本体のモーションが一時停止された区間を最終筆記内容をなしている少なくとも1つの画が有する開始点と終わり点である前記画の分節であると判断し、所定のサンプルに対する前記モーション検出部で検出された前記加速度の標準偏差と予め定められた所定の標準偏差の閾値とに基づいて前記画の開始時間と前記画の終わり時間とを判断し、前記筆記内容を復元する制御部と、
    を含むことを特徴とする空間モーションの認識システム。
  2. 前記制御部は、ある時間k1について、
    時間区間[k1、k1+H]間の時間kに対して
    を満足すると、前記k1を前記画の開始時間であると判断することを特徴とする請求項1に記載の空間モーションの認識システム。
    (尚、
    はk-S+1からkまでのS個のサンプルに対する前記モーション検出部で検出された前記加速度の標準偏差、σthは予め定められた所定の標準偏差の閾値、Hは予め定められた所定の時間である。)
  3. 前記制御部は、前記画の開始時間から予め定められた所定の最小筆記時間が経過した後のある時間kについて、
    時間区間[k、k+H]間の時間kに対して、σ s CAnC(k) <σthを満足すると、 前記k-Sを前記画の終わり時間であると判断することを特徴とする、請求項2に記載の空間モーションの認識システム。
  4. 3次元の空間上でシステム本体の加速度を検出するステップと、
    前記システム本体のモーションが一時停止された区間が存在すると、最終筆記内容をなしている少なくとも1つの画を有している開始点と終わり点である前記画の分節と判断し、所定のサンプルに対する前記モーション検出部で検出された前記加速度の標準偏差と予め定められた所定の標準偏差の閾値とに基づき前記画の開始時間と前記画の終わり時間とを判断するステップと、
    前記判断結果によって前記システム本体の筆記内容を復元するステップと、
    を含むことを特徴とする空間モーションの認識方法。
JP2004076002A 2003-03-17 2004-03-17 筆記モーションの画区分認識システムおよびその認識方法 Expired - Fee Related JP4043447B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0016413A KR100518824B1 (ko) 2003-03-17 2003-03-17 필기 모션 획 구분 인식 시스템 및 그 인식방법

Publications (2)

Publication Number Publication Date
JP2004280836A JP2004280836A (ja) 2004-10-07
JP4043447B2 true JP4043447B2 (ja) 2008-02-06

Family

ID=32822733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004076002A Expired - Fee Related JP4043447B2 (ja) 2003-03-17 2004-03-17 筆記モーションの画区分認識システムおよびその認識方法

Country Status (5)

Country Link
US (1) US7474771B2 (ja)
EP (1) EP1460522A3 (ja)
JP (1) JP4043447B2 (ja)
KR (1) KR100518824B1 (ja)
CN (1) CN100445937C (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136914B2 (en) * 2001-08-06 2006-11-14 Ricoh Company, Ltd. System, computer program product and method for managing and controlling a local network of electronic devices
KR100777107B1 (ko) 2005-12-09 2007-11-19 한국전자통신연구원 가속도 센서를 이용한 문자인식 장치 및 방법
WO2007132451A2 (en) * 2006-05-11 2007-11-22 Prime Sense Ltd. Modeling of humanoid forms from depth maps
KR100891100B1 (ko) * 2007-07-27 2009-03-31 삼성전자주식회사 펜형 광마우스의 이동 궤적 추정 장치 및 방법
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
TWI374391B (en) * 2008-05-27 2012-10-11 Ind Tech Res Inst Method for recognizing writing motion and trajectory and apparatus for writing and recognizing system
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
TWI457793B (zh) * 2008-08-08 2014-10-21 Ind Tech Res Inst 即時動作辨識方法及其慣性感測與軌跡重建裝置
KR101009579B1 (ko) 2008-10-10 2011-01-20 한국과학기술원 가속도 신호의 처리 방법 및 이를 채용한 인터페이스 장치
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
CN102959616B (zh) 2010-07-20 2015-06-10 苹果公司 自然交互的交互真实性增强
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
WO2012103794A1 (zh) * 2011-01-31 2012-08-09 北京壹人壹本信息科技有限公司 一种手写原笔迹的实现方法、实现装置及电子装置
CN103347437B (zh) 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
CN102915171A (zh) * 2011-08-04 2013-02-06 王振兴 移动轨迹产生方法
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
TWM439217U (en) * 2012-05-02 2012-10-11 shun-fu Luo All new ui-e1-stroke operation control device
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
JP6222096B2 (ja) * 2012-09-19 2017-11-01 株式会社ニコン 電子機器、及びプログラム
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
CN104424473A (zh) * 2013-09-06 2015-03-18 北京三星通信技术研究有限公司 一种手绘草图识别和编辑的方法及装置
EP2911089B1 (en) * 2014-02-25 2018-04-04 Karlsruher Institut für Technologie Method and system for handwriting and gesture recognition
US9430702B2 (en) * 2014-07-10 2016-08-30 Korea Electronics Technology Institute Character input apparatus and method based on handwriting
US10169670B2 (en) 2015-11-30 2019-01-01 International Business Machines Corporation Stroke extraction in free space
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
CN106203053A (zh) * 2016-08-24 2016-12-07 深圳市金立通信设备有限公司 一种笔迹解锁方法及终端
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3699517A (en) * 1970-09-24 1972-10-17 Sylvania Electric Prod Handwriting authentication technique
US5828772A (en) * 1995-12-27 1998-10-27 Lucent Technologies Inc. Method and apparatus for parametric signature verification using global features and stroke-direction codes
US5902968A (en) * 1996-02-20 1999-05-11 Ricoh Company, Ltd. Pen-shaped handwriting input apparatus using accelerometers and gyroscopes and an associated operational device for determining pen movement
JP3776206B2 (ja) 1997-05-07 2006-05-17 株式会社リコー ペン型入力装置
US6212296B1 (en) * 1997-12-23 2001-04-03 Ricoh Company, Ltd. Method and apparatus for transforming sensor signals into graphical images
GB9908462D0 (en) * 1999-04-14 1999-06-09 New Transducers Ltd Handwriting coding and recognition
US6486874B1 (en) * 2000-11-06 2002-11-26 Motorola, Inc. Method of pre-caching user interaction elements using input device position

Also Published As

Publication number Publication date
EP1460522A2 (en) 2004-09-22
KR20040081855A (ko) 2004-09-23
US7474771B2 (en) 2009-01-06
CN1530876A (zh) 2004-09-22
CN100445937C (zh) 2008-12-24
KR100518824B1 (ko) 2005-10-05
JP2004280836A (ja) 2004-10-07
US20040184659A1 (en) 2004-09-23
EP1460522A3 (en) 2008-08-27

Similar Documents

Publication Publication Date Title
JP4043447B2 (ja) 筆記モーションの画区分認識システムおよびその認識方法
KR100465241B1 (ko) 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
US9746934B2 (en) Navigation approaches for multi-dimensional input
US9791957B2 (en) Dynamic input at a touch-based interface based on pressure
US6798429B2 (en) Intuitive mobile device interface to virtual spaces
EP1546993B1 (en) Method and system for three-dimensional handwriting recognition
EP1507192B1 (en) Detection of a dwell gesture by examining parameters associated with pen motion
KR100674090B1 (ko) 착용형 범용 3차원 입력 시스템
KR101234111B1 (ko) 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법
US8194926B1 (en) Motion estimation for mobile device user interaction
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
WO2014183351A1 (zh) 手写输入方法及装置
CN107272892B (zh) 一种虚拟触控系统、方法及装置
JP2015172887A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
KR20140058006A (ko) 전자 펜 입력 시스템 및 그를 이용한 전자 펜 입력 방법
KR101053411B1 (ko) 문자 입력 방법 및 그 단말기
KR101791222B1 (ko) 마우스 기능 제공 휴대 전자기기 및 그 운용 방법
KR20170004102A (ko) 전자 디바이스
JP2009003608A (ja) ペン入力装置、ペン入力方法
JP2006079221A (ja) 文字入力装置
KR101499044B1 (ko) 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법
KR102191943B1 (ko) 사용자 단말 장치, 사용자 단말 장치의 문자 입력 방법 및 컴퓨터 판독 가능한 기록 매체
KR20170001036A (ko) 전자 디바이스 및 그 제어방법
EP2677401B1 (en) Image data generation using a handheld electronic device
KR20040010453A (ko) 영상의 위치정보 입력 신호처리 장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20061025

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees