JP5621464B2 - 動作検出装置、記録システム及びプログラム - Google Patents
動作検出装置、記録システム及びプログラム Download PDFInfo
- Publication number
- JP5621464B2 JP5621464B2 JP2010214076A JP2010214076A JP5621464B2 JP 5621464 B2 JP5621464 B2 JP 5621464B2 JP 2010214076 A JP2010214076 A JP 2010214076A JP 2010214076 A JP2010214076 A JP 2010214076A JP 5621464 B2 JP5621464 B2 JP 5621464B2
- Authority
- JP
- Japan
- Prior art keywords
- recording
- state
- data
- unit
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 77
- 230000033001 locomotion Effects 0.000 title claims description 19
- 230000004044 response Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 description 46
- 230000001133 acceleration Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 7
- 210000004243 sweat Anatomy 0.000 description 7
- 210000000245 forearm Anatomy 0.000 description 5
- 230000035900 sweating Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Drawing Aids And Blackboards (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明の請求項3に係る動作検出装置は、請求項2に記載の構成において、前記記録媒体は、第1記録媒体と第2記録媒体とを含み、前記判断手段は、前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第1記録媒体に情報を記録する状態であると判断し、前記第1検出手段により検出された前記傾きが前記ある角度より大きく、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第2記録媒体に情報を記録する状態であると判断する構成を有する。
本発明の請求項4に係る動作検出装置は、請求項3に記載の構成において、前記第1検出手段は、前記傾きを検出するとともに、前記記録者による筆記動作に対応する第1データのパターンに基づき筆記動作を検出し、前記判断手段は、前記筆記動作が検出され、かつ、検出された前記傾きがある角度以下である場合において、前記第2検出手段により検出された距離が前記閾値以下であるとき、前記記録者が前記第1記録媒体に情報を記録する状態であると判断する構成を有する。
本発明の請求項5に係る動作検出装置は、請求項1ないし4のいずれかに記載の構成において、前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、前記判断手段は、前記識別手段により識別された記録者に応じて、前記閾値を異ならせる構成を有する。
本発明の請求項6に係る動作検出装置は、請求項4に記載の構成において、前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、前記判断手段は、前記識別手段により識別された記録者に応じて、前記パターンを異ならせる構成を有する。
本発明の請求項2に記載の構成によれば、記録面が水平に対して垂直ないし垂直に近い状態になされたホワイトボード等の記録媒体に情報が記録されている状態を判断することが可能である。
本発明の請求項3に記載の構成によれば、傾きが異なる2つの記録媒体に情報が記録されている状態をそれぞれ区別して判断することが可能である。
本発明の請求項4に記載の構成によれば、ホワイトボード等の記録媒体に実際に筆記が行われている状態とそうでない状態とを区別して判断することが可能である。
本発明の請求項5に記載の構成によれば、判断手段が判断に用いる閾値を記録者毎に異ならせない場合に比べ、記録者の筆記の態様の個人差に起因する判断の誤りが生じることを少なくすることが可能である。
本発明の請求項6に記載の構成によれば、判断手段が判断に用いるパターンを記録者毎に異ならせない場合に比べ、記録者の筆記の態様の個人差に起因する判断の誤りが生じることを少なくすることが可能である。
本発明の請求項7に記載の構成によれば、記録者の状態の判断結果に応じない場合と比較して、参照される頻度が低い情報の記録を減らすことが可能である。
図1は、本発明の一実施形態に係る室内の様子を示す模式図であり、例えば、オフィス内の会議室などの様子である。図1に示すように、この室内には、複数のユーザUa、Ub、Ucが在室している。また、室内には、ホワイトボード910とテーブル900とが配置されている。テーブル900の上には、情報処理装置100と、カメラ300と、マイクロホン400と、ノート920とが置かれている。
なお、脈拍センサ230及び発汗センサ240は、ユーザUが筆記具930による記録を行っていないときにも計測を行うようにしてもよい。
データベース500は、ユーザデータと、カメラ300から送信された画像データと、マイクロホン400から送信された音声データとを記憶する。また、データベース500は、これらのデータを検索して出力する検索機能を有する。かかる機能は、情報処理装置100や他のコンピュータ装置からの要求に応じて、ユーザデータ、画像データ及び音声データのうちの必要なデータを検索して出力するものである。データベース500は、本発明に係る記憶手段の一例に相当するものである。
なお、第2検出部113は、記録媒体(ホワイトボード910又はノート920)の色や当該記録媒体にあらかじめ記された目印を認識する機能を有することにより、記録媒体を記録媒体以外の他の物体と区別して認識する可能性を向上させてもよい。
なお、ステップSa16において、制御部110は、識別データ及び状態データだけでなく、他のユーザデータをあわせてデータベース500に記録させてもよい。
本発明の実施の態様は、上述した実施形態に限定されるものではなく、例えば、以下に示す変形例のようであってもよい。また、これらの変形例は、必要に応じて組み合わせて実施されてもよいものである。
本発明において、ユーザ(又は記録者)の状態とは、上述した実施形態で例示されたものに限定されない。例えば、ユーザの状態は、緊張の度合いを3段階や5段階に分けて判断されてもよい。また、記録者が情報を記録する状態とは、記録者が現に筆記を行っている状態(例えば、上述した状態1、2及び3)だけでなく、記録者がこれから筆記を行おうとしている状態(例えば、上述した状態4)を含んでもよい。すなわち、本発明において、記録者が情報を記録する状態とは、当該記録者が現に記録している場合だけでなく、それから記録を開始する蓋然性が高い場合をも含み得るものである。
一般に、ユーザの筆記の態様には、癖や体格差に起因する個人差がある。例えば、ユーザには、文字を書く速度や、ホワイトボード910に筆記するときのホワイトボード910との距離に相違がある。そこで、情報処理装置100は、ユーザUの状態を判断する場合に用いるデータのパターンや閾値をユーザU毎に記憶し、識別部114により識別された記録者に応じてデータのパターンや閾値を異ならせてもよい。
上述した実施形態において、出力処理部116は、本発明に係る出力処理手段の一例として機能するものである。しかしながら、本発明に係る出力処理手段は、判断手段(例えば、判断部115)による判断結果に基づく出力処理を実行するものであれば足り、当該出力処理がデータを記録する処理である必要はない。例えば、本発明は、判断手段による判断結果を示すデータ(例えば、状態データ)を外部装置に出力する手段として出力処理手段を構成し、かかる外部装置がデータの記録や検索に関する処理を行う態様であってもよい。
本発明において、第1センサ及び第2センサは、これらが一体に構成されていなくてもよい。例えば、第1センサは、前腕部ではなく、手の平や手の甲に装着されてもよいし、第2センサは、ユーザの胴体に装着されてもよい。第2センサの位置は、ユーザの体や衣服の一部であればどのような位置であってもよいが(ただし、正面側であることが望ましい)、第1センサの位置は、持ち手の状態を検出可能な位置である必要がある。なお、持ち手の傾きに相当する角度として検出される角度は、第1センサが装着される位置に応じて異なり得る。よって、持ち手の傾きについて設定される閾値θthは、第1センサが装着される位置に応じて決められることが望ましい。
本発明に係る動作検出装置は、第1センサ及び第2センサの少なくともいずれかと一体に設けられる構成であってもよい。すなわち、本発明に係る動作検出装置は、上述した実施形態におけるセンサユニット200のようなユーザUに装着される装置に内蔵される構成であってもよい。上述した実施形態をこのように変形した場合、出力処理手段は、例えば、情報処理装置100に状態データを出力する処理を実行する手段として機能する。
本発明に係る記録媒体は、ユーザにより記録された情報(すなわち、筆記の軌跡)を記憶し、これを情報処理装置等の外部装置に送信する構成を有していてもよい。かかる記録媒体を用いる場合には、上述したカメラ300に相当する構成を記録媒体自体が備えるため、かかる構成を別途設ける必要がなくなる。かかる記録媒体としては、例えば、記録面を光学的に読み取る機能を有するホワイトボードや、記録面に設けられたタッチスクリーン(タッチパネル)によって記録者の筆跡を認識する機能を有する表示装置(いわゆるタブレットPCや電子ペーパ)がこれに該当し得る。
本発明において、記録媒体を撮影する撮影手段や、音声を収音する収音手段は、必須の構成要件ではない。一方、かかる撮影手段や収音手段は、上述したように、携帯電話機等の携帯端末によって実現されてもよい。携帯端末が撮影手段や収音手段として機能する場合には、各ユーザが個別にこれを所持し、自身に必要な画像や音声のみが記録されるようにしてもよい。かかる場合には、撮影や収音の開始・終了は、ユーザの操作に応じて行われてもよい。
本発明は、動作検出装置やこれを備える情報処理装置、さらには情報処理装置とデータベースとを備える記録システムやその記録方法として実施され得るものである。なお、本発明に係るデータベースに相当する記憶手段は、情報処理装置に備わっていてもよいし、ネットワークを介することなく情報処理装置に接続されていてもよい。また、本発明は、コンピュータを動作検出装置として機能させるためのプログラムや、かかるプログラムを記録した記録媒体の形態でも提供され得る。また、本発明に係るプログラムは、インターネット等の通信手段を介してコンピュータにダウンロードされてもよい。
Claims (8)
- 記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出手段と、
前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出手段と、
前記記録者の状態を判断する判断手段であって、前記第1検出手段により検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出手段により検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断手段と、
前記判断手段による前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成手段と
を備えることを特徴とする動作検出装置。 - 前記第1検出手段は、前記第1データに基づき前記持ち手の鉛直方向に対する傾きを検出し、
前記判断手段は、前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記記録媒体に情報を記録する状態であると判断する
ことを特徴とする請求項1に記載の動作検出装置。 - 前記記録媒体は、第1記録媒体と第2記録媒体とを含み、
前記判断手段は、
前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第1記録媒体に情報を記録する状態であると判断し、
前記第1検出手段により検出された前記傾きが前記ある角度より大きく、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第2記録媒体に情報を記録する状態であると判断する
ことを特徴とする請求項2に記載の動作検出装置。 - 前記第1検出手段は、前記傾きを検出するとともに、前記記録者による筆記動作に対応する第1データのパターンに基づき筆記動作を検出し、
前記判断手段は、
前記筆記動作が検出され、かつ、検出された前記傾きがある角度以下である場合において、前記第2検出手段により検出された距離が前記閾値以下であるとき、前記記録者が前記第1記録媒体に情報を記録する状態であると判断する
ことを特徴とする請求項3に記載の動作検出装置。 - 前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、
前記判断手段は、前記識別手段により識別された記録者に応じて、前記閾値を異ならせる
ことを特徴とする請求項1ないし4のいずれかに記載の動作検出装置。 - 前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、
前記判断手段は、前記識別手段により識別された記録者に応じて、前記パターンを異ならせる
ことを特徴とする請求項4に記載の動作検出装置。 - 請求項1に記載の第1センサ及び第2センサと、
請求項1ないし6のいずれかに記載の動作検出装置と、
前記記録者により前記記録媒体に記録された情報を取得する情報取得手段と、
前記出力データ作成手段により作成された出力データに基づく情報を記憶する記憶手段と
を備え、
前記出力データ作成手段は、前記判断手段による前記記録者の状態の判断結果に応じて、前記記録者があらかじめ定めた状態である場合に限り、前記情報取得手段により取得された情報と前記判断結果とに基づく前記出力データを作成し、
前記記憶手段は、前記出力データ作成手段により作成された前記出力データに基づき、前記情報取得手段により取得された情報を前記判断手段による判断結果と対応付けて記憶する
ことを特徴とする記録システム。 - コンピュータに、
記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出ステップと、
前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出ステップと、
前記記録者の状態を判断するステップであって、前記第1検出ステップにおいて検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出ステップにおいて検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断ステップと、
前記判断ステップにおける前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成ステップと
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010214076A JP5621464B2 (ja) | 2010-09-24 | 2010-09-24 | 動作検出装置、記録システム及びプログラム |
US13/007,233 US20120075206A1 (en) | 2010-09-24 | 2011-01-14 | Motion detecting device, recording system, computer readable medium, and motion detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010214076A JP5621464B2 (ja) | 2010-09-24 | 2010-09-24 | 動作検出装置、記録システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012070259A JP2012070259A (ja) | 2012-04-05 |
JP5621464B2 true JP5621464B2 (ja) | 2014-11-12 |
Family
ID=45870133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010214076A Expired - Fee Related JP5621464B2 (ja) | 2010-09-24 | 2010-09-24 | 動作検出装置、記録システム及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120075206A1 (ja) |
JP (1) | JP5621464B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102170321B1 (ko) * | 2013-06-17 | 2020-10-26 | 삼성전자주식회사 | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 |
JP6079695B2 (ja) * | 2014-05-09 | 2017-02-15 | コニカミノルタ株式会社 | 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム |
JP7247466B2 (ja) * | 2018-03-23 | 2023-03-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システムおよびプログラム |
JP2020008724A (ja) * | 2018-07-09 | 2020-01-16 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP6957695B1 (ja) * | 2020-07-30 | 2021-11-02 | 株式会社ジンズホールディングス | プログラム、情報処理方法、及び情報処理装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4988981B1 (en) * | 1987-03-17 | 1999-05-18 | Vpl Newco Inc | Computer data entry and manipulation apparatus and method |
JP3185505B2 (ja) * | 1993-12-24 | 2001-07-11 | 株式会社日立製作所 | 会議録作成支援装置 |
JP3819654B2 (ja) * | 1999-11-11 | 2006-09-13 | 株式会社シロク | 指示体の識別機能を有する光デジタイザ |
JP3936295B2 (ja) * | 2002-05-28 | 2007-06-27 | 株式会社国際電気通信基礎技術研究所 | データベース作成装置 |
US7565295B1 (en) * | 2003-08-28 | 2009-07-21 | The George Washington University | Method and apparatus for translating hand gestures |
US8542219B2 (en) * | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US20080055194A1 (en) * | 2006-08-31 | 2008-03-06 | Motorola, Inc. | Method and system for context based user interface information presentation and positioning |
JP2009004846A (ja) * | 2007-06-19 | 2009-01-08 | Hitachi Software Eng Co Ltd | 電子黒板連携授業録画システム |
JP2009033253A (ja) * | 2007-07-24 | 2009-02-12 | Sharp Corp | 電子黒板装置 |
US8007110B2 (en) * | 2007-12-28 | 2011-08-30 | Motorola Mobility, Inc. | Projector system employing depth perception to detect speaker position and gestures |
US20090309853A1 (en) * | 2008-06-13 | 2009-12-17 | Polyvision Corporation | Electronic whiteboard system and assembly with optical detection elements |
US20100216508A1 (en) * | 2009-02-23 | 2010-08-26 | Augusta Technology, Inc. | Systems and Methods for Driving an External Display Device Using a Mobile Phone Device |
-
2010
- 2010-09-24 JP JP2010214076A patent/JP5621464B2/ja not_active Expired - Fee Related
-
2011
- 2011-01-14 US US13/007,233 patent/US20120075206A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20120075206A1 (en) | 2012-03-29 |
JP2012070259A (ja) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101026630B1 (ko) | 범용 컴퓨팅 장치 | |
Kratz et al. | HoverFlow: expanding the design space of around-device interaction | |
US10055563B2 (en) | Air writing and gesture system with interactive wearable device | |
CN102362243B (zh) | 多远程指向器、虚拟对象显示装置和虚拟对象控制方法 | |
US9134800B2 (en) | Gesture input device and gesture input method | |
Kim et al. | The gesture watch: A wireless contact-free gesture based wrist interface | |
JP5621464B2 (ja) | 動作検出装置、記録システム及びプログラム | |
JP5882220B2 (ja) | 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術 | |
JP2012256378A (ja) | 動き検知装置による携帯装置の制御システム、制御方法、データ入力システムおよびデータ入力方法 | |
CN106468780B (zh) | 可携带装置与相关的震动侦测方法 | |
CN110333758A (zh) | 用于控制多个对象的显示的方法及其移动终端 | |
TW201007508A (en) | Real-time motion recognition method and inertia sensing and trajectory | |
MXPA05000421A (es) | Diseno de sistema optico para un dispositivo de computo universal. | |
US20160321029A1 (en) | Electronic device and method for processing audio data | |
CN106471450A (zh) | 信息处理设备、信息处理方法和程序 | |
CN109804638A (zh) | 移动装置的双模式增强现实界面 | |
CN108280171A (zh) | 一种基于手持拍照设备的搜题方法及系统 | |
JP6349727B2 (ja) | 処理システム、ウェアラブル装置、複数の電子機器の連携方法及びプログラム | |
CN108763475A (zh) | 一种录制方法、录制装置及终端设备 | |
CN107787478A (zh) | 在用户界面显示器中选择内容项 | |
CN109871117A (zh) | 信息处理装置、显示装置及信息处理系统 | |
JP5962505B2 (ja) | 入力装置、入力方法及びプログラム | |
KR20160060385A (ko) | 사용자 손가락들의 모션에 기반한 한글 입력 방법 및 장치 | |
JP6875861B2 (ja) | 情報処理方法、装置、及びプログラム | |
JP5391860B2 (ja) | ストローク表示装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5621464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |