JP2021101246A - 情報処理方法、電子機器およびパネル型電子機器 - Google Patents
情報処理方法、電子機器およびパネル型電子機器 Download PDFInfo
- Publication number
- JP2021101246A JP2021101246A JP2021036499A JP2021036499A JP2021101246A JP 2021101246 A JP2021101246 A JP 2021101246A JP 2021036499 A JP2021036499 A JP 2021036499A JP 2021036499 A JP2021036499 A JP 2021036499A JP 2021101246 A JP2021101246 A JP 2021101246A
- Authority
- JP
- Japan
- Prior art keywords
- information
- electronic device
- writing
- frequency
- pen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 37
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 230000008859 change Effects 0.000 claims abstract description 61
- 230000001133 acceleration Effects 0.000 claims abstract description 50
- 230000000694 effects Effects 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 119
- 238000000034 method Methods 0.000 claims description 78
- 230000008569 process Effects 0.000 claims description 65
- 235000013601 eggs Nutrition 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000013016 learning Effects 0.000 abstract description 40
- 230000008450 motivation Effects 0.000 abstract description 10
- 206010034719 Personality change Diseases 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 51
- 230000006870 function Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 31
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000010248 power generation Methods 0.000 description 13
- 241001122315 Polites Species 0.000 description 11
- 238000013459 approach Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 9
- 239000000047 product Substances 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000009987 spinning Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 230000001680 brushing effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 206010052804 Drug tolerance Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000015872 dietary supplement Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000026781 habituation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/33—Writer recognition; Reading and verifying signatures based only on signature image, e.g. static signature recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/825—Fostering virtual characters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B43—WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
- B43K—IMPLEMENTS FOR WRITING OR DRAWING
- B43K29/00—Combinations of writing implements with other articles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B43—WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
- B43K—IMPLEMENTS FOR WRITING OR DRAWING
- B43K29/00—Combinations of writing implements with other articles
- B43K29/08—Combinations of writing implements with other articles with measuring, computing or indicating devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B11/00—Teaching hand-writing, shorthand, drawing, or painting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Electrically Operated Instructional Devices (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
(A)前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように前記表示部に情報を表示させる。
(B)前記度数に対応して音や声で呼びかける、効果音を鳴らす、音楽を流す、の少なくともいずれかになるように前記スピーカに情報を出力させる。
(A)前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように前記表示部に情報を表示させる。
(B)前記度数に対応して音や声で呼びかける、効果音を鳴らす、音楽を流す、の少なくともいずれかになるように前記スピーカに情報を出力させる。
図1は、第1実施形態に係る電子機器を例示する模式図である。
図2は、第1実施形態に係る電子機器を例示するブロック図である。
本実施形態に係る電子機器は、シャープペンシルや、ボールペンなどのようなペン型電子機器1である。ペン型電子機器1は、筆記機能を有する本体10を備える。本体10には、ディスプレイ(表示部)2、情報処理部4、バッテリー5およびセンサ6が設けられる。
図3は、本実施形態に係る情報処理方法の概略を示すフローチャートである。
なお、ここではペン型電子機器1を用いた情報処理方法を例示するが、他の形態の電子機器であっても同様な情報処理方法を適用することができる。
図4は、本実施形態に係る情報処理方法の詳細例(その1)を示すフローチャートである。
図4に示す情報処理方法の詳細例(その1)では、先ず、ペン型電子機器1の動作を開始すると(ステップS541)、センサ6によって動きを検知したか否かの判断を行う(ステップS542)。動きを検知した場合には、センサ6によって検知した動きに基づき動きの情報を取得し(ステップS543)、取得した動きの情報を蓄積する(ステップS544)。動きの情報は、ペン型電子機器1内のメモリ42に蓄積されてもよいし、ネットワークを介して外部の機器(携帯端末7、サーバ等)に蓄積されてもよい。
図5に示す情報処理方法の詳細例(その2)では、図4に示す情報処理方法の詳細例(その1)の処理のうち、情報送信(ステップS546)および情報分析/判断(ステップS547)が省略されている。すなわち、詳細例(その2)の処理は、ペン型電子機器1の動作の開始(ステップS541)、動き検知(ステップS542)、動き情報取得(ステップS543)、動き情報蓄積(ステップS544)、情報分析/判別(ステップS545)、変化判断(ステップS548)、変化の判断に対応した処理(ステップS549)、継続判断(ステップS550)、処理終了(ステップS551)を有する。
図6に示す情報処理方法の詳細例(その3)では、図4に示す情報処理方法の詳細例(その1)の処理のうち、情報分析/判断(ステップS545)が省略されている。すなわち、詳細例(その3)の処理は、ペン型電子機器1の動作の開始(ステップS541)、動き検知(ステップS542)、動き情報取得(ステップS543)、動き情報蓄積(ステップS544)、情報送信(ステップS546)、情報分析/判別(ステップS547)、変化判断(ステップS548)、変化の判断に対応した処理(ステップS549)、継続判断(ステップS550)、処理終了(ステップS551)を有する。
図7に示す情報処理方法の詳細例(その4)では、図4に示す情報処理方法の詳細例(その1)の処理のうち、情報分析/判断(ステップS547)が省略されている。すなわち、詳細例(その4)の処理は、ペン型電子機器1の動作の開始(ステップS541)、動き検知(ステップS542)、動き情報取得(ステップS543)、動き情報蓄積(ステップS544)、情報分析/判別(ステップS545)、情報送信(ステップS546)、変化判断(ステップS548)、変化の判断に対応した処理(ステップS549)、継続判断(ステップS550)、処理終了(ステップS551)を有する。
図8および図9は、第1実施形態の他の構成例を示す模式図である。
図8(a)に示すペン型電子機器1は、本体10にセンサ6と情報処理部4とが設けられた例である。すなわち、図8(a)に示すペン型電子機器1では、図1に示すようなディスプレイ2が設けられていない。ペン型電子機器1の本体10にディスプレイ2が設けられていなくても、携帯端末7などの外部機器の表示部に画像を表示させればよい。ペン型電子機器1にディスプレイ2が設けられていないことで、軽量化およびコストダウンを図ることができる。
図10に示すように、第1のペン型電子機器11と、第2のペン型電子機器12とを所定の距離まで接近させたり、互いに接触させたりするといった筆記動作以外の動作をセンサ6で検知した場合、ソフトウェア上でキャラクタ等同士が接近(接触)して、特定の動作が発生する。
また、第1のペン型電子機器11と第2のペン型電子機器12との接近または接触によって、一方の機器の情報を他方の機器へ転送するようにしてもよい。
先ず、一方のペン型電子機器の制御部41によって、他方のペン型電子機器が接近したか否かを検出する(ステップS8)。接近を検知した場合、制御部41は接近した他方のペン型電子機器の情報を取得する(ステップS9)。
図12に示すように、本実施形態に係るペン型電子機器1は、専用の補助機器17に接続して使用するようにしてもよい。
補助機器17は、充電用端子18、ディスプレイ19を備える。ディスプレイ19はタッチパネルになっていてもよい。例えば、ペン型電子機器1は補助機器17の収納部17aに差し込まれ、充電用端子18と接続される。これにより、充電が行われる。
また、補助機器17は、ネットワーク(例えば、無線LANやインターネット)との接続や外部機器との接続を行う通信部21や、持ち運ぶ際に便利なバッテリー22を備えていてもよい。
すなわち、図14に示すペン型電子機器1は、発電部71を備えている。このペン型電子機器1の発電部71は、筆記動作や持ち運びの際の動き、本体10を振る、などの動きによって発電し、バッテリー5への充電を行っている。バッテリー5は、発電部71による発電で充電される。
図15は、第2実施形態に係る電子機器を例示する模式図である。
本実施形態に係る電子機器は、シャープペンシルや、ボールペンなどのような筆記具84に装着するグリップ型電子機器81である。グリップ型電子機器81は、筆記具84の柄の部分に取り付け可能な本体80を備える。本体80には、センサ82およびメモリ83が設けられる。
図16〜図18は、第2実施形態の他の構成例を示す模式図である。
図16に示すグリップ型電子機器81は、本体80にディスプレイ87が設けられた構成を有する。本体80にディスプレイ87が設けられていることで、ソフトウェア上のキャラクタ等の画像を手元のグリップ型電子機器81で確認することができる。
図18(a)に示すように、本実施形態に係るグリップ型電子機器81は、専用の補助機器93に接続して使用されてもよい。
補助機器93は、充電用端子94、ディスプレイ19を備える。ディスプレイ19はタッチパネルになっていてもよい。例えば、グリップ型電子機器81は、筆記具84に取り付けられた状態で補助機器93の収納位置に差し込まれ、充電用端子94と接続される。これにより、充電が行われる。
すなわち、図18(b)に示すグリップ型電子機器81は、発電部95を備えている。このグリップ型電子機器81の発電部95は、筆記動作や持ち運びの際の動き、本体80を振る、などの動きによって発電し、バッテリー88への充電を行っている。バッテリー88は、発電部95による発電で充電される。
図15〜図18に示す例では、筆記具84に装着するグリップ型電子機器81を説明したが、図19に示すように、筆記具84に装着するキャップ型電子機器85であってもよい。キャップ型電子機器85は、筆記具84を使用する際に筆記具84の柄に差し込むように装着される。また、筆記具84を使用しないときは、筆記具84の先端(ペン先10p側)に差し込んで、ペンキャップとして用いられる。
図20は、第3実施形態に係る電子機器を例示する模式図である。
本実施形態に係る電子機器は、タッチパネル等の検知部を有するパネル型電子機器100である。パネル型電子機器100は、パネル部105と、制御部110と、メモリ120とを備える。
本実施形態に係る電子機器の例であるパネル型電子機器100の動作を開始すると(ステップS101)、先ず、パネル部105の検知部106によって筆跡(軌跡)を検知したか否かの判断を行う(ステップS102)。筆跡を検知した場合には、検知部106によって検出した軌跡に基づき軌跡の情報を取得する(ステップS103)。軌跡の情報は、筆記の度数である。
図22に示すように、第1のパネル型電子機器102と、第2のパネル型電子機器103とを所定の距離まで接近させたり、互いに接触させたりするといった筆記動作以外の動作をした場合、ソフトウェア上でキャラクタ等同士が接近(接触)して、特定の動作が発生する。
また、第1のパネル型電子機器102と第2のパネル型電子機器103との接近または接触によって、一方の機器の情報を他方の機器へ転送するようにしてもよい。
図23は、第4実施形態の他の構成例を示す模式図である。
このパネル型電子機器152は、ノートなどの筆記用紙151の下に敷く下敷き型になっている。パネル型電子機器152は、下敷きとして利用可能な平坦なプレート部150と、プレート部150に設けられたセンサ155と、メモリ156と、制御部157とを備える。
上記説明したペン型電子機器1や、グリップ型電子機器81、パネル型電子機器100といった各形態の電子機器は、それぞれ個別に動作している。すなわち、各電子機器のそれぞれにおいて実行されるソフトウェアは、使用頻度、使用回数、使用量、使用方法、どういった動かし方をしたかという情報を元に、ソフトウェア上のキャラクタ等が、卵からかえる、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化するなど、なんらかの変化をする機能を有する。
図25(a)には同じ形態の電子機器(例えば、ペン型電子機器1)が接近した場合の情報交換の例が示され、図25(b)には異なる形態の電子機器(例えば、ペン型電子機器1とグリップ型電子機器81)が接近した場合の情報交換の例が示される。
ペン型電子機器1や、グリップ型電子機器81、パネル型電子機器100によって使用や動きに関する情報や筆跡(軌跡)の情報は、直接的にソフトウェア上のキャラクタ等の育成ではなく、ポイントとして付与されてもよい。
上記、デジタル情報の例を挙げると、音楽、映画などや、ゲーム、パズルなどである。
また、ポイントによってゲームが出来る時間が開放されるなどの機能であってもよい。
さらに、ペン型電子機器1で手紙や電子的なメッセージを書き、その書いた手紙や電子的なメッセージと一緒にソフトウェア上のキャラクタ等の画像データやポイントを送る機能を持っていてもよい。
この情報処理方法は、制御部41で実行されるプログラム処理によって実現される。
ペン型電子機器1、グリップ型電子機器81、パネル型電子機器100はネットワークを介してサーバ161に接続されている。
先ず、処理を開始すると(ステップS201)、動き/使用を検知したか否かを判断する(ステップS202)。動き/使用を検知した場合、動き/使用の情報を取得する(ステップS203)。動き/使用の情報は、筆記の度数である。次に、取得した動き/使用の情報に基づくポイントを入手する(ステップS204)。ポイントは使用者毎にサーバ161で管理される。
また、これらのソフトウェア上のキャラクタ等自体や、成長の度合い、ポイントなどは、時間や、日にち、時期によって、重み付けを変化させることもできる。これにより、決まった時間に勉強をする習慣をつける、早めに夏休みの宿題を終わらせるなどといった行動の習慣づけができる。
(1)ソフトウェア上のキャラクタ等やゲームを、第三者(サードパティー)、もしくはユーザが登録できる。これによって、ユーザや第三者が作ったソフトウェア上のキャラクタ等を楽しんだり、ゲームを多くの人が楽しんだりすることができるようになる。
(2)ソフトウェア上のキャラクタ等、ゲームを作った第三者やユーザに金銭やポイントが与えられる。
(3)ペン型やグリップ型、パネル型の電子機器は、筆記部などペンの外装を含まない、中身の電子装置のみの構成をとることができる。これにより、外観に自由度を持たせたペン型やグリップ型の電子機器を、第三者が作成可能となる。
(4)上記説明したポイント等の重み付け変更を行う仕組みを持つ。
すなわち、ペン型やグリップ型、下敷き型の電子機器がセキュリティ機能や個体識別機能を持ち、ソフトウェアと対応することによってのみ動作する。これにより、ペン型の電子機器のみ、ソフトウェアのみを単独で使用することを防ぐ。また、不正使用などを防ぐことも可能である。
先ず、電子機器に埋め込まれた情報を取得し(ステップS251)、埋め込まれた情報の送信を行う(ステップS252)。一方、ソフトウェアの情報を取得する(ステップS253)。次に、電子機器に埋め込まれた情報とソフトウェアの情報との比較を行い(ステップS254)、許可するか否かの判断を行う(ステップS255)。許可しない場合には動き/使用情報の拒否/不使用となり(ステップS366)、許可する場合には動き/使用情報の許可/使用となる(ステップS257)。
また、事業主が、ソフトウェア上のキャラクタ等自体や、ゲームの内容をチェックすることが可能な仕組みを持っていてもよい。
この判定処理は、制御部41で実行されるプログラム処理によって実現される。
図29では、動き/使用情報の取得(ステップS301〜S302)から動きの判定を行い(ステップS303)、Case(a)では「マークシートで使用」という情報を付加し(ステップS304)、Case(b)では「英語で使用」という情報を付加し(ステップS305)、Case(c)では「絵を描いている」という情報を付加する(ステップS306)。また、図30では、図29と同様に、動き/使用情報の取得(ステップS301〜S302)から動きの判定を行い(ステップS303)、Case(d)では「丁寧な字」であると判定し(ステップS308)、Case(e)では「雑な字」であると判定する(ステップS309)。
これらの判別された情報を、動きや使用の情報に付加する場合もある。その場合は、その付加情報に与えるポイントを変えたり、育成のスピードを変えたりということを行ってもよい。
図31は、学習課目の判定処理を例示するフローチャートである。
この判定処理は、制御部41で実行されるプログラム処理によって実現される。
すなわち、図31に示すように、先ず、動き/使用情報の取得(ステップS501〜S502)から動きの判定を行い(ステップS503)、Case(a)では「英語の勉強をした」という情報を付加し(ステップS504)、Case(b)では「理科の勉強をした」という情報を付加し(ステップS505)、Case(c)では「数学/算数の勉強をした」という情報を付加する(ステップS506)。
すなわち、本実施形態に係る電子機器(例えば、ペン型電子機器1)で取得した情報(筆記時間など)や、判別した筆記種類(学習課目の情報など)をもとに、学習時間や学習課目、集中した時間、丁寧な文字を書いた時間などの少なくとも1つをグラフ化する。図32の例では、携帯端末7のディスプレイ8にグラフが表示される。グラフは、時間ごとの学習記録であってもよいし、日にちごと、月ごとなどの学習の記録であってもよい。また、本実施形態に係る電子機器を使わずに行った学習などは手作業で入力できるようにしておいてもよい。
図33は、筆跡判別の例を示す模式図である。
例えば、本実施形態に係る電子機器(例えば、ペン型電子機器1)で紙400の上に「あ」と書いた場合、ペン自体や、それを送信した電子デバイス(例えば、携帯端末7)、もしくはクラウド上のコンピュータで「あ」と判別することができる。この判別は、特定のルールベースや、A.I.、マシーンラーニング、ディープラーニングなどによって行ってもよい。また、文字の識別だけではなく、筆跡を含めて完全に再現してもよい。
図34は、情報共有の例を示す模式図である。
例えば、本実施形態に係る電子機器(例えば、ペン型電子機器1)で取得した情報は、無線通信を介して携帯端末7に送られ、この携帯端末7からネットワークの基地局600を経由して友人や親の携帯端末14で共有される。共有される情報としては、スマートフォン、タブレット、ゲーム機といった端末やWeb上、また本実施形態に係る電子機器、ペン形状のデバイスなどから通知される情報(メッセージや案内など)を含む。
図35は、ランキング表示の例を示す模式図である。
この例では、携帯端末7のディスプレイ8にランキングが表示される。ランキング表示は、ネットワークを介して得られた友達とのランキングであってもよいし、全国の人たちとのランキングであってもよいし、自分自身の過去の記録とのランキングであってもよい。
図36は、情報集約の例を示す模式図である。
本実施形態に係る電子機器(例えば、ペン型電子機器1)で取得した情報は、無線通信を介して携帯端末7に送られ、この携帯端末7からネットワークの基地局600を経由して特定の端末500へ送られる。特定の端末500へ送られた情報は集約され、統計情報として確認することができる。
先ず、処理を開始すると(ステップS511)、本実施形態に係る電子機器(例えば、ペン型電子機器1)またはユーザの検出を行う(ステップS512)。検出された場合には、ペンまたはユーザの登録を行う(ステップS513)。次に、追加の登録があるか否かを判断し(ステップS514)、追加がある場合にはステップS512へ戻り、以降の処理を繰り返す。追加の登録がない場合には、登録されたペンまたはユーザの情報の確認を行う(ステップS515)。
無料の部分と、有料の部分のどちらも混在する場合、課金する(お金を支払う)と、メリットを受けることができる。
メリットの一例を挙げると下記のようなものがある。
(1)卵を早くかえすことができる。
(2)複数の卵をかえすことができる。
(3)キャラクタ等が早く育つ。
(4)複数の卵やキャラクタ等が育てられる。
(5)ポイントがもらえる。
(6)ポイントのもらえる割合が増える。
処理を開始すると(ステップS311)、ソフトウェア上のキャラクタ等の選択を行い(ステップS312)、次に現実の商品の選択を行う(ステップS313)。次いで、代金の支払い処理を行う(ステップS314)。
また、問題を解いてその答えを入れて正解した場合にキャラクタ等自体やポイントなどが付与されるようにしてもよい。
本実施形態に係る電子機器において、制御部41は、筆記している動作と、そうでない動作との区別が行われる。制御部41は、一例として、次のようにして筆記動作の区別を行う。
先ず、図41(a)に示すように、制御部41は、センサ6による検出値から、一定の平面SFを検出する。例えば、センサ6によって読み取った3次元座標の3点(P1,P2およびP3)、または3点以上の点を繋ぐと平面になるという原理を利用して、平面SFを検出する。
(1)図42は、電子機器の利用者の区別について例示する模式図である。図42に示すペン型電子機器301のように、識別用ノック部302を設けておく。例えば、多機能ボールペン(多色ボールペン)のように、ペンのお尻のノックする部分を複数設けておいたり、ペンの一部を回転させたりすることになどよって、利用者(人物/個人)の区別を行う。
(2)文字を書いたり、絵を描いたりした時に、その動きのクセ、文字のクセによって利用者(人物/個人)の区別を行う。ここで、「クセ」とは、文字を書いたり絵を描いたりする際のペンを移動速度、動かす間隔、周期、筆跡などであり、いずれも個人特有の変化のパターンを有する情報である。センサ6で検出した動きに関する値から、制御部41によって上記「クセ」に相当する情報を演算し、予め登録されている個人の「クセ」の情報との類似度判定やパターンマッチングを行う。これにより、利用者(人物/個人)の区別を行う。
また、ある特定パターン(パスワード)などをなぞることにより、ソフトウェア上のキャラクタ等を入手、育成、成長させる、またはポイントを入手可能になってもよい。
また、特定の動き(例えば、予め登録した電子機器の振り方)をすることにより、利用者(人物/個人)の識別を行うようにしてもよい。
図44は、ペン型電子機器と文字情報との対応付けについて説明するフローチャートである。
本実施形態に係るペン型電子機器1を用いることで、センサ6で検知した筆記動作から自動的に文字や記号の電子情報(テキストデータ)を得ることができる。
すなわち、ペン型電子機器1を使用して文字や記号を書いた際、センサ6で検出した動きの情報を蓄積しておく。そして、この情報とテキストデータとの対応付けをすることで、ペン型電子機器1で筆記動作を行った際に、その筆記動作と対応した文字や記号のテキストデータを検出して、テキストデータへの変換を行う。
この処理は、制御部で実行されるプログラム処理によって実現される。
先ず、処理を開始し(ステップS351)、開始マークを検出すると(ステップS352)、センサ6によって筆記動作の動き/使用情報を取得する(ステップS353)。この動作を、終了マークを検出するまで繰り返す(ステップS354)。
(1)同一の時刻もしくは、前後1時間以内など近い時刻に勉強すると、早く仮想の生き物が育つ、仮想の敵との戦いに有利になる。
(2)登録をしておくと、ソフトウェア上の仮想の敵との戦いの時に協力してもらえる。
(3)登録の有無、登録人数などにより定期的にポイントやアイテムが入手できる。
例えば、スマートフォンのカメラで学習用のノートを判別した場合、その上で仮想現実(AR:Augmented Reality)を用いたゲームを行うことができる。
または、ペン型電子機器1やスマートウォッチなどを読み取り、その電子機器に関係したゲームを行う、などである。
図45は、取得モードの切り替え例について示す模式図である。
図45の横軸は時間、1本の縦線は1回の筆記情報の取得タイミングを示す。
高頻度で情報を取得するとき(第1取得モードM1)は、例えば、50Hz〜5000Hz程度のサンプリング周波数が想定される。一方、低頻度で情報を取得するとき(第2取得モードM2)は、0.01Hz〜50Hz程度のサンプリング周波数が想定される。この高頻度(第1取得モードM1)と低頻度(第2取得モードM2)とは、周期的に切り替えてもよいし、周期的ではなく、ランダム性をもたせて切り替えてもよい。
また、取得するデータの種類を時間ごとに変えてもよい。例えば、あるタイミングでは、X軸、Y軸、Z軸のすべての加速度データを取得し、他のタイミングでは、X軸とY軸のみ加速度データを取得する、などである。
これらの周期の変化は、例えば、高頻度の期間(第1取得モードM1)で学習課目や文字の判別を行い、低頻度(第2取得モードM2)で学習時間を計測する、といった使い分けが考えられる。
これにより、処理に必要な情報の取得と、データ量の削減との両立を図ることができる。
例えば、国語の勉強時間が少なければ、国語の勉強を促す、集中力が切れてきたら、休憩を促すなどである。
また、この行為は、親や学習塾が入力してもよいし、A.I.などで自動的に判別するようにしてもよい。
先ず、処理を開始すると(ステップS521)、センサ6で読み取った動きの情報を蓄積し(ステップS522)、動き情報の解析を行う(ステップS523)。
次に、正解の情報をデータベースから読み込み(ステップS524)、動きの情報の解析結果から得た情報と、正解の情報とを比較して、正解か否かの判定を行う(ステップS525)。
この判定で正解となった場合には、所定の価値を提供し(ステップS526)、次の処理へ進む(ステップS527)。例えば、正解であれば、育成スピードが速くなる、アイテムやポイントが多くもらえるなどである。一方、正解でなかった場合には、所定の価値の非提供または別の価値を提供し(ステップS528)、次の処理へ進む(ステップS529)。このような処理によって、学習記録と成績の伸びとをリンクさせることが可能となる。
(1)ソフトウェア上の仮想の生き物に職業を持たせ、その職業に関連する課目の学習をすることで、その仮想の生き物が強くなる。
(2)ソフトウェア上の仮想の生き物に職業を持たせ、その職業に関連する課目の学習をしないと、その生き物が生まれない。
(3)ソフトウェア上の仮想の生き物が行くことができるソフトウェア上の仮想の場所は、特定の時間、学習しないと解放され、行くことができない。
(4)ソフトウェア上の仮想の生き物が行くことができるソフトウェア上の仮想の場所は、特定の課目を学習しないと行くことができない。
(5)ソフトウェア上の仮想の生き物が手に入れることができるアイテムは、学習した課目によって異なる。
図47は、制限機能処理の例を示すフローチャートである。
先ず、処理を開始すると(ステップS531)、本実施形態に係るソフトウェアの使用を許可する(ステップS532)。次に、制限の導入判断を行い(ステップS533)、制限が導入されるか否かの判断を行う。制限されない場合にはステップS532へ戻り、本実施形態に係るソフトウェアの使用を続ける。一方、制限される場合にはステップS534へ進み、ソフトウェアの使用の制限をかける。
すなわち、制御部は、筆記情報に加え、使用者の血流および心拍数の少なくともいずれかを含む生体情報を取得する。これにより、筆記情報および生体情報の少なくともいずれかを使い使用者の集中力を測定することができる。
図48は、ペン回し動作の採点例を示す模式図である。
例えば、ペン型電子機器1のセンサ6として用いられる加速度センサ、重力加速度センサなどを用いれば、ペンがどの方向にどれだけの回数、どのような角度で回ったかを検出することができる。ペン型電子機器1や携帯端末7は、その情報を解析し、技名の判別を行い、そのうまさを採点する機能を有する。
図49は、スピーカを内蔵した電子機器の例を示す模式図である。
例えば、ペン型電子機器1の本体10に、スピーカ9が内蔵されている。これによりスピーカ9から音や声、音楽などを流すことができるようになる。スピーカ9が内蔵されることで、ペン型電子機器1などの本実施形態に係る電子機器を使った時に、効果音を鳴らしたり、勉強のモチベーションを上げるために音楽を鳴らしたり、キャラクタから音や声などで呼びかけられたりすることができる。
先ず、動画の配信を開始すると(ステップS561)、動画の位置および時刻情報を取得する(ステップS562)。一方、電子機器の例であるペン型電子機器1の動きが始まると(ステップS563)、ペンの動き、使用状態および時刻情報を取得する(ステップS564)。
先ず、事前サインの取得を行う(ステップS571)。この処理は、予め正しいサインの登録を行うため、本実施形態に係る電子機器(例えば、ペン型電子機器1)を用いて利用者にサインを書いてもらう。
なお、筆記情報に基づく一致の判別(ステップS576)の処理は、A.I.、マシーンラーニング、ディープラーニングなどで行ってもよい。
ペン型電子機器1およびグリップ型電子機器81については、手に持って使う構成のため、次のような大きさ、重さであることが好ましい。一例を挙げると、長さ50cm以下、重さ1kg以下である。
(1)ペン型電子機器1、または鉛筆やシャープペンシル、ボールペンといった筆記用具に付けるにグリップ型電子機器81およびキャップ型電子機器85を用いることで、使用しているかどうか、使用頻度、使用回数、使用量、使用方法、どういった動きをセンサで検知することができる。これにより、そのセンサで読み取った情報を元に、ソフトウェア上のキャラクタ等が成長する。そのキャラクタ等の成長する様子は、ペンに付けられたディスプレイや、スマートフォン、ゲーム機、専用の端末などによって確認することができる。また、そのキャラクタ等を使ったゲームを行うことができる。
(2)同じ機能を持ったペン同士を近づける、接触させることなどによって、卵や子供が生まれ、また次のキャラクタ等の育成が可能となる。
(3)ペンと専用の端末やスマートフォンなどとの情報のやり取りは、有線もしくは無線の通信によって可能となる。
(4)上記(1)〜(3)によってペンを使うことの動機につながり、さらには勉強や絵を描くと行ったことを動機づける効果を得る。また、どういった使い方をするかで、キャラクタ等の成長度合いや、成長の過程、性格、性質などが変わることで、真面目に勉強する、丁寧な文字をかく、などの動機となる。
2…ディスプレイ
3…ノック部
4…情報処理部
5…バッテリー
6…センサ
7…携帯端末
8…ディスプレイ
9…スピーカ
10…本体
10p…ペン先
11…第1のペン型電子機器
12…第2のペン型電子機器
14…携帯端末
15…給電部
16…インタフェース部
17…補助機器
17a…収納部
18…充電用端子
19…ディスプレイ
20…センサ
21…通信部
22…バッテリー
23…キー
41…制御部
42…メモリ
43…通信部
50…画像処理部
52…メモリ
53…制御部
56…電源スイッチ
59…充電部
60…給電部
61…アンテナ
71…発電部
80…本体
81…グリップ型電子機器
82…センサ
83…メモリ
84…筆記具
85…キャップ型電子機器
87…ディスプレイ
88…バッテリー
90…通信部
91…給電部
92…インタフェース部
93…補助機器
94…充電用端子
95…発電部
100…パネル型電子機器
101…筆記具
102…第1のパネル型電子機器
103…第2のパネル型電子機器
105…パネル部
106…検知部
110…制御部
120…メモリ
150…プレート部
151…筆記用紙
152…パネル型電子機器
153…筆記具
155…センサ
156…メモリ
157…制御部
161…サーバ
162…キャラクタ
163…キャラクタ
201…画像処理部
204…携帯端末
205…電源スイッチ
208…充電部
209…アンテナ
211…ディスプレイ
301…ペン型電子機器
302…識別用ノック部
351…開始マーク
352…終了マーク
353…文字
400…紙
500…端末
600…基地局
C…ケーブル
D…距離
SF…平面
P1,P2,P3…点
Claims (4)
- 使用者が筆記動作を行った際の筆記の加速度を検知する工程と、
前記筆記の加速度が一定値を超え、その状態が一定時間連続した時間から、予め設定された特有の加速度の変化が生じた時間を区別してカウントすることで勉強をしているとみなす筆記動作の度数を得る工程と、
前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、音や声で呼びかける、効果音を鳴らす、前記度数に対応して音楽を流す、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように出力手段に情報を出力する工程と、
を備えた情報処理方法。 - 使用者が筆記動作を行った際の筆記の加速度を検知する検知部と、
前記検知部で検知した前記筆記の加速度が一定値を超え、その状態が一定時間連続した時間から、予め設定された特有の加速度の変化が生じた時間を区別してカウントすることで勉強をしているとみなす筆記動作の度数を得る制御部と、
前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、音や声で呼びかける、効果音を鳴らす、前記度数に対応して音楽を流す、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように出力手段に情報を出力する出力部と、
を備えた電子機器。 - 表示部および検知部を有するパネル部と、
スピーカと、
使用者が前記パネル部に筆記動作を行った際に前記検知部で検知した情報に基づく筆記の加速度が一定値を超え、その状態が一定時間連続した時間から、予め設定された特有の加速度の変化が生じた時間を区別してカウントすることで勉強をしているとみなす筆記動作の度数を得る制御部と、
を備え、
前記制御部は、以下の(A)および(B)の少なくともいずれかを行う、パネル型電子機器。
(A)前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように前記表示部に情報を表示させる。
(B)前記度数に対応して音や声で呼びかける、効果音を鳴らす、音楽を流す、の少なくともいずれかになるように前記スピーカに情報を出力させる。 - 表示部および検知部を有するパネル部と、
スピーカと、
使用者が前記パネル部に筆記動作を行った際に前記検知部で検知した情報に基づく前記表示部上での筆記の座標変化から文字を書いていることを分析し、この分析結果から勉強をしているとみなす筆記動作の度数を得る制御部と、
を備え、
前記制御部は、以下の(A)および(B)の少なくともいずれかを行う、パネル型電子機器。
(A)前記度数に対応してキャラクタが発生する、卵から生まれる、動く、変化する、成長する、強くなる、長生きする、性格が変わる、性質が変わる、進化する、前記度数をグラフとして出力する、前記度数における他の使用者との順位付けを出力する、の少なくともいずれかになるように前記表示部に情報を表示させる。
(B)前記度数に対応して音や声で呼びかける、効果音を鳴らす、音楽を流す、の少なくともいずれかになるように前記スピーカに情報を出力させる。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017047237 | 2017-03-13 | ||
JP2017047237 | 2017-03-13 | ||
JP2019197032A JP6854019B2 (ja) | 2017-03-13 | 2019-10-30 | 情報処理システムおよびアプリケーションソフトウェア |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019197032A Division JP6854019B2 (ja) | 2017-03-13 | 2019-10-30 | 情報処理システムおよびアプリケーションソフトウェア |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021101246A true JP2021101246A (ja) | 2021-07-08 |
JP7212960B2 JP7212960B2 (ja) | 2023-01-26 |
Family
ID=63522086
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018548225A Active JP6612470B2 (ja) | 2017-03-13 | 2018-03-12 | 電子機器および情報処理方法 |
JP2019197032A Active JP6854019B2 (ja) | 2017-03-13 | 2019-10-30 | 情報処理システムおよびアプリケーションソフトウェア |
JP2021036499A Active JP7212960B2 (ja) | 2017-03-13 | 2021-03-08 | 情報処理方法、電子機器およびパネル型電子機器 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018548225A Active JP6612470B2 (ja) | 2017-03-13 | 2018-03-12 | 電子機器および情報処理方法 |
JP2019197032A Active JP6854019B2 (ja) | 2017-03-13 | 2019-10-30 | 情報処理システムおよびアプリケーションソフトウェア |
Country Status (4)
Country | Link |
---|---|
US (1) | US11175754B2 (ja) |
JP (3) | JP6612470B2 (ja) |
CN (2) | CN115050106A (ja) |
WO (1) | WO2018168784A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023234323A1 (ja) * | 2022-05-31 | 2023-12-07 | 常雄 竹内 | 空間に文字を書くように器具を動かすことで、動きの軌跡を取得し、文字認識の後文字入力する方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3567597A1 (en) | 2018-05-11 | 2019-11-13 | Anoto Korea Corp. | Method and apparatus of diagnostic test |
JP2019211587A (ja) * | 2018-06-04 | 2019-12-12 | コクヨ株式会社 | 筆記行為評価システム |
KR102207596B1 (ko) * | 2018-12-13 | 2021-01-25 | 동의대학교 산학협력단 | 스터디 펜 |
JP7063928B2 (ja) * | 2020-03-09 | 2022-05-09 | 本田技研工業株式会社 | 情報提供装置、情報提供方法、およびプログラム |
WO2021205553A1 (ja) * | 2020-04-07 | 2021-10-14 | 株式会社ソニー・インタラクティブエンタテインメント | 操作装置及び操作システム |
KR20220032343A (ko) * | 2020-09-07 | 2022-03-15 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법 |
JP7030231B1 (ja) * | 2021-06-10 | 2022-03-04 | 株式会社バンダイ | 知育玩具およびプログラム |
US11545047B1 (en) * | 2021-06-24 | 2023-01-03 | Knowledge Ai Inc. | Using biometric data intelligence for education management |
WO2023199531A1 (ja) * | 2022-04-13 | 2023-10-19 | 株式会社ワコム | コンテンツ評価システム、方法、及びプログラム |
CN116795222B (zh) * | 2023-06-20 | 2024-03-29 | 广东工业大学 | 一种基于OpenCV图像识别的数字毛笔 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062609A (ja) * | 2003-08-18 | 2005-03-10 | Snk Playmore Corp | 学習ゲームプログラム、評価ゲームプログラム、ゲーム機 |
JP2009031614A (ja) * | 2007-07-30 | 2009-02-12 | Hitachi Ltd | 電子添削システム |
JP2013242434A (ja) * | 2012-05-21 | 2013-12-05 | Sony Corp | 情報処理装置、情報処理方法および情報処理システム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2566945B1 (fr) * | 1984-06-28 | 1987-04-24 | Schwartz Didier | Jouet educatif destine a stimuler l'ecriture et le graphisme par l'obtention d'un resultat sonore et visuel immediat au cours d'un trace sur papier libre |
JPH01218899A (ja) * | 1988-02-29 | 1989-09-01 | Seiko Epson Corp | 発電装置内蔵筆記用具 |
JP2848219B2 (ja) | 1993-12-13 | 1999-01-20 | カシオ計算機株式会社 | 画像表示装置及び画像表示方法 |
JPH07248875A (ja) | 1994-03-08 | 1995-09-26 | Yashima Denki Co Ltd | 筆跡入力装置 |
JPH10222240A (ja) * | 1997-02-04 | 1998-08-21 | Canon Inc | 電子ペン及び個人認証システム並びに個人認証方法 |
US6213871B1 (en) | 1997-02-19 | 2001-04-10 | Kabushiki Kaisha Bandai | Nurturing simulation apparatus for virtual creatures |
JPH11188180A (ja) * | 1997-04-07 | 1999-07-13 | Snk:Kk | ゲームシステム |
US6289124B1 (en) * | 1998-04-27 | 2001-09-11 | Sanyo Electric Co., Ltd. | Method and system of handwritten-character recognition |
AU1351001A (en) | 1999-10-27 | 2001-05-08 | Digital Ink, Inc. | Tracking motion of a writing instrument |
US7500917B2 (en) | 2000-02-22 | 2009-03-10 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
JP2002041230A (ja) | 2000-07-24 | 2002-02-08 | Nec Yonezawa Ltd | 携帯手書き文字入力装置と方法 |
SE0101250L (sv) | 2001-04-06 | 2002-10-07 | Anoto Ab | Förfarande för genomförande av spel |
US6703633B2 (en) * | 2001-08-16 | 2004-03-09 | Hewlett-Packard Development Company, L.P. | Method and apparatus for authenticating a signature |
JP2004061743A (ja) | 2002-07-26 | 2004-02-26 | Yasuhito Fujii | 学習促進方法及び学習促進システム |
KR100501721B1 (ko) | 2003-03-19 | 2005-07-18 | 삼성전자주식회사 | 자계센서를 이용한 펜형 입력시스템 및 그 궤적 복원 방법 |
JP2006204853A (ja) | 2005-01-27 | 2006-08-10 | Tomotoshi Ichikawa | 手書き文字入力ゲーム装置 |
JP4757176B2 (ja) * | 2006-11-27 | 2011-08-24 | 株式会社文溪堂 | 採点入力デバイス、及び採点入力システム |
JP5359210B2 (ja) | 2008-03-14 | 2013-12-04 | オムロンヘルスケア株式会社 | 電動歯ブラシ |
WO2010071827A2 (en) * | 2008-12-19 | 2010-06-24 | Immersion Corporation | Interactive painting game and associated controller |
DE202010018601U1 (de) * | 2009-02-18 | 2018-04-30 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung |
CN101576954A (zh) * | 2009-06-10 | 2009-11-11 | 中兴通讯股份有限公司 | 书写笔画识别装置、移动终端及实现空间书写的方法 |
CN102346859B (zh) * | 2010-07-26 | 2013-10-09 | 卡西欧计算机株式会社 | 文字识别装置 |
US20130035890A1 (en) * | 2011-08-04 | 2013-02-07 | Wang Jeen-Shing | Moving trajectory calibration method and moving trajectory generation method |
JP2013130678A (ja) * | 2011-12-21 | 2013-07-04 | Ricoh Co Ltd | 手書き文字評価装置及びこれを備えた文字学習支援装置 |
US20140234809A1 (en) | 2013-02-15 | 2014-08-21 | Matthew Colvard | Interactive learning system |
DE102013214021A1 (de) * | 2013-07-17 | 2015-01-22 | Stabilo International Gmbh | Stromersparnis |
US9357493B1 (en) * | 2014-11-14 | 2016-05-31 | Amazon Technologies, Inc. | Stylus power management using motion and orientation sensing |
CN110731608B (zh) | 2014-12-22 | 2022-10-04 | 太阳星光齿磨公司 | 刷牙辅助系统 |
CN105893338B (zh) * | 2015-02-17 | 2021-07-09 | 北京三星通信技术研究有限公司 | 用于输入公式的方法、装置和电子设备 |
JP6551110B2 (ja) | 2015-09-25 | 2019-07-31 | サンスター株式会社 | 口腔ケアサポートシステム |
JP6690166B2 (ja) | 2015-09-25 | 2020-04-28 | サンスター株式会社 | 歯ブラシモジュール、及び歯磨支援システム |
KR102393683B1 (ko) * | 2015-10-21 | 2022-05-04 | 삼성전자주식회사 | 센서를 포함하는 전자 장치 및 그의 동작 방법 |
CN106155313B (zh) * | 2016-06-28 | 2019-03-12 | 努比亚技术有限公司 | 移动终端、字符输入系统及方法 |
JP6916506B2 (ja) | 2016-07-08 | 2021-08-11 | 国立大学法人大阪大学 | 筆記装置及びコンピュータープログラム |
US10599915B2 (en) * | 2017-01-19 | 2020-03-24 | International Business Machines Corporation | Providing suggested content based on user detected gesture |
-
2018
- 2018-03-12 CN CN202210664883.0A patent/CN115050106A/zh active Pending
- 2018-03-12 CN CN201880015817.2A patent/CN110462710B/zh active Active
- 2018-03-12 JP JP2018548225A patent/JP6612470B2/ja active Active
- 2018-03-12 US US16/494,115 patent/US11175754B2/en active Active
- 2018-03-12 WO PCT/JP2018/009535 patent/WO2018168784A1/ja active Application Filing
-
2019
- 2019-10-30 JP JP2019197032A patent/JP6854019B2/ja active Active
-
2021
- 2021-03-08 JP JP2021036499A patent/JP7212960B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062609A (ja) * | 2003-08-18 | 2005-03-10 | Snk Playmore Corp | 学習ゲームプログラム、評価ゲームプログラム、ゲーム機 |
JP2009031614A (ja) * | 2007-07-30 | 2009-02-12 | Hitachi Ltd | 電子添削システム |
JP2013242434A (ja) * | 2012-05-21 | 2013-12-05 | Sony Corp | 情報処理装置、情報処理方法および情報処理システム |
Non-Patent Citations (1)
Title |
---|
江木 啓訓 他1名: "学習者センシングシステムのための筆記行為の検知手法", 情報処理学会 インタラクション2012, JPN6019023347, 15 March 2012 (2012-03-15), pages 275 - 280, ISSN: 0004764901 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023234323A1 (ja) * | 2022-05-31 | 2023-12-07 | 常雄 竹内 | 空間に文字を書くように器具を動かすことで、動きの軌跡を取得し、文字認識の後文字入力する方法 |
JP2023176050A (ja) * | 2022-05-31 | 2023-12-13 | 常雄 竹内 | 空間に文字を書くように器具を動かすことで、動きの軌跡を取得し、文字認識の後文字入力する方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6612470B2 (ja) | 2019-11-27 |
US20210132709A1 (en) | 2021-05-06 |
JPWO2018168784A1 (ja) | 2019-03-28 |
CN110462710B (zh) | 2022-06-28 |
CN110462710A (zh) | 2019-11-15 |
US11175754B2 (en) | 2021-11-16 |
JP6854019B2 (ja) | 2021-04-07 |
CN115050106A (zh) | 2022-09-13 |
JP2020038377A (ja) | 2020-03-12 |
JP7212960B2 (ja) | 2023-01-26 |
WO2018168784A1 (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6854019B2 (ja) | 情報処理システムおよびアプリケーションソフトウェア | |
CN108460707B (zh) | 一种学生的作业智能监管方法及其系统 | |
CN102160366B (zh) | 用于传送触觉消息的系统和方法 | |
CN112199002B (zh) | 基于虚拟角色的交互方法及装置、存储介质、计算机设备 | |
CN104769645A (zh) | 虚拟伴侣 | |
Atherton et al. | Understanding schemas and young children: From birth to three | |
US20210390876A1 (en) | Systems and methods to measure and enhance human engagement and cognition | |
Pires et al. | Learning maths with a tangible user interface: Lessons learned through participatory design with children with visual impairments and their educators | |
O'Connor et al. | Understanding physical development in the early years: Linking bodies and minds | |
US11614781B1 (en) | Determining tap locations on a handheld electronic device based on inertial measurements | |
Ezenwoke et al. | Wearable technology: Opportunities and challenges for teaching and learning in higher education in developing countries | |
Wilmott et al. | ‘I am he. I am he. Siri rules’: Work and play with the Apple Watch | |
L Marigliano et al. | Foster Preschoolers' Critical Thinking and Problem Solving through Movement. | |
CN107292221A (zh) | 一种轨迹处理方法和装置、一种用于轨迹处理的装置 | |
Mehigan et al. | Detecting learning style through biometric technology for mobile gbl | |
Hayler | Incorporating technology: A phenomenological approach to the study of artefacts and the popular resistance to e-reading | |
Lane et al. | Enabling computer access: introduction to the test of mouse proficiency | |
US20150273321A1 (en) | Interactive Module | |
CN104399248B (zh) | Pad互动玩具及系统 | |
TWI806727B (zh) | 智能桌遊教具 | |
Nácher Soler | Kindertivity: Usability and communicability strategies for interactive surfaces and pre-kindergarten children | |
CN110047341A (zh) | 情景语言学习设备、系统和方法 | |
Cottrell | Supporting Self-Regulation with Deformable Controllers | |
Fennis | Exploring and implementing pleasant touch in the interface of products for design purposes: The case of a Bang & Olufsen remote control | |
Brown | Help children to grasp it |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7212960 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |