JP2010131280A - Method and apparatus for assisting mental state determination - Google Patents

Method and apparatus for assisting mental state determination Download PDF

Info

Publication number
JP2010131280A
JP2010131280A JP2008311719A JP2008311719A JP2010131280A JP 2010131280 A JP2010131280 A JP 2010131280A JP 2008311719 A JP2008311719 A JP 2008311719A JP 2008311719 A JP2008311719 A JP 2008311719A JP 2010131280 A JP2010131280 A JP 2010131280A
Authority
JP
Japan
Prior art keywords
information
state determination
character
mental state
determination support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008311719A
Other languages
Japanese (ja)
Inventor
Hideo Kawaguchi
英夫 川口
Atsushi Maki
敦 牧
Shoji Ikeda
尚司 池田
Keiichi Hiroki
桂一 廣木
Hisashi Saito
悠 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008311719A priority Critical patent/JP2010131280A/en
Publication of JP2010131280A publication Critical patent/JP2010131280A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an apparatus for recognizing and determining the mental state, psychology or psychological state of a writer by quantifying temporal and spacial information on hand-written letters and pictures and extracting the quantity of characteristics. <P>SOLUTION: The apparatus includes a digital pen connecting device 101 for acquiring stroke data from a digital pen 111; a recognition part 103 for recognizing the written letters or pictures from the stroke data; and an arithmetic operating part 102 for comparing and evaluating the recognized letters or pictures. The state of the writer is determined by a step 121 for measuring information on the hand-written letters; a step 122 for recording the measured information on the written letters; a step 123 for clipping and identifying the letters or pictures based on the information on the written letters; a step for computing the quantity of characteristics from the stroke information by the clipped and identified letters or pictures as units; and a step 124 for displaying the quantity of characteristics. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、手書きの文字や絵の時空間情報を定量化し特徴量を抽出することで、書き手の精神・心理・生理状態を把握する方法と装置に関する。   The present invention relates to a method and apparatus for grasping a writer's mental / psychological / physiological state by quantifying spatiotemporal information of handwritten characters and pictures and extracting feature quantities.

『書字・描画』は書いた内容を他人に伝えることが目的である。したがって、従来は、書かれた文字や描かれた絵の内容のみが注目されてきた。しかしながら、『書字・描画』は脳からの制御を受けて実行される。『書字・描画』の内容、すなわち何をどう描くかを企図し決定するのは脳である。また、鉛筆やボールペン等の『書字・描画』する道具の動きを手を通して制御するのも脳である。そのため、書かれた文字や描かれた絵は脳機能を反映することになり、書き手の脳の状態、つまり精神・心理・生理状態が反映される。
例えば、うつ病になると書字速度が遅くなることが報告されている(非特許文献1など)。また、パーキンソン病患者には、字の大きさが徐々に小さくなる症状(小字症と呼ばれる)が現れることがある(非特許文献2など)。さらに、心理検査の一つであるHTPテスト(House, tree, person test)は、一枚のシートに家・木・人の3つを一緒に描かせ、それら3つの大きさのバランスや描いた位置等で被験者の精神状態を評価することができる(非特許文献3など)。さらにまた、人物画を書かせ、その描画プロセスで発生する書き直しの頻度で、学習障害児のスクリーニングが可能である(非特許文献4など)。
"Writing / drawing" is intended to convey the written content to others. Therefore, conventionally, only the written characters and the contents of the drawn pictures have attracted attention. However, “writing / drawing” is executed under the control of the brain. It is the brain that intends and decides what is written and drawn, that is, what and how to draw. The brain also controls the movement of tools such as pencils and ballpoint pens that “write and draw” with their hands. For this reason, written characters and drawn pictures reflect brain function, and the state of the writer's brain, that is, the mental, psychological, and physiological states are reflected.
For example, it has been reported that when depression occurs, the writing speed decreases (Non-Patent Document 1, etc.). In Parkinson's disease patients, a symptom (called dwarfism) in which the size of characters gradually decreases may appear (Non-Patent Document 2, etc.). Furthermore, the HTP test (House, tree, person test), which is one of the psychological tests, draws a house, a tree, and a person together on a single sheet, and draws the balance and size of the three sizes. A subject's mental state can be evaluated by a position etc. (nonpatent literature 3 etc.). Furthermore, children with learning disabilities can be screened at the frequency of rewriting that occurs during the drawing process by letting people draw (Figure 4).

一方、手書きの書字・描画の情報をデジタル化して取得するデバイスの一つにデジタルペンがある(特許文献1など)。これは、実際にインクを使用して筆記するボールペンに、用紙上の位置情報を読み取るための装置を内蔵したものである。用紙上に印刷されたドットパターンを、デジタルペンに内蔵された光学系(赤外線レーザ・CCDカメラ等で構成される)が認識し、ペン先の位置を計算・同定して、時系列データとして記録することで実現される(特許文献1など)。   On the other hand, a digital pen is one of devices that digitize and acquire handwritten writing / drawing information (for example, Patent Document 1). This is a ballpoint pen that actually uses ink to incorporate a device for reading positional information on paper. The dot pattern printed on the paper is recognized by the optical system (consisting of an infrared laser, a CCD camera, etc.) built in the digital pen, and the pen tip position is calculated and identified, and recorded as time-series data. This is realized by doing (Patent Document 1, etc.).

なお、書字・描画の過程が時系列データとして取得できるものであれば、入力デバイスはデジタルペンに限らず、タブレットPCで用いるタッチパネルやPCの描画ソフトウェアで用いるマウス等でも良い。しかしながら、位置分解能やサンプリングレート(時間分解能)を鑑みると、『日常場面での自然な書字・描画』の字の大きさや書字速度等の下、例えば1ストローク(漢字では一画に相当)の書字速度を分析可能な分解能で取得するには、少なくとも位置分解能は1 mm 以下、時間分解能は33 ms (ビデオレート)以下である必要がある。これを安価で実現するデバイスとして、デジタルペンは有効な手段である。現実的であることは、ひいては利便性・機動性を担保する。   If the writing / drawing process can be acquired as time-series data, the input device is not limited to a digital pen, and may be a touch panel used in a tablet PC, a mouse used in PC drawing software, or the like. However, considering the position resolution and sampling rate (time resolution), for example, one stroke (corresponding to one stroke in Kanji) under the character size and speed of “natural writing / drawing in everyday situations” In order to obtain the writing speed with a resolution that can be analyzed, at least the position resolution must be 1 mm or less, and the time resolution must be 33 ms (video rate) or less. The digital pen is an effective means for realizing this at a low cost. Being realistic ensures the convenience and mobility.

特開2006 - 154986号公報JP 2006-154986 JP Kinematical analysis of handwriting movements in depressed patients. Mergl R et. al、Acta Psychiatrica Scandinavia、第109巻5号、383-391頁 (2004年)Kinematical analysis of handwriting movements in depressed patients.Mergl R et.al, Acta Psychiatrica Scandinavia, 109 109, 383-391 (2004) 毛利春枝、天谷智子、塚原佳子、三宅裕子、 Micrographiaの症候学的検討、 高次脳機能研究、 第24巻 第1号、1−10頁(2004年)Harue Mohri, Tomoko Amaya, Yoshiko Tsukahara, Yuko Miyake, Symptomatic Study of Micrographia, Higher Brain Function Research, Vol. 24, No. 1, pp. 1-10 (2004) 三上直子、 S-HTP法:統合型HTP法による臨床的・発達的アプローチ、 誠信書房(1995年)Naoko Mikami, S-HTP method: Clinical and developmental approach using integrated HTP method, Seishinshobo (1995) 中山健、前川久男、上哲志、 学習障害児の人物画におけるプランニングの研究、 小児の精神と神経、 第38巻 第2号、91−105頁(1998年)Takeshi Nakayama, Hisao Maekawa, Satoshi Kami, Research on planning in character drawings of children with learning disabilities, Children's mind and nerve, Vol. 38, No. 2, pp. 91-105 (1998)

例えば前述のデジタルペンを用いると、書字・描画の手書き過程をストロークに分解し、さらにこのストロークに含まれる点の位置情報と時間情報を時系列データとして取得して解析できる。ここでストロークとは、漢字では一画、絵では一筆に相当する。デジタル化された書字・描画情報は、点を折れ線で結ぶことで、実際に書字・描画されたものに実用上支障のない誤差範囲で近似して表現することができる。   For example, when the above-mentioned digital pen is used, the handwriting process of writing and drawing can be decomposed into strokes, and the position information and time information of points included in the strokes can be acquired and analyzed as time series data. Here, the stroke is equivalent to one stroke for kanji and one stroke for pictures. The digitized writing / drawing information can be expressed by approximating the actually written / drawing information within an error range that has no practical problem by connecting the points with broken lines.

しかしながら、単にストローク情報だけを解析しても、『文字』や『絵』の特徴量を抽出し相互に比較することはできない。例えば、パーキンソン病患者に見られる小字症を評価するためには、一つ一つの『文字』を区別して認識し、それらの大きさの変化を捉えることが必須である。また、HTPテストでは、絵のどの部分が家・木・人なのか区別して認識しないと、相互の大きさのバランスや位置関係を評価することができない。また、描画シートのどの位置にどれだけの大きさで描かれたかも重要な評価項目である。   However, simply analyzing the stroke information alone cannot extract the feature values of “character” or “picture” and compare them with each other. For example, in order to evaluate dwarfism observed in Parkinson's disease patients, it is essential to distinguish and recognize individual “characters” and capture changes in their sizes. In addition, in the HTP test, it is not possible to evaluate the balance and positional relationship between each other unless you distinguish and recognize which part of the picture is a house, a tree, or a person. In addition, it is an important evaluation item that is drawn at which position on the drawing sheet and in what size.

上記の様に、日常場面で書かれた『文字』や描かれた『絵』を単位とした情報に着目し、『文字』や『絵』の特徴量を定量化し比較・評価することで、書き手の精神・心理・生理状態を判定する支援手段および装置は提供されていなかった。   As mentioned above, focusing on information in units of “characters” and “drawings” drawn in everyday situations, quantifying and comparing and evaluating the features of “characters” and “pictures” No support means or device for judging the writer's mental, psychological, or physiological state has been provided.

この課題を解決するために、デジタルペンやタブレットPCなどの入力手段を用いて、日常場面で書かれた『文字』や描かれた『絵』を構成する点の位置情報と時間情報を時系列データとして取得した後、一つ一つの『文字』や『絵』を区別して切り出す手段と、区別されたそれぞれの『文字』や『絵』の特徴量を抽出・表示する手段を有する方法および装置で実現できる。ここで抽出・表示された特徴量は相互に比較・評価する支援装置を提供する。   In order to solve this problem, the position information and time information of the points that make up “characters” and “pictures” drawn in daily life are time-series using input means such as a digital pen or tablet PC. Method and apparatus having means for distinguishing and cutting out each “character” or “picture” after being acquired as data, and means for extracting / displaying the feature amount of each distinguished “character” or “picture” Can be realized. The feature quantity extracted and displayed here provides a support device for comparing and evaluating each other.

切り出された『文字』や『絵』の特徴量としては、例えば文字や絵の高さ、幅や面積等が挙げられる。さらに、HTPテスト(House, tree, person test)の場合の様に、家・木・人の3つの『絵』の間の高さの比や面積の比が挙げられる。   Examples of the feature amount of the cut out “character” or “picture” include the height, width, and area of the character and the picture. Furthermore, as in the case of the HTP test (House, tree, person test), the ratio of the height and the area between the three “pictures” of the house, the tree, and the person can be mentioned.

本発明によれば、比較、評価結果定量的に表示することができるので、医師・カウンセラー等が書き手の精神・心理・生理状態の高精度な判定を支援し、さらに被験者本人や保護者等の第三者に対して、客観性を持たせた判定結果を提供することが可能となる。   According to the present invention, since comparison and evaluation results can be displayed quantitatively, doctors, counselors, etc. support high-accuracy determination of the writer's mental / psychological / physiological state, and further, the subject himself / herself, guardian, etc. It is possible to provide a determination result with objectivity to a third party.

特別なことをすることなく、例えばアンケートに記入するといった日常場面での手書きの書字・描画データから、書き手の精神・心理・生理状態を定量的に把握することで、メンタルヘルス予防・購買傾向の分析・学習効率の向上・労働生産性の向上などに利用することが可能となる。   Mental health prevention and purchasing tendency by quantitatively grasping the writer's mental, psychological, and physiological state from handwritten writing and drawing data in everyday situations such as filling out questionnaires without doing anything special Analysis, learning efficiency improvement, and labor productivity improvement.

まず、本発明の実施の形態の概要について説明する。
本実施の形態の計算機は、図1(b)のフロー121から124に沿って、用紙内のレイアウト、用紙内に記入されたストロークの位置、記入時のペンストロークの接触時間およびストローク間の間隔時間等を計算して記憶し、当該記憶された情報を基に記入される一つ一つの『文字』や『絵』を区別して認識し、文字や絵の特徴量を定量化して比較・評価することにより書き手の精神・心理・生理状態を判定する支援装置に関する。
First, an outline of an embodiment of the present invention will be described.
The computer according to the present embodiment follows the flow 121 to 124 in FIG. 1B, the layout in the sheet, the position of the stroke entered in the sheet, the contact time of the pen stroke at the time of entry, and the interval between the strokes. Calculates and stores time, etc., distinguishes and recognizes each “character” or “picture” that is entered based on the stored information, and quantifies the character or picture features to compare and evaluate It is related with the assistance apparatus which judges a writer's mind, psychology, and physiological state by doing.

本実施の形態の計算機は、デジタルペンからストロークデータを取得するデジタルペン接続装置101、ストロークデータから記入された文字や絵を認識する認識部103、認識された文字や絵を比較・評価する演算部102を備える。また、デジタルペン111は、CPU・メモリ・通信インターフェース・カメラ112・電池および筆圧センサを備える。また、デジタルペン111は、インクまたは黒鉛によって紙面上に文字・記号等を筆記可能なペン先を備える。   The computer according to the present embodiment includes a digital pen connection device 101 that acquires stroke data from a digital pen, a recognition unit 103 that recognizes characters and pictures entered from stroke data, and an operation that compares and evaluates recognized characters and pictures. Part 102 is provided. The digital pen 111 includes a CPU, a memory, a communication interface, a camera 112, a battery, and a writing pressure sensor. In addition, the digital pen 111 includes a pen tip capable of writing characters, symbols, and the like on paper with ink or graphite.

図1(a)は、本発明の実施の形態の計算機の論理的な構成を示すブロック図である。
本実施の形態の計算機は、デジタルペン接続装置101、演算部102、認識部103、記憶装置105および出力装置106を備える。ここで、これらは一つの計算機107内に格納される例を示しているが、必ずしもこれに限らず、いずれかが独立して存在していても良いことは云うまでもない。
FIG. 1A is a block diagram showing a logical configuration of a computer according to the embodiment of this invention.
The computer according to the present embodiment includes a digital pen connection device 101, a calculation unit 102, a recognition unit 103, a storage device 105, and an output device 106. Here, although the example stored in one computer 107 is shown, it is not necessarily limited to this, and it cannot be overemphasized that either may exist independently.

デジタルペン接続装置101は、デジタルペン接続装置101に接続されたデジタルペン111から情報を収集する。演算部102は、認識部103、特徴量抽出部104や図示しないプロセッサおよびメモリを備え、プロセッサがメモリに記憶されたプログラムを実行することにより各種処理を行う。   The digital pen connection device 101 collects information from the digital pen 111 connected to the digital pen connection device 101. The calculation unit 102 includes a recognition unit 103, a feature amount extraction unit 104, a processor and a memory (not shown), and the processor performs various processes by executing a program stored in the memory.

認識部103は、紙面上に記載される文字や絵の切り出し処理を実行する。切り出し処理の例として、記憶装置105に格納されている文字認識データベースを用いて、デジタルペン111によって取得されたストロークを文字として認識する。この文字認識には、既存の文字認識エンジンを用いることができる。また、絵を認識する場合にも同様に記憶装置105に格納されている画像認識データベースを用いて、デジタルペンから得られるストローク情報を基に画像マッチングを実行し、絵を認識することも可能である。   The recognizing unit 103 performs a character and picture cut-out process described on the paper. As an example of the clipping process, a stroke acquired by the digital pen 111 is recognized as a character using a character recognition database stored in the storage device 105. For this character recognition, an existing character recognition engine can be used. Similarly, when recognizing a picture, it is also possible to recognize a picture by executing image matching based on stroke information obtained from a digital pen using an image recognition database stored in the storage device 105. is there.

さらに切り出し処理の例として、ストローク情報を基に一つあるいは複数の軸への射影像を用いて、射影像間の空間的な隙間を検出して文字や絵を切り出す方法もある。また、ストロークの時間情報を用いて、ストローク間隔時間が長い部分を検出し、文字や絵を切り出す方法を採用しても良い。さらに上記二つの空間的・時間的な切り出し方法を併用して切り出し精度を高めることもできる。さらにまた、ストローク情報から外郭方向寄与度や外郭局所的輪郭線といった統計量の差異を検出し、文字や絵を切り出す方法もある。これらの切り出し処理を実行した後に、上述した文字・画像認識を実行しても良い。   Further, as an example of the cutout process, there is a method of cutting out characters or pictures by detecting spatial gaps between the projected images using projected images on one or a plurality of axes based on the stroke information. Further, a method of detecting a portion having a long stroke interval time by using stroke time information and cutting out characters or pictures may be employed. Further, the above two spatial and temporal cutout methods can be used together to increase the cutout accuracy. Furthermore, there is a method of detecting a difference in statistic such as a contour direction contribution degree or a contour local contour line from stroke information, and cutting out characters and pictures. The character / image recognition described above may be executed after executing these cutout processes.

特徴量抽出部104では、座標情報・用紙ID・筆記時間の他、図4および図5に示す様なデジタルペンから得られる情報、認識部103による認識結果、および記憶装置105内のデータを基に、筆速・加速度、一つの文字や絵単位での記入時間、紙面上における位置、文字や絵の高さ、文字や絵の幅、紙面における記入領域に占める文字や絵の割合、文字や絵の面積等を書字・描画の特徴量として算出する。   In the feature amount extraction unit 104, in addition to the coordinate information, paper ID, and writing time, information obtained from the digital pen as shown in FIGS. 4 and 5, the recognition result by the recognition unit 103, and the data in the storage device 105 are used. In addition, writing speed / acceleration, entry time in one character or picture unit, position on paper, height of character or picture, width of character or picture, ratio of character or picture in entry area on paper, character or The area of the picture is calculated as the feature quantity of the writing / drawing.

また、上述した特徴量の標準的な値を記憶し、記憶装置105に格納されている特徴量データベースを用いて、標準値との乖離度を各々算出する。   Further, the standard value of the feature value described above is stored, and the degree of deviation from the standard value is calculated using the feature value database stored in the storage device 105.

記憶装置105は、磁気ディスク装置等の不揮発性記憶装置によって構成され、特徴量データベースの例として出現頻度データ108、標準時間データベース109および原稿用紙データ110等を格納する。   The storage device 105 is configured by a non-volatile storage device such as a magnetic disk device, and stores appearance frequency data 108, a standard time database 109, manuscript paper data 110, and the like as examples of a feature amount database.

出現頻度データ108は、作業上出現しやすいストロークの情報を含む。具体的には、操作者によって記入される頻度が多いもしくは少ない文字・絵に関するデータを含む。これは使用する場面に応じて適宜内容を変更することが可能であり、絵を描く場面が多い場合にはその絵に対応する画像データを記憶しておくことができ、文字や数字を書くことが多い場合にはそれに応じて文字や数字を記憶しておくことができる。これにより、認識処理に要する処理速度を向上させることが可能となる。   The appearance frequency data 108 includes information on strokes that are likely to appear during work. Specifically, it includes data on characters / pictures that are frequently or less frequently entered by the operator. It is possible to change the contents appropriately according to the scene to be used, and when there are many scenes to draw a picture, it is possible to store image data corresponding to the picture and write letters and numbers If there are many, letters and numbers can be stored accordingly. As a result, the processing speed required for the recognition process can be improved.

標準時間データベース109は、文字や絵を記入するために必要な時間の情報を含む。具体的には、文字や絵毎に、一画のストロークの記入に必要な時間およびストローク間のペン先の移動に必要な時間のデータを含む。原稿用紙データ110は、利用者が作業する用紙の情報を含む。   The standard time database 109 includes information on the time required for writing characters and pictures. Specifically, for each character or picture, data of time required for entering a stroke and time required for moving the pen tip between strokes is included. The original paper data 110 includes information on the paper on which the user works.

また、記憶装置105は標準位置データベースを有しても良い。この標準位置データベースは、記入用紙上に記載される文字や絵の標準的な位置を記憶しておくものである。特に、HTPテスト(House, tree, person test)の様な記載を行う場面で、家・木・人の3つの『絵』を描く位置、大きさ、範囲が評価のファクターとなりうる場合には、予め特徴点となる部分を一箇所ないし複数箇所決めて記憶しておく。例えば、それぞれの絵の中心座標や、木であれば、木の頂点部分・木と葉の境界部分・葉が最も張出している部分等の特徴がある部分の座標である。これらの特徴点の情報は後述する特徴量算出の際に用いることができる。また、これらの特徴点の座標は原稿用紙データと対応付けて予め記憶しても良いし、適宜演算部102により、デジタルペンの入力により得られる情報から原稿用紙データ110を用いて用紙情報を獲得して得られる用紙サイズの情報から絵の標準的配置を特定し、特定した位置に対応するドットパターン等の紙面位置情報と対応付けても良い。   The storage device 105 may have a standard location database. This standard position database stores the standard positions of characters and pictures described on the entry form. In particular, in a scene where a description such as an HTP test (House, tree, person test) is performed, when the position, size, and range of drawing three “pictures” of a house, a tree, and a person can be an evaluation factor, One or a plurality of portions to be feature points are determined and stored in advance. For example, the coordinates of the center of each picture, or the coordinates of a portion having features such as the vertex portion of the tree, the boundary portion between the tree and the leaf, and the portion where the leaf is most overhanged. Information on these feature points can be used when calculating feature values to be described later. Further, the coordinates of these feature points may be stored in advance in association with the original paper data, or paper information is obtained by using the original paper data 110 from the information obtained by the input of the digital pen by the calculation unit 102 as appropriate. The standard arrangement of the picture may be specified from the paper size information obtained in this way, and may be associated with the paper surface position information such as a dot pattern corresponding to the specified position.

出力装置106は、ディスプレイ・プリンタ等であって、本計算機による処理結果を出力する。なお、出力装置の代わりに記憶装置を設け、記憶装置に処理結果を格納してもよい。   The output device 106 is a display / printer or the like, and outputs a processing result by the computer. A storage device may be provided instead of the output device, and the processing result may be stored in the storage device.

ここで、デジタルペンに111によるストローク情報の取得の原理について説明する。
図2は、本発明の実施の形態のデジタルペン111による紙面上の座標取得の説明図である。デジタルペン111は、位置検出用のドット204が印刷された用紙201と共に用いられる。
Here, the principle of acquisition of stroke information by the digital pen 111 will be described.
FIG. 2 is an explanatory diagram of coordinate acquisition on the paper surface by the digital pen 111 according to the embodiment of this invention. The digital pen 111 is used together with the paper 201 on which dots 204 for position detection are printed.

ここで、用紙201の一部202を拡大して、ドット204について説明する。用紙201には、複数の小さなドット204が印刷されている。このドット204は、仮想的な格子線の交点(基準点)203から上下左右にずれた位置に印刷されている。紙に文字・図形がデジタルペン111で記入されると、記入された文字等は紙に視認可能に残る。デジタルペン111は、筆圧センサによってペン先が紙に接したことを検出すると、カメラ112によって紙上に印刷されたドット204を撮影する。デジタルペン111は、例えば、6×6個のドット204を含む領域を撮影する。   Here, the dot 204 will be described by enlarging a part 202 of the sheet 201. A plurality of small dots 204 are printed on the paper 201. The dots 204 are printed at positions shifted vertically and horizontally from the intersection (reference point) 203 of virtual grid lines. When characters and figures are entered on the paper with the digital pen 111, the entered characters and the like remain visible on the paper. When the digital pen 111 detects that the pen tip is in contact with the paper by the pen pressure sensor, the digital pen 111 photographs the dot 204 printed on the paper by the camera 112. For example, the digital pen 111 captures an area including 6 × 6 dots 204.

デジタルペン111は、撮影したドットパターンのズレ量から、当該ドットパターンが存在する絶対座標を演算する。この絶対座標は、広大な平面領域における当該ドットパターンが存在する座標である。この広大な平面領域は、同じドットパターンが重複して存在しない様に配置できる全領域である。   The digital pen 111 calculates absolute coordinates where the dot pattern exists from the amount of deviation of the captured dot pattern. This absolute coordinate is a coordinate where the dot pattern exists in a vast plane area. This vast plane area is an entire area that can be arranged so that the same dot pattern does not overlap.

デジタルペン111は、演算された絶対座標を、デジタルペン接続装置101を介し、図示しないサーバに送信し、サーバを介して計算機107に送信する。サーバは、デジタルペン111によって演算された絶対座標に基づいて、前記広大な平面領域中の該紙面の位置(ドットパターンID)と、ある一枚の紙面における座標(相対座標)とを特定し、デジタルペン111が撮影したドットパターンから、ドットパターンIDおよび相対座標を取得する。   The digital pen 111 transmits the calculated absolute coordinates to a server (not shown) via the digital pen connection device 101 and transmits it to the computer 107 via the server. Based on the absolute coordinates calculated by the digital pen 111, the server specifies the position of the paper surface (dot pattern ID) in the vast plane area and the coordinates (relative coordinates) on a certain paper surface, The dot pattern ID and relative coordinates are acquired from the dot pattern photographed by the digital pen 111.

デジタルペン111が、ペン先が接した位置の情報を周期的(例えば、一定時間毎)に取得することにより、ペン先の動きが分かる。そして、デジタルペン111は、撮影したドットパターンに対応する絶対座標、当該ドットパターンの撮影時刻およびペンIDを計算機107に送信する。   The digital pen 111 can acquire the movement of the pen tip by periodically acquiring information on the position where the pen tip is in contact (for example, every predetermined time). Then, the digital pen 111 transmits the absolute coordinates corresponding to the shot dot pattern, the shooting time of the dot pattern, and the pen ID to the computer 107.

計算機107は、デジタルペン111によって演算された絶対座標に基づき、位置情報サーバから相対座標を取得する。サーバは、取得した相対座標およびドットパターンが撮影された時刻から、ペン先の軌跡(ストローク情報)を生成する。なお、ここではサーバを介する例を示したが、必ずしもサーバは必要ではなく、上記処理を計算機107で実行する様にしても良い。   The computer 107 acquires relative coordinates from the position information server based on the absolute coordinates calculated by the digital pen 111. The server generates a locus (stroke information) of the pen tip from the acquired relative coordinates and the time when the dot pattern was captured. Here, an example via a server is shown, but a server is not always necessary, and the computer 107 may execute the above processing.

また、デジタルペン111は、ドットパターンIDおよび相対座標を特定するために、位置情報サーバを用いなくてもよい。例えば、紙に印刷された識別番号、紙に印刷されたバーコード、または紙に埋め込まれたICタグ等によって用紙を特定してもよい。さらに、タブレットを用いて用紙上の位置(相対座標)を特定することもできる。なお、ICタグ等を用いる用紙の特定またはタブレットを用いる用紙上の位置の特定のいずれかと、位置情報サーバによる絶対座標の特定を組み合わせてもよい。この様にすると、書類管理システムがドットパターンIDおよび相対座標を特定する処理を軽減できる。   Further, the digital pen 111 does not have to use a position information server in order to specify the dot pattern ID and the relative coordinates. For example, the paper may be specified by an identification number printed on paper, a barcode printed on paper, or an IC tag embedded in paper. Further, the position (relative coordinates) on the paper can be specified using a tablet. Note that either the specification of the paper using an IC tag or the like or the specification of the position on the paper using a tablet may be combined with the specification of absolute coordinates by the position information server. In this way, the document management system can reduce the process of specifying the dot pattern ID and relative coordinates.

図3は、本発明の実施の形態のストロークセット301の一例を示す。ストロークセット301は、デジタルペン111によって記入された文字「東京」を示す。本実施の形態では、図に示す様に、用紙の左上を原点とし、横方向をX軸とし、縦方向をY軸として、ストロークの位置が定められる。前述した様に、ストロークセットは、一纏まりの線(ストローク)の集合であり、線が記入された時間および/または線同士の位置関係に基づいて特定される。   FIG. 3 shows an example of the stroke set 301 according to the embodiment of the present invention. The stroke set 301 indicates the characters “Tokyo” entered with the digital pen 111. In the present embodiment, as shown in the figure, the position of the stroke is determined with the upper left corner of the paper as the origin, the horizontal direction as the X axis, and the vertical direction as the Y axis. As described above, the stroke set is a set of a group of lines (strokes), and is specified based on the time when the lines are written and / or the positional relationship between the lines.

図4は、本発明の実施の形態のストローク情報をまとめたストロークセット情報401の構成図である。図4には、図3に示すストロークセット301のストロークセット情報を示す。ストロークセット情報401は、ストロークセットID402、ペンID403、記入開始日時404、該当矩形座標405、ストローク数406およびストローク情報407を含む。   FIG. 4 is a configuration diagram of the stroke set information 401 in which the stroke information according to the embodiment of the present invention is collected. FIG. 4 shows stroke set information of the stroke set 301 shown in FIG. The stroke set information 401 includes a stroke set ID 402, a pen ID 403, an entry start date and time 404, a corresponding rectangular coordinate 405, a stroke number 406, and stroke information 407.

ストロークセットID402は、当該ストロークセットの一意な識別子である。ペンID403は、当該ストロークセットを記入したデジタルペン111の一意な識別子である。記入開始日時404は、当該ストロークセットを記入し始めた日時である。該当矩形領域405は、当該ストロークセットを含む矩形の領域である。該当矩形領域405は、当該ストロークセットが記入された書類における座標(相対座標)であり、矩形領域の左上端の座標および右下端の座標で表される。ストローク数406は、当該ストロークセットに含まれる線(ストローク)の数である。ストローク数406と同数のストローク情報407が記録される。ストローク情報407は、標本点数407Aおよびシリアル番号407Bを含む。標本点数407Aは、デジタルペン111により取得され、当該ストロークを構成する相対座標の数である。シリアル番号407Bは、デジタルペン111によって取得され、当該ストロークを構成する相対座標の一意な識別子であり、ストローク座標情報505(図5)へのリンクである。   The stroke set ID 402 is a unique identifier of the stroke set. The pen ID 403 is a unique identifier of the digital pen 111 in which the stroke set is entered. The entry start date and time 404 is the date and time when entry of the stroke set is started. The corresponding rectangular area 405 is a rectangular area including the stroke set. The corresponding rectangular area 405 is the coordinates (relative coordinates) in the document in which the stroke set is written, and is represented by the upper left coordinates and the lower right coordinates of the rectangular areas. The stroke number 406 is the number of lines (strokes) included in the stroke set. The same number of stroke information 407 as the number of strokes 406 is recorded. The stroke information 407 includes a sample point number 407A and a serial number 407B. The number of sample points 407A is the number of relative coordinates acquired by the digital pen 111 and constituting the stroke. The serial number 407B is a unique identifier of relative coordinates that are acquired by the digital pen 111 and constitutes the stroke, and is a link to the stroke coordinate information 505 (FIG. 5).

図5は、本発明の実施の形態のストローク情報23のうちストローク座標情報505の構成図である。   FIG. 5 is a configuration diagram of the stroke coordinate information 505 in the stroke information 23 according to the embodiment of this invention.

ストローク座標情報505は、シリアル番号501、X座標502、Y座標503および取得時刻504を含む。シリアル番号501は、デジタルペン111により取得された相対座標の一意な識別子である。X座標502は、X軸方向の相対座標であり、例えばミリメートルを単位として表す。Y座標503は、図4に示すY軸方向の相対座標であり、例えばミリメートルを単位として表す。取得時刻504は、デジタルペン111によって当該相対座標が取得された時刻を表す。なお、図5に示す例では、取得時刻504には、記入開始日時404からの経過時間が記録されている。   The stroke coordinate information 505 includes a serial number 501, an X coordinate 502, a Y coordinate 503, and an acquisition time 504. The serial number 501 is a unique identifier of relative coordinates acquired by the digital pen 111. The X coordinate 502 is a relative coordinate in the X-axis direction and is expressed in units of millimeters, for example. The Y coordinate 503 is a relative coordinate in the Y-axis direction shown in FIG. 4 and is expressed in units of millimeters, for example. The acquisition time 504 represents the time when the relative coordinates are acquired by the digital pen 111. In the example shown in FIG. 5, an elapsed time from the entry start date and time 404 is recorded at the acquisition time 504.

図6は、本発明の実施の形態の計算機による認識処理の全体を示すフローチャートである。主に文字認識の場合を例に、以下説明する。   FIG. 6 is a flowchart showing the entire recognition processing by the computer according to the embodiment of this invention. A description will be given below mainly using the case of character recognition as an example.

まず、デジタルペン接続装置101は、デジタルペン接続装置101に接続されたデジタルペン111から、取得したペン情報(ストローク情報)を取得し(601)、取得したストローク情報を演算部102に送る。演算部102は、取得したストローク情報から、ペンイベント(ペンが紙面に接するペンダウンおよびペンが紙面から離れるペンアップ)を抽出し、ペンイベントにおいてストローク情報を分割し、一つ一つのストロークを特定する(602)。また、演算部102は、取得したストローク情報から、利用者が記入したイメージ画像を作成し、作成されたイメージ画像を認識部103に送る。認識部103は、作成されたイメージ画像について、画像認識ないし文字認識を実行する(603)。   First, the digital pen connection device 101 acquires the acquired pen information (stroke information) from the digital pen 111 connected to the digital pen connection device 101 (601), and sends the acquired stroke information to the calculation unit 102. The computing unit 102 extracts a pen event (a pen down where the pen touches the paper surface and a pen up where the pen leaves the paper surface) from the acquired stroke information, divides the stroke information in the pen event, and identifies each stroke. (602). In addition, the calculation unit 102 creates an image entered by the user from the acquired stroke information, and sends the created image to the recognition unit 103. The recognition unit 103 performs image recognition or character recognition on the created image image (603).

その後、演算部102は、分割されたストロークと、文字または絵として認識されたストロークとを比較する。ここで文字認識の場合には、文字や絵を構成するものとして認識されなかったストロークは意味のない作業の結果なので、ノイズストロークであると判定する様にしても良い。この場合、判定されたノイズストロークを分割されたストロークから除去する(604)。このノイズストロークの除去によって、意味のある作業によって記入されたストロークのみを抽出することができ、より高精度な評価支援を行うことができる。   Thereafter, the calculation unit 102 compares the divided strokes with the strokes recognized as characters or pictures. Here, in the case of character recognition, a stroke that is not recognized as constituting a character or a picture is a result of a meaningless work, and therefore, it may be determined that it is a noise stroke. In this case, the determined noise stroke is removed from the divided strokes (604). By removing this noise stroke, it is possible to extract only the strokes entered by meaningful work, and to provide more accurate evaluation support.

また、出現頻度データ108を参照して、ノイズストロークであるかを特定する様にしても良い。例えば、文字のみ・絵のみを記載する場面においてそれ以外のものが記入されている場合には、認識される文字や絵のうち対象以外のものはノイズと判定することができる。   Further, it may be determined by referring to the appearance frequency data 108 whether the stroke is a noise stroke. For example, when other characters are entered in a scene where only characters / pictures are described, it is possible to determine that characters other than the target among recognized characters and pictures are noise.

その後、演算部102は、ノイズが除去された各ストロークの始点および終点の時刻(記入開始時刻および記入終了時刻)を特定して、各ストロークの継続時間および間隔時間を算出する(605)。具体的には、ストロークの記入終了時刻から記入開始時刻を減じてストロークの継続時間を求める。また、ストロークの記入開始時刻から前のストロークの記入終了時刻を減じてストロークの間隔時間を求める。   Thereafter, the calculation unit 102 specifies the start time and end time (entry start time and entry end time) of each stroke from which noise has been removed, and calculates the duration time and interval time of each stroke (605). Specifically, the stroke start time is obtained by subtracting the entry start time from the stroke entry end time. Further, the stroke interval time is obtained by subtracting the entry end time of the previous stroke from the stroke entry start time.

さらに、演算部102は、ノイズが除去された各ストロークの始点および終点の位置(X座標およびY座標)を特定し、特定された座標間の移動時間を求める(606)。   Further, the calculation unit 102 specifies the start point and end point positions (X coordinate and Y coordinate) of each stroke from which noise has been removed, and obtains the movement time between the specified coordinates (606).

次に、図7に特徴量抽出部104により求められ出力装置に出力される例として、文字情報の解析結果の例を示す。書字中の位置・時間・筆圧情報からなる時系列データを解析し、筆圧702の時間変化、書字速度703の時間変化、書字加速度704の時間変化、全てのストローク距離の和である総書字距離705、平均書字速度706、文字高さおよび面積707を表示している。   Next, FIG. 7 shows an example of an analysis result of character information as an example obtained by the feature quantity extraction unit 104 and outputted to the output device. Analyzing time-series data consisting of position, time, and writing pressure information in writing, with time change of writing pressure 702, time change of writing speed 703, time change of writing acceleration 704, and sum of all stroke distances A total writing distance 705, an average writing speed 706, a character height and an area 707 are displayed.

この様な書字の特徴量を用いることで、書字速度の変化、書き手の精神・心理・生理状態を推定することができる。例えば、段々筆速が低下することから、書き手の疲労や意欲の低下等が推定できる。   By using such a characteristic amount of writing, it is possible to estimate a change in writing speed and a mental / psychological / physiological state of the writer. For example, since the writing speed is gradually reduced, it is possible to estimate the writer's fatigue, reduced motivation, and the like.

図8に、特徴量抽出部104によって求められ出力装置に出力される例として、書字情報(文字列)801を解析し、特徴量として文字高さの値802を割り出してグラフ化した例を示す。このグラフの横軸はa) のx軸方向の位置であり、a) と b) の横軸は同一スケールで対応している。また、文字高さはa) のy軸方向に測定した。   FIG. 8 shows an example in which character information (character string) 801 is analyzed and character height value 802 is calculated as a feature amount and graphed as an example obtained by the feature amount extraction unit 104 and output to the output device. Show. The horizontal axis of this graph is the position in the x-axis direction of a), and the horizontal axes of a) and b) correspond on the same scale. The character height was measured in the y-axis direction of a).

さらに、文字列801の文字それぞれの高さ803の値をc) の表にまとめて示す。文字列801には同じ文字(例えば『日』)が二個ずつある。この同じ文字の高さの比304をd) の表にまとめて示す。比の値は、(左側の文字の高さ)/(右側の文字の高さ)で求めた。d) の表より、同じ文字に着目すると、常に右側の文字の高さが左側の文字の高さよりも小さいことがわかる。これは即ち、左から右に書き進むにつれて徐々に文字が小さくなることを示し、小字症の典型例であると考えられる。この比の値を用いて小字症を定量的に扱うことが可能となり、パーキンソン病の診断支援や投薬計画の支援に応用することができる。   Furthermore, the value of the height 803 of each character of the character string 801 is shown together in the table c). The character string 801 has two identical characters (for example, “day”). The same character height ratio 304 is summarized in the table d). The ratio value was calculated by (left character height) / (right character height). From the table in d), when focusing on the same character, it can be seen that the height of the right character is always smaller than the height of the left character. In other words, this indicates that the characters gradually become smaller as the writing proceeds from left to right, and is considered to be a typical example of dwarfism. It is possible to treat dwarfism quantitatively using the value of this ratio, and it can be applied to diagnosis support for Parkinson's disease and support for medication planning.

図9に、特徴量抽出部104によって求められ出力装置に出力される例として、描画情報(絵)901を解析し、特徴量としてb)に示す絵の高さ902と面積903の値を割り出した例を示す。さらに、絵901のそれぞれの高さ902・面積903の絶対値、および人の高さ・面積を基準としたときの比の値を表c) にまとめて示す。   In FIG. 9, as an example obtained by the feature quantity extraction unit 104 and output to the output device, the drawing information (picture) 901 is analyzed, and the values of the picture height 902 and the area 903 shown in b) are calculated as the feature quantity. An example is shown. Further, the absolute values of the height 902 and area 903 of the picture 901 and the ratio values based on the height and area of the person are summarized in Table c).

c) の表より、人の大きさに比して家が小さいことがわかる。これは、この絵に若干遠近法的な表現が含まれているためと考えられ、この例では特に精神的な不安定さ等の病的な要素は見られない。   The table in c) shows that the house is smaller than the size of the person. This is thought to be due to the fact that this picture contains a slightly perspective expression. In this example, no pathological factors such as mental instability are found.

この様な比の値を用いてHTPテストを定量的に扱うことが可能となり、書き手の精神・心理・生理状態を定量的に把握できる。さらに、これらのデータの時間的な変化をモニタすることでメンタルヘルス予防に応用ことができる。   It is possible to handle the HTP test quantitatively using values of such ratios and quantitatively grasp the writer's mental, psychological, and physiological state. Furthermore, it can be applied to prevent mental health by monitoring changes in these data over time.

図10では、a) に示す様なテストの問題・回答用紙1001上に記入された書字情報をデジタルペン111を用いて収集した例を示す。この書字データを演算部102で解析し、回答用紙1001上に文字がいつどの順で書かれたか、b) の様に『書字タイムログ1002』の形で表示することができる。   FIG. 10 shows an example in which the writing information entered on the test question / answer sheet 1001 as shown in a) is collected using the digital pen 111. The written data is analyzed by the calculation unit 102, and when and in what order the characters are written on the answer sheet 1001 can be displayed in the form of "written time log 1002" as shown in b).

この書字タイムログ1002から、設問の回答順や思考時間を割り出すことができる。これらの情報から、回答者の思考プロセスを分析することが可能となり、例えば回答者はどの設問でつかえているか、どの様な問題の回答に時間がかかるか、検算・見直しはしているか等を把握することができる。したがって、学習効率の向上、効果的な教授方法の策定、あるいは労働生産性の向上などに利用することが可能となる。   From this written time log 1002, it is possible to determine the answer order of the questions and the thinking time. From this information, it becomes possible to analyze the respondent's thought process, such as which question the respondent is using, what kind of problem it takes to answer, and whether it is being checked or reviewed. I can grasp it. Therefore, it can be used to improve learning efficiency, formulate effective teaching methods, or improve labor productivity.

図11は、アンケート用紙上1101に記入された書字情報をデジタルペン111で収集した例を示す。この書字データを解析し、アンケートのどこからいつどの順で回答されたか、図の様に軌跡1102を描くことができる。なお、時間情報は左上にバー1103で示す通り、それぞれ15秒間の時間帯を濃淡で表示している。   FIG. 11 shows an example in which the letter information entered on the questionnaire sheet 1101 is collected by the digital pen 111. By analyzing the written data, a trajectory 1102 can be drawn as shown in the figure indicating from where and when in the questionnaire. In addition, as shown by the bar 1103 in the upper left, the time information displays the time zone of 15 seconds in shades.

この軌跡と時間の情報から回答者の意欲・理解・躊躇・自信等を分析することで、回答者の興味の対象や大事にしていることの把握が可能となる。したがって、購買傾向の分析などに応用することができる。例えば、それぞれの指標に閾値を設けてそれを超える場合には購買意欲があると判定方法などがある。ここでは、回答数が多い(関心が高いことを示す)、記入時間が短い(判断が早いことを示す)、記入文字数が多く筆速が早い(商品知識が豊富であることを示す)等の特徴の一つないし複数条件に合致する顧客は購買意欲が高いと判断し、その顧客に迅速に説明に伺い丁寧に接客する等の対応が可能となる。さらに、この様なアンケートの書字データをBluetooth(登録商標)無線等で通信を実行し、基地局となる演算装置で実時間解析すれば、例えば展示会場内で購買意欲の高い人を見分け、その場で勧誘することが可能となる。また、そのアンケートに対してどの程度関連知識を有しているか、興味があるかをある程度把握できるため、興味がある人・ない人、関連知識がある人・ない人、それぞれの回答傾向分析なども行うことが可能となる。   By analyzing the motivation, understanding, jealousy, self-confidence, etc. of the respondent from the information on the trajectory and the time, it becomes possible to grasp the object of interest and the importance of the respondent. Therefore, it can be applied to analysis of purchasing tendency. For example, there is a method of determining that there is a willingness to purchase if a threshold value is set for each index and the threshold is exceeded. Here, the number of responses is large (indicating high interest), the entry time is short (indicating that judgment is fast), the number of characters is large and the writing speed is fast (indicating that product knowledge is abundant), etc. A customer who meets one or more of the characteristics can be determined to have a high willingness to purchase, and the customer can quickly respond to explanations and treat customers carefully. Furthermore, if the written data of such a questionnaire is communicated by Bluetooth (registered trademark) wireless, etc., and analyzed in real time by a computing device serving as a base station, for example, a person with a high willingness to purchase is identified in the exhibition hall, It is possible to solicit on the spot. In addition, it is possible to grasp to some extent how much relevant knowledge you have about the questionnaire and whether you are interested in it. Can also be performed.

本発明は、日常場面での手書きの書字・描画データから、書き手の精神・心理・生理状態を定量的に把握することで、メンタルヘルス予防・購買傾向の分析・学習効率の向上・労働生産性の向上などに用いることができる。   The present invention quantitatively grasps the writer's mental, psychological, and physiological state from handwritten letters and drawing data in everyday situations, thereby preventing mental health, analyzing purchasing trends, improving learning efficiency, and labor production. It can be used to improve the property.

本発明における書字・描画情報の解析システムの基本構成の一例。An example of the basic composition of the analysis system of the writing and drawing information in the present invention. 本発明の実施の形態のデジタルペンによる紙面上の座標取得の説明図。Explanatory drawing of the coordinate acquisition on the paper surface by the digital pen of embodiment of this invention. 本発明の実施の形態のストロークセットの一例。An example of the stroke set of embodiment of this invention. 本発明の実施の形態のストロークセット情報の構成図。The block diagram of the stroke set information of embodiment of this invention. 本発明の実施の形態のストローク座標情報の構成図。The block diagram of the stroke coordinate information of embodiment of this invention. 本発明の実施の形態の計算機による処理の全体を示すフローチャート。The flowchart which shows the whole process by the computer of embodiment of this invention. 書字情報の解析結果の一例。An example of the analysis result of written information. 文字列の書字情報から文字高さの変化を割り出した一例。An example of calculating the change in character height from the text information of a character string. 絵の描画情報から、絵の高さと面積の比を割り出した一例。An example of calculating the ratio between the height and area of a picture from the drawing information of the picture. テストの問題・回答用紙の書字データから書字タイムログを生成した一例。An example of a written time log generated from written data on test questions and answer sheets. アンケート用紙上から記入軌跡を生成した一例。An example of creating an entry track from a questionnaire form.

符号の説明Explanation of symbols

101:デジタルペン接続装置、102:演算部、103:認識部、104:特徴量抽出部、105:記憶装置、106:出力装置、107:計算機、108:出現頻度データ、109:標準時間データベース、110:原稿用紙データ、111:デジタルペン、112:カメラ、121:書字情報の計測装置(入力手段)、122:書字データの記録装置、123:文字や絵の切り出し同定を実行する演算装置、124:特徴量抽出を実行し表示する演算・表示装置、201:ドットが印刷された用紙、202:用紙201の一部、203:仮想的な格子線の交点、204:ドット、301:ストロークセット、401:ストロークセット情報、402:ストロークセットID、403:ペンID、404:記入開始日時、405:該当矩形座標、406:ストローク数、407:ストローク情報、407A:標本点数、407B:シリアル番号、501:シリアル番号、502:X座標、503:Y座標、504:取得時刻、505:ストローク座標情報、601:ペン情報(ストローク情報)の取得、602:一つ一つのストロークの分割・特定、603:画像認識ないし文字認識の実行、604:ノイズストローク除去、605:各ストロークの継続時間および間隔時間の算出、606:特定された座標間の移動時間の算出、701:文字、702:筆圧データ、703:書字速度データ、704:書字加速度データ、705:総書字距離データ、706:平均書字速度データ、707:文字高さ・面積データ、801:文字列、802:文字高さデータ、901:絵、902:絵の高さ、903:絵の面積、1001:テストの問題・回答用紙、1002:書字タイムログ、1101:アンケート用紙、1102:軌跡、1103:時間を表示したバー。 101: digital pen connection device, 102: calculation unit, 103: recognition unit, 104: feature amount extraction unit, 105: storage device, 106: output device, 107: computer, 108: appearance frequency data, 109: standard time database, 110: Manuscript paper data, 111: Digital pen, 112: Camera, 121: Measuring device (input means) for writing information, 122: Recording device for writing data, 123: Arithmetic device for performing cut-out identification of characters and pictures 124: Calculation / display device that executes and displays feature amount extraction, 201: Paper on which dots are printed, 202: Part of paper 201, 203: Intersection of virtual grid lines, 204: Dots, 301: Stroke Set, 401: stroke set information, 402: stroke set ID, 403: pen ID, 404: entry start date and time, 405: corresponding rectangle Coordinates, 406: Number of strokes, 407: Stroke information, 407A: Number of sample points, 407B: Serial number, 501: Serial number, 502: X coordinate, 503: Y coordinate, 504: Acquisition time, 505: Stroke coordinate information, 601: Acquisition of pen information (stroke information), 602: division / specification of each stroke, 603: execution of image recognition or character recognition, 604: noise stroke removal, 605: calculation of duration and interval time of each stroke, 606: Calculation of movement time between specified coordinates, 701: Character, 702: Writing pressure data, 703: Writing speed data, 704: Writing acceleration data, 705: Total writing distance data, 706: Average writing Speed data, 707: Character height / area data, 801: Character string, 802: Character height data, 901: Picture, 9 2: picture of height, 903: the area of the picture, 1001: problem-answer sheet of the test, 1002: the writing time log, 1101: questionnaire, 1102: locus, 1103: bar that displays the time.

Claims (11)

手書きの書字情報を計測するステップと、
前記計測した書字情報を記録するステップと、
前記書字情報を基に文字や絵の切り出し同定を実行するステップと、
前記切り出し同定を行った文字や絵を単位としたストローク情報から特徴量を算出するステップおよび前記特徴量を表示するステップとを有することを特徴とする精神状態判定支援方法。
Measuring handwritten handwriting information;
Recording the measured writing information;
Executing character and picture cutout identification based on the written information;
A mental state determination support method comprising a step of calculating a feature amount from stroke information in units of characters and pictures subjected to the cutout identification, and a step of displaying the feature amount.
ドットパターンが形成された紙面上にデジタルペンによって記載される手書き書字情報を計測するステップと、前記計測した書字情報を記録するステップと、
前記書字情報を基に文字または絵の切り出し同定を実行するステップと、
前記切り出し同定を行った前記文字または絵を単位としたストローク情報を基に特徴量を算出するステップと、
前記特徴量を表示するステップとを備え、
前記特徴量は、前記文字または絵の高さ、幅、前記紙面における記入領域に占める割合、面積の少なくとも一つを含むことを特徴とする精神状態判定支援方法。
Measuring handwritten handwritten information described by a digital pen on a paper surface on which a dot pattern is formed; recording the measured handwritten information;
Performing character or picture cutout identification based on the written information;
Calculating a feature amount based on stroke information in units of the character or picture that has been subjected to the cutout identification;
Displaying the feature amount,
The feature amount includes at least one of a height and a width of the character or picture, a ratio of an area to be filled in on the paper, and an area.
請求項1または2に記載の精神状態判定支援方法において、
前記切り出し同定を実行するステップでは、
前記ストローク情報を基に、一つあるいは複数の軸への射影像を用いて、射影像間の空間的な隙間を検出する方法、ストローク間隔時間が長い部分を検出する方法、外郭方向寄与度や外郭局所的輪郭線といった統計量の差異を検出する方法を切り出し方法として含むことを特徴とする精神状態判定支援方法。
The mental state determination support method according to claim 1 or 2,
In the step of executing the cutout identification,
Based on the stroke information, using a projected image on one or a plurality of axes, a method for detecting a spatial gap between projected images, a method for detecting a portion having a long stroke interval time, a contour direction contribution degree, A mental state determination support method comprising a method for detecting a difference in statistics such as a contour local contour line as a clipping method.
請求項1または2に記載の精神状態判定支援方法において、
予め記憶された前記特徴量の標準値と前記特徴量との乖離度を算出するステップを有することを特徴とする精神状態判定支援方法。
The mental state determination support method according to claim 1 or 2,
A mental state determination support method comprising a step of calculating a deviation degree between a standard value of the feature quantity stored in advance and the feature quantity.
請求項4に記載の精神状態判定支援方法であって、
前記特徴量を表示するステップにおいて、前記乖離度を前記特徴量と共に表示することを特徴とする精神状態判定支援方法。
The mental state determination support method according to claim 4,
In the step of displaying the feature value, the degree of divergence is displayed together with the feature value.
紙面に記入できるデジタルペンからストローク情報を取得するデジタルペン接続装置と、当該ストローク情報を記憶する記憶装置と、前記ストローク情報から記入された文字や絵を認識する認識部と認識された前記文字や絵を比較・評価する特徴量抽出部を有する演算部と、出力装置とを有する精神状態判定支援装置において、
前記特徴量抽出部は、前記ストローク情報および認識結果を基に、文字や絵の高さ、文字や絵の幅、紙面における記入領域に占める文字や絵の割合、文字や絵の面積等の書字・描画の少なくとも一つを特徴量として算出することを特徴とする精神状態判定支援装置。
A digital pen connection device that acquires stroke information from a digital pen that can be written on a paper surface, a storage device that stores the stroke information, and a character that is recognized as a recognition unit that recognizes characters and pictures written from the stroke information In a mental state determination support device having a calculation unit having a feature amount extraction unit for comparing and evaluating pictures, and an output device,
Based on the stroke information and the recognition result, the feature amount extraction unit writes the height of the character or picture, the width of the character or picture, the ratio of the character or picture in the entry area on the paper, the area of the character or picture, etc. A mental state determination support device that calculates at least one of a character and a drawing as a feature amount.
請求項6に記載の精神状態判定支援装置において、
前記記憶装置は、前記特徴量の標準値をそれぞれ予め格納し、
前記特徴量抽出部は、当該標準値と前記特徴量との乖離度を算出することを特徴とする精神状態判定支援装置。
The mental state determination support apparatus according to claim 6,
The storage device stores the standard value of the feature amount in advance,
The feature quantity extraction unit calculates a divergence degree between the standard value and the feature quantity.
請求項7に記載の精神状態判定支援装置において、
前記出力手段は、前記乖離度を前記特徴量と共に出力することを特徴とする精神状態判定支援装置。
The mental state determination support apparatus according to claim 7,
The mental state determination support apparatus, wherein the output unit outputs the degree of divergence together with the feature amount.
請求項8に記載の精神状態判定支援装置において、
前記紙面に文字や絵が複数記入される場合に、
前記特徴量抽出部は、
前記文字や絵毎に前記標準値との乖離度を算出することを特徴とする精神状態判定支援装置。
The mental state determination support apparatus according to claim 8,
When multiple letters and pictures are entered on the paper,
The feature amount extraction unit includes:
A mental state determination support apparatus that calculates a degree of deviation from the standard value for each character or picture.
請求項8に記載の精神状態判定支援装置において、
前記紙面に文字や絵が複数記入される場合に、
前記特徴量抽出部は、
所定の文字や絵を基準とした文字や絵同士の特徴量の比較を実行し、当該比較結果を前記出力手段に出力させることを特徴とする精神状態判定支援装置。
The mental state determination support apparatus according to claim 8,
When multiple letters and pictures are entered on the paper,
The feature amount extraction unit includes:
A mental state determination support apparatus that compares feature amounts of characters and pictures with reference to predetermined characters and pictures and outputs the comparison result to the output means.
請求項7に記載の精神状態判定支援装置において、
前記特徴量は、筆速・加速度、文字や絵毎の記入時間、紙面上における位置のいずれか一つを含むことを特徴とする精神状態判定支援装置。
The mental state determination support apparatus according to claim 7,
The mental state determination support apparatus characterized in that the feature amount includes any one of a writing speed / acceleration, a writing time for each character or picture, and a position on a paper surface.
JP2008311719A 2008-12-08 2008-12-08 Method and apparatus for assisting mental state determination Pending JP2010131280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008311719A JP2010131280A (en) 2008-12-08 2008-12-08 Method and apparatus for assisting mental state determination

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008311719A JP2010131280A (en) 2008-12-08 2008-12-08 Method and apparatus for assisting mental state determination

Publications (1)

Publication Number Publication Date
JP2010131280A true JP2010131280A (en) 2010-06-17

Family

ID=42343224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008311719A Pending JP2010131280A (en) 2008-12-08 2008-12-08 Method and apparatus for assisting mental state determination

Country Status (1)

Country Link
JP (1) JP2010131280A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140060112A (en) * 2012-11-09 2014-05-19 삼성전자주식회사 Apparatus and method for determining user's mental state
KR101554961B1 (en) 2013-04-18 2015-09-24 (주) 마이크로사이텍 Method and apparatus for analyzing image for comprehending testee's psychology and recording medium thereof
KR20150118594A (en) * 2014-04-14 2015-10-23 (주)메쏘드소프트 Method and system for managing art therapy information
JP2016116811A (en) * 2014-12-24 2016-06-30 学校法人 東洋大学 Device, system, method for evaluating motion capability
JP2016139293A (en) * 2015-01-28 2016-08-04 株式会社東芝 Transcription-degree calculation system, transcription-degree calculation method, and transcription-degree calculation program
JP2019074936A (en) * 2017-10-17 2019-05-16 株式会社日立製作所 Mood score calculation device and mood score calculation method
CN109766026A (en) * 2019-01-16 2019-05-17 北京智愚嘉业软件科技有限公司 The method and apparatus for testing literacy
KR102055271B1 (en) * 2016-02-29 2019-12-16 중앙대학교 산학협력단 Perception and remembrance test device and method
JP2021047502A (en) * 2019-09-17 2021-03-25 三菱電機インフォメーションシステムズ株式会社 Questionnaire input device, questionnaire input method and questionnaire input program
JP2021119374A (en) * 2020-01-30 2021-08-12 Kddi株式会社 Ability estimation program, device, and method estimating cognitive/non-cognitive ability from document
WO2023132177A1 (en) * 2022-01-07 2023-07-13 株式会社ワコム Content evaluation device, program, method, and system
JP7320157B1 (en) * 2022-01-31 2023-08-02 株式会社ワコム CONTENT EVALUATION DEVICE, PROGRAM, METHOD, AND SYSTEM
WO2023145429A1 (en) * 2022-01-31 2023-08-03 株式会社ワコム Content evaluation device, program, method, and system
WO2023145227A1 (en) * 2022-01-31 2023-08-03 株式会社ワコム Content evaluation device, program, method, and system
JP7421703B2 (en) 2020-02-21 2024-01-25 公立大学法人会津大学 Classification program, classification device and classification method
US11915504B2 (en) 2019-04-08 2024-02-27 Wacom Co., Ltd. Home UI system for managing digital ink

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01278367A (en) * 1988-04-30 1989-11-08 Fuji Photo Film Co Ltd Image information recording/reading method
JPH0695582A (en) * 1992-09-11 1994-04-08 Canon Inc Input and output of information and its device
JPH10198639A (en) * 1996-12-28 1998-07-31 Casio Comput Co Ltd Schedule management device and its program recording medium
JPH11238095A (en) * 1998-02-20 1999-08-31 Toshiba Corp Mail address reader
JP2003216294A (en) * 2002-01-25 2003-07-31 Victor Co Of Japan Ltd User interface device
JP2007079891A (en) * 2005-09-14 2007-03-29 Hitachi Maxell Ltd Personality analysis system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01278367A (en) * 1988-04-30 1989-11-08 Fuji Photo Film Co Ltd Image information recording/reading method
JPH0695582A (en) * 1992-09-11 1994-04-08 Canon Inc Input and output of information and its device
JPH10198639A (en) * 1996-12-28 1998-07-31 Casio Comput Co Ltd Schedule management device and its program recording medium
JPH11238095A (en) * 1998-02-20 1999-08-31 Toshiba Corp Mail address reader
JP2003216294A (en) * 2002-01-25 2003-07-31 Victor Co Of Japan Ltd User interface device
JP2007079891A (en) * 2005-09-14 2007-03-29 Hitachi Maxell Ltd Personality analysis system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9928462B2 (en) 2012-11-09 2018-03-27 Samsung Electronics Co., Ltd. Apparatus and method for determining user's mental state
JP2014094291A (en) * 2012-11-09 2014-05-22 Samsung Electronics Co Ltd Apparatus and method for determining user's mental state
US10803389B2 (en) 2012-11-09 2020-10-13 Samsung Electronics Co., Ltd. Apparatus and method for determining user's mental state
KR102011495B1 (en) * 2012-11-09 2019-08-16 삼성전자 주식회사 Apparatus and method for determining user's mental state
JP2018187441A (en) * 2012-11-09 2018-11-29 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for determining user's mental state
KR20140060112A (en) * 2012-11-09 2014-05-19 삼성전자주식회사 Apparatus and method for determining user's mental state
KR101554961B1 (en) 2013-04-18 2015-09-24 (주) 마이크로사이텍 Method and apparatus for analyzing image for comprehending testee's psychology and recording medium thereof
KR101654551B1 (en) * 2014-04-14 2016-09-07 (주)메쏘드소프트 Method and system for managing art therapy information
KR20150118594A (en) * 2014-04-14 2015-10-23 (주)메쏘드소프트 Method and system for managing art therapy information
US10172542B2 (en) 2014-12-24 2019-01-08 Toyo University Motor performance evaluation apparatus, motor performance evaluation system, and motor performance evaluation method
JP2016116811A (en) * 2014-12-24 2016-06-30 学校法人 東洋大学 Device, system, method for evaluating motion capability
JP2016139293A (en) * 2015-01-28 2016-08-04 株式会社東芝 Transcription-degree calculation system, transcription-degree calculation method, and transcription-degree calculation program
KR102055271B1 (en) * 2016-02-29 2019-12-16 중앙대학교 산학협력단 Perception and remembrance test device and method
US11071483B2 (en) 2017-10-17 2021-07-27 Hitachi, Ltd. Mood score calculation apparatus and mood score calculation method
JP2019074936A (en) * 2017-10-17 2019-05-16 株式会社日立製作所 Mood score calculation device and mood score calculation method
JP7085331B2 (en) 2017-10-17 2022-06-16 株式会社日立製作所 Mood score calculator and mood score calculation method
CN109766026A (en) * 2019-01-16 2019-05-17 北京智愚嘉业软件科技有限公司 The method and apparatus for testing literacy
CN109766026B (en) * 2019-01-16 2022-09-27 北京智愚嘉业软件科技有限公司 Method and device for testing read-write capability
US11915504B2 (en) 2019-04-08 2024-02-27 Wacom Co., Ltd. Home UI system for managing digital ink
JP2021047502A (en) * 2019-09-17 2021-03-25 三菱電機インフォメーションシステムズ株式会社 Questionnaire input device, questionnaire input method and questionnaire input program
JP7177105B2 (en) 2020-01-30 2022-11-22 Kddi株式会社 Ability estimation program, device and method for estimating cognitive and non-cognitive abilities from documents
JP2021119374A (en) * 2020-01-30 2021-08-12 Kddi株式会社 Ability estimation program, device, and method estimating cognitive/non-cognitive ability from document
JP7421703B2 (en) 2020-02-21 2024-01-25 公立大学法人会津大学 Classification program, classification device and classification method
WO2023132177A1 (en) * 2022-01-07 2023-07-13 株式会社ワコム Content evaluation device, program, method, and system
JP7320157B1 (en) * 2022-01-31 2023-08-02 株式会社ワコム CONTENT EVALUATION DEVICE, PROGRAM, METHOD, AND SYSTEM
WO2023145429A1 (en) * 2022-01-31 2023-08-03 株式会社ワコム Content evaluation device, program, method, and system
WO2023145227A1 (en) * 2022-01-31 2023-08-03 株式会社ワコム Content evaluation device, program, method, and system

Similar Documents

Publication Publication Date Title
JP2010131280A (en) Method and apparatus for assisting mental state determination
US11650659B2 (en) User input processing with eye tracking
JP4244614B2 (en) Handwriting input device, program, and handwriting input method system
US10127199B2 (en) Automatic measure of visual similarity between fonts
US9811722B2 (en) Multi-camera spatial sign language recognition method and system
US20070286486A1 (en) System and method for automated reading of handwriting
CN112580552B (en) Murine behavior analysis method and device
CN1957355A (en) Mouse performance identification
CN106796696A (en) The determination of the concern that the direction based on the information of staring stimulates
US20200073532A1 (en) Design review device, design review method, and program
Greene et al. Predicting sagittal plane lifting postures from image bounding box dimensions
Alghowinem et al. Body gesture and head movement analyses in dyadic parent-child interaction as indicators of relationship
US20230367398A1 (en) Leveraging machine learning and fractal analysis for classifying motion
Garcia Garcia et al. Multi-touch Interaction Data Analysis System (MIDAS) for 2-D tactile display research
CN210038810U (en) Intelligent evaluation equipment and system
CN115686199B (en) Group eye movement track generation method and device, computing equipment and storage medium
KR102482841B1 (en) Artificial intelligence mirroring play bag
JP5181060B2 (en) calculator
JP5246496B2 (en) calculator
Gillick Ancestry determination using geometric morphometrics
US20120082964A1 (en) Enhanced graphological detection of deception using control questions
US20090132637A1 (en) Information recognition system
EP4339756A1 (en) Intelligent drawing method and system for human machine interaction hmi design prototype
RU2784420C1 (en) Training apparatus, analysing apparatus, training method and information medium
Sharma et al. Forensic examination of digitally captured handwriting-a review of contemporary tools and techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130402