JP2016224397A - Information processor - Google Patents
Information processor Download PDFInfo
- Publication number
- JP2016224397A JP2016224397A JP2015243540A JP2015243540A JP2016224397A JP 2016224397 A JP2016224397 A JP 2016224397A JP 2015243540 A JP2015243540 A JP 2015243540A JP 2015243540 A JP2015243540 A JP 2015243540A JP 2016224397 A JP2016224397 A JP 2016224397A
- Authority
- JP
- Japan
- Prior art keywords
- user
- character
- situation
- character string
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 claims description 73
- 230000009471 action Effects 0.000 claims description 24
- 230000004044 response Effects 0.000 abstract description 13
- 238000012360 testing method Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000001914 calming effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Landscapes
- Character Discrimination (AREA)
Abstract
Description
本発明は、文字列を出力する技術に関する。 The present invention relates to a technique for outputting a character string.
非特許文献1には、表示された文字の画像をなぞりながら文字を書くと、書いた文字を採点した結果として点数や「美」、「並」等の判子の画像が表示される技術が開示されている。 Non-Patent Document 1 discloses a technique in which when a character is written while tracing an image of the displayed character, a score image such as a score, “beauty”, and “normal” is displayed as a result of scoring the written character. Has been.
試験前や面接前の緊張する状況では、文字を描いて集中力を高めたり気分を落ち着かせたりすることがある。その場合に、単に文字を描く動作を行うだけでなく、その動作に対する手応えを感じることができると、より文字を描くことに集中しやすくなる。この手応えを与えるために、文章などの文字列を出力すると、その文字列が例えば励ましの言葉を表していればユーザの気分が高揚し、自然体をイメージさせる言葉を表していればユーザの気分が落ち着くというように、文字列が表す内容によってユーザの気分に影響を与えることもできる。 In situations where you are nervous before an exam or before an interview, you may draw letters to improve your concentration and calm your mood. In such a case, if the user can feel the response to the operation in addition to simply performing the operation of drawing the character, it becomes easier to concentrate on drawing the character. In order to provide this response, when a character string such as a sentence is output, the user's mood is enhanced if the character string represents, for example, a word of encouragement, and the user's mood is expressed if the character string expresses a natural image. The user's mood can be influenced by the content represented by the character string, such as calming down.
しかし、例えば試験前と面接前とで文字列の内容が同じだと、文字列が表す内容がそのときの状況に合ったものになりにくい。
そこで、本発明は、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることを目的とする。
However, for example, if the content of the character string is the same before the test and before the interview, the content represented by the character string is unlikely to match the situation at that time.
Therefore, the present invention has an object to make the content of the output character string suitable for the user's situation when the character string is output to make the user feel the response of his / her operation.
本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。 The present invention includes a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, When a character is displayed and the user performs an action of drawing a locus on the touch screen, among the plurality of character string candidates stored corresponding to the determined situation, the locus and the similarity of the character An information processing apparatus including an output unit that outputs a character string corresponding to a degree is provided.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
The present invention also provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, and an operation in which a user draws a locus on the touch screen. And an output unit that outputs a character string corresponding to the feature of the operation among the plurality of character string candidates stored corresponding to the determined situation.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 In addition, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, and a character according to the determined user situation. It is determined when the user performs an action of drawing a locus on the touch screen in a state where a character selected by the user from the presented character candidates and the character selected by the user is displayed on the touch screen. An information processing apparatus comprising: an output unit that outputs any one of the plurality of character string candidates stored corresponding to the situation.
また、本発明は、タッチスクリーンと、ユーザの状況を判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 The present invention also provides a touch screen, a determination unit that determines a user's situation, an answer acquisition unit that acquires a user's answer to the question, and a plurality of character string candidates corresponding to the user's situation and the answer to the question Among the plurality of character string candidates stored in accordance with the determined situation and the acquired answer when the user performs an action of drawing a locus on the touch screen. An information processing apparatus including an output unit that outputs any of the above is provided.
本発明によれば、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることができる。 ADVANTAGE OF THE INVENTION According to this invention, when outputting a character string and making a user feel the response of one's operation | movement, the content of the output character string can be made suitable for a user's condition.
[1]実施例
図1は実施例に係る情報処理装置10のハードウェア構成を表す。情報処理装置10は、例えばスマートフォンやタブレット端末などであり、ユーザによって持ち運ばれながら利用される。情報処理装置10は、制御装置11と、記憶装置12と、UI(User Interface)装置13とを備えるコンピュータである。
[1] Embodiment FIG. 1 shows a hardware configuration of an
制御装置11は、CPU(Central Processing Unit)、ROM(Read Only Memory)
、RAM(Random Access Memory)及びリアルタイムクロックを備え、CPUが、RAMをワークエリアとして用いてROMや記憶装置12に記憶されたプログラムを実行することによって各部の動作を制御する。リアルタイムクロックは、現在の日時を算出してCPUに通知する。記憶装置12は、HDD(Hard disk drive)等を備え、制御装置11が
制御に用いるデータやプログラムなどを記憶している。
The
A random access memory (RAM) and a real-time clock are provided, and the CPU controls the operation of each unit by executing a program stored in the ROM or the
UI装置13は、情報処理装置10のユーザインターフェースとなる装置である。UI装置13は、タッチスクリーン14を備える。タッチスクリーン14は、例えば液晶ディスプレイとその表面に設けられたタッチパネルとを有し、制御装置11から制御されて画像を表示するとともに、タッチパネルを指示して行われるユーザの操作(タップ操作やドラッグ操作など)を受け付ける。
The
記憶装置12には、タッチスクリーン14に文字を表示して、ユーザがその文字を描く動作を行うと、その動作に応じてコメントを出力するためのアプリケーションプログラムが記憶されている。ユーザは、例えば、文字を描く動作を行うことによって集中力を高めたり気分を落ち着かせたりする目的でこのアプリケーションプログラムを利用する。制御装置11がそのアプリケーションプログラムを実行して自装置の各部を制御することで、以下に述べる機能が実現される。
図2は情報処理装置10が実現する機能構成を表す。情報処理装置10は、選択部101と、提示部102と、記憶部103と、ユーザ状況判定部104と、文字表示部105と、軌跡表示部106と、出力部107とを備える。
The
FIG. 2 shows a functional configuration realized by the
選択部101は、タッチスクリーン14に表示させる文字を選択する。選択部101は、例えばユーザによって入力された文字を、タッチスクリーン14に表示させる文字として選択する。提示部102は、選択部101が選択する文字の候補を提示する。提示部102は、提示した文字の候補のうちのいずれかをユーザが選択すると、選択された文字を選択部101に通知する。選択部101は、提示部102から通知された文字、すなわち提示部102により提示された文字の候補からユーザが選択した文字をタッチスクリーン14に表示させる文字として選択する。選択部101は、選択した文字を文字表示部105に通知する。
The
記憶部103は、ユーザの状況毎に複数の文字列の候補を記憶する。
図3は記憶部103が記憶する情報の一例を表す。図3では、ユーザ状況と、コメント候補と、類似度(これについては後ほど説明する)とが対応付けて記憶されている。ユーザ状況としては、「試験」、「面接」、「プレゼン」及び「デート」が記憶されている。「試験」には、「絶対合格」、「頑張れ!」、「君ならできる!」という文字列がコメント候補として対応付けられている。これら3つのコメント候補は、「試験」というユーザの状況に対応する複数の文字列の候補である。また、「面接」には、「大きな声を出そう」、「自分らしくしよう」、「緊張するのは皆同じ」という文字列がコメント候補として対応付けられている。これら3つのコメント候補は、「面接」というユーザの状況に対応する複数の文字列の候補である。
The
FIG. 3 shows an example of information stored in the
ユーザ状況判定部104は、ユーザの状況を判定する。ユーザ状況判定部104は、本実施例では、ユーザが自分の状況を選択する操作を行うことで、その操作により選択された状況をユーザの状況であると判定する。ユーザ状況判定部104は、判定したユーザの状況を出力部107に通知する。ユーザ状況判定部104は本発明の「判定部」の一例である。
The user
文字表示部105は、選択部101により選択された文字をタッチスクリーン14に表示させる。軌跡表示部106は、選択部101により選択された文字が表示され、ユーザがタッチスクリーン14に軌跡(例えば表示された文字を表す軌跡)を描く動作を行うと、その軌跡をタッチスクリーン14に表示させる。
The
出力部107は、記憶部103に記憶されている文字列(図3に表すコメント候補のうちのいずれか)を出力する。出力部107は、例えばその文字列をタッチスクリーン14に出力して表示させる。詳細には、出力部107は、選択部101により選択された文字がタッチスクリーン14に表示された状態でユーザがタッチスクリーン14に軌跡を描く動作を行った場合に、ユーザ状況判定部104により判定された状況に対応して記憶部103に記憶されている複数の文字列の候補うちのいずれかをその動作に応じて出力する。以上で述べた各部によってタッチスクリーン14に表示される画面について、図4を参照して説明する。
The
図4はタッチスクリーン14に表示される画面の変遷の一例を表す。図4(a)では、タッチスクリーン14に、「ユーザ状況の選択」という文字列と、ユーザの状況を表す「入試」、「面接」、「プレゼン」、「デート」という文字を含む操作子群F1とが表示されている。操作子群F1はユーザ状況判定部104によって表示されている。ユーザがいずれかの状況を選択する操作を行うと、ユーザ状況判定部104は、選択された状況をユーザの状況であると判定する。図4の例では「入試」が選択された場合について説明する。
FIG. 4 shows an example of the transition of the screen displayed on the
図4(b)では、タッチスクリーン14に、「文字の選択」という文字列と、文字の入力欄F2と、「上欄に入力した文字を選択」という文字を含む操作子F3と、「一覧から選択」という文字を含む操作子F4とが表示されている。これらは選択部101によって表示されている。ユーザが入力欄F2に文字を入力して操作子F3を操作すると、選択部101は入力された文字を、タッチスクリーン14に表示させる文字として選択する。ユーザが操作子F4を操作すると、選択部101はその旨を提示部102に通知する。
In FIG. 4B, the
提示部102は、この通知を受けると、例えば図4(c)に表すように、「選択して下さい」という文字列と、「勝」、「成」、「桜」、「満」、「正」、「合」という文字を含む操作子群F5をタッチスクリーン14に表示させる。ユーザがいずれかの文字を選択すると、提示部102が選択された文字を選択部101に通知し、選択部101が通知された文字を、タッチスクリーン14に表示させる文字として選択する。この例では「桜」が選択されたものとする。
Upon receiving this notification, for example, as shown in FIG. 4C, the
選択部101は、選択された「桜」という文字を、図4(d)に表すようにタッチスクリーン14に表示させる。タッチスクリーン14には、「桜」という文字G1を含む入力欄F6と、「終了」という文字を含む操作子F7とが表示されている。ユーザが入力欄F6に「桜」という文字を描く動作を行うと、出力部107は、ユーザが描いた軌跡K1をタッチスクリーン14に表示させる。ユーザが文字を描き終えて操作子F7を操作すると、出力部107は、ユーザの軌跡を描く動作が終了したと判断し、ユーザが描いた軌跡と、文字G1との類似度を算出する。類似度の算出は、例えば文字認識の分野の周知の技術を用いて行われる。なお、出力部107は、操作子F7の操作以外にも、例えば軌跡を描き始めてから決められた時間が経過したときに軌跡を描く動作が終了したと判断してもよい。
The
出力部107は、記憶部103に記憶されているユーザ状況、コメント候補及び類似度を参照し、ユーザ状況判定部104によって判定されたユーザ状況と、算出した類似度とに対応付けられているコメント候補を読み出す。図3の例では、「試験」という状況においては、「絶対合格」というコメント候補と「A1以上」という類似度とが対応付けられている。同様に、「頑張れ!」というコメント候補には「A1未満A2以上」という類似度が、「君ならできる!」というコメント候補には「A2未満」という類似度が対応付けられている。A1及びA2は、類似度の上限値>A1>A2>類似度の下限値という関係を満たす値である。
The
出力部107は、算出した類似度がA1以上である場合には、「試験」というユーザ状況及び「A1以上」という類似度に対応付けられている「絶対合格」というコメント候補を出力して図4(e)に表すようにタッチスクリーン14に表示させる。また、出力部107は、算出した類似度がA1未満A2以上である場合には、「試験」というユーザ状況及び「A1未満A2以上」という類似度に対応付けられている「頑張れ!」というコメント候補を出力して図4(f)に表すようにタッチスクリーン14に表示させる。
When the calculated similarity is A1 or higher, the
情報処理装置10は上記構成に基づいてユーザが文字をなぞる動作を行ったときにコメントを出力する出力処理を行う。
図5は出力処理における動作手順の一例を表す。この動作手順は、例えば上述したアプリケーションプログラムを起動する操作をユーザが行うことを契機に開始される。情報処理装置10(ユーザ状況判定部104)は、例えば図4(a)に表す操作子群F1へのユーザの操作に基づきユーザの状況を判定する(ステップS11)。
The
FIG. 5 shows an example of an operation procedure in the output process. This operation procedure is started when the user performs an operation for starting the above-described application program, for example. The information processing apparatus 10 (user situation determination unit 104) determines the user situation based on, for example, the user's operation on the operator group F1 illustrated in FIG. 4A (step S11).
次に、情報処理装置10(選択部101)は、例えば図4(b)に表す入力欄F2に文字を入力するユーザの操作又は図4(c)の操作子群F5へのユーザの操作に基づきタッチスクリーン14に表示させる文字を選択する(ステップS12)。続いて、情報処理装置10(文字表示部105)は、ステップS12で選択された文字を図4(d)に表すようにタッチスクリーン14に表示させる(ステップS13)。そして、情報処理装置10(軌跡表示部106)は、例えば図4(d)に表す入力欄F6にユーザが文字を描く動作を行うことで、ユーザが描いた文字の軌跡をタッチスクリーン14に表示させる(ステップS14)。
Next, the information processing apparatus 10 (selection unit 101) performs, for example, a user operation to input characters in the input field F2 illustrated in FIG. 4B or a user operation to the operator group F5 in FIG. Based on this, a character to be displayed on the
情報処理装置10(出力部107)は、例えば図4(d)に表す操作子F7が操作されてユーザの文字を描く動作が終了すると、文字と軌跡の類似度を算出し(ステップS15)、ステップS11で判定された状況と算出した類似度とに対応するコメントを、例えば図4(e)、(f)に表すようにタッチスクリーン14に出力して表示させる(ステップS16)。
For example, when the operation element F7 shown in FIG. 4D is operated to finish the operation of drawing the user's character, the information processing apparatus 10 (output unit 107) calculates the similarity between the character and the locus (step S15). Comments corresponding to the situation determined in step S11 and the calculated similarity are output and displayed on the
緊張する状況で集中力を高めたり気分を落ち着かせたりするために、文字の軌跡を描く動作が行われることがある。本実施例では、この動作を行ったときに様々なコメントを表す文字列が表示されるため、ユーザは軌跡を描く動作に手応えを感じることができる。また、この文字列が例えば試験前と面接前とで同じだと文字列が表す内容がそのときの状況に合ったものになりにくいが、本実施例では、ユーザの状況に応じた文字列がタッチスクリーン14に表示される。これにより、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることができる。
In order to increase concentration and calm down in a tense situation, an action of drawing a character trajectory may be performed. In the present embodiment, when this operation is performed, character strings representing various comments are displayed, so that the user can feel a response to the operation of drawing a trajectory. In addition, if this character string is the same before, for example, before the interview, the content represented by the character string is unlikely to be suitable for the situation at that time. It is displayed on the
[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は必要に応じてそれぞれ組み合わせてもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows. Moreover, you may combine an Example and each modification as needed.
[2−1]提示部
提示部102は実施例とは異なる方法で文字を提示してもよい。例えば、ユーザ状況判定部104が判定したユーザの状況を提示部102に通知し、提示部102が、ユーザ状況判定部104により判定されたユーザの状況に応じて、選択部101が選択する文字の候補を提示する。提示部102は、例えばユーザ状況と文字の候補とを対応付けた文字候補テーブルを用いる。
[2-1] Presentation Unit The
図6は文字候補テーブルの一例を表す。図6の例では、「試験」というユーザ状況には図4の例に表した「勝、成、桜、満、正、合」という6つの文字候補が対応付けられており、「面接」というユーザ状況には「元、声、礼、笑、姿、魅」という6つの文字候補が対応付けられている。また、「プレゼン」、「デート」というユーザ状況にもそれぞれ文字候補が対応付けられているものとする。提示部102は、ユーザ状況判定部104から通知されたユーザ状況に文字候補テーブルで対応付けられている文字候補をそれぞれ含む操作子群をタッチスクリーン14に表示させる。表示された操作子群のいずれかを操作することでその操作子に含まれる文字がユーザによって選択される。本変形例によれば、ユーザが軌跡を描く動作を行う際に表示される文字を、ユーザの状況に合わせた文字にすることができる。
FIG. 6 shows an example of a character candidate table. In the example of FIG. 6, the user status of “Exam” is associated with the six character candidates “Katsu, Naru, Sakura, Full, Masato, and Go” shown in the example of FIG. The user situation is associated with six character candidates “original, voice, thanks, laugh, figure, charm”. Further, it is assumed that character candidates are also associated with the user situations of “presentation” and “date”, respectively. The
なお、表示された文字候補にユーザが描きたい文字がない場合などに、ユーザが自分で描きたい文字を指定してもよい。この場合、例えば提示部102が、上記文字の候補に加えてユーザに自由に文字を選択させるための表示欄をタッチスクリーン14に表示させ、情報処理装置10の文字入力機能によりユーザが入力した文字を選択部101が選択し、文字表示部105が表示する。これにより、ユーザがユーザ状況に応じて提示された文字以外に描きたい文字があった場合に、その文字を表示させて軌跡を描くことができる。
In addition, when there is no character that the user wants to draw in the displayed character candidates, the character that the user wants to draw may be specified. In this case, for example, the
[2−2]質問への回答
出力部107が出力する文字列をさらにユーザに合わせたものにしてもよい。
図7は本変形例の情報処理装置10aが実現する機能構成を表す。情報処理装置10aは、図2に表す各部に加えて回答取得部108と、ユーザ特性判定部109とを備える。回答取得部108は、質問に対するユーザの回答を取得する。回答取得部108は、例えば性格判断に用いられる質問及び回答候補を提示して、ユーザが選択した回答候補を回答として取得する。回答取得部108は取得した回答をユーザ特性判定部109に供給する。
[2-2] Answer to question The character string output by the
FIG. 7 shows a functional configuration realized by the
ユーザ特性判定部109は、回答取得部108が取得した回答に基づいてユーザの特性を判定する。ユーザ特性判定部109は、例えば性格判断の手法を用いて回答から得られるユーザの性格をユーザの特性として判定する。ユーザ特性判定部109は判定したユーザ特性を出力部107に通知する。出力部107は、通知されたユーザ特性と、ユーザ状況判定部104により判定されたユーザ状況とに応じて文字列(例えばコメント)を出力する。出力部107は、ユーザ状況及びユーザ特性にコメント候補を対応付けたコメント候補テーブルを用いる。
The user
図8はコメント候補テーブルの一例を表す。図8の例では、「試験」というユーザ状況に、「頑張り屋」及び「のんびり屋」というユーザ特性が対応付けられている。「頑張り屋」には図3に表す「絶対合格」等のコメント候補が対応付けられており、「のんびり屋」には「マイペースでいこう」、「なるようになるさ」、「きっと上手くいくよ」というコメント候補が対応付けられている。また、各コメント候補には図3の例と同様に類似度が対応付けられている。 FIG. 8 shows an example of the comment candidate table. In the example of FIG. 8, the user characteristics “test” and the user characteristics “work hard” and “relaxed” are associated. The “good workman” is associated with the comment candidates such as “Absolutely Pass” as shown in FIG. 3, “Let ’s go at my own pace”, “I ’ll become good”, “I ’ll be fine” Comment candidates are associated with each other. Each comment candidate is associated with a similarity as in the example of FIG.
出力部107は、ユーザ状況判定部104から通知されたユーザ状況と、ユーザ特性判定部109から通知されたユーザ特性とに対応付けられたコメント候補から、実施例と同様に算出した類似度に対応付けられたコメント候補をタッチスクリーン14に出力して表示させる。これにより、状況が同じユーザ同士でも出力される文字列の内容がユーザ毎に異なるようにすることができ、その内容を各ユーザの特性に応じたものにすることができる。
The
なお、ユーザ特性の判定を行わなくてもよい。その場合、回答取得部108が取得した回答を出力部107に通知し、出力部107が通知された回答とユーザ状況判定部104から通知されたユーザ状況とに応じた複数のコメント候補を用いる。つまり、ユーザ特性の判定の有無にかかわらず、出力部107は、ユーザ状況判定部104により判定されたユーザの状況と、回答取得部108により取得された回答とに応じた複数の文字列の候補のうちのいずれかをユーザの動作に応じて出力する。これにより、ユーザの状況が同じでも、ユーザ毎に異なる内容の文字列を出力することができる。
Note that the user characteristics need not be determined. In that case, the response acquired by the
[2−3]ユーザ状況判定部
ユーザ状況判定部104は、実施例とは異なる方法でユーザ状況を判定してもよい。
図9は本変形例の情報処理装置10bのハードウェア構成を表す。情報処理装置10bは、図1に表す各装置に加えて測位装置15とを備える。測位装置15はGPS(Global Positioning System)等の技術により自装置(情報処理装置10b)の位置(緯度及び
経度)を測定する。
[2-3] User situation determination unit The user
FIG. 9 illustrates a hardware configuration of the
図10は情報処理装置10bの機能構成の例を表す。情報処理装置10bは、図2に表す各部に加えて測位部110を備える。測位部110は、自装置の位置を測定し、測定した位置をユーザ状況判定部104に通知する。ユーザ状況判定部104は、測位部110により測定された自装置の位置に基づいてユーザの状況を判定する。ユーザ状況判定部104は、この判定に自装置の位置とユーザ状況とを対応付けたユーザ状況テーブルを用いる。
FIG. 10 illustrates an example of a functional configuration of the
図11はユーザ状況テーブルの一例を表す。図11の例では、「教育機関(大学、高校、中学など)」という自装置の位置には「試験」というユーザ状況が対応付けられている。この自装置の位置は、例えば、教育機関の敷地内の位置を表す緯度及び経度の範囲で表されている。測位部110により測定された位置がその範囲に含まれていれば、ユーザが教育機関の敷地内にいることが表される。同様に、「オフィスビル」という自装置の位置には「面接、プレゼン」というユーザ状況が対応付けられ、「駅、公園、映画館、繁華街」という自装置の位置には「デート」というユーザ状況が対応付けられている。
FIG. 11 shows an example of a user situation table. In the example of FIG. 11, the user status “test” is associated with the position of the own device “education institution (university, high school, junior high school, etc.)”. The position of the own device is represented by, for example, a range of latitude and longitude representing the position in the premises of the educational institution. If the position measured by the
ユーザ状況判定部104は、図11のユーザ状況テーブルにおいて、測位部110から通知された位置が含まれる自装置の位置に対応付けられているユーザ状況をユーザの現在の状況として判定する。この場合、面接とプレゼンとでコメント候補を共通にしておけば、ユーザが自身の状況を選択する操作を行わなくても、ユーザ状況に応じた文字列を出力させることができる。
The user
図12は本変形例の情報処理装置10cのハードウェア構成を表す。情報処理装置10cは、図1に表す各装置に加えて通信装置16を備える。通信装置16は、移動体通信や無線LAN(Local Area Network)の通信によりインターネット等のネットワークを介した通信を行う。
FIG. 12 illustrates a hardware configuration of the
図13は情報処理装置10cの機能構成の例を表す。情報処理装置10cは、図2に表す各部に加えてスケジュール取得部111を備える。スケジュール取得部111は、ユーザのスケジュールを取得する。本変形例では、情報処理装置10cを利用するユーザが、例えばクラウドコンピューティングで提供されているスケジュール管理サービスを利用しているものとする。
FIG. 13 illustrates an example of a functional configuration of the
スケジュール取得部111は、例えばこのスケジュール管理サービスに当日のユーザのスケジュールを問合せ、その応答で送られてくるユーザのスケジュールを取得する。スケジュールは、具体的には、ユーザが入力したその日の予定を表す語句で表される。例えば試験日であれば、「〇〇大学入試」や「△△社入社試験」などの語句で表されるスケジュールが取得され、面接日であれば「▽▽店バイト面接」や「□□社二次面接」などの語句で表されるスケジュールが取得される。
For example, the
スケジュール取得部111は、こうして取得したスケジュールをユーザ状況判定部104に通知する。ユーザ状況判定部104は、スケジュール取得部111により取得されたユーザのスケジュールに基づいてそのユーザの状況を判定する。ユーザ状況判定部104は、この判定にユーザのスケジュールとユーザ状況とを対応付けたユーザ状況テーブルを用いる。
The
図14はユーザ状況テーブルの別の一例を表す。図14の例では、スケジュールに含まれる語句とユーザ状況とが対応付けられている。例えば「試験、テスト、模試、入試、・・・」という語句は「試験」というユーザ状況に対応付けられ、「面接、就職、就活、転職、・・・」という語句は「面接」というユーザ状況に対応付けられている。また、「プレゼン、商談、提案、・・・」という語句は「プレゼン」というユーザ状況に対応付けられ、「デート、待ち合わせ、・・・」という語句は「デート」というユーザ状況に対応付けられている。 FIG. 14 shows another example of the user situation table. In the example of FIG. 14, words and phrases included in the schedule are associated with the user situation. For example, the phrase “examination, test, imitation, entrance examination,...” Is associated with the user situation “examination”, and the phrase “interview, employment, job hunting, job change,...” Is the user situation “interview”. Is associated with. Further, the phrase “presentation, negotiation, proposal,...” Is associated with the user situation “presentation”, and the phrase “date, meeting,...” Is associated with the user situation “date”. Yes.
ユーザ状況判定部104は、スケジュール取得部111から通知されたスケジュールに、図14のユーザ状況テーブルの語句が含まれているか否かを判断する。ユーザ状況判定部104は、語句が含まれていると判断した場合には、その語句に対応付けられているユーザ状況を判定する。例えば「□□社二次面接」というスケジュールが取得された場合であれば、ユーザ状況判定部104は、「面接」という語句に対応付けられている「面接」をユーザ状況として判定する。
The user
なお、情報処理装置10cにインストールされたアプリケーションプログラムによって提供されるスケジュール管理機能をユーザが利用している場合に、スケジュール取得部111が、このスケジュール管理機能からスケジュールを取得してもよい。いずれの場合も、ユーザは、スケジュールを管理する機能を利用していれば、自身の状況を選択する操作を行わなくても、ユーザ状況に応じた文字列を出力させることができる。
Note that when the user uses a schedule management function provided by an application program installed in the
[2−4]文字列の生成
実施例では複数の文字列の候補が予め記憶されていたが、これらの候補が生成されてもよい。
図15は本変形例の情報処理装置10dの機能構成を表す。情報処理装置10dは、図2に表す各部に加えて図10に表す測位部110と、文字列生成部112とを備える。測位部110は、測定した自装置の位置を文字列生成部112に通知する。ユーザ状況判定部104は、判定したユーザ状況を文字列生成部112に通知する。
[2-4] Generation of Character Strings Although a plurality of character string candidates are stored in advance in the embodiment, these candidates may be generated.
FIG. 15 illustrates a functional configuration of the
文字列生成部112は、出力部107により出力される文字列の候補として、図15の例では、測定された位置に関連する固有名詞を含む文字列を生成する。位置に関連する固有名詞としては、例えば日本国内の施設名(学校名や会社名など)が用いられる。文字列生成部112は、文字列の生成に、日本国内の施設名と各施設の位置を表す緯度及び軽度とを対応付けた施設名テーブルを用いる。文字列生成部112は、測位部110から測定された位置が通知されると、施設名テーブルを参照し、測位部110から通知された位置(緯度及び軽度)との距離が閾値未満となっている施設の施設名を特定する。
In the example of FIG. 15, the character
記憶部103は、施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。例えば記憶部103は「試験」というユーザ状況に対応付けて「(学校名)入試合格」や「(学校名)生になるぞ!」などという文字列を記憶している。これらの文字列に例えば「〇〇大学」という学校名を入れると、「〇〇大学入試合格」や「〇〇大学生になるぞ!」というコメントが完成する。
The
文字列生成部112は、通知されたユーザ状況に対応付けて記憶されている上記の文字列を読み出して、読み出した文字列に特定した施設名を入れてコメントとして完成した文字列を生成する。文字列生成部112はこうしてユーザ状況判定部104により判定されたユーザ状況に応じ、且つ、測定された位置に関連する固有名詞を含む文字列を生成する。文字列生成部112は、生成した文字列を記憶部103に記憶させる。
The character
出力部107は、記憶部103を参照して実施例と同様に動作することで、文字列生成部112により生成された文字列を含む複数の文字列の候補のうちのいずれかをユーザの動作に応じて出力する。こうして、例えばユーザが試験を受けようとしている学校を訪れて、試験前に緊張を和らげるために文字をなぞる動作を行うと、その学校の名前が入ったコメントを表す文字列が出力されることになる。これにより、ユーザに臨場感を与えることができる。
The
なお、文字列生成部112は、試験や面接の会場や日程を考慮して文字列を生成してもよい。例えば大学等の教育機関の施設は入試だけでなく資格試験の会場になることがある。そこで文字列生成部112は、各施設の位置に、その施設で行われる試験や面接の名称(例えば〇〇資格試験や〇〇社二次面接など)と日程とを対応付けた施設テーブルを用いる。文字列生成部112は、測定された位置との距離が閾値未満となっている施設において、現在の日時に対応付けられている試験や面接の名称を特定する。これにより、各施設で開催される試験や面接などを表す固有名詞を含む文字列を出力することができる。
Note that the character
また、ユーザのスケジュールに応じた文字列が生成されてもよい。
図16は本変形例の情報処理装置10eの機能構成を表す。情報処理装置10eは、図2に表す各部に加えて図13に表すスケジュール取得部111と、文字列生成部112とを備える。スケジュール取得部111は、取得したスケジュールを文字列生成部112に通知する。ユーザ状況判定部104は、判定したユーザ状況を文字列生成部112に通知する。
In addition, a character string according to the user's schedule may be generated.
FIG. 16 illustrates a functional configuration of the
文字列生成部112は、出力部107により出力される文字列の候補として、図15の例では、スケジュール取得部111により取得されたスケジュールに関連する固有名詞を含む文字列を生成する。文字列生成部112は、文字列の生成に、試験、面接、プレゼン及びデート等でよく使われる施設の名称を表す施設名リストを用いる。文字列生成部112は、スケジュール取得部111から取得されたスケジュールが通知されると、通知されたスケジュールに施設名リストの語句が含まれていれば、その語句を抽出する。
In the example of FIG. 15, the character
記憶部103は、施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。例えば記憶部103は「試験」というユーザ状況に対応付けて「(学校名)入試合格」や「(学校名)生になるぞ!」などという文字列を記憶している。これらの文字列に例えば「〇〇大学」という学校名を入れると、「〇〇大学入試合格」や「〇〇大学生になるぞ!」というコメントが完成する。
The
記憶部103は図15の例と同様に施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。文字列生成部112は、通知されたユーザ状況に対応付けて記憶されている文字列を読み出して、読み出した文字列に抽出した施設名を入れてコメントとして完成した文字列を生成する。文字列生成部112はこうしてユーザ状況判定部104により判定されたユーザ状況に応じ、且つ、取得されたスケジュールに関連する固有名詞を含む文字列を生成する。
Similarly to the example of FIG. 15, the
後は図15の例と同様の動作が行われることで、例えば「〇〇遊園地でデート」というようにユーザが訪れる予定の施設の名称を入れたスケジュールを作成している場合に、その予定の前に緊張を和らげるために文字をなぞる動作を行うと、その施設の名称が入ったコメントを表す文字列が出力されることになる。この場合も、ユーザに臨場感を与えることができる。 Thereafter, the same operation as in the example of FIG. 15 is performed. For example, when a schedule including the name of the facility that the user plans to visit is created, such as “Date at Amusement Park”, the schedule If you do the action of tracing characters to relieve the tension before, the character string representing the comment that contains the name of the facility will be output. In this case as well, a sense of reality can be given to the user.
[2−5]アプリの提供
図2等に表した各部を実現するアプリケーションプログラム(以下「アプリ」という)が外部装置からダウンロードされてもよい。
図17は本変形例の情報処理システム1の全体構成を表す。情報処理システム1は、情報処理装置10fと、サーバ装置20と、これらの装置を接続するネットワーク2とを備える。情報処理装置10fは、図12に表す情報処理装置10cと同様に通信装置16を備え、ネットワーク2を介した通信を行う。サーバ装置20は、例えば図12に表す制御装置11、記憶装置12及び通信装置16と共通するハードウェアを有するコンピュータである。
[2-5] Provision of Application An application program (hereinafter referred to as “application”) that realizes each unit illustrated in FIG. 2 or the like may be downloaded from an external device.
FIG. 17 illustrates the overall configuration of the information processing system 1 according to this modification. The information processing system 1 includes an
図18は情報処理システム1の機能構成を表す。情報処理装置10fは、図2に表す各部を備え、サーバ装置20は、アプリ提供部201を備える。アプリ提供部201は、情報処理装置10fが備える各部を実現するためのアプリケーションプログラム(以下「アプリ」という)をユーザ装置に提供する。アプリ提供部201は、例えば、各ユーザ状況に対応したアプリを提供する。具体的には、「試験」用のアプリ、「面接」用のアプリ、「プレゼン」用のアプリ、「デート」用のアプリがそれぞれ個別にダウンロードされ、情報処理装置10fにおいて個別のアイコンが表示されて個別に起動される。ユーザによるダウンロードするアプリの選択は、例えば各種のアプリを提供する電子商取引サイトで行われる。
FIG. 18 shows a functional configuration of the information processing system 1. The
図19はアプリを選択する画面の一例を表す。図19の例では、「どのアプリをダウンロードしますか?」という文字列と、ユーザの状況を表す「入試」、「面接」、「プレゼン」、「デート」という文字を含む操作子群F11とが情報処理装置10fのタッチスクリーン14fに表示されている。この画面でユーザがいずれかの操作子を操作すると、操作された操作子に表されたユーザ状況に対応するアプリ(例えば「試験」用のアプリ)がサーバ装置20に要求される。アプリ提供部201は、こうして要求されたアプリを情報処理装置10fに提供する。提供されたアプリを情報処理装置10fが実行することで、図18に表す情報処理装置10fの各部が実現される。
FIG. 19 shows an example of a screen for selecting an application. In the example of FIG. 19, an operator group F11 including a character string “Which application do you want to download?” And characters “entrance examination”, “interview”, “presentation”, and “date” representing the user's situation Is displayed on the
アプリ提供部201が提供したアプリには、例えば図3に表す複数の文字列の候補及び類似度の情報が含まれており、このアプリがインストールされることで、記憶部103にこれらの情報が記憶される。例えば「入試」に対応するアプリが提供された場合には、図3の例で「入試」に対応付けられているコメント候補及び類似度が記憶部103に記憶される。それとともに、インストールされたアプリのアイコンが表示されるようになり、そのアイコンを操作することでアプリが起動される。
The application provided by the
なお、アプリを起動させるアイコンは、前述したように個別に表示されてもよいし、共通のアイコンが表示されてもよい。
図20は表示されるアイコンの例を表す。図20(a)の例では、情報処理装置10fのタッチスクリーン14fに、「書写アプリ(試験)」という文字を含むアイコンJ1と、「書写アプリ(面接)」という文字を含むアイコンJ2と、「書写アプリ(デート)」という文字を含むアイコンJ3とが表示されている。なお、「書写アプリ」とは、ユーザによる文字の軌跡を描く動作が書写、すなわち文字を書き写す動作に似ていることからつけた名称である。この例ではプレゼン用のアプリはダウンロードされておらず、対応するアイコンも表示されていない。例えば試験前であればユーザがアイコンJ1を操作してアプリを起動させることでユーザ状況が試験と判定され、軌跡を描く動作が行われることにより、試験に対応して記憶された複数の文字列の候補のうちのいずれかが出力される。
In addition, the icon for starting the application may be displayed individually as described above, or a common icon may be displayed.
FIG. 20 shows an example of displayed icons. In the example of FIG. 20A, the
図20(b)の例では、タッチスクリーン14fに「書写アプリ」という文字を含むアイコンJ11が表示されている。ユーザがアイコンJ11を操作してアプリを起動させると、例えば図4(a)に表すユーザ状況を選択させるための画面が表示され、そこで表示された操作子群F1に対する操作に応じてユーザ状況が判定される。なお、この画面で表示される操作子が例えばいわゆるアプリ内課金によって追加できるようになっていてもよい。このように、いずれの場合も、ユーザ状況判定部104は、ユーザが起動したアプリ又は選択した操作子に対応するユーザ状況を、自装置を利用するユーザの状況として判定する。以下、実施例と同様の動作が行われて、判定されたユーザ状況に応じたコメントが出力される。本変形例によれば、ユーザは自分に必要なアプリを選んで利用することができる。
In the example of FIG. 20B, an icon J11 including characters “writing app” is displayed on the
[2−6]動作に応じた出力
実施例では出力部107がユーザの動作に基づいて算出された類似度に応じた文字列を出力したが、これに限らない。出力部107は、例えば、タッチスクリーン14が圧力センサを有している場合に、ユーザが軌跡を描いたときに検出された圧力(いわゆる筆圧に相当する圧力)に応じた文字列を出力してもよい。
[2-6] Output According to Action In the embodiment, the
図21は本変形例の記憶部103が記憶する情報の一例を表す。図21の例では、ユーザ状況及びコメント候補に圧力が対応付けて記憶されている。ユーザ状況が「試験」の場合、例えば圧力が「C1以上」なら「リラックスしよう」、「C1未満C2以上」(C2<C1)なら「集中してますね」、「C2未満」なら「気合を入れよう!」というコメント候補が出力される。この例では、緊張するほどタッチスクリーン14に加える圧力が大きくなるユーザを想定して、圧力が大きく緊張している場合には緊張をほぐすためのコメントが出力され、圧力が小さく気が緩んでいる場合には集中力を高めるためのコメントが出力されるようになっている。
FIG. 21 shows an example of information stored in the
また、出力部107は、ユーザの動作に要した時間に応じた文字列を出力してもよい。
図22は本変形例の記憶部103が記憶する情報の別の一例を表す。図22の例では、ユーザ状況及びコメント候補に動作時間(ユーザの動作に要した時間)が対応付けて記憶されている。ユーザ状況が「試験」の場合、例えば動作時間が「D1以上」なら「時間配分に注意」、「D1未満D2以上」(D2<D1)なら「見直しもしっかり!」、「D2未満」なら「ケアレスミスに注意」というコメント候補が出力される。この例では、動作時間が長いと問題をゆっくり解く傾向にあり、動作時間が短いと問題を急いで解く傾向にあると想定して、動作時間が長い場合には試験時間が足りなくなることを防ぐためのコメントが出力され、動作時間が短い場合には解答を急ぎ過ぎて不注意によるミスをすることを防ぐためのコメントが出力されるようになっている。
Further, the
FIG. 22 shows another example of information stored in the
以上のように、ユーザの動作の特徴(タッチスクリーン14を押す力や軌跡を描く速さ)を用いることで、各特徴から想定されるユーザの性格や特性に合った文字列を出力させることができる。なお、ユーザの動作の特徴としては、他にも、例えばユーザが軌跡を描いた範囲の大きさが用いられてもよい。この範囲が大きいほど大きな文字が描かれたことを表す。例えばユーザに元気がないと描く文字が小さくなりやすいと考えて、ユーザが軌跡を描いた範囲の大きさ(例えば軌跡に外接する円や矩形などの図形の面積で表す)が閾値以上である場合にはユーザ状況に応じた通常のコメントを出力し、その範囲の大きさが閾値未満である場合にはユーザを元気づけるためのコメントを出力する、というように活用できる(範囲の大きさとコメントの関係は反対でもよい)。
As described above, by using the feature of the user's action (the force of pushing the
なお、出力部107は、これら以外にも、例えば現在時刻に応じた文字列を出力してもよし、ランダムで選んだ文字列を出力してもよい。これらの場合は、ユーザの動作は文字列を出力させるきっかけとして用いられる。ただし、いずれの場合も、出力部107は、ユーザがタッチスクリーン14に軌跡を描く動作に応じて文字列を出食することになる。そして、いずれの場合も、ユーザの状況に対応する複数の文字列の候補から最終的に出力される文字列が選ばれるようになっていれば、実施例と同様に出力される文字列の内容をユーザの状況に合ったものにすることができる。
In addition to the above, the
なお、出力部107は、同じ文字列を2回続けては出力しないようにしてもよい。言い換えると、出力部107は、前回出力した文字列とは異なる文字列を出力するようにしてもよい。出力部107は、例えば出力した文字列にフラグを対応付けておき、次にユーザが軌跡を描く動作を行ったときには、フラグが対応付けられていない文字列から文字列を選んで出力する。このとき、出力部107は、新たに出力した文字列にフラグを付け替える。これにより、同一文字列が2回連続で出力されることがなくなり、一度他の文字列が出力されれば再び出力され得るようになる。
Note that the
続けて同じ文字列が出力されると、決まりきった文字列しか出力されないという印象をユーザに与えることがあるが、出力部107が前述のとおり出力を行うことで、同じ文字列の2回連続での出力を許容する場合に比べて、そのような印象を与えにくくすることができる。なお、出力部107は、各状況に対応付けられた文字列が十分に多ければ、所定の回数までは必ず異なる文字列を連続して出力するようにしてもよい。この場合、例えば所定の回数が3回なら、連続で出力された3つの文字列は必ず全て異なることになる。これにより、前述の場合に比べて上記印象をユーザにさらに与えにくくすることができる。
If the same character string is output continuously, the user may be given the impression that only a fixed character string is output, but the
[2−7]文字の表示
ユーザが軌跡を描く動作を行う際に表示される文字は上述したものに限らない。例えば、図4に表す「勝」等のように1文字でなく2文字以上が表示されてもよいし、文を表す文字が表示されてもよい。また、文字に限らず、句読点のような記号や矢印のような図形が表示されてもよい。また、これらの文字等を実施例のようにユーザが軌跡を描く位置に表示させてそれをなぞらせる代わりに、記入欄の外側に表示させてもよい。その場合でも、ユーザは表示された文字等を参考にすることができるので、軌跡を描きやすい。
[2-7] Character Display Characters displayed when the user performs an operation of drawing a locus are not limited to those described above. For example, two or more characters may be displayed instead of one character, such as “win” shown in FIG. 4, or a character representing a sentence may be displayed. In addition to characters, symbols such as punctuation marks and graphics such as arrows may be displayed. Instead of displaying these characters and the like at a position where the user draws a locus as in the embodiment and tracing them, they may be displayed outside the entry field. Even in such a case, the user can refer to the displayed characters and the like, so that it is easy to draw a trajectory.
なお、文字等の表示は必須ではない。例えば図4(d)に表す入力欄F6と動作の終了を表す操作子F7だけが表示され、文字G1が表示されていなくてもよい。この場合、ユーザは自分が好きな文字等を入力欄F6に描き、操作子F7を操作して軌跡を描く動作を終了させればよい。その際は、類似度が算出できないので、例えば上述した筆圧や動作時間に基づいて文字列が出力されればよい。また、文字等を表示させた場合に、ユーザは必ずしも表示された文字を描く必要はない。ユーザが何の軌跡を描いたかにかかわらず、例えば図4に表す操作子F7を操作して軌跡を描く動作が行われたことを出力部107が判断できれば、上述した文字列の出力が行われることになる。
The display of characters and the like is not essential. For example, only the input field F6 shown in FIG. 4D and the operation element F7 indicating the end of the operation are displayed, and the character G1 may not be displayed. In this case, the user may draw a character or the like he / she likes in the input field F6 and operate the operation element F7 to end the operation of drawing the locus. In this case, since the similarity cannot be calculated, for example, a character string may be output based on the above-described writing pressure and operation time. Further, when displaying characters or the like, the user does not necessarily have to draw the displayed characters. Regardless of what locus the user has drawn, for example, if the
なお、ユーザが自由に文字等を描く場合、ユーザによって描かれた文字の文字数が上述したユーザの動作の特徴として用いられてもよい。例えば緊張しているほど文字数が少なくなると考えて、文字数が閾値以上である場合にはユーザ状況に応じた通常のコメントを出力し、文字数が閾値未満である場合には緊張を和らげるためのコメントを出力する、というように活用できる(文字数とコメントの関係は反対でもよい)。 In addition, when a user draws a character etc. freely, the number of characters of the character drawn by the user may be used as a characteristic of the user's operation described above. For example, if the number of characters is less than the threshold, the normal comment corresponding to the user situation is output if the number of characters is less than the threshold, and if the number of characters is less than the threshold, a comment for relieving the tension is considered. It can be used as output (the relationship between the number of characters and comments may be reversed).
また、ユーザが自由に文字等を描く場合、その文字の内容が上述したユーザの動作の特徴として用いられてもよい。具体的には、特定の文字(ユーザの名前やユーザが登録している文字など)が描かれた場合に、通常とは異なるコメントを出力する、というように活用できる。この場合、例えば情報処理装置には特定の文字が予め記憶されており、図2に表す出力部107が、ユーザにより描かれた軌跡からOCR(Optical character recognition)の技術を用いて文字を認識し、認識した文字が記憶されている場合に通常とは異なるコメントを出力する。
Further, when a user freely draws a character or the like, the content of the character may be used as a feature of the user's operation described above. Specifically, when a specific character (such as a user name or a character registered by the user) is drawn, a comment different from the normal one can be output. In this case, for example, a specific character is stored in advance in the information processing apparatus, and the
[2−8]出力先
実施例では出力部107が文字列をタッチスクリーン14に出力したが、文字列の出力先はこれに限らない。出力部107は、例えば、ユーザのメールアドレスやSNS(Social Networking Service)のアカウントに文字列を出力してもよい。また、出力部107は、情報処理装置がスピーカを有していれば、文字列を表す音声を出力してもよい。要するに、出力対象の文字列の表す言葉がユーザに伝わるようになっていれば、どのような出力先が用いられてもよい。
[2-8] Output Destination In the embodiment, the
[2−9]テーブル
図3等に表したテーブルは情報処理装置の記憶装置に記憶されていてもよいし、外部装置に記憶されていてネットワークを介して参照されるようになっていてもよい。また、図3等に表したテーブルは例示であって、それらのテーブルのデータの内容や構成が図3等に例示のものと異なってもよい。また、テーブルに代えて例えば文字列をパラメータとする関数(文字列検索や文字列抽出などの関数)などが用いられてもよい。要するに、図3等に例示のテーブルに示される対応関係が特定されれば、用いられるデータの形式は限定されない。
[2-9] Table The table shown in FIG. 3 or the like may be stored in the storage device of the information processing device, or may be stored in an external device and referred to via a network. . Further, the tables shown in FIG. 3 and the like are examples, and the contents and configuration of data in those tables may be different from those shown in FIG. In place of the table, for example, a function using a character string as a parameter (function such as character string search or character string extraction) may be used. In short, the format of data to be used is not limited as long as the correspondence relationship shown in the table illustrated in FIG.
[2−10]発明のカテゴリ
本発明は、情報処理装置の他、情報処理装置及びサーバ装置を備える情報処理システムとしても捉えられる。また、それらの装置が実施する処理を実現するための情報処理方法やそれらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。これらのプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-10] Category of Invention The present invention can be understood as an information processing system including an information processing device and a server device in addition to the information processing device. Further, the present invention can also be understood as an information processing method for realizing processing performed by these devices and a program for causing a computer that controls these devices to function. These programs may be provided in the form of a recording medium such as an optical disk in which they are stored, or may be downloaded to a computer via a network such as the Internet, installed and made available for use. May be provided.
10…情報処理装置、11…制御装置、12…記憶装置、13…UI装置、14…タッチスクリーン、101…選択部、102…提示部、103…記憶部、104…ユーザ状況判定部、105…文字表示部、106…軌跡表示部、107…出力部、108…回答取得部、109…ユーザ特性判定部、110…測位部、111…スケジュール取得部、112…文字列生成部。
DESCRIPTION OF
本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。 The present invention includes a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, and a determination unit that determines a planned user situation And when the character is displayed and the user performs an action of drawing a locus on the touch screen, among the plurality of character string candidates stored corresponding to the determined situation of the scheduled user An information processing apparatus is provided that includes an output unit that outputs a character string corresponding to the trajectory and the similarity of the character.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
The present invention also provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a scheduled user situation, and a user draws a locus on the touch screen. An output unit configured to output a character string corresponding to a feature of the action among the plurality of character string candidates stored corresponding to the determined situation of the scheduled user when an action is performed; An information processing apparatus is provided.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a scheduled user situation, and the determined user situation. When the user performs an operation of drawing a locus on the touch screen in a state where the character selected by the user from the presented character candidates is displayed on the touch screen. An information processing apparatus is provided that includes an output unit that outputs any one of the plurality of character string candidates stored corresponding to the determined situation of the scheduled user .
また、本発明は、タッチスクリーンと、予定されたユーザの状況を判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 The present invention also includes a touch screen, a determination unit that determines a scheduled user's situation, an answer acquisition unit that acquires a user's answer to the question, and a plurality of characters according to the user's situation and the answer to the question The storage unit that stores the column candidates, and the user stored according to the determined user situation and the acquired answer when the user performs an operation of drawing a locus on the touch screen An information processing apparatus including an output unit that outputs any one of a plurality of character string candidates is provided.
本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。 The present invention obtains information relating to a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, and a user's schedule And a determination unit that determines a situation associated with the acquired information as a planned user situation , and the character is displayed and the user performs an operation of drawing a locus on the touch screen. An output unit that outputs a character string corresponding to the trajectory and the similarity of the character among the plurality of character string candidates stored in correspondence with the determined situation of the scheduled user. An information processing apparatus is provided.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, an acquisition unit that acquires information related to the user's schedule, and the acquired information A determination unit that determines the associated situation as the scheduled user situation , and when the user performs an action of drawing a locus on the touch screen, the determined situation corresponding to the scheduled user situation An information processing apparatus is provided that includes an output unit that outputs a character string corresponding to a feature of the operation among the plurality of stored character string candidates.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.
また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, an acquisition unit that acquires information related to the user's schedule, and the acquired information the association was situation, a determining unit as the status of scheduled user, the presentation unit for presenting the character candidates according to the condition of the determined the user, the user from the candidates of the presented characters The plurality of characters stored corresponding to the determined user situation determined when the user performs an action of drawing a locus on the touch screen in a state where the selected character is displayed on the touch screen. Provided is an information processing apparatus including an output unit that outputs any of column candidates.
また、本発明は、タッチスクリーンと、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention is a touch screen and, determining unit and the acquisition unit for acquiring information with an associated scheduled users, was associated with the acquired information situation, as the status of scheduled user An answer acquisition unit that acquires a user's answer to the question, a storage unit that stores a plurality of character string candidates according to the user's situation and the answer to the question, and an operation in which the user draws a locus on the touch screen. An information processing unit comprising: an output unit configured to output one of the plurality of character string candidates stored according to the determined situation of the scheduled user and the acquired answer when the determination is made; Providing equipment.
Claims (6)
前記タッチスクリーンに文字を表示させる文字表示部と、
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部と
を備える情報処理装置。 Touch screen,
A character display unit for displaying characters on the touch screen;
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
When the character is displayed and the user performs an operation of drawing a trajectory on the touch screen, the trajectory and the character of the character are stored among the plurality of character string candidates stored corresponding to the determined situation. An information processing apparatus comprising: an output unit that outputs a character string corresponding to the degree of similarity.
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部と
を備える情報処理装置。 Touch screen,
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
When the user performs an action of drawing a locus on the touch screen, a character string corresponding to the feature of the action is output among the plurality of character string candidates stored corresponding to the determined situation. An information processing apparatus comprising: an output unit.
請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the characteristic of the operation is a pressure applied to the touch screen during the operation.
請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the feature of the operation is a time required for the operation.
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、
提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部と
を備える情報処理装置。 Touch screen,
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
A presentation unit that presents candidate characters according to the determined user situation;
When the user performs an action of drawing a locus on the touch screen in a state where the character selected by the user from the presented character candidates is displayed on the touch screen, the character is stored corresponding to the determined situation. And an output unit that outputs any one of the plurality of character string candidates.
ユーザの状況を判定する判定部と、
質問に対するユーザの回答を取得する回答取得部と、
ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、
ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部と
を備える情報処理装置。 Touch screen,
A determination unit for determining a user's situation;
An answer acquisition unit for acquiring a user's answer to the question;
A storage unit that stores a plurality of character string candidates according to the user's situation and the answer to the question;
Output that outputs any of the plurality of character string candidates stored in accordance with the determined situation and the acquired answer when the user performs an action of drawing a locus on the touch screen An information processing apparatus comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015112565 | 2015-06-02 | ||
JP2015112565 | 2015-06-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6010683B1 JP6010683B1 (en) | 2016-10-19 |
JP2016224397A true JP2016224397A (en) | 2016-12-28 |
Family
ID=57140253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015243540A Expired - Fee Related JP6010683B1 (en) | 2015-06-02 | 2015-12-14 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6010683B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003216294A (en) * | 2002-01-25 | 2003-07-31 | Victor Co Of Japan Ltd | User interface device |
JP2010072818A (en) * | 2008-09-17 | 2010-04-02 | Olympus Corp | Information processing system, digital photo-frame, program, and information storage medium |
JP2011221985A (en) * | 2010-03-24 | 2011-11-04 | Oki Electric Ind Co Ltd | Input support device, input support method and program |
JP2015045973A (en) * | 2013-08-28 | 2015-03-12 | キヤノン株式会社 | Information processor and control method therefor and computer program and recording medium |
-
2015
- 2015-12-14 JP JP2015243540A patent/JP6010683B1/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003216294A (en) * | 2002-01-25 | 2003-07-31 | Victor Co Of Japan Ltd | User interface device |
JP2010072818A (en) * | 2008-09-17 | 2010-04-02 | Olympus Corp | Information processing system, digital photo-frame, program, and information storage medium |
JP2011221985A (en) * | 2010-03-24 | 2011-11-04 | Oki Electric Ind Co Ltd | Input support device, input support method and program |
JP2015045973A (en) * | 2013-08-28 | 2015-03-12 | キヤノン株式会社 | Information processor and control method therefor and computer program and recording medium |
Non-Patent Citations (1)
Title |
---|
"書いて添削!なぞって練習!字が上手くなるアプリ登場", 産経アプリスタ, JPN6016009075, 2 March 2016 (2016-03-02), ISSN: 0003272777 * |
Also Published As
Publication number | Publication date |
---|---|
JP6010683B1 (en) | 2016-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pereira et al. | Survey and analysis of current mobile learning applications and technologies | |
US9177064B2 (en) | Language learning exchange | |
US20140220537A1 (en) | E-learning lesson delivery platform | |
KR102256182B1 (en) | Method and apparatus for providing automatic question and answer chatbot service for video remote lecture | |
Tsai | Learning with mobile augmented reality-and automatic speech recognition-based materials for English listening and speaking skills: Effectiveness and perceptions of non-English major English as a foreign language students | |
US12008317B2 (en) | Summarizing information from different sources based on personal learning styles | |
US11288976B2 (en) | Language fluency system | |
Azman et al. | Implications for social work teaching and learning in Universiti Sains Malaysia, Penang, due to the COVID-19 pandemic: A reflection | |
US9898935B2 (en) | Language system | |
KR102099943B1 (en) | English Education System Using Mentor | |
US10157070B2 (en) | Document preparation platform | |
KR20160039505A (en) | Learning contents configuring apparatus and method for thereof | |
Aurbach et al. | Half-life your message: A quick, flexible tool for message discovery | |
JP6010683B1 (en) | Information processing device | |
Jayakody et al. | Mobile application for vision impaired people to facilitate to learn the English language | |
Awada et al. | An E-Learning Platform That Supports Personalized Learning and Multimodal Interactions | |
KR20180051925A (en) | Learning server | |
Araújo et al. | Pedagogic software evaluation protocol: analyzing a digital educational game for portuguese language teaching | |
US20240282303A1 (en) | Automated customization engine | |
US20240282209A1 (en) | Automated customization virtual ecosystem | |
KR20120070782A (en) | Word studying service system and method thereof | |
Fujita | Physical expression on stage and screen: Using the Alexander Technique to create unforgettable performances | |
Breunig | Language workers and the challenge of digitalisation: Gaining insight through the social media skill sharing of professional communication practitioners within the US military | |
Tackie | Ga dictionary application: An android and web platform to facilitate the easy learning of the Ga traditional language | |
KR101182260B1 (en) | Apparatus and method of providing language learning service |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160916 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6010683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |