JP2016224397A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2016224397A
JP2016224397A JP2015243540A JP2015243540A JP2016224397A JP 2016224397 A JP2016224397 A JP 2016224397A JP 2015243540 A JP2015243540 A JP 2015243540A JP 2015243540 A JP2015243540 A JP 2015243540A JP 2016224397 A JP2016224397 A JP 2016224397A
Authority
JP
Japan
Prior art keywords
user
character
situation
character string
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015243540A
Other languages
Japanese (ja)
Other versions
JP6010683B1 (en
Inventor
兼久 諏訪
Kanehisa Suwa
兼久 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FRONTIER MARKET KK
Original Assignee
FRONTIER MARKET KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FRONTIER MARKET KK filed Critical FRONTIER MARKET KK
Application granted granted Critical
Publication of JP6010683B1 publication Critical patent/JP6010683B1/en
Publication of JP2016224397A publication Critical patent/JP2016224397A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To make contents of a character string to be outputted suitable to a user's situation in the case of outputting the character string to make the user feel response of his/her own operation.SOLUTION: A storage part 103 stores candidates for a plurality of character strings in each of user's situations. A user situation determination part 104 determines a user's situation. An output par 107 outputs the character strings stored in the storage part 103. The output part 107 outputs a character string corresponding to an operation among the candidates for the plurality of character strings stored in the storage part 103, corresponding to the situation determined by the user situation determination part 104 in the case that the user performs the operation that draws a trajectory on a touch screen 14 while a character selected by a selection part 101 is displayed on the touch screen 14.SELECTED DRAWING: Figure 2

Description

本発明は、文字列を出力する技術に関する。   The present invention relates to a technique for outputting a character string.

非特許文献1には、表示された文字の画像をなぞりながら文字を書くと、書いた文字を採点した結果として点数や「美」、「並」等の判子の画像が表示される技術が開示されている。   Non-Patent Document 1 discloses a technique in which when a character is written while tracing an image of the displayed character, a score image such as a score, “beauty”, and “normal” is displayed as a result of scoring the written character. Has been.

“美文字判定 書いて添削 for iPhone(登録商標)"、[online]、AppleJapan本社、[平成27年4月23日検索]、インターネット<https://itunes.apple.com/jp/app/mei-wen-zi-pan-ding-shuite/id789605324?mt=8>“Beautiful character judgment written and corrected for iPhone (registered trademark)”, [online], AppleJapan headquarters, [Search April 23, 2015], Internet <https://itunes.apple.com/jp/app/mei -wen-zi-pan-ding-shuite / id789605324? mt = 8>

試験前や面接前の緊張する状況では、文字を描いて集中力を高めたり気分を落ち着かせたりすることがある。その場合に、単に文字を描く動作を行うだけでなく、その動作に対する手応えを感じることができると、より文字を描くことに集中しやすくなる。この手応えを与えるために、文章などの文字列を出力すると、その文字列が例えば励ましの言葉を表していればユーザの気分が高揚し、自然体をイメージさせる言葉を表していればユーザの気分が落ち着くというように、文字列が表す内容によってユーザの気分に影響を与えることもできる。   In situations where you are nervous before an exam or before an interview, you may draw letters to improve your concentration and calm your mood. In such a case, if the user can feel the response to the operation in addition to simply performing the operation of drawing the character, it becomes easier to concentrate on drawing the character. In order to provide this response, when a character string such as a sentence is output, the user's mood is enhanced if the character string represents, for example, a word of encouragement, and the user's mood is expressed if the character string expresses a natural image. The user's mood can be influenced by the content represented by the character string, such as calming down.

しかし、例えば試験前と面接前とで文字列の内容が同じだと、文字列が表す内容がそのときの状況に合ったものになりにくい。
そこで、本発明は、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることを目的とする。
However, for example, if the content of the character string is the same before the test and before the interview, the content represented by the character string is unlikely to match the situation at that time.
Therefore, the present invention has an object to make the content of the output character string suitable for the user's situation when the character string is output to make the user feel the response of his / her operation.

本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。   The present invention includes a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, When a character is displayed and the user performs an action of drawing a locus on the touch screen, among the plurality of character string candidates stored corresponding to the determined situation, the locus and the similarity of the character An information processing apparatus including an output unit that outputs a character string corresponding to a degree is provided.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
The present invention also provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, and an operation in which a user draws a locus on the touch screen. And an output unit that outputs a character string corresponding to the feature of the operation among the plurality of character string candidates stored corresponding to the determined situation.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの状況を判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。   In addition, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a user situation, and a character according to the determined user situation. It is determined when the user performs an action of drawing a locus on the touch screen in a state where a character selected by the user from the presented character candidates and the character selected by the user is displayed on the touch screen. An information processing apparatus comprising: an output unit that outputs any one of the plurality of character string candidates stored corresponding to the situation.

また、本発明は、タッチスクリーンと、ユーザの状況を判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。   The present invention also provides a touch screen, a determination unit that determines a user's situation, an answer acquisition unit that acquires a user's answer to the question, and a plurality of character string candidates corresponding to the user's situation and the answer to the question Among the plurality of character string candidates stored in accordance with the determined situation and the acquired answer when the user performs an action of drawing a locus on the touch screen. An information processing apparatus including an output unit that outputs any of the above is provided.

本発明によれば、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることができる。   ADVANTAGE OF THE INVENTION According to this invention, when outputting a character string and making a user feel the response of one's operation | movement, the content of the output character string can be made suitable for a user's condition.

情報処理装置のハードウェア構成を表す図The figure showing the hardware constitutions of information processor 情報処理装置が実現する機能構成を表す図The figure showing the functional composition which information processor realizes 記憶部が記憶する情報の一例を表す図The figure showing an example of the information which a storage part memorizes タッチスクリーンに表示される画面の変遷の一例を表す図The figure showing an example of the transition of the screen displayed on the touch screen 出力処理における動作手順の一例を表す図The figure showing an example of the operation procedure in output processing 文字候補テーブルの一例を表す図The figure showing an example of a character candidate table 変形例の情報処理装置が実現する機能構成を表す図The figure showing the functional structure which the information processing apparatus of a modification implement | achieves コメント候補テーブルの一例を表す図The figure showing an example of a comment candidate table 変形例の情報処理装置のハードウェア構成を表す図The figure showing the hardware constitutions of the information processor of a modification 情報処理装置の機能構成の例を表す図The figure showing the example of a functional structure of information processing apparatus ユーザ状況テーブルの一例を表す図The figure showing an example of a user situation table 変形例の情報処理装置のハードウェア構成を表す図The figure showing the hardware constitutions of the information processor of a modification 情報処理装置の機能構成の例を表す図The figure showing the example of a functional structure of information processing apparatus ユーザ状況テーブルの別の一例を表す図The figure showing another example of a user situation table 変形例の情報処理装置の機能構成を表す図The figure showing the functional composition of the information processor of a modification 変形例の情報処理装置の機能構成を表す図The figure showing the functional composition of the information processor of a modification 変形例の情報処理システムの全体構成を表す図The figure showing the whole structure of the information processing system of a modification 情報処理システムの機能構成を表す図Diagram showing functional configuration of information processing system アプリを選択する画面の一例を表す図A figure showing an example of a screen for selecting an application 表示されるアイコンの例を表す図Diagram showing examples of icons displayed 変形例の記憶部が記憶する情報の一例を表す図The figure showing an example of the information which the storage part of a modification memorizes 変形例の記憶部が記憶する情報の別の一例を表す図The figure showing another example of the information which the memory | storage part of a modification memorize | stores

[1]実施例
図1は実施例に係る情報処理装置10のハードウェア構成を表す。情報処理装置10は、例えばスマートフォンやタブレット端末などであり、ユーザによって持ち運ばれながら利用される。情報処理装置10は、制御装置11と、記憶装置12と、UI(User Interface)装置13とを備えるコンピュータである。
[1] Embodiment FIG. 1 shows a hardware configuration of an information processing apparatus 10 according to an embodiment. The information processing apparatus 10 is, for example, a smartphone or a tablet terminal, and is used while being carried by a user. The information processing apparatus 10 is a computer including a control device 11, a storage device 12, and a UI (User Interface) device 13.

制御装置11は、CPU(Central Processing Unit)、ROM(Read Only Memory)
、RAM(Random Access Memory)及びリアルタイムクロックを備え、CPUが、RAMをワークエリアとして用いてROMや記憶装置12に記憶されたプログラムを実行することによって各部の動作を制御する。リアルタイムクロックは、現在の日時を算出してCPUに通知する。記憶装置12は、HDD(Hard disk drive)等を備え、制御装置11が
制御に用いるデータやプログラムなどを記憶している。
The control device 11 includes a central processing unit (CPU) and a read only memory (ROM).
A random access memory (RAM) and a real-time clock are provided, and the CPU controls the operation of each unit by executing a program stored in the ROM or the storage device 12 using the RAM as a work area. The real time clock calculates the current date and time and notifies the CPU. The storage device 12 includes an HDD (Hard disk drive) and the like, and stores data, programs, and the like used by the control device 11 for control.

UI装置13は、情報処理装置10のユーザインターフェースとなる装置である。UI装置13は、タッチスクリーン14を備える。タッチスクリーン14は、例えば液晶ディスプレイとその表面に設けられたタッチパネルとを有し、制御装置11から制御されて画像を表示するとともに、タッチパネルを指示して行われるユーザの操作(タップ操作やドラッグ操作など)を受け付ける。   The UI device 13 is a device that serves as a user interface of the information processing device 10. The UI device 13 includes a touch screen 14. The touch screen 14 includes, for example, a liquid crystal display and a touch panel provided on the surface thereof. The touch screen 14 is controlled by the control device 11 to display an image, and a user operation (tap operation or drag operation performed by instructing the touch panel). Etc.).

記憶装置12には、タッチスクリーン14に文字を表示して、ユーザがその文字を描く動作を行うと、その動作に応じてコメントを出力するためのアプリケーションプログラムが記憶されている。ユーザは、例えば、文字を描く動作を行うことによって集中力を高めたり気分を落ち着かせたりする目的でこのアプリケーションプログラムを利用する。制御装置11がそのアプリケーションプログラムを実行して自装置の各部を制御することで、以下に述べる機能が実現される。
図2は情報処理装置10が実現する機能構成を表す。情報処理装置10は、選択部101と、提示部102と、記憶部103と、ユーザ状況判定部104と、文字表示部105と、軌跡表示部106と、出力部107とを備える。
The storage device 12 stores an application program for displaying a character on the touch screen 14 and outputting a comment according to the operation when the user performs an operation of drawing the character. For example, the user uses this application program for the purpose of improving concentration and calming by performing an action of drawing characters. The control device 11 executes the application program to control each unit of the device itself, thereby realizing the functions described below.
FIG. 2 shows a functional configuration realized by the information processing apparatus 10. The information processing apparatus 10 includes a selection unit 101, a presentation unit 102, a storage unit 103, a user situation determination unit 104, a character display unit 105, a trajectory display unit 106, and an output unit 107.

選択部101は、タッチスクリーン14に表示させる文字を選択する。選択部101は、例えばユーザによって入力された文字を、タッチスクリーン14に表示させる文字として選択する。提示部102は、選択部101が選択する文字の候補を提示する。提示部102は、提示した文字の候補のうちのいずれかをユーザが選択すると、選択された文字を選択部101に通知する。選択部101は、提示部102から通知された文字、すなわち提示部102により提示された文字の候補からユーザが選択した文字をタッチスクリーン14に表示させる文字として選択する。選択部101は、選択した文字を文字表示部105に通知する。   The selection unit 101 selects characters to be displayed on the touch screen 14. For example, the selection unit 101 selects a character input by the user as a character to be displayed on the touch screen 14. The presentation unit 102 presents the candidate characters that the selection unit 101 selects. When the user selects any of the presented character candidates, the presentation unit 102 notifies the selection unit 101 of the selected character. The selection unit 101 selects a character notified from the presentation unit 102, that is, a character selected by the user from the character candidates presented by the presentation unit 102 as a character to be displayed on the touch screen 14. The selection unit 101 notifies the character display unit 105 of the selected character.

記憶部103は、ユーザの状況毎に複数の文字列の候補を記憶する。
図3は記憶部103が記憶する情報の一例を表す。図3では、ユーザ状況と、コメント候補と、類似度(これについては後ほど説明する)とが対応付けて記憶されている。ユーザ状況としては、「試験」、「面接」、「プレゼン」及び「デート」が記憶されている。「試験」には、「絶対合格」、「頑張れ!」、「君ならできる!」という文字列がコメント候補として対応付けられている。これら3つのコメント候補は、「試験」というユーザの状況に対応する複数の文字列の候補である。また、「面接」には、「大きな声を出そう」、「自分らしくしよう」、「緊張するのは皆同じ」という文字列がコメント候補として対応付けられている。これら3つのコメント候補は、「面接」というユーザの状況に対応する複数の文字列の候補である。
The storage unit 103 stores a plurality of character string candidates for each user situation.
FIG. 3 shows an example of information stored in the storage unit 103. In FIG. 3, the user situation, the comment candidate, and the similarity (which will be described later) are stored in association with each other. As the user situation, “Exam”, “Interview”, “Presentation”, and “Date” are stored. In “Exam”, character strings “absolutely passed”, “do your best!”, And “you can do it!” Are associated as comment candidates. These three comment candidates are candidates for a plurality of character strings corresponding to the user's situation “test”. Also, in the “interview”, character strings “Let's make a loud voice”, “Let's be ourselves”, and “Tensions are all the same” are associated as comment candidates. These three comment candidates are candidates for a plurality of character strings corresponding to the user situation “interview”.

ユーザ状況判定部104は、ユーザの状況を判定する。ユーザ状況判定部104は、本実施例では、ユーザが自分の状況を選択する操作を行うことで、その操作により選択された状況をユーザの状況であると判定する。ユーザ状況判定部104は、判定したユーザの状況を出力部107に通知する。ユーザ状況判定部104は本発明の「判定部」の一例である。   The user situation determination unit 104 determines a user situation. In this embodiment, the user situation determination unit 104 determines that the situation selected by the operation is the user situation by performing an operation of the user selecting his / her situation. The user status determination unit 104 notifies the output unit 107 of the determined user status. The user situation determination unit 104 is an example of the “determination unit” in the present invention.

文字表示部105は、選択部101により選択された文字をタッチスクリーン14に表示させる。軌跡表示部106は、選択部101により選択された文字が表示され、ユーザがタッチスクリーン14に軌跡(例えば表示された文字を表す軌跡)を描く動作を行うと、その軌跡をタッチスクリーン14に表示させる。   The character display unit 105 displays the character selected by the selection unit 101 on the touch screen 14. The trajectory display unit 106 displays the character selected by the selection unit 101 and displays the trajectory on the touch screen 14 when the user performs an operation of drawing a trajectory (for example, a trajectory representing the displayed character) on the touch screen 14. Let

出力部107は、記憶部103に記憶されている文字列(図3に表すコメント候補のうちのいずれか)を出力する。出力部107は、例えばその文字列をタッチスクリーン14に出力して表示させる。詳細には、出力部107は、選択部101により選択された文字がタッチスクリーン14に表示された状態でユーザがタッチスクリーン14に軌跡を描く動作を行った場合に、ユーザ状況判定部104により判定された状況に対応して記憶部103に記憶されている複数の文字列の候補うちのいずれかをその動作に応じて出力する。以上で述べた各部によってタッチスクリーン14に表示される画面について、図4を参照して説明する。   The output unit 107 outputs a character string (any one of comment candidates shown in FIG. 3) stored in the storage unit 103. For example, the output unit 107 outputs the character string to the touch screen 14 and displays it. Specifically, the output unit 107 is determined by the user situation determination unit 104 when the user performs an action of drawing a locus on the touch screen 14 in a state where the character selected by the selection unit 101 is displayed on the touch screen 14. One of a plurality of character string candidates stored in the storage unit 103 corresponding to the situation is output according to the operation. A screen displayed on the touch screen 14 by each unit described above will be described with reference to FIG.

図4はタッチスクリーン14に表示される画面の変遷の一例を表す。図4(a)では、タッチスクリーン14に、「ユーザ状況の選択」という文字列と、ユーザの状況を表す「入試」、「面接」、「プレゼン」、「デート」という文字を含む操作子群F1とが表示されている。操作子群F1はユーザ状況判定部104によって表示されている。ユーザがいずれかの状況を選択する操作を行うと、ユーザ状況判定部104は、選択された状況をユーザの状況であると判定する。図4の例では「入試」が選択された場合について説明する。   FIG. 4 shows an example of the transition of the screen displayed on the touch screen 14. In FIG. 4A, the operator group includes a character string “select user status” on the touch screen 14 and characters “admission”, “interview”, “presentation”, and “date” representing the user status. F1 is displayed. The operator group F1 is displayed by the user situation determination unit 104. When the user performs an operation of selecting one of the situations, the user situation determination unit 104 determines that the selected situation is the user's situation. In the example of FIG. 4, a case where “admission” is selected will be described.

図4(b)では、タッチスクリーン14に、「文字の選択」という文字列と、文字の入力欄F2と、「上欄に入力した文字を選択」という文字を含む操作子F3と、「一覧から選択」という文字を含む操作子F4とが表示されている。これらは選択部101によって表示されている。ユーザが入力欄F2に文字を入力して操作子F3を操作すると、選択部101は入力された文字を、タッチスクリーン14に表示させる文字として選択する。ユーザが操作子F4を操作すると、選択部101はその旨を提示部102に通知する。   In FIG. 4B, the touch screen 14 includes a character string “character selection”, a character input field F2, an operator F3 including characters “select a character input in the upper field”, and “list”. An operation element F4 including characters “Select from” is displayed. These are displayed by the selection unit 101. When the user inputs a character in the input field F2 and operates the operator F3, the selection unit 101 selects the input character as a character to be displayed on the touch screen 14. When the user operates the operator F4, the selection unit 101 notifies the presentation unit 102 to that effect.

提示部102は、この通知を受けると、例えば図4(c)に表すように、「選択して下さい」という文字列と、「勝」、「成」、「桜」、「満」、「正」、「合」という文字を含む操作子群F5をタッチスクリーン14に表示させる。ユーザがいずれかの文字を選択すると、提示部102が選択された文字を選択部101に通知し、選択部101が通知された文字を、タッチスクリーン14に表示させる文字として選択する。この例では「桜」が選択されたものとする。   Upon receiving this notification, for example, as shown in FIG. 4C, the presentation unit 102, as shown in FIG. The operator group F5 including the characters “correct” and “go” is displayed on the touch screen 14. When the user selects any character, the presentation unit 102 notifies the selection unit 101 of the selected character, and the selection unit 101 selects the notified character as a character to be displayed on the touch screen 14. In this example, it is assumed that “sakura” is selected.

選択部101は、選択された「桜」という文字を、図4(d)に表すようにタッチスクリーン14に表示させる。タッチスクリーン14には、「桜」という文字G1を含む入力欄F6と、「終了」という文字を含む操作子F7とが表示されている。ユーザが入力欄F6に「桜」という文字を描く動作を行うと、出力部107は、ユーザが描いた軌跡K1をタッチスクリーン14に表示させる。ユーザが文字を描き終えて操作子F7を操作すると、出力部107は、ユーザの軌跡を描く動作が終了したと判断し、ユーザが描いた軌跡と、文字G1との類似度を算出する。類似度の算出は、例えば文字認識の分野の周知の技術を用いて行われる。なお、出力部107は、操作子F7の操作以外にも、例えば軌跡を描き始めてから決められた時間が経過したときに軌跡を描く動作が終了したと判断してもよい。   The selection unit 101 displays the selected character “sakura” on the touch screen 14 as shown in FIG. On the touch screen 14, an input field F6 including the character G1 "Sakura" and an operator F7 including the characters "End" are displayed. When the user performs an operation of drawing a character “sakura” in the input field F <b> 6, the output unit 107 displays a locus K <b> 1 drawn by the user on the touch screen 14. When the user finishes drawing the character and operates the operator F7, the output unit 107 determines that the operation of drawing the user's trajectory is completed, and calculates the similarity between the trajectory drawn by the user and the character G1. The calculation of the similarity is performed using, for example, a well-known technique in the field of character recognition. In addition to the operation of the operation element F7, the output unit 107 may determine, for example, that the operation of drawing the trajectory has ended when a predetermined time has elapsed since the start of drawing the trajectory.

出力部107は、記憶部103に記憶されているユーザ状況、コメント候補及び類似度を参照し、ユーザ状況判定部104によって判定されたユーザ状況と、算出した類似度とに対応付けられているコメント候補を読み出す。図3の例では、「試験」という状況においては、「絶対合格」というコメント候補と「A1以上」という類似度とが対応付けられている。同様に、「頑張れ!」というコメント候補には「A1未満A2以上」という類似度が、「君ならできる!」というコメント候補には「A2未満」という類似度が対応付けられている。A1及びA2は、類似度の上限値>A1>A2>類似度の下限値という関係を満たす値である。   The output unit 107 refers to the user situation, the comment candidate, and the similarity stored in the storage unit 103, and associates the user situation determined by the user situation determination unit 104 with the calculated similarity. Read candidates. In the example of FIG. 3, in the situation “test”, the comment candidate “absolutely passed” is associated with the similarity “A1 or higher”. Similarly, a comment candidate of “Do your best!” Is associated with a similarity of “less than A1 and A2 or more”, and a comment candidate of “You can do it!” Is associated with a similarity of “less than A2”. A1 and A2 are values satisfying the relationship of the upper limit value of similarity> A1> A2> the lower limit value of similarity.

出力部107は、算出した類似度がA1以上である場合には、「試験」というユーザ状況及び「A1以上」という類似度に対応付けられている「絶対合格」というコメント候補を出力して図4(e)に表すようにタッチスクリーン14に表示させる。また、出力部107は、算出した類似度がA1未満A2以上である場合には、「試験」というユーザ状況及び「A1未満A2以上」という類似度に対応付けられている「頑張れ!」というコメント候補を出力して図4(f)に表すようにタッチスクリーン14に表示させる。   When the calculated similarity is A1 or higher, the output unit 107 outputs a comment candidate “absolutely passed” associated with the user situation “test” and the similarity “A1 or higher”. Display on the touch screen 14 as shown in 4 (e). Further, when the calculated similarity is less than A1 and A2 or more, the output unit 107 comments “Do your best!” Associated with the user status of “exam” and the similarity of “less than A1 and A2 or more”. Candidates are output and displayed on the touch screen 14 as shown in FIG.

情報処理装置10は上記構成に基づいてユーザが文字をなぞる動作を行ったときにコメントを出力する出力処理を行う。
図5は出力処理における動作手順の一例を表す。この動作手順は、例えば上述したアプリケーションプログラムを起動する操作をユーザが行うことを契機に開始される。情報処理装置10(ユーザ状況判定部104)は、例えば図4(a)に表す操作子群F1へのユーザの操作に基づきユーザの状況を判定する(ステップS11)。
The information processing apparatus 10 performs output processing for outputting a comment when the user performs an operation of tracing characters based on the above configuration.
FIG. 5 shows an example of an operation procedure in the output process. This operation procedure is started when the user performs an operation for starting the above-described application program, for example. The information processing apparatus 10 (user situation determination unit 104) determines the user situation based on, for example, the user's operation on the operator group F1 illustrated in FIG. 4A (step S11).

次に、情報処理装置10(選択部101)は、例えば図4(b)に表す入力欄F2に文字を入力するユーザの操作又は図4(c)の操作子群F5へのユーザの操作に基づきタッチスクリーン14に表示させる文字を選択する(ステップS12)。続いて、情報処理装置10(文字表示部105)は、ステップS12で選択された文字を図4(d)に表すようにタッチスクリーン14に表示させる(ステップS13)。そして、情報処理装置10(軌跡表示部106)は、例えば図4(d)に表す入力欄F6にユーザが文字を描く動作を行うことで、ユーザが描いた文字の軌跡をタッチスクリーン14に表示させる(ステップS14)。   Next, the information processing apparatus 10 (selection unit 101) performs, for example, a user operation to input characters in the input field F2 illustrated in FIG. 4B or a user operation to the operator group F5 in FIG. Based on this, a character to be displayed on the touch screen 14 is selected (step S12). Subsequently, the information processing apparatus 10 (character display unit 105) displays the character selected in step S12 on the touch screen 14 as shown in FIG. 4D (step S13). Then, the information processing apparatus 10 (trajectory display unit 106) displays the trajectory of the character drawn by the user on the touch screen 14 by the user performing an operation of drawing the character in the input field F6 illustrated in FIG. (Step S14).

情報処理装置10(出力部107)は、例えば図4(d)に表す操作子F7が操作されてユーザの文字を描く動作が終了すると、文字と軌跡の類似度を算出し(ステップS15)、ステップS11で判定された状況と算出した類似度とに対応するコメントを、例えば図4(e)、(f)に表すようにタッチスクリーン14に出力して表示させる(ステップS16)。   For example, when the operation element F7 shown in FIG. 4D is operated to finish the operation of drawing the user's character, the information processing apparatus 10 (output unit 107) calculates the similarity between the character and the locus (step S15). Comments corresponding to the situation determined in step S11 and the calculated similarity are output and displayed on the touch screen 14 as shown in FIGS. 4E and 4F, for example (step S16).

緊張する状況で集中力を高めたり気分を落ち着かせたりするために、文字の軌跡を描く動作が行われることがある。本実施例では、この動作を行ったときに様々なコメントを表す文字列が表示されるため、ユーザは軌跡を描く動作に手応えを感じることができる。また、この文字列が例えば試験前と面接前とで同じだと文字列が表す内容がそのときの状況に合ったものになりにくいが、本実施例では、ユーザの状況に応じた文字列がタッチスクリーン14に表示される。これにより、文字列を出力してユーザに自分の動作の手応えを感じさせる場合に、出力される文字列の内容をユーザの状況に合ったものにすることができる。   In order to increase concentration and calm down in a tense situation, an action of drawing a character trajectory may be performed. In the present embodiment, when this operation is performed, character strings representing various comments are displayed, so that the user can feel a response to the operation of drawing a trajectory. In addition, if this character string is the same before, for example, before the interview, the content represented by the character string is unlikely to be suitable for the situation at that time. It is displayed on the touch screen 14. Thereby, when outputting a character string and making a user feel the response of an operation | movement, the content of the output character string can be made suitable for a user's condition.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は必要に応じてそれぞれ組み合わせてもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows. Moreover, you may combine an Example and each modification as needed.

[2−1]提示部
提示部102は実施例とは異なる方法で文字を提示してもよい。例えば、ユーザ状況判定部104が判定したユーザの状況を提示部102に通知し、提示部102が、ユーザ状況判定部104により判定されたユーザの状況に応じて、選択部101が選択する文字の候補を提示する。提示部102は、例えばユーザ状況と文字の候補とを対応付けた文字候補テーブルを用いる。
[2-1] Presentation Unit The presentation unit 102 may present characters using a method different from that in the embodiment. For example, the user status determined by the user status determining unit 104 is notified to the presenting unit 102, and the presenting unit 102 selects a character to be selected by the selecting unit 101 according to the user status determined by the user status determining unit 104. Present candidates. The presentation unit 102 uses, for example, a character candidate table that associates user situations with character candidates.

図6は文字候補テーブルの一例を表す。図6の例では、「試験」というユーザ状況には図4の例に表した「勝、成、桜、満、正、合」という6つの文字候補が対応付けられており、「面接」というユーザ状況には「元、声、礼、笑、姿、魅」という6つの文字候補が対応付けられている。また、「プレゼン」、「デート」というユーザ状況にもそれぞれ文字候補が対応付けられているものとする。提示部102は、ユーザ状況判定部104から通知されたユーザ状況に文字候補テーブルで対応付けられている文字候補をそれぞれ含む操作子群をタッチスクリーン14に表示させる。表示された操作子群のいずれかを操作することでその操作子に含まれる文字がユーザによって選択される。本変形例によれば、ユーザが軌跡を描く動作を行う際に表示される文字を、ユーザの状況に合わせた文字にすることができる。   FIG. 6 shows an example of a character candidate table. In the example of FIG. 6, the user status of “Exam” is associated with the six character candidates “Katsu, Naru, Sakura, Full, Masato, and Go” shown in the example of FIG. The user situation is associated with six character candidates “original, voice, thanks, laugh, figure, charm”. Further, it is assumed that character candidates are also associated with the user situations of “presentation” and “date”, respectively. The presentation unit 102 causes the touch screen 14 to display an operator group that includes character candidates associated with the user status notified from the user status determination unit 104 in the character candidate table. By operating any of the displayed operator groups, a character included in the operator is selected by the user. According to this modification, the character displayed when the user performs an action of drawing a trajectory can be a character that matches the user's situation.

なお、表示された文字候補にユーザが描きたい文字がない場合などに、ユーザが自分で描きたい文字を指定してもよい。この場合、例えば提示部102が、上記文字の候補に加えてユーザに自由に文字を選択させるための表示欄をタッチスクリーン14に表示させ、情報処理装置10の文字入力機能によりユーザが入力した文字を選択部101が選択し、文字表示部105が表示する。これにより、ユーザがユーザ状況に応じて提示された文字以外に描きたい文字があった場合に、その文字を表示させて軌跡を描くことができる。   In addition, when there is no character that the user wants to draw in the displayed character candidates, the character that the user wants to draw may be specified. In this case, for example, the presentation unit 102 causes the touch screen 14 to display a display field for allowing the user to freely select a character in addition to the character candidates, and the character input by the user using the character input function of the information processing apparatus 10 Is selected by the selection unit 101 and displayed by the character display unit 105. Thereby, when there is a character that the user wants to draw in addition to the characters presented in accordance with the user situation, the trajectory can be drawn by displaying the character.

[2−2]質問への回答
出力部107が出力する文字列をさらにユーザに合わせたものにしてもよい。
図7は本変形例の情報処理装置10aが実現する機能構成を表す。情報処理装置10aは、図2に表す各部に加えて回答取得部108と、ユーザ特性判定部109とを備える。回答取得部108は、質問に対するユーザの回答を取得する。回答取得部108は、例えば性格判断に用いられる質問及び回答候補を提示して、ユーザが選択した回答候補を回答として取得する。回答取得部108は取得した回答をユーザ特性判定部109に供給する。
[2-2] Answer to question The character string output by the output unit 107 may be further adapted to the user.
FIG. 7 shows a functional configuration realized by the information processing apparatus 10a according to this modification. The information processing apparatus 10a includes an answer acquisition unit 108 and a user characteristic determination unit 109 in addition to the units illustrated in FIG. The answer acquisition unit 108 acquires a user's answer to the question. For example, the answer acquisition unit 108 presents questions and answer candidates used for character determination, and acquires the answer candidates selected by the user as answers. The answer acquisition unit 108 supplies the acquired answer to the user characteristic determination unit 109.

ユーザ特性判定部109は、回答取得部108が取得した回答に基づいてユーザの特性を判定する。ユーザ特性判定部109は、例えば性格判断の手法を用いて回答から得られるユーザの性格をユーザの特性として判定する。ユーザ特性判定部109は判定したユーザ特性を出力部107に通知する。出力部107は、通知されたユーザ特性と、ユーザ状況判定部104により判定されたユーザ状況とに応じて文字列(例えばコメント)を出力する。出力部107は、ユーザ状況及びユーザ特性にコメント候補を対応付けたコメント候補テーブルを用いる。   The user characteristic determination unit 109 determines a user characteristic based on the answer acquired by the answer acquisition unit 108. The user characteristic determination unit 109 determines the user personality obtained from the answer using, for example, a personality determination technique as the user characteristic. The user characteristic determination unit 109 notifies the output unit 107 of the determined user characteristic. The output unit 107 outputs a character string (for example, a comment) according to the notified user characteristics and the user situation determined by the user situation determination unit 104. The output unit 107 uses a comment candidate table in which comment candidates are associated with user situations and user characteristics.

図8はコメント候補テーブルの一例を表す。図8の例では、「試験」というユーザ状況に、「頑張り屋」及び「のんびり屋」というユーザ特性が対応付けられている。「頑張り屋」には図3に表す「絶対合格」等のコメント候補が対応付けられており、「のんびり屋」には「マイペースでいこう」、「なるようになるさ」、「きっと上手くいくよ」というコメント候補が対応付けられている。また、各コメント候補には図3の例と同様に類似度が対応付けられている。   FIG. 8 shows an example of the comment candidate table. In the example of FIG. 8, the user characteristics “test” and the user characteristics “work hard” and “relaxed” are associated. The “good workman” is associated with the comment candidates such as “Absolutely Pass” as shown in FIG. 3, “Let ’s go at my own pace”, “I ’ll become good”, “I ’ll be fine” Comment candidates are associated with each other. Each comment candidate is associated with a similarity as in the example of FIG.

出力部107は、ユーザ状況判定部104から通知されたユーザ状況と、ユーザ特性判定部109から通知されたユーザ特性とに対応付けられたコメント候補から、実施例と同様に算出した類似度に対応付けられたコメント候補をタッチスクリーン14に出力して表示させる。これにより、状況が同じユーザ同士でも出力される文字列の内容がユーザ毎に異なるようにすることができ、その内容を各ユーザの特性に応じたものにすることができる。   The output unit 107 corresponds to the similarity calculated in the same manner as in the embodiment from the comment candidates associated with the user situation notified from the user situation determining unit 104 and the user characteristics notified from the user characteristic determining unit 109. The attached comment candidates are output and displayed on the touch screen 14. Thereby, even the users with the same situation can make the content of the character string output different for each user, and the content can be made according to the characteristics of each user.

なお、ユーザ特性の判定を行わなくてもよい。その場合、回答取得部108が取得した回答を出力部107に通知し、出力部107が通知された回答とユーザ状況判定部104から通知されたユーザ状況とに応じた複数のコメント候補を用いる。つまり、ユーザ特性の判定の有無にかかわらず、出力部107は、ユーザ状況判定部104により判定されたユーザの状況と、回答取得部108により取得された回答とに応じた複数の文字列の候補のうちのいずれかをユーザの動作に応じて出力する。これにより、ユーザの状況が同じでも、ユーザ毎に異なる内容の文字列を出力することができる。   Note that the user characteristics need not be determined. In that case, the response acquired by the response acquisition unit 108 is notified to the output unit 107, and a plurality of comment candidates corresponding to the response notified by the output unit 107 and the user status notified from the user status determination unit 104 are used. That is, regardless of whether or not the user characteristic is determined, the output unit 107 can select a plurality of character string candidates according to the user status determined by the user status determination unit 104 and the response acquired by the response acquisition unit 108. Is output according to the user's operation. Thereby, even if a user's condition is the same, the character string of a different content for every user can be output.

[2−3]ユーザ状況判定部
ユーザ状況判定部104は、実施例とは異なる方法でユーザ状況を判定してもよい。
図9は本変形例の情報処理装置10bのハードウェア構成を表す。情報処理装置10bは、図1に表す各装置に加えて測位装置15とを備える。測位装置15はGPS(Global Positioning System)等の技術により自装置(情報処理装置10b)の位置(緯度及び
経度)を測定する。
[2-3] User situation determination unit The user situation determination unit 104 may determine the user situation by a method different from the embodiment.
FIG. 9 illustrates a hardware configuration of the information processing apparatus 10b according to the present modification. The information processing device 10b includes a positioning device 15 in addition to the devices illustrated in FIG. The positioning device 15 measures the position (latitude and longitude) of its own device (information processing device 10b) by a technique such as GPS (Global Positioning System).

図10は情報処理装置10bの機能構成の例を表す。情報処理装置10bは、図2に表す各部に加えて測位部110を備える。測位部110は、自装置の位置を測定し、測定した位置をユーザ状況判定部104に通知する。ユーザ状況判定部104は、測位部110により測定された自装置の位置に基づいてユーザの状況を判定する。ユーザ状況判定部104は、この判定に自装置の位置とユーザ状況とを対応付けたユーザ状況テーブルを用いる。   FIG. 10 illustrates an example of a functional configuration of the information processing apparatus 10b. The information processing apparatus 10b includes a positioning unit 110 in addition to the units illustrated in FIG. The positioning unit 110 measures the position of the device itself and notifies the user position determination unit 104 of the measured position. The user status determination unit 104 determines the user status based on the position of the own device measured by the positioning unit 110. The user situation determination unit 104 uses a user situation table in which the position of the own apparatus and the user situation are associated with this determination.

図11はユーザ状況テーブルの一例を表す。図11の例では、「教育機関(大学、高校、中学など)」という自装置の位置には「試験」というユーザ状況が対応付けられている。この自装置の位置は、例えば、教育機関の敷地内の位置を表す緯度及び経度の範囲で表されている。測位部110により測定された位置がその範囲に含まれていれば、ユーザが教育機関の敷地内にいることが表される。同様に、「オフィスビル」という自装置の位置には「面接、プレゼン」というユーザ状況が対応付けられ、「駅、公園、映画館、繁華街」という自装置の位置には「デート」というユーザ状況が対応付けられている。   FIG. 11 shows an example of a user situation table. In the example of FIG. 11, the user status “test” is associated with the position of the own device “education institution (university, high school, junior high school, etc.)”. The position of the own device is represented by, for example, a range of latitude and longitude representing the position in the premises of the educational institution. If the position measured by the positioning unit 110 is included in the range, it indicates that the user is in the premises of the educational institution. Similarly, the user status of “interview, presentation” is associated with the position of the own device “office building”, and the user “date” is assigned to the position of the own device “station, park, movie theater, downtown”. A situation is associated.

ユーザ状況判定部104は、図11のユーザ状況テーブルにおいて、測位部110から通知された位置が含まれる自装置の位置に対応付けられているユーザ状況をユーザの現在の状況として判定する。この場合、面接とプレゼンとでコメント候補を共通にしておけば、ユーザが自身の状況を選択する操作を行わなくても、ユーザ状況に応じた文字列を出力させることができる。   The user situation determination unit 104 determines the user situation associated with the position of the own apparatus including the position notified from the positioning unit 110 in the user situation table of FIG. 11 as the current situation of the user. In this case, if the comment candidates are shared between the interview and the presentation, a character string corresponding to the user situation can be output without the user performing an operation of selecting his / her own situation.

図12は本変形例の情報処理装置10cのハードウェア構成を表す。情報処理装置10cは、図1に表す各装置に加えて通信装置16を備える。通信装置16は、移動体通信や無線LAN(Local Area Network)の通信によりインターネット等のネットワークを介した通信を行う。   FIG. 12 illustrates a hardware configuration of the information processing apparatus 10c according to the present modification. The information processing apparatus 10c includes a communication device 16 in addition to the devices illustrated in FIG. The communication device 16 performs communication via a network such as the Internet by mobile communication or wireless LAN (Local Area Network) communication.

図13は情報処理装置10cの機能構成の例を表す。情報処理装置10cは、図2に表す各部に加えてスケジュール取得部111を備える。スケジュール取得部111は、ユーザのスケジュールを取得する。本変形例では、情報処理装置10cを利用するユーザが、例えばクラウドコンピューティングで提供されているスケジュール管理サービスを利用しているものとする。   FIG. 13 illustrates an example of a functional configuration of the information processing apparatus 10c. The information processing apparatus 10c includes a schedule acquisition unit 111 in addition to the units illustrated in FIG. The schedule acquisition unit 111 acquires a user's schedule. In this modification, it is assumed that a user who uses the information processing apparatus 10c uses a schedule management service provided by, for example, cloud computing.

スケジュール取得部111は、例えばこのスケジュール管理サービスに当日のユーザのスケジュールを問合せ、その応答で送られてくるユーザのスケジュールを取得する。スケジュールは、具体的には、ユーザが入力したその日の予定を表す語句で表される。例えば試験日であれば、「〇〇大学入試」や「△△社入社試験」などの語句で表されるスケジュールが取得され、面接日であれば「▽▽店バイト面接」や「□□社二次面接」などの語句で表されるスケジュールが取得される。   For example, the schedule acquisition unit 111 inquires of the schedule management service about the user's schedule on the current day, and acquires the user's schedule sent in response thereto. More specifically, the schedule is represented by a phrase representing the schedule of the day input by the user. For example, if it is an examination date, a schedule expressed in terms such as “00 university entrance examination” or “△△ company entrance examination” will be acquired, and if it is an interview date, “▽▽ store byte interview” or “□□ company” A schedule represented by a phrase such as “secondary interview” is acquired.

スケジュール取得部111は、こうして取得したスケジュールをユーザ状況判定部104に通知する。ユーザ状況判定部104は、スケジュール取得部111により取得されたユーザのスケジュールに基づいてそのユーザの状況を判定する。ユーザ状況判定部104は、この判定にユーザのスケジュールとユーザ状況とを対応付けたユーザ状況テーブルを用いる。   The schedule acquisition unit 111 notifies the user status determination unit 104 of the schedule acquired in this way. The user situation determination unit 104 determines the user situation based on the user schedule acquired by the schedule acquisition unit 111. The user situation determination unit 104 uses a user situation table in which a user schedule and a user situation are associated with this determination.

図14はユーザ状況テーブルの別の一例を表す。図14の例では、スケジュールに含まれる語句とユーザ状況とが対応付けられている。例えば「試験、テスト、模試、入試、・・・」という語句は「試験」というユーザ状況に対応付けられ、「面接、就職、就活、転職、・・・」という語句は「面接」というユーザ状況に対応付けられている。また、「プレゼン、商談、提案、・・・」という語句は「プレゼン」というユーザ状況に対応付けられ、「デート、待ち合わせ、・・・」という語句は「デート」というユーザ状況に対応付けられている。   FIG. 14 shows another example of the user situation table. In the example of FIG. 14, words and phrases included in the schedule are associated with the user situation. For example, the phrase “examination, test, imitation, entrance examination,...” Is associated with the user situation “examination”, and the phrase “interview, employment, job hunting, job change,...” Is the user situation “interview”. Is associated with. Further, the phrase “presentation, negotiation, proposal,...” Is associated with the user situation “presentation”, and the phrase “date, meeting,...” Is associated with the user situation “date”. Yes.

ユーザ状況判定部104は、スケジュール取得部111から通知されたスケジュールに、図14のユーザ状況テーブルの語句が含まれているか否かを判断する。ユーザ状況判定部104は、語句が含まれていると判断した場合には、その語句に対応付けられているユーザ状況を判定する。例えば「□□社二次面接」というスケジュールが取得された場合であれば、ユーザ状況判定部104は、「面接」という語句に対応付けられている「面接」をユーザ状況として判定する。   The user situation determination unit 104 determines whether or not the schedule notified from the schedule acquisition unit 111 includes the words in the user situation table of FIG. When the user situation determination unit 104 determines that a phrase is included, the user situation determination unit 104 determines a user situation associated with the phrase. For example, if the schedule “□□ company secondary interview” is acquired, the user situation determination unit 104 determines “interview” associated with the phrase “interview” as the user situation.

なお、情報処理装置10cにインストールされたアプリケーションプログラムによって提供されるスケジュール管理機能をユーザが利用している場合に、スケジュール取得部111が、このスケジュール管理機能からスケジュールを取得してもよい。いずれの場合も、ユーザは、スケジュールを管理する機能を利用していれば、自身の状況を選択する操作を行わなくても、ユーザ状況に応じた文字列を出力させることができる。   Note that when the user uses a schedule management function provided by an application program installed in the information processing apparatus 10c, the schedule acquisition unit 111 may acquire a schedule from the schedule management function. In any case, if the user uses the function for managing the schedule, the user can output a character string corresponding to the user situation without performing an operation for selecting his / her situation.

[2−4]文字列の生成
実施例では複数の文字列の候補が予め記憶されていたが、これらの候補が生成されてもよい。
図15は本変形例の情報処理装置10dの機能構成を表す。情報処理装置10dは、図2に表す各部に加えて図10に表す測位部110と、文字列生成部112とを備える。測位部110は、測定した自装置の位置を文字列生成部112に通知する。ユーザ状況判定部104は、判定したユーザ状況を文字列生成部112に通知する。
[2-4] Generation of Character Strings Although a plurality of character string candidates are stored in advance in the embodiment, these candidates may be generated.
FIG. 15 illustrates a functional configuration of the information processing apparatus 10d according to the present modification. The information processing apparatus 10d includes a positioning unit 110 illustrated in FIG. 10 and a character string generation unit 112 in addition to the units illustrated in FIG. The positioning unit 110 notifies the character string generation unit 112 of the measured position of its own device. The user situation determination unit 104 notifies the character string generation unit 112 of the determined user situation.

文字列生成部112は、出力部107により出力される文字列の候補として、図15の例では、測定された位置に関連する固有名詞を含む文字列を生成する。位置に関連する固有名詞としては、例えば日本国内の施設名(学校名や会社名など)が用いられる。文字列生成部112は、文字列の生成に、日本国内の施設名と各施設の位置を表す緯度及び軽度とを対応付けた施設名テーブルを用いる。文字列生成部112は、測位部110から測定された位置が通知されると、施設名テーブルを参照し、測位部110から通知された位置(緯度及び軽度)との距離が閾値未満となっている施設の施設名を特定する。   In the example of FIG. 15, the character string generation unit 112 generates a character string including a proper noun related to the measured position as a character string candidate output by the output unit 107. As a proper noun related to the position, for example, a facility name (school name, company name, etc.) in Japan is used. The character string generation unit 112 uses a facility name table in which a facility name in Japan is associated with a latitude and a lightness indicating the position of each facility for generating a character string. When the position measured by the positioning unit 110 is notified, the character string generation unit 112 refers to the facility name table, and the distance from the position (latitude and mildness) notified from the positioning unit 110 is less than the threshold. Identify the facility name of the facility.

記憶部103は、施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。例えば記憶部103は「試験」というユーザ状況に対応付けて「(学校名)入試合格」や「(学校名)生になるぞ!」などという文字列を記憶している。これらの文字列に例えば「〇〇大学」という学校名を入れると、「〇〇大学入試合格」や「〇〇大学生になるぞ!」というコメントが完成する。   The storage unit 103 stores a character string that is completed as a comment when the facility name is entered in association with the user situation. For example, the storage unit 103 stores character strings such as “(school name) entry game” and “(school name) become a student!” In association with the user situation “test”. For example, if you put the name of the school “0.00 University” in these character strings, the comments “00 university entry rating” and “00 university student!” Will be completed.

文字列生成部112は、通知されたユーザ状況に対応付けて記憶されている上記の文字列を読み出して、読み出した文字列に特定した施設名を入れてコメントとして完成した文字列を生成する。文字列生成部112はこうしてユーザ状況判定部104により判定されたユーザ状況に応じ、且つ、測定された位置に関連する固有名詞を含む文字列を生成する。文字列生成部112は、生成した文字列を記憶部103に記憶させる。   The character string generation unit 112 reads the character string stored in association with the notified user situation, and generates a character string completed as a comment by putting the specified facility name in the read character string. The character string generation unit 112 generates a character string including the proper noun associated with the measured position according to the user situation determined by the user situation determination unit 104 in this way. The character string generation unit 112 stores the generated character string in the storage unit 103.

出力部107は、記憶部103を参照して実施例と同様に動作することで、文字列生成部112により生成された文字列を含む複数の文字列の候補のうちのいずれかをユーザの動作に応じて出力する。こうして、例えばユーザが試験を受けようとしている学校を訪れて、試験前に緊張を和らげるために文字をなぞる動作を行うと、その学校の名前が入ったコメントを表す文字列が出力されることになる。これにより、ユーザに臨場感を与えることができる。   The output unit 107 operates in the same manner as in the embodiment with reference to the storage unit 103, so that any one of a plurality of character string candidates including the character string generated by the character string generation unit 112 is operated by the user. According to the output. Thus, for example, when a user visits a school that wants to take an exam and performs an action of tracing characters to relieve tension before the exam, a character string representing a comment containing the name of the school is output. Become. Thereby, a sense of reality can be given to the user.

なお、文字列生成部112は、試験や面接の会場や日程を考慮して文字列を生成してもよい。例えば大学等の教育機関の施設は入試だけでなく資格試験の会場になることがある。そこで文字列生成部112は、各施設の位置に、その施設で行われる試験や面接の名称(例えば〇〇資格試験や〇〇社二次面接など)と日程とを対応付けた施設テーブルを用いる。文字列生成部112は、測定された位置との距離が閾値未満となっている施設において、現在の日時に対応付けられている試験や面接の名称を特定する。これにより、各施設で開催される試験や面接などを表す固有名詞を含む文字列を出力することができる。   Note that the character string generation unit 112 may generate a character string in consideration of the venue and schedule of the examination or interview. For example, educational institutions such as universities may become venues for qualification exams as well as entrance examinations. Therefore, the character string generation unit 112 uses a facility table in which the name of the test or interview conducted at the facility (for example, a qualification test or a secondary interview with a company, etc.) and the schedule are associated with each facility position. . The character string generation unit 112 specifies the name of the test or interview that is associated with the current date and time in a facility whose distance from the measured position is less than the threshold. This makes it possible to output a character string including proper nouns representing tests and interviews held at each facility.

また、ユーザのスケジュールに応じた文字列が生成されてもよい。
図16は本変形例の情報処理装置10eの機能構成を表す。情報処理装置10eは、図2に表す各部に加えて図13に表すスケジュール取得部111と、文字列生成部112とを備える。スケジュール取得部111は、取得したスケジュールを文字列生成部112に通知する。ユーザ状況判定部104は、判定したユーザ状況を文字列生成部112に通知する。
In addition, a character string according to the user's schedule may be generated.
FIG. 16 illustrates a functional configuration of the information processing apparatus 10e according to this modification. The information processing apparatus 10e includes a schedule acquisition unit 111 illustrated in FIG. 13 and a character string generation unit 112 in addition to the units illustrated in FIG. The schedule acquisition unit 111 notifies the character string generation unit 112 of the acquired schedule. The user situation determination unit 104 notifies the character string generation unit 112 of the determined user situation.

文字列生成部112は、出力部107により出力される文字列の候補として、図15の例では、スケジュール取得部111により取得されたスケジュールに関連する固有名詞を含む文字列を生成する。文字列生成部112は、文字列の生成に、試験、面接、プレゼン及びデート等でよく使われる施設の名称を表す施設名リストを用いる。文字列生成部112は、スケジュール取得部111から取得されたスケジュールが通知されると、通知されたスケジュールに施設名リストの語句が含まれていれば、その語句を抽出する。   In the example of FIG. 15, the character string generation unit 112 generates a character string including a proper noun related to the schedule acquired by the schedule acquisition unit 111 as the character string candidate output by the output unit 107. The character string generation unit 112 uses a facility name list that represents the names of facilities often used in tests, interviews, presentations, dates, and the like for character string generation. When the schedule acquired from the schedule acquisition unit 111 is notified, the character string generation unit 112 extracts the phrase if the notified schedule includes a phrase in the facility name list.

記憶部103は、施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。例えば記憶部103は「試験」というユーザ状況に対応付けて「(学校名)入試合格」や「(学校名)生になるぞ!」などという文字列を記憶している。これらの文字列に例えば「〇〇大学」という学校名を入れると、「〇〇大学入試合格」や「〇〇大学生になるぞ!」というコメントが完成する。   The storage unit 103 stores a character string that is completed as a comment when the facility name is entered in association with the user situation. For example, the storage unit 103 stores character strings such as “(school name) entry game” and “(school name) become a student!” In association with the user situation “test”. For example, if you put the name of the school “0.00 University” in these character strings, the comments “00 university entry rating” and “00 university student!” Will be completed.

記憶部103は図15の例と同様に施設名を入れるとコメントとして完成する文字列をユーザ状況に対応付けて記憶している。文字列生成部112は、通知されたユーザ状況に対応付けて記憶されている文字列を読み出して、読み出した文字列に抽出した施設名を入れてコメントとして完成した文字列を生成する。文字列生成部112はこうしてユーザ状況判定部104により判定されたユーザ状況に応じ、且つ、取得されたスケジュールに関連する固有名詞を含む文字列を生成する。   Similarly to the example of FIG. 15, the storage unit 103 stores a character string that is completed as a comment when a facility name is entered in association with a user situation. The character string generation unit 112 reads a character string stored in association with the notified user situation, and inserts the extracted facility name into the read character string to generate a character string completed as a comment. The character string generation unit 112 generates a character string that includes the proper noun associated with the acquired schedule according to the user situation determined by the user situation determination unit 104 in this way.

後は図15の例と同様の動作が行われることで、例えば「〇〇遊園地でデート」というようにユーザが訪れる予定の施設の名称を入れたスケジュールを作成している場合に、その予定の前に緊張を和らげるために文字をなぞる動作を行うと、その施設の名称が入ったコメントを表す文字列が出力されることになる。この場合も、ユーザに臨場感を与えることができる。   Thereafter, the same operation as in the example of FIG. 15 is performed. For example, when a schedule including the name of the facility that the user plans to visit is created, such as “Date at Amusement Park”, the schedule If you do the action of tracing characters to relieve the tension before, the character string representing the comment that contains the name of the facility will be output. In this case as well, a sense of reality can be given to the user.

[2−5]アプリの提供
図2等に表した各部を実現するアプリケーションプログラム(以下「アプリ」という)が外部装置からダウンロードされてもよい。
図17は本変形例の情報処理システム1の全体構成を表す。情報処理システム1は、情報処理装置10fと、サーバ装置20と、これらの装置を接続するネットワーク2とを備える。情報処理装置10fは、図12に表す情報処理装置10cと同様に通信装置16を備え、ネットワーク2を介した通信を行う。サーバ装置20は、例えば図12に表す制御装置11、記憶装置12及び通信装置16と共通するハードウェアを有するコンピュータである。
[2-5] Provision of Application An application program (hereinafter referred to as “application”) that realizes each unit illustrated in FIG. 2 or the like may be downloaded from an external device.
FIG. 17 illustrates the overall configuration of the information processing system 1 according to this modification. The information processing system 1 includes an information processing device 10f, a server device 20, and a network 2 that connects these devices. The information processing apparatus 10f includes the communication device 16 similarly to the information processing apparatus 10c illustrated in FIG. 12 and performs communication via the network 2. The server device 20 is, for example, a computer having hardware common to the control device 11, the storage device 12, and the communication device 16 illustrated in FIG.

図18は情報処理システム1の機能構成を表す。情報処理装置10fは、図2に表す各部を備え、サーバ装置20は、アプリ提供部201を備える。アプリ提供部201は、情報処理装置10fが備える各部を実現するためのアプリケーションプログラム(以下「アプリ」という)をユーザ装置に提供する。アプリ提供部201は、例えば、各ユーザ状況に対応したアプリを提供する。具体的には、「試験」用のアプリ、「面接」用のアプリ、「プレゼン」用のアプリ、「デート」用のアプリがそれぞれ個別にダウンロードされ、情報処理装置10fにおいて個別のアイコンが表示されて個別に起動される。ユーザによるダウンロードするアプリの選択は、例えば各種のアプリを提供する電子商取引サイトで行われる。   FIG. 18 shows a functional configuration of the information processing system 1. The information processing apparatus 10 f includes the units illustrated in FIG. 2, and the server apparatus 20 includes the application providing unit 201. The application providing unit 201 provides an application program (hereinafter referred to as “application”) for realizing each unit included in the information processing apparatus 10f to the user device. For example, the application providing unit 201 provides an application corresponding to each user situation. Specifically, the “test” application, the “interview” application, the “presentation” application, and the “date” application are individually downloaded, and individual icons are displayed on the information processing apparatus 10f. Individually activated. Selection of the application to be downloaded by the user is performed, for example, on an electronic commerce site that provides various applications.

図19はアプリを選択する画面の一例を表す。図19の例では、「どのアプリをダウンロードしますか?」という文字列と、ユーザの状況を表す「入試」、「面接」、「プレゼン」、「デート」という文字を含む操作子群F11とが情報処理装置10fのタッチスクリーン14fに表示されている。この画面でユーザがいずれかの操作子を操作すると、操作された操作子に表されたユーザ状況に対応するアプリ(例えば「試験」用のアプリ)がサーバ装置20に要求される。アプリ提供部201は、こうして要求されたアプリを情報処理装置10fに提供する。提供されたアプリを情報処理装置10fが実行することで、図18に表す情報処理装置10fの各部が実現される。   FIG. 19 shows an example of a screen for selecting an application. In the example of FIG. 19, an operator group F11 including a character string “Which application do you want to download?” And characters “entrance examination”, “interview”, “presentation”, and “date” representing the user's situation Is displayed on the touch screen 14f of the information processing apparatus 10f. When the user operates one of the operators on this screen, an application (for example, an application for “test”) corresponding to the user situation represented by the operated operator is requested from the server device 20. The application providing unit 201 provides the requested application to the information processing apparatus 10f. When the information processing apparatus 10f executes the provided application, each unit of the information processing apparatus 10f illustrated in FIG. 18 is realized.

アプリ提供部201が提供したアプリには、例えば図3に表す複数の文字列の候補及び類似度の情報が含まれており、このアプリがインストールされることで、記憶部103にこれらの情報が記憶される。例えば「入試」に対応するアプリが提供された場合には、図3の例で「入試」に対応付けられているコメント候補及び類似度が記憶部103に記憶される。それとともに、インストールされたアプリのアイコンが表示されるようになり、そのアイコンを操作することでアプリが起動される。   The application provided by the application providing unit 201 includes, for example, a plurality of character string candidates and similarity information shown in FIG. 3, and the information is stored in the storage unit 103 by installing this application. Remembered. For example, when an application corresponding to “entrance exam” is provided, comment candidates and similarities associated with “entrance exam” in the example of FIG. 3 are stored in the storage unit 103. At the same time, an icon of the installed application is displayed, and the application is activated by operating the icon.

なお、アプリを起動させるアイコンは、前述したように個別に表示されてもよいし、共通のアイコンが表示されてもよい。
図20は表示されるアイコンの例を表す。図20(a)の例では、情報処理装置10fのタッチスクリーン14fに、「書写アプリ(試験)」という文字を含むアイコンJ1と、「書写アプリ(面接)」という文字を含むアイコンJ2と、「書写アプリ(デート)」という文字を含むアイコンJ3とが表示されている。なお、「書写アプリ」とは、ユーザによる文字の軌跡を描く動作が書写、すなわち文字を書き写す動作に似ていることからつけた名称である。この例ではプレゼン用のアプリはダウンロードされておらず、対応するアイコンも表示されていない。例えば試験前であればユーザがアイコンJ1を操作してアプリを起動させることでユーザ状況が試験と判定され、軌跡を描く動作が行われることにより、試験に対応して記憶された複数の文字列の候補のうちのいずれかが出力される。
In addition, the icon for starting the application may be displayed individually as described above, or a common icon may be displayed.
FIG. 20 shows an example of displayed icons. In the example of FIG. 20A, the touch screen 14f of the information processing apparatus 10f has an icon J1 including the characters “writing application (test)”, an icon J2 including the characters “writing application (interview)”, and “ An icon J3 including the characters “documentation app (date)” is displayed. Note that the “writing app” is a name given because the user's action of drawing a trajectory of a character is similar to the action of copying, that is, copying a character. In this example, the presentation application is not downloaded and the corresponding icon is not displayed. For example, before the test, when the user operates the icon J1 to activate the application, the user situation is determined to be a test, and a plurality of character strings stored corresponding to the test are performed by performing an operation of drawing a trajectory. One of the candidates is output.

図20(b)の例では、タッチスクリーン14fに「書写アプリ」という文字を含むアイコンJ11が表示されている。ユーザがアイコンJ11を操作してアプリを起動させると、例えば図4(a)に表すユーザ状況を選択させるための画面が表示され、そこで表示された操作子群F1に対する操作に応じてユーザ状況が判定される。なお、この画面で表示される操作子が例えばいわゆるアプリ内課金によって追加できるようになっていてもよい。このように、いずれの場合も、ユーザ状況判定部104は、ユーザが起動したアプリ又は選択した操作子に対応するユーザ状況を、自装置を利用するユーザの状況として判定する。以下、実施例と同様の動作が行われて、判定されたユーザ状況に応じたコメントが出力される。本変形例によれば、ユーザは自分に必要なアプリを選んで利用することができる。   In the example of FIG. 20B, an icon J11 including characters “writing app” is displayed on the touch screen 14f. When the user operates the icon J11 to start the application, for example, a screen for selecting the user situation shown in FIG. 4A is displayed, and the user situation is changed according to the operation on the operator group F1 displayed there. Determined. Note that the operator displayed on this screen may be added by, for example, so-called in-app billing. As described above, in any case, the user situation determination unit 104 determines the user situation corresponding to the application activated by the user or the selected operator as the situation of the user who uses the device. Thereafter, the same operation as in the embodiment is performed, and a comment corresponding to the determined user situation is output. According to this modification, the user can select and use an application necessary for the user.

[2−6]動作に応じた出力
実施例では出力部107がユーザの動作に基づいて算出された類似度に応じた文字列を出力したが、これに限らない。出力部107は、例えば、タッチスクリーン14が圧力センサを有している場合に、ユーザが軌跡を描いたときに検出された圧力(いわゆる筆圧に相当する圧力)に応じた文字列を出力してもよい。
[2-6] Output According to Action In the embodiment, the output unit 107 outputs a character string corresponding to the similarity calculated based on the user's action, but the present invention is not limited to this. For example, when the touch screen 14 has a pressure sensor, the output unit 107 outputs a character string corresponding to a pressure (pressure corresponding to so-called writing pressure) detected when the user draws a locus. May be.

図21は本変形例の記憶部103が記憶する情報の一例を表す。図21の例では、ユーザ状況及びコメント候補に圧力が対応付けて記憶されている。ユーザ状況が「試験」の場合、例えば圧力が「C1以上」なら「リラックスしよう」、「C1未満C2以上」(C2<C1)なら「集中してますね」、「C2未満」なら「気合を入れよう!」というコメント候補が出力される。この例では、緊張するほどタッチスクリーン14に加える圧力が大きくなるユーザを想定して、圧力が大きく緊張している場合には緊張をほぐすためのコメントが出力され、圧力が小さく気が緩んでいる場合には集中力を高めるためのコメントが出力されるようになっている。   FIG. 21 shows an example of information stored in the storage unit 103 of this modification. In the example of FIG. 21, pressure is stored in association with the user situation and the comment candidate. If the user status is “Test”, for example, “Relax” if the pressure is “C1 or higher”, “Less than C1 C2 or higher” (C2 <C1), “Concentrate”, “If less than C2” Comment comment “Let's put in!” Is output. In this example, assuming a user who increases the pressure applied to the touch screen 14 as he / she becomes tense, when the pressure is greatly tense, a comment for releasing the tense is output, and the pressure is small and relaxed. In some cases, comments to increase concentration are output.

また、出力部107は、ユーザの動作に要した時間に応じた文字列を出力してもよい。
図22は本変形例の記憶部103が記憶する情報の別の一例を表す。図22の例では、ユーザ状況及びコメント候補に動作時間(ユーザの動作に要した時間)が対応付けて記憶されている。ユーザ状況が「試験」の場合、例えば動作時間が「D1以上」なら「時間配分に注意」、「D1未満D2以上」(D2<D1)なら「見直しもしっかり!」、「D2未満」なら「ケアレスミスに注意」というコメント候補が出力される。この例では、動作時間が長いと問題をゆっくり解く傾向にあり、動作時間が短いと問題を急いで解く傾向にあると想定して、動作時間が長い場合には試験時間が足りなくなることを防ぐためのコメントが出力され、動作時間が短い場合には解答を急ぎ過ぎて不注意によるミスをすることを防ぐためのコメントが出力されるようになっている。
Further, the output unit 107 may output a character string corresponding to the time required for the user's operation.
FIG. 22 shows another example of information stored in the storage unit 103 according to this modification. In the example of FIG. 22, the operation time (the time required for the user's operation) is stored in association with the user situation and the comment candidate. When the user status is “test”, for example, if the operation time is “D1 or more”, “careful about time allocation”, “less than D1 D2 or more” (D2 <D1), “review well!”, “Less than D2” A comment candidate “careful about careless mistakes” is output. In this example, it is assumed that the problem tends to be solved slowly if the operation time is long, and the problem tends to be solved quickly if the operation time is short. If the operation time is short, a comment is output to prevent an inadvertent mistake from being made too quickly.

以上のように、ユーザの動作の特徴(タッチスクリーン14を押す力や軌跡を描く速さ)を用いることで、各特徴から想定されるユーザの性格や特性に合った文字列を出力させることができる。なお、ユーザの動作の特徴としては、他にも、例えばユーザが軌跡を描いた範囲の大きさが用いられてもよい。この範囲が大きいほど大きな文字が描かれたことを表す。例えばユーザに元気がないと描く文字が小さくなりやすいと考えて、ユーザが軌跡を描いた範囲の大きさ(例えば軌跡に外接する円や矩形などの図形の面積で表す)が閾値以上である場合にはユーザ状況に応じた通常のコメントを出力し、その範囲の大きさが閾値未満である場合にはユーザを元気づけるためのコメントを出力する、というように活用できる(範囲の大きさとコメントの関係は反対でもよい)。   As described above, by using the feature of the user's action (the force of pushing the touch screen 14 or the speed of drawing the trajectory), it is possible to output a character string that matches the user's personality and characteristics assumed from each feature. it can. In addition, as a feature of the user's operation, for example, the size of a range in which the user has drawn a trajectory may be used. The larger the range is, the larger the character is drawn. For example, when the user feels that the character to be drawn is likely to be small when the user is not energetic, the size of the range in which the user has drawn the trajectory (for example, the area of a figure such as a circle or rectangle circumscribing the trajectory) is greater than or equal to the threshold value Can output a normal comment according to the user situation, and if the size of the range is less than the threshold, output a comment to cheer the user (the size of the range and the comment The relationship may be the opposite).

なお、出力部107は、これら以外にも、例えば現在時刻に応じた文字列を出力してもよし、ランダムで選んだ文字列を出力してもよい。これらの場合は、ユーザの動作は文字列を出力させるきっかけとして用いられる。ただし、いずれの場合も、出力部107は、ユーザがタッチスクリーン14に軌跡を描く動作に応じて文字列を出食することになる。そして、いずれの場合も、ユーザの状況に対応する複数の文字列の候補から最終的に出力される文字列が選ばれるようになっていれば、実施例と同様に出力される文字列の内容をユーザの状況に合ったものにすることができる。   In addition to the above, the output unit 107 may output a character string corresponding to the current time, for example, or may output a character string selected at random. In these cases, the user's action is used as a trigger for outputting a character string. However, in any case, the output unit 107 eats out a character string in accordance with an operation in which the user draws a locus on the touch screen 14. In any case, if a character string to be finally output is selected from a plurality of character string candidates corresponding to the user's situation, the content of the character string to be output is the same as in the embodiment. Can be adapted to the user's situation.

なお、出力部107は、同じ文字列を2回続けては出力しないようにしてもよい。言い換えると、出力部107は、前回出力した文字列とは異なる文字列を出力するようにしてもよい。出力部107は、例えば出力した文字列にフラグを対応付けておき、次にユーザが軌跡を描く動作を行ったときには、フラグが対応付けられていない文字列から文字列を選んで出力する。このとき、出力部107は、新たに出力した文字列にフラグを付け替える。これにより、同一文字列が2回連続で出力されることがなくなり、一度他の文字列が出力されれば再び出力され得るようになる。   Note that the output unit 107 may not output the same character string twice. In other words, the output unit 107 may output a character string different from the character string output last time. For example, the output unit 107 associates a flag with the output character string, and when the user performs an operation of drawing a locus next time, selects and outputs the character string from the character string not associated with the flag. At this time, the output unit 107 replaces the flag with the newly output character string. As a result, the same character string is not output twice in succession, and once another character string is output, it can be output again.

続けて同じ文字列が出力されると、決まりきった文字列しか出力されないという印象をユーザに与えることがあるが、出力部107が前述のとおり出力を行うことで、同じ文字列の2回連続での出力を許容する場合に比べて、そのような印象を与えにくくすることができる。なお、出力部107は、各状況に対応付けられた文字列が十分に多ければ、所定の回数までは必ず異なる文字列を連続して出力するようにしてもよい。この場合、例えば所定の回数が3回なら、連続で出力された3つの文字列は必ず全て異なることになる。これにより、前述の場合に比べて上記印象をユーザにさらに与えにくくすることができる。   If the same character string is output continuously, the user may be given the impression that only a fixed character string is output, but the output unit 107 outputs the same character string twice as described above. It is possible to make it difficult to give such an impression as compared with the case where the output is allowed. Note that the output unit 107 may always output different character strings continuously up to a predetermined number of times as long as there are sufficiently many character strings associated with each situation. In this case, for example, if the predetermined number of times is three, all the three character strings output in succession will always be different. Thereby, compared with the above-mentioned case, it can make it difficult to give the said impression to a user further.

[2−7]文字の表示
ユーザが軌跡を描く動作を行う際に表示される文字は上述したものに限らない。例えば、図4に表す「勝」等のように1文字でなく2文字以上が表示されてもよいし、文を表す文字が表示されてもよい。また、文字に限らず、句読点のような記号や矢印のような図形が表示されてもよい。また、これらの文字等を実施例のようにユーザが軌跡を描く位置に表示させてそれをなぞらせる代わりに、記入欄の外側に表示させてもよい。その場合でも、ユーザは表示された文字等を参考にすることができるので、軌跡を描きやすい。
[2-7] Character Display Characters displayed when the user performs an operation of drawing a locus are not limited to those described above. For example, two or more characters may be displayed instead of one character, such as “win” shown in FIG. 4, or a character representing a sentence may be displayed. In addition to characters, symbols such as punctuation marks and graphics such as arrows may be displayed. Instead of displaying these characters and the like at a position where the user draws a locus as in the embodiment and tracing them, they may be displayed outside the entry field. Even in such a case, the user can refer to the displayed characters and the like, so that it is easy to draw a trajectory.

なお、文字等の表示は必須ではない。例えば図4(d)に表す入力欄F6と動作の終了を表す操作子F7だけが表示され、文字G1が表示されていなくてもよい。この場合、ユーザは自分が好きな文字等を入力欄F6に描き、操作子F7を操作して軌跡を描く動作を終了させればよい。その際は、類似度が算出できないので、例えば上述した筆圧や動作時間に基づいて文字列が出力されればよい。また、文字等を表示させた場合に、ユーザは必ずしも表示された文字を描く必要はない。ユーザが何の軌跡を描いたかにかかわらず、例えば図4に表す操作子F7を操作して軌跡を描く動作が行われたことを出力部107が判断できれば、上述した文字列の出力が行われることになる。   The display of characters and the like is not essential. For example, only the input field F6 shown in FIG. 4D and the operation element F7 indicating the end of the operation are displayed, and the character G1 may not be displayed. In this case, the user may draw a character or the like he / she likes in the input field F6 and operate the operation element F7 to end the operation of drawing the locus. In this case, since the similarity cannot be calculated, for example, a character string may be output based on the above-described writing pressure and operation time. Further, when displaying characters or the like, the user does not necessarily have to draw the displayed characters. Regardless of what locus the user has drawn, for example, if the output unit 107 can determine that the operation of drawing the locus has been performed by operating the operator F7 shown in FIG. 4, the above-described character string is output. It will be.

なお、ユーザが自由に文字等を描く場合、ユーザによって描かれた文字の文字数が上述したユーザの動作の特徴として用いられてもよい。例えば緊張しているほど文字数が少なくなると考えて、文字数が閾値以上である場合にはユーザ状況に応じた通常のコメントを出力し、文字数が閾値未満である場合には緊張を和らげるためのコメントを出力する、というように活用できる(文字数とコメントの関係は反対でもよい)。   In addition, when a user draws a character etc. freely, the number of characters of the character drawn by the user may be used as a characteristic of the user's operation described above. For example, if the number of characters is less than the threshold, the normal comment corresponding to the user situation is output if the number of characters is less than the threshold, and if the number of characters is less than the threshold, a comment for relieving the tension is considered. It can be used as output (the relationship between the number of characters and comments may be reversed).

また、ユーザが自由に文字等を描く場合、その文字の内容が上述したユーザの動作の特徴として用いられてもよい。具体的には、特定の文字(ユーザの名前やユーザが登録している文字など)が描かれた場合に、通常とは異なるコメントを出力する、というように活用できる。この場合、例えば情報処理装置には特定の文字が予め記憶されており、図2に表す出力部107が、ユーザにより描かれた軌跡からOCR(Optical character recognition)の技術を用いて文字を認識し、認識した文字が記憶されている場合に通常とは異なるコメントを出力する。   Further, when a user freely draws a character or the like, the content of the character may be used as a feature of the user's operation described above. Specifically, when a specific character (such as a user name or a character registered by the user) is drawn, a comment different from the normal one can be output. In this case, for example, a specific character is stored in advance in the information processing apparatus, and the output unit 107 illustrated in FIG. 2 recognizes the character from the locus drawn by the user using an OCR (Optical character recognition) technique. When the recognized character is stored, an unusual comment is output.

[2−8]出力先
実施例では出力部107が文字列をタッチスクリーン14に出力したが、文字列の出力先はこれに限らない。出力部107は、例えば、ユーザのメールアドレスやSNS(Social Networking Service)のアカウントに文字列を出力してもよい。また、出力部107は、情報処理装置がスピーカを有していれば、文字列を表す音声を出力してもよい。要するに、出力対象の文字列の表す言葉がユーザに伝わるようになっていれば、どのような出力先が用いられてもよい。
[2-8] Output Destination In the embodiment, the output unit 107 outputs the character string to the touch screen 14, but the output destination of the character string is not limited to this. For example, the output unit 107 may output a character string to a user's mail address or an SNS (Social Networking Service) account. Further, the output unit 107 may output sound representing a character string if the information processing apparatus has a speaker. In short, any output destination may be used as long as the words represented by the character string to be output can be transmitted to the user.

[2−9]テーブル
図3等に表したテーブルは情報処理装置の記憶装置に記憶されていてもよいし、外部装置に記憶されていてネットワークを介して参照されるようになっていてもよい。また、図3等に表したテーブルは例示であって、それらのテーブルのデータの内容や構成が図3等に例示のものと異なってもよい。また、テーブルに代えて例えば文字列をパラメータとする関数(文字列検索や文字列抽出などの関数)などが用いられてもよい。要するに、図3等に例示のテーブルに示される対応関係が特定されれば、用いられるデータの形式は限定されない。
[2-9] Table The table shown in FIG. 3 or the like may be stored in the storage device of the information processing device, or may be stored in an external device and referred to via a network. . Further, the tables shown in FIG. 3 and the like are examples, and the contents and configuration of data in those tables may be different from those shown in FIG. In place of the table, for example, a function using a character string as a parameter (function such as character string search or character string extraction) may be used. In short, the format of data to be used is not limited as long as the correspondence relationship shown in the table illustrated in FIG.

[2−10]発明のカテゴリ
本発明は、情報処理装置の他、情報処理装置及びサーバ装置を備える情報処理システムとしても捉えられる。また、それらの装置が実施する処理を実現するための情報処理方法やそれらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。これらのプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-10] Category of Invention The present invention can be understood as an information processing system including an information processing device and a server device in addition to the information processing device. Further, the present invention can also be understood as an information processing method for realizing processing performed by these devices and a program for causing a computer that controls these devices to function. These programs may be provided in the form of a recording medium such as an optical disk in which they are stored, or may be downloaded to a computer via a network such as the Internet, installed and made available for use. May be provided.

10…情報処理装置、11…制御装置、12…記憶装置、13…UI装置、14…タッチスクリーン、101…選択部、102…提示部、103…記憶部、104…ユーザ状況判定部、105…文字表示部、106…軌跡表示部、107…出力部、108…回答取得部、109…ユーザ特性判定部、110…測位部、111…スケジュール取得部、112…文字列生成部。 DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 11 ... Control apparatus, 12 ... Storage apparatus, 13 ... UI apparatus, 14 ... Touch screen, 101 ... Selection part, 102 ... Presentation part, 103 ... Storage part, 104 ... User condition determination part, 105 ... Character display unit 106 ... locus display unit 107 107 output unit 108 ... answer acquisition unit 109 ... user characteristic determination unit 110 ... positioning unit 111 ... schedule acquisition unit 112 ... character string generation unit

本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。 The present invention includes a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, and a determination unit that determines a planned user situation And when the character is displayed and the user performs an action of drawing a locus on the touch screen, among the plurality of character string candidates stored corresponding to the determined situation of the scheduled user An information processing apparatus is provided that includes an output unit that outputs a character string corresponding to the trajectory and the similarity of the character.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
The present invention also provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a scheduled user situation, and a user draws a locus on the touch screen. An output unit configured to output a character string corresponding to a feature of the action among the plurality of character string candidates stored corresponding to the determined situation of the scheduled user when an action is performed; An information processing apparatus is provided.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、予定されたユーザの状況を判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, a determination unit that determines a scheduled user situation, and the determined user situation. When the user performs an operation of drawing a locus on the touch screen in a state where the character selected by the user from the presented character candidates is displayed on the touch screen. An information processing apparatus is provided that includes an output unit that outputs any one of the plurality of character string candidates stored corresponding to the determined situation of the scheduled user .

また、本発明は、タッチスクリーンと、予定されたユーザの状況を判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 The present invention also includes a touch screen, a determination unit that determines a scheduled user's situation, an answer acquisition unit that acquires a user's answer to the question, and a plurality of characters according to the user's situation and the answer to the question The storage unit that stores the column candidates, and the user stored according to the determined user situation and the acquired answer when the user performs an operation of drawing a locus on the touch screen An information processing apparatus including an output unit that outputs any one of a plurality of character string candidates is provided.

本発明は、タッチスクリーンと、前記タッチスクリーンに文字を表示させる文字表示部と、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部とを備える情報処理装置を提供する。 The present invention obtains information relating to a touch screen, a character display unit that displays characters on the touch screen, a storage unit that stores a plurality of character string candidates for each user situation, and a user's schedule And a determination unit that determines a situation associated with the acquired information as a planned user situation , and the character is displayed and the user performs an operation of drawing a locus on the touch screen. An output unit that outputs a character string corresponding to the trajectory and the similarity of the character among the plurality of character string candidates stored in correspondence with the determined situation of the scheduled user. An information processing apparatus is provided.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部とを備える情報処理装置を提供する。
また、前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力であってもよい。
また、前記動作の特徴は、前記動作に要した時間であってもよい。
Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, an acquisition unit that acquires information related to the user's schedule, and the acquired information A determination unit that determines the associated situation as the scheduled user situation , and when the user performs an action of drawing a locus on the touch screen, the determined situation corresponding to the scheduled user situation An information processing apparatus is provided that includes an output unit that outputs a character string corresponding to a feature of the operation among the plurality of stored character string candidates.
Further, the feature of the operation may be a pressure applied to the touch screen during the operation.
The feature of the operation may be a time required for the operation.

また、本発明は、タッチスクリーンと、ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention provides a touch screen, a storage unit that stores a plurality of character string candidates for each user situation, an acquisition unit that acquires information related to the user's schedule, and the acquired information the association was situation, a determining unit as the status of scheduled user, the presentation unit for presenting the character candidates according to the condition of the determined the user, the user from the candidates of the presented characters The plurality of characters stored corresponding to the determined user situation determined when the user performs an action of drawing a locus on the touch screen in a state where the selected character is displayed on the touch screen. Provided is an information processing apparatus including an output unit that outputs any of column candidates.

また、本発明は、タッチスクリーンと、ユーザの予定との関連を有する情報を取得する取得部と、取得された前記情報に対応付けられた状況を、予定されたユーザの状況として判定する判定部と、質問に対するユーザの回答を取得する回答取得部と、ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記予定されたユーザの状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部とを備える情報処理装置を提供する。 Further, the present invention is a touch screen and, determining unit and the acquisition unit for acquiring information with an associated scheduled users, was associated with the acquired information situation, as the status of scheduled user An answer acquisition unit that acquires a user's answer to the question, a storage unit that stores a plurality of character string candidates according to the user's situation and the answer to the question, and an operation in which the user draws a locus on the touch screen. An information processing unit comprising: an output unit configured to output one of the plurality of character string candidates stored according to the determined situation of the scheduled user and the acquired answer when the determination is made; Providing equipment.

Claims (6)

タッチスクリーンと、
前記タッチスクリーンに文字を表示させる文字表示部と、
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
前記文字が表示されてユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該軌跡と当該文字の類似度に応じた文字列を出力する出力部と
を備える情報処理装置。
Touch screen,
A character display unit for displaying characters on the touch screen;
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
When the character is displayed and the user performs an operation of drawing a trajectory on the touch screen, the trajectory and the character of the character are stored among the plurality of character string candidates stored corresponding to the determined situation. An information processing apparatus comprising: an output unit that outputs a character string corresponding to the degree of similarity.
タッチスクリーンと、
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうち、当該動作の特徴に応じた文字列を出力する出力部と
を備える情報処理装置。
Touch screen,
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
When the user performs an action of drawing a locus on the touch screen, a character string corresponding to the feature of the action is output among the plurality of character string candidates stored corresponding to the determined situation. An information processing apparatus comprising: an output unit.
前記動作の特徴は、前記動作中に前記タッチスクリーンに加えられた圧力である
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the characteristic of the operation is a pressure applied to the touch screen during the operation.
前記動作の特徴は、前記動作に要した時間である
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the feature of the operation is a time required for the operation.
タッチスクリーンと、
ユーザの状況毎に複数の文字列の候補を記憶する記憶部と、
ユーザの状況を判定する判定部と、
判定された前記ユーザの状況に応じて文字の候補を提示する提示部と、
提示された前記文字の候補からユーザが選んだ文字が前記タッチスクリーンに表示された状態でユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況に対応して記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部と
を備える情報処理装置。
Touch screen,
A storage unit for storing a plurality of character string candidates for each user situation;
A determination unit for determining a user's situation;
A presentation unit that presents candidate characters according to the determined user situation;
When the user performs an action of drawing a locus on the touch screen in a state where the character selected by the user from the presented character candidates is displayed on the touch screen, the character is stored corresponding to the determined situation. And an output unit that outputs any one of the plurality of character string candidates.
タッチスクリーンと、
ユーザの状況を判定する判定部と、
質問に対するユーザの回答を取得する回答取得部と、
ユーザの状況及び前記質問に対する回答に応じた複数の文字列の候補を記憶する記憶部と、
ユーザが前記タッチスクリーンに軌跡を描く動作を行った場合に、判定された前記状況と取得された前記回答とに応じて記憶された前記複数の文字列の候補のうちのいずれかを出力する出力部と
を備える情報処理装置。
Touch screen,
A determination unit for determining a user's situation;
An answer acquisition unit for acquiring a user's answer to the question;
A storage unit that stores a plurality of character string candidates according to the user's situation and the answer to the question;
Output that outputs any of the plurality of character string candidates stored in accordance with the determined situation and the acquired answer when the user performs an action of drawing a locus on the touch screen An information processing apparatus comprising:
JP2015243540A 2015-06-02 2015-12-14 Information processing device Expired - Fee Related JP6010683B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015112565 2015-06-02
JP2015112565 2015-06-02

Publications (2)

Publication Number Publication Date
JP6010683B1 JP6010683B1 (en) 2016-10-19
JP2016224397A true JP2016224397A (en) 2016-12-28

Family

ID=57140253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015243540A Expired - Fee Related JP6010683B1 (en) 2015-06-02 2015-12-14 Information processing device

Country Status (1)

Country Link
JP (1) JP6010683B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216294A (en) * 2002-01-25 2003-07-31 Victor Co Of Japan Ltd User interface device
JP2010072818A (en) * 2008-09-17 2010-04-02 Olympus Corp Information processing system, digital photo-frame, program, and information storage medium
JP2011221985A (en) * 2010-03-24 2011-11-04 Oki Electric Ind Co Ltd Input support device, input support method and program
JP2015045973A (en) * 2013-08-28 2015-03-12 キヤノン株式会社 Information processor and control method therefor and computer program and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216294A (en) * 2002-01-25 2003-07-31 Victor Co Of Japan Ltd User interface device
JP2010072818A (en) * 2008-09-17 2010-04-02 Olympus Corp Information processing system, digital photo-frame, program, and information storage medium
JP2011221985A (en) * 2010-03-24 2011-11-04 Oki Electric Ind Co Ltd Input support device, input support method and program
JP2015045973A (en) * 2013-08-28 2015-03-12 キヤノン株式会社 Information processor and control method therefor and computer program and recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"書いて添削!なぞって練習!字が上手くなるアプリ登場", 産経アプリスタ, JPN6016009075, 2 March 2016 (2016-03-02), ISSN: 0003272777 *

Also Published As

Publication number Publication date
JP6010683B1 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
Pereira et al. Survey and analysis of current mobile learning applications and technologies
US9177064B2 (en) Language learning exchange
US20140220537A1 (en) E-learning lesson delivery platform
KR102256182B1 (en) Method and apparatus for providing automatic question and answer chatbot service for video remote lecture
Tsai Learning with mobile augmented reality-and automatic speech recognition-based materials for English listening and speaking skills: Effectiveness and perceptions of non-English major English as a foreign language students
US12008317B2 (en) Summarizing information from different sources based on personal learning styles
US11288976B2 (en) Language fluency system
Azman et al. Implications for social work teaching and learning in Universiti Sains Malaysia, Penang, due to the COVID-19 pandemic: A reflection
US9898935B2 (en) Language system
KR102099943B1 (en) English Education System Using Mentor
US10157070B2 (en) Document preparation platform
KR20160039505A (en) Learning contents configuring apparatus and method for thereof
Aurbach et al. Half-life your message: A quick, flexible tool for message discovery
JP6010683B1 (en) Information processing device
Jayakody et al. Mobile application for vision impaired people to facilitate to learn the English language
Awada et al. An E-Learning Platform That Supports Personalized Learning and Multimodal Interactions
KR20180051925A (en) Learning server
Araújo et al. Pedagogic software evaluation protocol: analyzing a digital educational game for portuguese language teaching
US20240282303A1 (en) Automated customization engine
US20240282209A1 (en) Automated customization virtual ecosystem
KR20120070782A (en) Word studying service system and method thereof
Fujita Physical expression on stage and screen: Using the Alexander Technique to create unforgettable performances
Breunig Language workers and the challenge of digitalisation: Gaining insight through the social media skill sharing of professional communication practitioners within the US military
Tackie Ga dictionary application: An android and web platform to facilitate the easy learning of the Ga traditional language
KR101182260B1 (en) Apparatus and method of providing language learning service

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160916

R150 Certificate of patent or registration of utility model

Ref document number: 6010683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees