JP2015049353A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2015049353A
JP2015049353A JP2013180683A JP2013180683A JP2015049353A JP 2015049353 A JP2015049353 A JP 2015049353A JP 2013180683 A JP2013180683 A JP 2013180683A JP 2013180683 A JP2013180683 A JP 2013180683A JP 2015049353 A JP2015049353 A JP 2015049353A
Authority
JP
Japan
Prior art keywords
image
character
user
handwritten
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013180683A
Other languages
Japanese (ja)
Other versions
JP6238648B2 (en
Inventor
優伯 鈴木
Masanami Suzuki
優伯 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Benesse Corp
Original Assignee
Benesse Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Benesse Corp filed Critical Benesse Corp
Priority to JP2013180683A priority Critical patent/JP6238648B2/en
Publication of JP2015049353A publication Critical patent/JP2015049353A/en
Application granted granted Critical
Publication of JP6238648B2 publication Critical patent/JP6238648B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of intuitively recognizing a difference between a handwritten image written by a user and an example image.SOLUTION: An information processor includes: a display part for displaying a predetermined image; example display means for displaying an example image of a character to be written by a user at the display part; writing region display means for displaying a region for allowing the user to write the character at the display part; handwritten character display means for displaying the image of the handwritten character written in the region by the user in this region; and deviation presentation means for visually presenting a deviation between the image of the handwritten character and the example image to the user by continuously changing at least either the shape or position of the image of the handwritten character at the display part.

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、文字や図形の書き方を学習する際に、ノート等に印刷された手本の文字・図形を参考にして練習したり、書いた文字や図形の上に教師等から手本を重畳して書いたりしてもらうことが一般的であった。近年では、このような書き方学習について、コンピュータ等の端末を用いる技術が提案されている。   Conventionally, when learning how to write letters and figures, practice with reference to the letters and figures in the examples printed on the notebook, etc., or superimpose the examples from the teacher on the letters and figures you wrote. It was common to get written. In recent years, a technique using a terminal such as a computer has been proposed for such writing learning.

特許文献1には、筆記具で直接書いている感覚で手書入力ができるようにするために、文字、図形等を手書きするためのペンと、手書面に記入範囲を指定する枠を有しペンの接触に一致する軌跡を表示する表示手段と、表示手段の下層に設けられ、軌跡に沿った座標位置を検出する検出手段とを有する手書き入力装置が開示されている。   In Patent Document 1, there is a pen for handwriting characters, figures, etc. and a frame for designating a range to be written on the handwriting so that handwriting can be input as if writing directly with a writing instrument. There is disclosed a handwriting input device having display means for displaying a trajectory that coincides with the contact, and detection means provided in a lower layer of the display means for detecting a coordinate position along the trajectory.

特開2001−14100号公報Japanese Patent Laid-Open No. 2001-14100

しかしながら、特許文献1に記載の技術では、ユーザは、手書き入力をする際に、入力エリアと手本となる文字を並べた状態で、文字を書くことができるが、書いた文字が手本と比べて、どの程度の差異があるか、直感的に認識することができない。   However, in the technique described in Patent Document 1, when a user performs handwriting input, a user can write a character in a state where an input area and a character as a model are arranged. In comparison, it is not possible to intuitively recognize how much difference there is.

そこで、本発明は、上記事情に鑑み、ユーザが書き込んだ手書き画像と手本画像との差異を直感的に認識できる技術を提供することを目的とするものである。   In view of the above circumstances, an object of the present invention is to provide a technique capable of intuitively recognizing a difference between a handwritten image written by a user and a model image.

本発明に係る情報処理装置は、所所定の画像を表示可能な表示部と、ユーザに書き取りを行わせる文字について、この文字のお手本の画像を、表示部に表示する手本表示手段と、ユーザが文字の書き取りをするための領域を、表示部に表示する書取領域表示手段と、ユーザによって領域に書き取られた手書き文字の画像を、この領域に表示する手書き文字表示手段と、表示部において、手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させることによって、手書き文字の画像とお手本の画像とのズレを、ユーザに視覚的に提示するズレ提示手段と、を備える。   An information processing apparatus according to the present invention includes a display unit that can display a predetermined image, a sample display unit that displays an image of a model of the character on the display unit, and a user A writing area display means for displaying an area for writing characters on the display section, a handwritten character display means for displaying an image of handwritten characters written in the area by the user in the area, and a display section And a shift presentation means for visually presenting to the user a shift between the image of the handwritten character and the image of the model by continuously changing at least one of the shape or position of the image of the handwritten character. .

上記表示部は、タッチスクリーンディスプレイであり、手書き文字表示手段は、タッチスクリーンディスプレイ上又は近傍におけるオブジェクトを検出し、検出されたオブジェクトの位置又は移動の軌跡に従って、ユーザが領域に書き取った手書き文字の画像を領域に描画することが望ましい。   The display unit is a touch screen display, and the handwritten character display means detects an object on or near the touchscreen display, and according to the detected position of the object or the locus of movement of the handwritten character written by the user in the area. It is desirable to draw an image in the area.

また、上記情報処理装置は、ズレ提示手段において、手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させる際の変化の程度を、ユーザが調節可能なインタフェースをさらに備えることが望ましい。   The information processing apparatus preferably further includes an interface that allows the user to adjust the degree of change when continuously changing at least one of the shape and position of the image of the handwritten character in the deviation presentation unit. .

上記ズレ提示手段は、モーフィングによって生成された手書き文字の画像からお手本の画像へと至る中間画像を、当該お手本の画像と重畳表示させることができる。   The deviation presenting means can display an intermediate image from a handwritten character image generated by morphing to a model image superimposed on the model image.

また、本発明に係る情報処理方法は、所定の画像を表示可能な表示部を備える情報処理装置において実施される情報処理方法であって、ユーザに書き取りを行わせる文字について、当該文字のお手本の画像を、表示部に表示すること、ユーザが文字の書き取りをするための領域を、表示部に表示すること、ユーザによって領域に書き取られた手書き文字の画像を、この領域に表示すること、表示部において、手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させることによって、手書き文字の画像とお手本の画像とのズレを、ユーザに視覚的に提示することを含む。   An information processing method according to the present invention is an information processing method implemented in an information processing apparatus including a display unit capable of displaying a predetermined image, and for a character to be written by a user, an example of the character Displaying an image on the display unit, displaying an area for the user to write out characters on the display unit, displaying an image of a handwritten character written in the area by the user in this region, The display unit includes visually presenting to the user a shift between the image of the handwritten character and the image of the model by continuously changing at least one of the shape and the position of the image of the handwritten character.

また、本発明に係るプログラムは、所定の画像を表示可能な表示部を備えるコンピュータに実行させるためのプログラムであって、コンピュータを、ユーザに書き取りを行わせる文字について、当該文字のお手本の画像を、表示部に表示する手段、ユーザが文字の書き取りをするための領域を、表示部に表示する手段、ユーザによって領域に書き取られた手書き文字の画像を、この領域に表示する手段、及び、表示部において、手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させることによって、手書き文字の画像とお手本の画像とのズレを、ユーザに視覚的に提示する手段、して機能させる。   In addition, a program according to the present invention is a program for causing a computer including a display unit capable of displaying a predetermined image to execute a computer image of a character that causes the user to write the character. Means for displaying on the display unit, means for displaying an area for the user to write out characters on the display unit, means for displaying an image of handwritten characters written in the area by the user in this region, and The display unit functions as a means for visually presenting to the user the deviation between the image of the handwritten character and the image of the model by continuously changing at least one of the shape or position of the image of the handwritten character. Let

また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。   The program of the present invention can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network. .

また、本明細書等において、「部」とは、単に物理的構成を意味するものではなく、その構成が有する機能をソフトウェアによって実現する場合も含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、2つ以上の構成の機能が1つの物理的構成により実現されてもよい。   Further, in this specification and the like, the “unit” does not simply mean a physical configuration, but also includes a case where the functions of the configuration are realized by software. In addition, functions of one configuration may be realized by two or more physical configurations, or functions of two or more configurations may be realized by one physical configuration.

本発明によれば、ユーザが描画した軌跡と手本画像との差異を直感的に認識させることが可能になる。   According to the present invention, it is possible to intuitively recognize a difference between a locus drawn by a user and a model image.

本発明の第1の実施形態における学習支援システムのシステム構成図である。It is a system configuration figure of the learning support system in a 1st embodiment of the present invention. 本実施形態におけるサーバ装置の好適な一実施形態を示す概略構成図(システムブロック図)である。It is a schematic block diagram (system block diagram) which shows suitable one Embodiment of the server apparatus in this embodiment. 図1及び図2に示すサーバ装置を機能的な観点から示す概略構成図(機能構成図)である。It is a schematic block diagram (functional block diagram) which shows the server apparatus shown in FIG.1 and FIG.2 from a functional viewpoint. 図1に示す端末装置の概略構成図であり、機能的な観点を含む機能構成図でもある。It is a schematic block diagram of the terminal device shown in FIG. 1, and is also a functional block diagram including a functional viewpoint. 本発明の第1の実施形態によって実行される処理手順の一部を示す概略不ローズである。It is a rough non-rose which shows a part of process procedure performed by the 1st Embodiment of this invention. 本発明の第1の実施形態における文字表画面の一例を示す図である。It is a figure which shows an example of the character table screen in the 1st Embodiment of this invention. 本発明の第1の実施形態における学習画面の一例を示す図である。It is a figure which shows an example of the learning screen in the 1st Embodiment of this invention. 本発明の第1の実施形態における学習画面の一例を示す図であるIt is a figure which shows an example of the learning screen in the 1st Embodiment of this invention. 本発明の第1の実施形態における手書き画像の変化の様子を模式的に示す図であるIt is a figure which shows typically the mode of a change of the handwritten image in the 1st Embodiment of this invention. 本発明のその他の実施形態における手本画像と手書き画像とを重畳させる様子を模式的に示す図であるIt is a figure which shows typically a mode that a sample image and a handwritten image in other embodiment of this invention are superimposed.

[第1の実施形態]
以下、本発明の実施の形態について、図面を参照しつつ詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能であり、かかる実施の形態も本発明の範囲に含まれる。またさらに、必要に応じて示す上下左右等の位置関係は特に断らない限り、図示の表示に基づくものとする。さらにまた、図面における各種の寸法比率は、その図示の比率に限定されるものではない。また、同一の要素には同一の符号を付し、重複する説明を省略する。
[First embodiment]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are examples for explaining the present invention, and are not intended to limit the present invention only to the embodiments. The present invention can be variously modified without departing from the gist thereof, and such embodiments are also included in the scope of the present invention. Furthermore, the positional relationship such as up, down, left, and right shown as necessary is based on the illustrated display unless otherwise specified. Furthermore, various dimensional ratios in the drawings are not limited to the illustrated ratios. Moreover, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.

図1は、本発明による学習支援システム1の好適な一実施形態を示すシステム構成図である。同図に示すとおり、サーバ装置100と、端末装置200とがネットワークNを介して相互に通信可能に設定されることにより、学習支援システム1が構成される。   FIG. 1 is a system configuration diagram showing a preferred embodiment of a learning support system 1 according to the present invention. As shown in the figure, the learning support system 1 is configured by setting the server device 100 and the terminal device 200 so that they can communicate with each other via the network N.

サーバ装置100は、ネットワークNに接続されたサーバ用コンピュータであり、そのサーバ用コンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を実現するものである。本実施形態において、サーバ装置100は、学習支援システム1によりユーザの学習を支援する事業者等によって提供され得る。   The server apparatus 100 is a server computer connected to the network N, and a server function is realized by a predetermined server program running on the server computer. In the present embodiment, the server device 100 may be provided by a business operator that supports user learning by the learning support system 1.

端末装置200は、ネットワークNに接続され、サーバ装置100にアクセス可能なコンピュータである。本実施形態において、端末装置200は学習支援システム1のユーザである学習者が家庭等で学習する際に使用されるものであって、このような端末装置200として、好適には、タブレットコンピュータ(以下「タブレット端末」という。)が想定される。そこで、以下においては、理解を容易にするべく、端末装置200がタブレット端末である実施の形態を例にとって説明する。しかしながら、本発明において、端末装置200はタブレット端末に限られるものではなく、他にも、パソコン(PC)、家庭用ゲーム機器(携帯型ゲーム機を含む)、携帯電話機(いわゆるフィーチャーフォン)、スマートフォン(多機能携帯電話機)、携帯情報端末(Personal Digital Assistant;PDA)、携帯音楽プレイヤ、電子書籍リーダ、その他のコンピュータ機器を採用してもよいことは言うまでもない。   The terminal device 200 is a computer that is connected to the network N and can access the server device 100. In the present embodiment, the terminal device 200 is used when a learner who is a user of the learning support system 1 learns at home or the like, and as such a terminal device 200, a tablet computer ( Hereinafter referred to as “tablet terminal”). Therefore, in the following, in order to facilitate understanding, an embodiment in which the terminal device 200 is a tablet terminal will be described as an example. However, in the present invention, the terminal device 200 is not limited to a tablet terminal, but may be a personal computer (PC), a home game machine (including a portable game machine), a mobile phone (so-called feature phone), a smartphone. Needless to say, a (multifunctional mobile phone), a personal digital assistant (PDA), a portable music player, an electronic book reader, and other computer devices may be employed.

ネットワークNは、例えばインターネット等を含む情報処理に係る通信回線又は通信網であり、その具体的な構成は、サーバ装置100と端末装置200との間でデータの送受信が可能なように構成されていれば特に制限されず、有線であるか無線であるかも問わない。また、ネットワークNは、複数種の通信回線や通信網及び種種のネットワーク機器を含んで構成され得る。例えば、ネットワークNは、端末装置200に無線接続される基地局や無線LANのアクセスポイント(WiFiルータ等)、基地局に接続された移動体通信網、アクセスポイントからルータやモデムを介して接続された電話回線、ケーブルテレビ回線又は光回線などの公衆回線、サーバ装置100に接続された電話回線、ケーブルテレビ回線又は光通信回線などの公衆回線、サーバ装置100に接続されたインターネット、移動体通信網や公衆回線とインターネットを接続するゲートウェイ装置を含む。   The network N is a communication line or a communication network related to information processing including the Internet, for example, and its specific configuration is configured so that data can be transmitted and received between the server device 100 and the terminal device 200. If it is, it will not be restrict | limited, It does not ask | require whether it is a wire or radio | wireless. The network N can be configured to include a plurality of types of communication lines, communication networks, and various types of network devices. For example, the network N is connected via a router or a modem from a base station or a wireless LAN access point (WiFi router or the like) wirelessly connected to the terminal device 200, a mobile communication network connected to the base station, or an access point. Telephone lines, public lines such as cable TV lines or optical lines, telephone lines connected to the server apparatus 100, public lines such as cable TV lines or optical communication lines, the Internet connected to the server apparatus 100, and mobile communication networks And a gateway device that connects the public line and the Internet.

図2は、本実施形態におけるサーバ装置100の好適な一実施形態を示すブロック図である。同図に示すとおり、サーバ装置100は、CPUやMPUといった演算処理部101、記憶装置としてのROM102及びRAM103、入力部105及び外部メモリ106が接続された外部インタフェース104、ディスプレイモニタ111が接続された画像処理部107、ディスク又はメモリデバイス等が収容又は接続されるスロットドライブ108、スピーカ装置112が接続された音声処理部109、並びに、ネットワークインタフェース110を備え、これらが、例えば、内部バス、外部バス、及び拡張バスを含むシステムバスといった伝送路120を介して互いに接続されて構成される。なお、入力部105、外部メモリ106、ディスプレイモニタ111、スピーカ装置112等の入出力を担うデバイス装置は、必要に応じて適宜省略してもよいし、それらを備える場合であっても、それらは伝送路120に常時接続されていなくてもよい。   FIG. 2 is a block diagram showing a preferred embodiment of the server device 100 in the present embodiment. As shown in the figure, the server device 100 is connected to an arithmetic processing unit 101 such as a CPU or MPU, a ROM 102 and RAM 103 as storage devices, an external interface 104 to which an input unit 105 and an external memory 106 are connected, and a display monitor 111. An image processing unit 107, a slot drive 108 in which a disk or a memory device or the like is accommodated or connected, an audio processing unit 109 to which a speaker device 112 is connected, and a network interface 110 are provided. , And a system bus including an expansion bus. Note that the device units responsible for input / output, such as the input unit 105, the external memory 106, the display monitor 111, and the speaker device 112, may be omitted as appropriate, and even if they are provided, It is not always necessary to connect to the transmission line 120 at all times.

演算処理部101は、サーバ装置100全体の動作を制御し、上述した他の構成要素との間で制御信号及び情報信号(データ)の送受信を行うとともに、学習支援の実行に必要な各種の演算処理を行う。そのため、演算処理部101は、いわゆるレジスタ等の高速アクセス可能な記憶領域に対して、数値演算ユニット等を用いた加減乗除等の算術演算、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算等、更に必要に応じて、飽和演算、三角関数演算、ベクトル演算等を行うことが可能なように構成されている。   The arithmetic processing unit 101 controls the overall operation of the server apparatus 100, transmits and receives control signals and information signals (data) to and from other components described above, and performs various calculations necessary for executing learning support. Process. Therefore, the arithmetic processing unit 101 performs arithmetic operations such as addition / subtraction / multiplication / division using a numerical operation unit, logical operations such as logical sum, logical product, logical negation, bit, etc. for a storage area such as a so-called register that can be accessed at high speed. Bit operations such as sum, bit product, bit inversion, bit shift, bit rotation, etc., and further, saturation operation, trigonometric function operation, vector operation, etc. can be performed as necessary.

また、ROM102には、一般に、電源投入後、最初に実行されるIPL(Initial ProgRAM103 Loader)が記憶されており、これが実行されることにより、スロットドライブ108に収容又は接続されるディスクやメモリデバイスに記録されたサーバ用プログラムや学習支援プログラムが、演算処理部101によって一旦RAM103に読み出され、そのプログラム全体の動作制御に必要なオペレーティングシステムのプログラムやその他の各種データが記録されている。   The ROM 102 generally stores an IPL (Initial ProgRAM 103 Loader) that is executed first after the power is turned on. By executing this, the disk 102 or the memory device accommodated in or connected to the slot drive 108 is stored. The recorded server program and learning support program are temporarily read into the RAM 103 by the arithmetic processing unit 101, and an operating system program and various other data necessary for operation control of the entire program are recorded.

さらに、RAM103は、サーバ用プログラム、学習支援プログラム、及び、各種データを一時的に記憶するためのものであり、上記の如く、読み出されたサーバ用プログラムや学習支援プログラム、その他、学習の進行や複数の端末装置200間の通信に必要なデータ等がRAM103に保持される。さらに、演算処理部101は、RAM103に変数領域を設定し、その変数領域に格納された値に対しても数値演算ユニットを用いた直接演算を行ったり、或いは、RAM103に格納された値をレジスタに一旦複製又は移設格納してそのレジスタに対しても直接演算を行ったり、さらには、それらの演算結果をRAM103に書き戻したりといった処理を行う。   Further, the RAM 103 is for temporarily storing a server program, a learning support program, and various data. As described above, the read server program, the learning support program, and other learning progresses. And data necessary for communication between the plurality of terminal devices 200 are held in the RAM 103. Further, the arithmetic processing unit 101 sets a variable area in the RAM 103 and directly performs a calculation using a numerical arithmetic unit for the value stored in the variable area, or registers the value stored in the RAM 103 as a register. The data is temporarily copied or moved and stored, and the calculation is directly performed on the register, and further, the calculation result is written back to the RAM 103.

また、外部インタフェース104を介して接続された入力部105は、サーバ装置100を用いて問題や教材を含む講座を提供する事業者側のユーザが行う各種の操作入力を受け付けるものであり、入力部105としては、キーボード、タッチパッド、タッチパネルの他、例えば、音声入力装置を採用することができ、種々の操作入力、決定操作、取消操作、メニュー表示等の指示入力を行うことが可能であれば、デバイスの種類は特に制限されない。   The input unit 105 connected via the external interface 104 receives various operation inputs performed by a user on the provider side who provides a course including problems and teaching materials using the server device 100. For example, a voice input device other than a keyboard, a touch pad, and a touch panel can be adopted as 105, and it is possible to input instructions such as various operation inputs, determination operations, cancel operations, and menu displays. The type of device is not particularly limited.

さらに、RAM103や、外部インタフェース104を介して着脱自在に接続された外部メモリ106には、サーバ装置100の作動状況、各端末装置200のアクセス状況、各端末装置200における学習の進行状況や過去の成績等を示すデータ、端末装置200間の通信のログ(記録)のデータ等が書き換え可能に記憶される。   Furthermore, in the RAM 103 and the external memory 106 detachably connected via the external interface 104, the operating status of the server device 100, the access status of each terminal device 200, the progress of learning in each terminal device 200, and the past Data indicating grades, data of communication logs (records) between the terminal devices 200, and the like are stored in a rewritable manner.

また、画像処理部107は、スロットドライブ108から読み出された各種データを、演算処理部101により、又は、画像処理部107自体により加工処理した後、その処理後の画像情報をフレームメモリ等で記録する。このフレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され、画像処理部107に接続されるディスプレイモニタ111へ出力される。これにより、各種の画像表示が可能となる。また、学習支援に関する画像情報は、演算処理部101との協働処理等によって、画像処理部107及び/又は演算処理部101から各端末装置200へ送出される。   In addition, the image processing unit 107 processes various data read from the slot drive 108 by the arithmetic processing unit 101 or the image processing unit 107 itself, and then processes the processed image information in a frame memory or the like. Record. The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing, and is output to the display monitor 111 connected to the image processing unit 107. Thereby, various image displays are possible. In addition, image information related to learning support is transmitted from the image processing unit 107 and / or the arithmetic processing unit 101 to each terminal device 200 through a cooperative process with the arithmetic processing unit 101 or the like.

またさらに、音声処理部109はスロットドライブ108から読み出された各種データを音声信号に変換し、音声処理部109に接続されたスピーカ装置112から出力する。また、学習支援に関する音声情報(キャラクタの声や効果音など)は、演算処理部101との協働処理等によって、音声処理部109及び/又は演算処理部101から各端末装置200へ送出される。   Furthermore, the audio processing unit 109 converts various data read from the slot drive 108 into audio signals, and outputs the audio signals from the speaker device 112 connected to the audio processing unit 109. In addition, voice information (such as a character's voice and sound effect) related to learning support is transmitted from the voice processing unit 109 and / or the calculation processing unit 101 to each terminal device 200 through a cooperative process with the calculation processing unit 101 or the like. .

さらにまた、ネットワークインタフェース110は、サーバ装置100をネットワークNへ接続するためのものであり、例えば、LANの構築に使用される諸規格に準拠するもの、アナログモデム、ISDNモデム、ADSLモデム、ケーブルテレビジョン回線を用いてインターネット等に接続するためのケーブルモデム等、及び、これらを、伝送路120を介して演算処理部101と接続するための通信インタフェース回路とから構成される。   Furthermore, the network interface 110 is for connecting the server apparatus 100 to the network N. For example, the network interface 110 conforms to various standards used for constructing a LAN, an analog modem, an ISDN modem, an ADSL modem, a cable television. A cable modem or the like for connecting to the Internet or the like using a John line, and a communication interface circuit for connecting these to the arithmetic processing unit 101 via the transmission path 120.

なお、サーバ装置100は、単一のコンピュータから構成されるものであっても、ネットワークN上に分散した複数のコンピュータから構成される、いわゆるクラウドコンピューティングの形態のものであってもよい。また、単一のコンピュータが複数のサーバ機能を備えるようなものでもよい。   The server device 100 may be configured by a single computer or may be in the form of so-called cloud computing configured by a plurality of computers distributed on the network N. A single computer may have a plurality of server functions.

サーバ装置100のハードウェア構成は、上述したとおりであるが、図3は、図1及び図2に示すサーバ装置100を機能的な観点から示す機能構成図である。サーバ装置100は、端末装置200からの学習者の要求に応じて、学習を支援するためのものであり、そのための機能として、少なくともサーバ通信部131、サーバ記憶部132、及びサーバ処理部133を備える。   Although the hardware configuration of the server apparatus 100 is as described above, FIG. 3 is a functional configuration diagram illustrating the server apparatus 100 illustrated in FIGS. 1 and 2 from a functional viewpoint. The server device 100 is for supporting learning in response to a learner's request from the terminal device 200. As a function therefor, at least the server communication unit 131, the server storage unit 132, and the server processing unit 133 are provided. Prepare.

サーバ通信部131は、サーバ装置100とネットワークNとの間で通信を行うものであり、端末装置200等から受信したデータを、サーバ処理部133に供給するとともに、サーバ処理部133から供給されたデータを、端末装置200へ送信する機能を有する。かかるサーバ通信部131は、具体的には、少なくとも上述した図2に示すネットワークインタフェース110から構成される。   The server communication unit 131 performs communication between the server device 100 and the network N. The server communication unit 131 supplies data received from the terminal device 200 and the like to the server processing unit 133 and is supplied from the server processing unit 133. It has a function of transmitting data to the terminal device 200. Specifically, the server communication unit 131 includes at least the network interface 110 shown in FIG. 2 described above.

また、サーバ記憶部132は、各種プログラムや各種データを記憶するためのものであり、具体的には、上述した、図2に示すROM102、RAM103、外部メモリ106、及びスロットドライブ108の少なくとも何れか1つから構成される。ここで、サーバ記憶部132に記憶される学習支援プログラムは、後述する処理手順を実行する学習支援アプリケーションのプログラムであり、サーバ記憶部132には、かかる学習支援に係る表示データや各種演算結果のデータも記憶される。   The server storage unit 132 is for storing various programs and various data. Specifically, at least one of the ROM 102, the RAM 103, the external memory 106, and the slot drive 108 shown in FIG. It consists of one. Here, the learning support program stored in the server storage unit 132 is a program of a learning support application that executes a processing procedure to be described later. The server storage unit 132 stores display data and various calculation results related to the learning support. Data is also stored.

また、サーバ記憶部132には、データとして、少なくとも、学習者マスタ及び手本マスタが記憶される。学習者マスタは、学習者の学習の進行状況や過去に書き取りを行った手書き文字の画像(以下「手書き画像」という。)等の学習結果等を管理するためのものである。また、手本マスタは、学習者が手書きする文字の手本となる画像(以下「手本画像」という。)を管理するためのものである。この他に、サーバ処理部133における所定の演算処理に関する一時的なデータを一時的に記憶してもよい。なお、これらの各マスタは、必要に応じて、例えば学習者を識別するためのID等によって互いに関連付けられている。   The server storage unit 132 stores at least a learner master and a model master as data. The learner master is for managing the learning progress of the learner and the learning result of the handwritten character image (hereinafter referred to as “handwritten image”) written in the past. The model master is used to manage an image (hereinafter referred to as “model image”) that serves as a model of characters handwritten by the learner. In addition to this, temporary data related to predetermined arithmetic processing in the server processing unit 133 may be temporarily stored. These masters are associated with each other as necessary, for example, by an ID for identifying a learner.

サーバ処理部133は、図2に示す演算処理部101から構成されており、演算処理部101による制御指令に基づいて後述する各機能モジュールによる処理が実行される。すなわち、演算処理部101が、本実施形態におけるサーバ処理部133として機能する。本実施形態における学習支援を例にして更に説明すれば、機能モジュールとして、画面提示処理部1331と、中間画像生成部1332とを備える。これらの各部(機能モジュール)は、演算処理部101のプロセッサで実行される上記プログラムにより実現され、或いは、ファームウェアとして演算処理部101に実装されていてもよい。なお、これらの各部の動作については、後述する。   The server processing unit 133 includes the arithmetic processing unit 101 illustrated in FIG. 2, and processing by each functional module described below is executed based on a control command from the arithmetic processing unit 101. That is, the arithmetic processing unit 101 functions as the server processing unit 133 in the present embodiment. If it further demonstrates taking the learning assistance in this embodiment as an example, the screen presentation process part 1331 and the intermediate | middle image generation part 1332 are provided as a functional module. Each of these units (functional modules) may be realized by the program executed by the processor of the arithmetic processing unit 101, or may be implemented in the arithmetic processing unit 101 as firmware. The operations of these units will be described later.

図4は、図1に示す端末装置200のブロック図であり、機能的な観点を含む機能構成図でもある。なお、端末装置の好適なシステム構成図は、図2に示すサーバ装置100のシステム構成と共通する構成を備えることに加え、例えば、デジタルカメラ等の撮像装置を含んでいる。本実施形態において、端末装置200は、上述の如く、例えばタブレット端末であり、図4に示すように、端末通信部231、端末記憶部232、操作部233、表示部234、及び端末処理部235を備えている。   FIG. 4 is a block diagram of the terminal device 200 shown in FIG. 1, and is also a functional configuration diagram including a functional viewpoint. The preferred system configuration diagram of the terminal device includes, for example, an imaging device such as a digital camera in addition to the configuration common to the system configuration of the server device 100 shown in FIG. In the present embodiment, as described above, the terminal device 200 is, for example, a tablet terminal. As illustrated in FIG. 4, the terminal communication unit 231, the terminal storage unit 232, the operation unit 233, the display unit 234, and the terminal processing unit 235 are used. It has.

端末通信部231は、所定の周波数帯を感受帯域とするアンテナを含む通信インタフェース回路を備え、端末装置200を、無線通信ネットワークNを介してネットワークNに接続する。その場合の通信形態としては、特に制限されず、例えば、通信用の基地局やアクセスポイント等により割り当てられるチャネルを介して、その基地局やアクセスポイントとの間でWCDMA(登録商標)(Wideband Code Division Multiple Access)方式やWiFi(Wireless Fidelity)方式等による無線信号回線を確立し、基地局やアクセスポイントとの間で通信を行う。そして、端末通信部231は、端末処理部235から供給されたデータをサーバ装置100に送信するとともに、サーバ装置100から受信したデータを端末処理部235に供給する。   The terminal communication unit 231 includes a communication interface circuit including an antenna whose sensitivity band is a predetermined frequency band, and connects the terminal device 200 to the network N via the wireless communication network N. The communication mode in that case is not particularly limited, and for example, a WCDMA (registered trademark) (Wideband Code) between the base station and the access point via a channel assigned by the communication base station or access point or the like. A wireless signal line is established by a division multiple access (WiFi) method or a WiFi (Wireless Fidelity) method, and communication is performed with a base station or an access point. Then, the terminal communication unit 231 transmits the data supplied from the terminal processing unit 235 to the server device 100 and supplies the data received from the server device 100 to the terminal processing unit 235.

端末記憶部232は、例えば、フラッシュメモリ、磁気ディスク装置、又は光ディスク装置のうちの少なくとも何れか1つを備え、端末処理部235での処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。これらのうち、ドライバプログラムとしては、学習者へ提供される学習内容に関し、スケジュール、書き方の解説等の学習過程及び学習内容に係るデータの所得及び表示を行うためのプログラム等を例示することができる。さらに、データとしては、学習の進行状況や過去の学習結果に係る表示データ等が挙げられる。なお、端末記憶部232は、所定の処理に係る一時的なデータを一時的に記憶してもよい。さらに、端末記憶部232は、所定の文字の手本画像及び手書き画像を少なくとも一時的に記憶する。   The terminal storage unit 232 includes, for example, at least one of a flash memory, a magnetic disk device, and an optical disk device, and an operating system program, a driver program, an application program, and data used for processing in the terminal processing unit 235 Memorize etc. Of these, examples of the driver program may include a learning process such as a schedule and a commentary on the learning content provided to the learner, and a program for performing income and display of data related to the learning content. . Furthermore, examples of data include the progress of learning and display data related to past learning results. Note that the terminal storage unit 232 may temporarily store temporary data related to a predetermined process. Furthermore, the terminal storage unit 232 stores at least temporarily a model image and a handwritten image of a predetermined character.

操作部233は、例えば、上述したサーバ装置100の入力部105と同等の構成のものを例示することができる。本実施形態においては、操作部233として、例えば、タッチパネルを用いるが、端末装置200の操作が可能であり、プレイが文字、数字等を入力することができるものであれば、どのようなデバイスでもよく、例えば、キーボードやマウス、タッチパッド等を用いてもよい。   For example, the operation unit 233 can have the same configuration as the input unit 105 of the server device 100 described above. In the present embodiment, for example, a touch panel is used as the operation unit 233. However, any device can be used as long as the terminal device 200 can be operated and the play can input characters, numbers, and the like. For example, a keyboard, mouse, touch pad, or the like may be used.

タッチパネルは、表示部234の画面に対応する形状及び大きさの略矩形の検出面を備えており、この検出面上に物体が接触した場合に、当該物体の接触位置を検出する。本実施形態では、タッチパネルは、物体の接触位置を所定の時間間隔で順次検出する。タッチパネルの検出面は、表示部234の画面と重なるよう配置されている。また、タッチパネルは、必ずしも物体が検出面に接触した場合だけ物体の位置を検出するのではなく、検出面上の検出可能範囲まで物体が近接した場合に、当該物体の検出面に対する位置を検出するようにしてもよい。タッチパネルは、例えば、静電容量式や感圧式、光学式等、検出面上における物体の位置を検出可能なデバイスであれば、どのような方式のものであってもよい。   The touch panel includes a substantially rectangular detection surface having a shape and size corresponding to the screen of the display unit 234. When an object comes in contact with the detection surface, the touch position of the object is detected. In the present embodiment, the touch panel sequentially detects the contact position of the object at a predetermined time interval. The detection surface of the touch panel is arranged so as to overlap the screen of the display unit 234. In addition, the touch panel does not necessarily detect the position of the object only when the object touches the detection surface, but detects the position of the object with respect to the detection surface when the object is close to the detectable range on the detection surface. You may do it. The touch panel may be of any type as long as it is a device that can detect the position of an object on the detection surface, such as a capacitance type, a pressure-sensitive type, or an optical type.

学習者は、自分の指やスタイラス(ペン型デバイス)等のオブジェクトをタッチパネルに接触させて操作入力を行う。学習者により操作部233が操作されると、操作部233は、その操作に対応する信号を発生し、その信号を端末処理部235に供給する。端末装置200は、学習者による操作信号を、上記の端末通信部231を介してサーバ装置100へ送信することにより、学習の進行に必要な動作を要求する。   The learner performs operation input by bringing an object such as his / her finger or stylus (pen-type device) into contact with the touch panel. When the operation unit 233 is operated by the learner, the operation unit 233 generates a signal corresponding to the operation and supplies the signal to the terminal processing unit 235. The terminal device 200 requests an operation necessary for the progress of learning by transmitting an operation signal from the learner to the server device 100 via the terminal communication unit 231.

また、表示部234は、端末処理部235から供給された映像データに応じた映像、画像データに応じた画像等を表示するものであり、後述する端末装置200の画面の主要部を構成する。かかる表示部234としては、テキスト、映像、画像等の表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等が挙げられる。   The display unit 234 displays a video corresponding to the video data supplied from the terminal processing unit 235, an image corresponding to the image data, and the like, and constitutes a main part of a screen of the terminal device 200 described later. The display unit 234 may be any device that can display text, video, images, and the like, and examples thereof include a liquid crystal display and an organic EL (Electro-Luminescence) display.

さらに、端末処理部235は、CPUやMPUといった一又は複数個のプロセッサ及びその周辺回路を備え、端末装置200の全体的な動作を統括制御するものであり、例えば、上述したサーバ装置100の演算処理部101と同等の構成のものを例示することができる。また、端末処理部235は、端末装置200の各種処理が、端末記憶部232に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に沿って、且つ、操作部233の操作等に応じて適切な手順で実行されるように、端末通信部231、表示部234等の動作を制御する。   Further, the terminal processing unit 235 includes one or a plurality of processors such as a CPU and an MPU and peripheral circuits thereof, and performs overall control of the overall operation of the terminal device 200. The thing of the structure equivalent to the process part 101 can be illustrated. In addition, the terminal processing unit 235 performs various processes of the terminal device 200 in accordance with programs (operating system programs, driver programs, application programs, etc.) stored in the terminal storage unit 232, operations of the operation unit 233, and the like. The operations of the terminal communication unit 231, the display unit 234, and the like are controlled so as to be executed according to an appropriate procedure.

この端末処理部235は、上記の各種プログラムによって実現される、又は、ファームウェアとして端末装置200に実装された機能モジュールとして、少なくとも閲覧実行部2351と手書き文字表示部2352とを備えている。   The terminal processing unit 235 includes at least a browsing execution unit 2351 and a handwritten character display unit 2352 as functional modules that are realized by the various programs described above or are implemented in the terminal device 200 as firmware.

この閲覧実行部2351により、上述した学習の進行に係る表示データの取得及び表示が行われる。すなわち、閲覧実行部2351は、学習者からの指示に応じて、手本画像や各種画面等、学習に係る表示データの取得要求を、端末通信部231を介してサーバ装置100に送信するとともに、対応する表示データを、サーバ装置100から端末通信部231を介して受信する。さらに、閲覧実行部2351により、受信された表示データに基づいて描画データを作成される。すなわち、閲覧実行部2351は、受信した表示データを解析して、制御データ及び内容データを特定し、特定した制御データに従って同じく特定した内容データをレイアウトすることにより、描画データを再構成し、その描画データを表示部234に出力する。本実施形態では、手本画像に関するデータ及び画面に関するデータを含む内容データを特定し、特定した内容データに従って手本表示エリア及び手書きエリア等をレイアウトすることにより、描画データを再構成し、その描画データを表示部234に出力する。   The browsing execution unit 2351 acquires and displays display data related to the progress of learning described above. That is, the browsing execution unit 2351 transmits a display data acquisition request related to learning, such as a model image and various screens, to the server device 100 via the terminal communication unit 231 in accordance with an instruction from the learner, Corresponding display data is received from the server device 100 via the terminal communication unit 231. Furthermore, the browsing execution unit 2351 creates drawing data based on the received display data. That is, the browsing execution unit 2351 analyzes the received display data, specifies the control data and the content data, and reconstructs the drawing data by laying out the content data specified in accordance with the specified control data. The drawing data is output to the display unit 234. In the present embodiment, content data including data related to the model image and data related to the screen is specified, and the model display area and the handwriting area are laid out according to the specified content data, thereby reconstructing the drawing data and drawing the drawing data. Data is output to the display unit 234.

より具体的には、閲覧実行部2351は、手本表示手段、書取領域表示手段、手書き文字表示手段、及び、ズレ提示手段として機能する。手本表示手段は、学習者に書き取りを行わせる文字について、この文字の手本画像を、表示部234に表示する。手本表示手段は、端末記憶部232に一時的に保存された手本画像をこの端末記憶部233から読み出して表示することができる。書取領域表示手段は、学習者が文字の書き取りをするための領域である手書きエリアを表示部234に表示する。ズレ提示手段は、表示部234において、手書き画像の形状または位置の少なくともいずれかを連続的に変化させることによって、手書き画像と手本画像とのズレを、学習者に視覚的に提示する。例えば、ズレ提示手段は、モーフィングによって生成された手書き画像から手本画像へと至る中間画像手本画像と重畳表示させることができる。閲覧実行部2351のこれらの機能の詳細については後述する。   More specifically, the browsing execution unit 2351 functions as a model display unit, a handwriting area display unit, a handwritten character display unit, and a deviation presentation unit. The model display unit displays a model image of the character on the display unit 234 for the character to be written by the learner. The model display means can read the model image temporarily stored in the terminal storage unit 232 from the terminal storage unit 233 and display it. The handwriting area display means displays a handwriting area, which is an area for the learner to write characters, on the display unit 234. The deviation presenting means visually presents the deviation between the handwritten image and the model image to the learner by continuously changing at least one of the shape and the position of the handwritten image on the display unit 234. For example, the deviation presentation unit can superimpose and display the intermediate image model image from the handwritten image generated by morphing to the model image. Details of these functions of the browsing execution unit 2351 will be described later.

手書き文字表示部2352は、学習者が書き取る手書き画像を、手書きエリアに表示する。例えば、表示部234が、タッチスクリーンディスプレイの場合、手書き文字表示部2352は、タッチスクリーンディスプレイ上または近傍におけるユーザの指やスタイラス等のオブジェクトを検出し、検出された指やスタイラス等の位置または移動の軌跡に従って、学習者が領域に書き取った手書き画像を手書きエリアに描画する。また、設定により、スタイラスペン等でタッチパネル上をタッチしたときに、線を引く代わりに、チェックマークを書き込んだり、所定のイラスト画像をタッチ位置に挿入したりすることもできる。   The handwritten character display unit 2352 displays a handwritten image written by the learner in the handwriting area. For example, when the display unit 234 is a touch screen display, the handwritten character display unit 2352 detects an object such as a user's finger or stylus on or near the touch screen display, and a position or movement of the detected finger or stylus or the like. The handwritten image written in the area by the learner is drawn in the handwriting area in accordance with the locus. Also, depending on the setting, when the touch panel is touched with a stylus pen or the like, a check mark can be written or a predetermined illustration image can be inserted at the touch position instead of drawing a line.

このように構成された学習支援システム1において、本発明による学習支援用のプログラムに従って実施される学習支援処理の好適な一実施形態について、以下に説明する。   In the learning support system 1 configured as described above, a preferred embodiment of the learning support process executed in accordance with the learning support program according to the present invention will be described below.

図5は、本発明の一実施形態によって実行される処理手順の一部を示す概略フロー図である。ここでは、学習者がタブレット端末(端末装置200)にスタイラスを用いて平仮名の「ほ」という文字の書き方を学習する場合について説明する。同図に示すように、学習者がタブレット端末の電源を入れると、タブレット端末の表示部234にホーム画面が表示される(S51)。例えばホーム画面には、これまでの学習の進捗状況や、今月の目標等を表示するものとしてもよい。   FIG. 5 is a schematic flowchart showing a part of the processing procedure executed by the embodiment of the present invention. Here, a case will be described in which a learner learns how to write hiragana characters “ho” using a stylus on a tablet terminal (terminal device 200). As shown in the figure, when the learner turns on the tablet terminal, the home screen is displayed on the display unit 234 of the tablet terminal (S51). For example, the home screen may display the progress of learning so far, the target of this month, and the like.

次に、学習者が、表示部234に表示された学習開始ボタンをタップするなどして、学習の開始を指示すると、学習開始指示データが学習者IDとともにタブレット端末からサーバ装置100に送信される(S52)。   Next, when the learner taps the learning start button displayed on the display unit 234 to instruct the start of learning, the learning start instruction data is transmitted from the tablet terminal to the server apparatus 100 together with the learner ID. (S52).

サーバ装置100が、学習開始指示データを受信すると、受信した学習者IDから、学習者マスタを検索し、学習者の学習履歴を参照する。そして、学習者の学習済みの手書き画像を取得して、文字表画面提示処理を行う。図6は文字表画面の一例を示す図である。文字表には、書き方学習をすることが可能な文字が一覧表示されている。図6の例では、50音の平仮名が一覧表示されており、片仮名ボタンを押すことで、片仮名の一覧に切り替えることが可能である。書き方学習の対象となるのは平仮名、片仮名に限定されず、漢字、ハングル、アルファベット、数字、図形、記号などであってもよい。また、絵画の練習を行うことができるものとしてもよい。好適には、文字表の文字の一覧において、学習済みの文字の欄には学習者の手書き画像が、未学習の文字の欄には手本画像が表示される。   When the server device 100 receives the learning start instruction data, the server device 100 searches the learner master from the received learner ID and refers to the learner's learning history. And the learner's learned handwritten image is acquired and a character table screen presentation process is performed. FIG. 6 shows an example of a character table screen. The character table displays a list of characters that can be learned. In the example of FIG. 6, hiragana with 50 sounds is displayed in a list, and it is possible to switch to a list of katakana by pressing the katakana button. The subject of writing learning is not limited to hiragana and katakana, but may be kanji, hangul, alphabet, numbers, figures, symbols, and the like. It is also possible to practice painting. Preferably, in the list of characters in the character table, a learner's handwritten image is displayed in the learned character column, and a model image is displayed in the unlearned character column.

学習者が、文字表から学習する文字をタップするなどして選択すると、文字IDがタブレット端末からサーバ装置100に送信される。サーバ装置100が、文字IDを受信すると、好適には、画面提示処理部1331が、受信した文字IDから手本マスタを検索し、手本画像を含む学習画面の提示処理を行い(S53)、手本画像と学習画面に関するデータが、サーバ装置100からタブレット端末に送信される(S54)。タブレット端末が手本画像を受信すると、端末記憶部232は、受信した手本画像を少なくとも一時的に記憶する。端末記憶部232に記憶された手本画像は、閲覧実行部2351によって読み出され、学習画面に表示されることになる。   When the learner taps and selects a character to learn from the character table, the character ID is transmitted from the tablet terminal to the server device 100. When the server device 100 receives the character ID, the screen presentation processing unit 1331 preferably searches for a model master from the received character ID, and performs a learning screen presentation process including a model image (S53). Data relating to the model image and the learning screen is transmitted from the server device 100 to the tablet terminal (S54). When the tablet terminal receives the model image, the terminal storage unit 232 stores the received model image at least temporarily. The model image stored in the terminal storage unit 232 is read by the browsing execution unit 2351 and displayed on the learning screen.

図7は本実施形態に係る学習画面の一例を示す図である。学習画面は、閲覧実行部2351によって表示される。学習画面には、学習者が文字の書き取りをすることが可能な手書きエリア301、文字の書き取りの手本画像が表示される手本表示エリア302と、を含んでいる。この例では、手書きエリア301と手本表示エリア302とが並べて表示されており、学習者は、「ほ」の手本画像402を見ながら手書きエリア301に「ほ」という文字をスタイラスを用いて手書きすることができる。学習者がタブレット端末の操作部233にスタイラスを接触させる又は近傍まで近づけると、手書き文字表示部2352は、スタイラスを検出する。検出されたスタイラスの位置又は移動の軌跡に従って、手書き文字表示部2352が、手書き文字を手書きエリア301に表示する(S55)。   FIG. 7 is a diagram illustrating an example of a learning screen according to the present embodiment. The learning screen is displayed by the browsing execution unit 2351. The learning screen includes a handwriting area 301 in which a learner can write a character, and a model display area 302 in which a character writing model image is displayed. In this example, the handwriting area 301 and the model display area 302 are displayed side by side, and the learner uses the stylus to write the character “ho” in the handwriting area 301 while viewing the model image 402 of “ho”. Can be handwritten. When the learner brings the stylus into contact with or close to the operation unit 233 of the tablet terminal, the handwritten character display unit 2352 detects the stylus. According to the detected stylus position or movement trajectory, the handwritten character display unit 2352 displays the handwritten character in the handwritten area 301 (S55).

手書き文字表示部2352が、学習者による文字の書き取りが完了したと判断すると、手書き画像が少なくとも一時的に端末記憶部232に記憶され、サーバ装置100に送信される(S56)。サーバ装置100が、手書き画像401を受信すると、中間画像生成部1332が、手書き画像401から手本画像402へと形状が変化していく途中の画像(中間画像)を生成する(S57)。   When the handwritten character display unit 2352 determines that the character has been written by the learner, the handwritten image is at least temporarily stored in the terminal storage unit 232 and transmitted to the server device 100 (S56). When the server apparatus 100 receives the handwritten image 401, the intermediate image generating unit 1332 generates an image (intermediate image) whose shape is changing from the handwritten image 401 to the model image 402 (S57).

具体的には、中間画像生成部1332は、学習者が書き取りを行った際のスタイラスの移動の軌跡(以下、運筆データという。)とあらかじめサーバ記憶部132に記憶されたお手本の運筆データとを用いて中間画像を生成する。具体的には、運筆データを時系列の連続した特徴点(座標)として扱い、お手本の運筆データと学習者の運筆データとに、書き出しからの経過時間と距離とに基づいて対応関係を与える。この対応関係に基づいて、中間画像生成部1332は、手書き画像の運筆データの各特徴点をお手本の運筆データの特徴点へと徐々に近づけるように中間画像を生成する。この中間画像の生成処理には、既存のモーフィングやクロスディゾルブ等の技術を用いることができる。   Specifically, the intermediate image generation unit 1332 uses the movement trajectory of the stylus (hereinafter referred to as stroke data) when the learner performs writing and the model stroke data stored in the server storage unit 132 in advance. To generate an intermediate image. Specifically, the stroke data is treated as time-series continuous feature points (coordinates), and correspondence is given to the stroke data of the model and the stroke data of the learner based on the elapsed time and distance from the writing. Based on this correspondence, the intermediate image generation unit 1332 generates an intermediate image so that each feature point of the stroke data of the handwritten image gradually approaches the feature point of the stroke data of the model. For this intermediate image generation processing, existing techniques such as morphing and cross dissolve can be used.

中間画像を生成する間隔を細かくすることで、滑らかに変化させることが可能になる。生成された中間画像はその変化順を追って時系列に並べられ、タブレット端末に送信される(S58)。また、このとき、受信した手書き画像401及び、生成した中間画像は学習マスタに登録される(S59)。   By making the interval at which the intermediate image is generated fine, it becomes possible to change smoothly. The generated intermediate images are arranged in time series in the order of change, and transmitted to the tablet terminal (S58). At this time, the received handwritten image 401 and the generated intermediate image are registered in the learning master (S59).

一方で、タブレット端末では、学習者の文字の書き取りが完了すると、手書きエリア301に書き込まれた手書き画像401と、手本画像402とを重畳させるように表示する(S60)。例えば、図8に示す手本画像403のように、手本画像が手書き画像に重畳表示されるものとしてもよい。手本画像403は、手書きエリアに対して、バランスの良い大きさで、バランスの良い位置に表示される。   On the other hand, when the writing of the learner's characters is completed, the tablet terminal displays the handwritten image 401 written in the handwriting area 301 and the model image 402 so as to be superimposed (S60). For example, a model image may be superimposed and displayed on a handwritten image, such as a model image 403 shown in FIG. The model image 403 is displayed in a well-balanced position with a well-balanced size with respect to the handwriting area.

タブレット端末は、サーバ装置100から中間画像を受信すると、閲覧実行部2351が、手書き画像の形状や位置を連続的に変化させることで、手書き画像と手本画像とのズレをユーザに視覚的に提示する(S61)。具体的には、手書きエリア301に重畳して表示される手書き画像401と、手本画像403との画素の差を補間する複数の中間画像を、これらの複数の中間画像の表示順序が、前記形状の変化の順を追って時系列順となるように、手書きエリア301に順次表示する。これによって、手書き画像401の形状が、徐々に手本画像403の形状に変化しているように表示することができる。   When the tablet terminal receives the intermediate image from the server device 100, the browsing execution unit 2351 continuously changes the shape and position of the handwritten image, so that the user can visually recognize the difference between the handwritten image and the model image. Present (S61). Specifically, a plurality of intermediate images that interpolate the pixel difference between the handwritten image 401 superimposed on the handwriting area 301 and the model image 403 are displayed in the order of display of the plurality of intermediate images. Displayed sequentially in the handwriting area 301 so as to be in chronological order following the change in shape. Thereby, the shape of the handwritten image 401 can be displayed as if it gradually changed to the shape of the model image 403.

学習画面には、閲覧実行部2351において、手書き文字の画像の形状または位置の少なくともいずれかを連続的に変化させる際の変化の程度を、ユーザが調節可能なインタフェースとして、スライドバーが表示されている。タブレット端末200の表示部234は、このスライドバーのスライダーに対する学習者からの操作の方向又は速度に応じて、表示する中間画像を切り替える。より具体的には、端末処理部235は、スライダーの位置に応じて、表示部234に表示させる中間画像を決定し、学習者がスライダーを動かす速度に応じて、中間画像を切り替える速度を決定することができる。例えば、図8の例では、学習者が、スライドバー500のスライダー501を右から左へと動かすことで、手書き画像が手本画像へと徐々に変化していく。   On the learning screen, a slide bar is displayed as an interface that allows the user to adjust the degree of change when continuously changing at least one of the shape and position of the image of the handwritten character in the browsing execution unit 2351. Yes. The display unit 234 of the tablet terminal 200 switches the intermediate image to be displayed according to the direction or speed of the operation from the learner with respect to the slider of the slide bar. More specifically, the terminal processing unit 235 determines an intermediate image to be displayed on the display unit 234 according to the position of the slider, and determines a speed for switching the intermediate image according to a speed at which the learner moves the slider. be able to. For example, in the example of FIG. 8, when the learner moves the slider 501 of the slide bar 500 from right to left, the handwritten image gradually changes to a model image.

図9は、この変化の様子を模式的に表す図である。図9の(A)は、スライダー501が図8のスライドバー500の右端の位置である、位置601にあるときに表示される画像(手書き画像)である。図9(B)は、スライダー501が位置602にあるときに表示される、変化の途中の中間画像、図9(C)は、スライダー501が位置603にあるときに表示される中間画像である。また、図9(D)は、スライダー501がスライドバー500の左端の位置である、位置604にあるときに表示される画像(手本画像)である。このように、スライダー501を右から左へと移動させるに従い、手書き画像が、図9の(A)から(D)へと、徐々に手本画像に近づくように変化する。   FIG. 9 is a diagram schematically showing the state of this change. 9A is an image (handwritten image) displayed when the slider 501 is at the position 601 that is the position of the right end of the slide bar 500 in FIG. FIG. 9B shows an intermediate image displayed when the slider 501 is at the position 602, and FIG. 9C shows an intermediate image displayed when the slider 501 is at the position 603. . FIG. 9D shows an image (example image) displayed when the slider 501 is at the position 604 that is the position of the left end of the slide bar 500. In this way, as the slider 501 is moved from right to left, the handwritten image gradually changes from (A) to (D) in FIG. 9 so as to approach the model image.

一方で、スライドバー500のスライダー501を図8の左から右へと動かすと、図9の(D)から(A)へと形状が変化させることも可能である。さらに、スライダー501を動かすスピードに応じて変化のスピードも制御することができるものとしてもよい。このようにスライドバー500は、学習者からの操作に応じて、手書き画像401の形状の変化の方向又は速度を制御することができる。   On the other hand, when the slider 501 of the slide bar 500 is moved from the left to the right in FIG. 8, the shape can be changed from (D) to (A) in FIG. Furthermore, the speed of change may be controlled according to the speed at which the slider 501 is moved. As described above, the slide bar 500 can control the direction or speed of change in the shape of the handwritten image 401 in accordance with an operation from the learner.

これによってお手本として表示される手本画像と、自分が書き込んだ文字である手書き画像とのズレがひと目で分かるので、学習者は、どこの形を直せばいいのかが、直感的に認識することができる。   This allows the learner to intuitively recognize what shape should be corrected because the difference between the model image displayed as a model and the handwritten image that is the character he / she wrote can be seen at a glance. Can do.

[その他の実施形態]
以上、本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。
[Other Embodiments]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made based on the technical idea of the present invention.

例えば、既述の実施形態において、タブレット端末はサーバ装置100と通信し、書き方学習に必要なデータの送受信を行う構成になっている。しかし、これに限定されず、例えば、タブレット端末は、書き方学習に必要なデータを、サーバ装置100から書き方学習アプリケーションとしてダウンロードし、書き方学習アプリケーションの実行時には、サーバ装置100と通信を行わないものとしてもよい。   For example, in the above-described embodiment, the tablet terminal is configured to communicate with the server apparatus 100 and transmit / receive data necessary for writing learning. However, the present invention is not limited to this. For example, the tablet terminal downloads data necessary for writing learning from the server apparatus 100 as a writing learning application, and does not communicate with the server apparatus 100 when the writing learning application is executed. Also good.

また、既述の実施形態において、手書き画像の形状を変化させる構成を説明したが、図10に示すように、手本表示エリア302と手書きエリア301とを並べて表示し、スライドバー500のスライダー501の動きに応じて、手本画像と手書き画像とを重畳させる構成としてもよい。例えば、図10のスライダー501を左にドラッグすると、手書き画像401が手書きエリア301ごと画面左へと移動する(図10の(A))。このとき、たとえば、スライダー501が一番右にない場合、手本画像402の色を薄くするなどすることで、手書き画像401が重畳された際に、見やすく表示することができる。スライダー501が一番左に移動すると、手本表示エリア302と手書きエリア301とが重なって、手本画像402と手書き画像401とのズレを確認することができる。   In the above-described embodiment, the configuration for changing the shape of the handwritten image has been described. However, as shown in FIG. 10, the model display area 302 and the handwritten area 301 are displayed side by side, and the slider 501 of the slide bar 500 is displayed. It is good also as a structure which superimposes a sample image and a handwritten image according to a motion. For example, when the slider 501 in FIG. 10 is dragged to the left, the handwritten image 401 moves to the left of the screen together with the handwritten area 301 ((A) in FIG. 10). At this time, for example, when the slider 501 is not on the rightmost side, the handwritten image 401 can be displayed in an easy-to-view manner when the handwritten image 401 is superimposed, for example, by reducing the color of the model image 402. When the slider 501 moves to the leftmost position, the model display area 302 and the handwriting area 301 overlap each other, and a deviation between the model image 402 and the handwritten image 401 can be confirmed.

また、既述の実施形態において、図7を用いて、学習者は書き方学習を行う際に、手書きエリア301と並べて表示された手本表示エリア302の手本画像402を見ながら、文字の書き取りを行うものとしたが、学習画面には、手本表示エリアを表示しないものとしてもよい。この場合、手本画像は、学習者の文字の書き取りが終わり、手本画像403が手書きエリアに表示されるまでは、学習画面に表示されない。   In the above-described embodiment, when the learner performs the writing method learning using FIG. 7, the character writing is performed while looking at the model image 402 in the model display area 302 displayed side by side with the handwriting area 301. However, the model display area may not be displayed on the learning screen. In this case, the model image is not displayed on the learning screen until the learner's character has been written and the model image 403 is displayed in the handwriting area.

また、中間画像を切り替えるためのインタフェースとして、スライドバーを説明したが、これに限定されず、例えば左右の矢印が表示されたボタン等であってもよい。この場合、表示部234は学習者がボタンを押した回数に応じて中間画像を切り替えることができる。   In addition, although the slide bar has been described as an interface for switching the intermediate image, the present invention is not limited to this, and for example, a button or the like on which left and right arrows are displayed may be used. In this case, the display unit 234 can switch the intermediate image according to the number of times the learner has pressed the button.

また、既述の実施形態において、中間画像をサーバ装置100において生成する構成を説明したが、これに限定されず、端末装置200側でモーフィング等によって生成するものとしてもよい。   Further, in the above-described embodiment, the configuration in which the intermediate image is generated in the server device 100 has been described.

1 学習支援システム
100 サーバ装置
101 演算処理部
102 ROM
103 RAM
104 外部インタフェース
105 入力部
106 外部メモリ
107 画像処理部
108 スロットドライブ
109 音声処理部
110 ネットワークインタフェース
111 ディスプレイモニタ
112 スピーカ装置
120 伝送路
131 サーバ通信部
132 サーバ記憶部
133 サーバ処理部
1331 画面提示処理部
1332 中間画像生成部
200 端末装置
231 端末通信部
232 端末記憶部
233 操作部
234 表示部
235 端末処理部
2351 閲覧実行部
2352 手書き文字表示部
301 手書きエリア
302 手本表示エリア
401 手書き画像
402、403 手本画像
500 スライドバー
501 スライダー
DESCRIPTION OF SYMBOLS 1 Learning support system 100 Server apparatus 101 Arithmetic processing part 102 ROM
103 RAM
DESCRIPTION OF SYMBOLS 104 External interface 105 Input part 106 External memory 107 Image processing part 108 Slot drive 109 Audio | voice processing part 110 Network interface 111 Display monitor 112 Speaker apparatus 120 Transmission path 131 Server communication part 132 Server memory | storage part 133 Server processing part 1331 Screen presentation process part 1332 Intermediate image generation unit 200 Terminal device 231 Terminal communication unit 232 Terminal storage unit 233 Operation unit 234 Display unit 235 Terminal processing unit 2351 Browsing execution unit 2352 Handwritten character display unit 301 Handwritten area 302 Model display area 401 Handwritten image 402, 403 Model Image 500 Slide bar 501 Slider

Claims (6)

所定の画像を表示可能な表示部と、
ユーザに書き取りを行わせる文字について、当該文字のお手本の画像を、前記表示部に表示する手本表示手段と、
前記ユーザが前記文字の書き取りをするための領域を、前記表示部に表示する書取領域表示手段と、
前記ユーザによって前記領域に書き取られた手書き文字の画像を、当該領域に表示する手書き文字表示手段と、
前記表示部において、前記手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させることによって、前記手書き文字の画像と前記お手本の画像とのズレを、前記ユーザに視覚的に提示するズレ提示手段と、を備える情報処理装置。
A display unit capable of displaying a predetermined image;
With respect to a character to be written by the user, a model display means for displaying an image of the model of the character on the display unit;
A writing area display means for displaying an area for the user to write down the character on the display unit;
Handwritten character display means for displaying an image of a handwritten character written in the region by the user in the region;
In the display unit, by continuously changing at least one of the shape or position of the image of the handwritten character, a deviation between the image of the handwritten character and the image of the model is visually presented to the user. An information processing apparatus comprising: a gap presentation unit.
前記表示部は、タッチスクリーンディスプレイであり、
前記手書き文字表示手段は、前記タッチスクリーンディスプレイ上又は近傍におけるオブジェクトを検出し、検出された前記オブジェクトの位置又は移動の軌跡に従って、前記ユーザが前記領域に書き取った手書き文字の画像を前記領域に描画することを特徴とする請求項1記載の情報処理装置。
The display unit is a touch screen display,
The handwritten character display means detects an object on or near the touch screen display, and draws an image of the handwritten character written by the user in the area according to the detected position or movement locus of the object in the area. The information processing apparatus according to claim 1.
前記情報処理装置は、前記ズレ提示手段において、前記手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させる際の前記変化の程度を、ユーザが調節可能なインタフェースをさらに備えることを特徴とする請求項1又は2に記載の情報処理装置。   The information processing apparatus further includes an interface that allows a user to adjust a degree of the change when continuously changing at least one of the shape or position of the image of the handwritten character in the deviation presentation unit. The information processing apparatus according to claim 1, wherein the information processing apparatus is characterized. 前記ズレ提示手段は、モーフィングによって生成された、前記手書き文字の画像から前記お手本の画像へと至る中間画像を、当該お手本の画像と重畳表示させることを特徴とする請求項1乃至3のいずれかに記載の情報処理装置。   4. The display device according to claim 1, wherein the deviation presentation unit superimposes an intermediate image generated by morphing from the handwritten character image to the model image on the model image. 5. The information processing apparatus described in 1. 所定の画像を表示可能な表示部を備える情報処理装置において実施される情報処理方法であって、
ユーザに書き取りを行わせる文字について、当該文字のお手本の画像を、前記表示部に表示すること、
前記ユーザが前記文字の書き取りをするための領域を、前記表示部に表示すること、
前記ユーザによって前記領域に書き取られた手書き文字の画像を、当該領域に表示すること、
前記表示部において、前記手書き文字の画像の形状又は位置の少なくともいずれかを連続的に変化させることによって、前記手書き文字の画像と前記お手本の画像とのズレを、前記ユーザに視覚的に提示すること、
を含む情報処理方法。
An information processing method implemented in an information processing apparatus including a display unit capable of displaying a predetermined image,
Displaying a model image of the character on the display unit for the character to be written by the user;
Displaying on the display unit an area for the user to write down the characters;
Displaying an image of handwritten characters written in the area by the user in the area;
In the display unit, by continuously changing at least one of the shape or position of the image of the handwritten character, a deviation between the image of the handwritten character and the image of the model is visually presented to the user. about,
An information processing method including:
請求項5に記載の情報処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the information processing method according to claim 5.
JP2013180683A 2013-08-30 2013-08-30 Information processing apparatus, information processing method, and program Active JP6238648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180683A JP6238648B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180683A JP6238648B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2015049353A true JP2015049353A (en) 2015-03-16
JP6238648B2 JP6238648B2 (en) 2017-11-29

Family

ID=52699425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180683A Active JP6238648B2 (en) 2013-08-30 2013-08-30 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6238648B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215444A (en) * 2016-05-31 2017-12-07 京セラドキュメントソリューションズ株式会社 Printing system and printing device
JP2017219572A (en) * 2016-06-03 2017-12-14 株式会社半導体エネルギー研究所 Information terminal and learning support system
JP2018112620A (en) * 2017-01-10 2018-07-19 学校法人明治大学 Handwriting character learning support device, handwriting character learning method, and program
CN111081103A (en) * 2019-05-17 2020-04-28 广东小天才科技有限公司 Dictation answer obtaining method, family education equipment and storage medium
JP7383945B2 (en) 2019-09-12 2023-11-21 カシオ計算機株式会社 Movement trajectory detection program, movement trajectory detection method, and information terminal

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4959650U (en) * 1972-09-07 1974-05-25
JPH05113747A (en) * 1991-10-22 1993-05-07 Casio Comput Co Ltd Calligraphy learning device
JPH05204291A (en) * 1992-01-29 1993-08-13 Sanyo Electric Co Ltd Character training device
JPH0696279A (en) * 1992-09-11 1994-04-08 Canon Inc Method and device for processing information
JPH1063174A (en) * 1996-08-19 1998-03-06 Copal Co Ltd Electronic apparatus
JPH10171341A (en) * 1996-12-12 1998-06-26 Mitsui High Tec Inc Electronic character practice device
US6535204B2 (en) * 2001-04-27 2003-03-18 Palmwalker Ltd. Manuscript input data processing device
JP2003099796A (en) * 2001-09-20 2003-04-04 Fuji Photo Film Co Ltd Image display controller and controlling method for image display device
US20070218430A1 (en) * 2005-11-03 2007-09-20 Tamkang University Calligraphy practicing system
JP2008107563A (en) * 2006-10-25 2008-05-08 U-Can Inc Calligraphy learning system
JP2008186441A (en) * 2007-01-04 2008-08-14 Shinsedai Kk Image processor and image processing system
JP2009069657A (en) * 2007-09-14 2009-04-02 Toshiba Corp Image processing apparatus and image processing method
US20120070809A1 (en) * 2010-09-21 2012-03-22 Inventec Corporation Lesson learning system and method thereof
JP2012234566A (en) * 2012-08-07 2012-11-29 Olympus Imaging Corp Image retrieval device and image retrieval method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4959650U (en) * 1972-09-07 1974-05-25
JPH05113747A (en) * 1991-10-22 1993-05-07 Casio Comput Co Ltd Calligraphy learning device
JPH05204291A (en) * 1992-01-29 1993-08-13 Sanyo Electric Co Ltd Character training device
JPH0696279A (en) * 1992-09-11 1994-04-08 Canon Inc Method and device for processing information
JPH1063174A (en) * 1996-08-19 1998-03-06 Copal Co Ltd Electronic apparatus
JPH10171341A (en) * 1996-12-12 1998-06-26 Mitsui High Tec Inc Electronic character practice device
US6535204B2 (en) * 2001-04-27 2003-03-18 Palmwalker Ltd. Manuscript input data processing device
JP2003099796A (en) * 2001-09-20 2003-04-04 Fuji Photo Film Co Ltd Image display controller and controlling method for image display device
US20070218430A1 (en) * 2005-11-03 2007-09-20 Tamkang University Calligraphy practicing system
JP2008107563A (en) * 2006-10-25 2008-05-08 U-Can Inc Calligraphy learning system
JP2008186441A (en) * 2007-01-04 2008-08-14 Shinsedai Kk Image processor and image processing system
JP2009069657A (en) * 2007-09-14 2009-04-02 Toshiba Corp Image processing apparatus and image processing method
US20120070809A1 (en) * 2010-09-21 2012-03-22 Inventec Corporation Lesson learning system and method thereof
JP2012234566A (en) * 2012-08-07 2012-11-29 Olympus Imaging Corp Image retrieval device and image retrieval method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
X ZHU,外: "Calligraphic Beautification of Handwritten Chinese Characters:A Patternized Approach to Handwriting", PROCEEDINGS OF ICFHR 2008, JPN7017001620, 2008, pages 135 - 140, XP055146091, ISSN: 0003560777 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215444A (en) * 2016-05-31 2017-12-07 京セラドキュメントソリューションズ株式会社 Printing system and printing device
JP2017219572A (en) * 2016-06-03 2017-12-14 株式会社半導体エネルギー研究所 Information terminal and learning support system
JP2018112620A (en) * 2017-01-10 2018-07-19 学校法人明治大学 Handwriting character learning support device, handwriting character learning method, and program
CN111081103A (en) * 2019-05-17 2020-04-28 广东小天才科技有限公司 Dictation answer obtaining method, family education equipment and storage medium
JP7383945B2 (en) 2019-09-12 2023-11-21 カシオ計算機株式会社 Movement trajectory detection program, movement trajectory detection method, and information terminal

Also Published As

Publication number Publication date
JP6238648B2 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
CN105706456B (en) Method and apparatus for reproducing content
US8413075B2 (en) Gesture movies
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
JP6238648B2 (en) Information processing apparatus, information processing method, and program
US20160117142A1 (en) Multiple-user collaboration with a smart pen system
JP6278641B2 (en) Writing practice system and program
JP2012203644A (en) Electronic device
US9182908B2 (en) Method and electronic device for processing handwritten object
CN107124656B (en) Multimedia file playing method and mobile terminal
US20140250398A1 (en) Enhanced canvas environments
US8108008B2 (en) Electronic apparatus and controlling component and controlling method for the electronic apparatus
JP6324005B2 (en) Information processing apparatus and program
JP6230338B2 (en) Information processing apparatus, learning support system, and learning support program
JP2014224876A (en) Learning support system, learning support method, program, and information storage medium
JP6391221B2 (en) Information processing apparatus, information processing method, and program
JP6477776B2 (en) Display device, display method, and display program
JP6872883B2 (en) Display control device, display system, display method and program
CN109582203A (en) Method and apparatus for reproducing content
JP2015176483A (en) Image processing program, image processing method, and information processing device
JP2016062071A (en) Electronic equipment, method and program
JP2013134633A (en) Numerical expression display device and numerical expression display program
JP2014082605A (en) Information processing apparatus, and method of controlling and program for the same
JP6409932B2 (en) Image processing program, image processing method, and information processing apparatus
JP2017138918A (en) Content display control method, program, and content display control device
JP6574328B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6238648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250