JP6716409B2 - Information processing equipment - Google Patents

Information processing equipment Download PDF

Info

Publication number
JP6716409B2
JP6716409B2 JP2016185241A JP2016185241A JP6716409B2 JP 6716409 B2 JP6716409 B2 JP 6716409B2 JP 2016185241 A JP2016185241 A JP 2016185241A JP 2016185241 A JP2016185241 A JP 2016185241A JP 6716409 B2 JP6716409 B2 JP 6716409B2
Authority
JP
Japan
Prior art keywords
area
input
handwritten image
image
handwritten
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016185241A
Other languages
Japanese (ja)
Other versions
JP2018049503A (en
Inventor
利夫 金田
利夫 金田
宣人 荒井
宣人 荒井
真都 吉岡
真都 吉岡
大悟 鹿島
大悟 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016185241A priority Critical patent/JP6716409B2/en
Publication of JP2018049503A publication Critical patent/JP2018049503A/en
Application granted granted Critical
Publication of JP6716409B2 publication Critical patent/JP6716409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、手書き画像を共有画面に表示する技術に関する。 The present invention relates to a technique of displaying a handwritten image on a shared screen.

手書き画像を共有画面に表示する技術がある。例えば特許文献1には、自端末で入力された手書き入力情報と他の端末から送信されてきた手書き入力情報とを同じ表示面(つまり共有画面)に表示する場合に、その手書き入力情報を送信してきた端末に紐付けられた表示色で表示する技術が開示されている。 There is a technology for displaying handwritten images on a shared screen. For example, in Patent Document 1, when the handwriting input information input at the terminal itself and the handwriting input information transmitted from another terminal are displayed on the same display surface (that is, a shared screen), the handwriting input information is transmitted. There is disclosed a technique of displaying in a display color associated with a terminal that has been used.

特開2010−157098号公報JP, 2010-157098, A

特許文献1の技術では、他のユーザの手書き画像は自分の手書き画像とは異なる色で表示されるが、例えば複数のユーザが同時に同じ領域に入力したために手書き画像が重なって見えにくくなってしまうということまでは想定されていない。
そこで、本発明は、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、それらのユーザの手書き画像が重ならないようにすることを目的とする。
In the technique of Patent Document 1, the handwritten images of other users are displayed in a color different from that of their own handwritten images, but the handwritten images overlap and become difficult to see because, for example, a plurality of users simultaneously input in the same region. That is not expected.
Therefore, an object of the present invention is to prevent handwritten images of the users from overlapping even if the users simultaneously input the handwritten images to display them on the shared screen.

上記目的を達成するために、複数のユーザ装置からユーザの手書き入力の情報を取得する情報取得部と、複数の前記ユーザ装置から取得された各々の前記情報が示す手書き画像を共有画面に表した画面データを生成する生成部であって、第1ユーザ装置から取得された前記情報が示す第1手書き画像を、前記共有画面において前記第1ユーザ装置による手書き入力が許可される第1領域に配置し、前記第1ユーザ装置から当該情報が取得されている期間に第2ユーザ装置から取得された前記情報が示す第2手書き画像を、前記共有画面において前記第1領域と重ならず且つ前記第2ユーザ装置による手書き入力が許可される第2領域に配置して前記画面データを生成する生成部と、生成された前記画面データを出力する出力部とを備える情報処理装置を提供する。 In order to achieve the above object, an information acquisition unit that acquires information of user's handwriting input from a plurality of user devices and a handwritten image indicated by each of the information acquired from a plurality of the user devices are displayed on a shared screen. A generation unit that generates screen data, and arranges a first handwritten image indicated by the information acquired from the first user device in a first area of the shared screen where handwriting input by the first user device is permitted. However, the second handwritten image indicated by the information acquired from the second user device during the period in which the information is acquired from the first user device does not overlap the first area on the shared screen and (2) An information processing apparatus is provided that includes a generation unit that generates the screen data by arranging it in a second area where handwriting input by the user device is permitted, and an output unit that outputs the generated screen data.

また、前記生成部は、前記第1ユーザ装置から取得された前記手書き入力の情報に応じたサイズ又は形の領域を前記第1領域としてもよい。
さらに、前記第1手書き画像が文字である場合に当該文字を認識する認識部を備え、前記生成部は、前記第1手書き画像が文字として認識された場合に当該文字の大きさ又は当該文字が並ぶ向きを前記手書き入力の情報として用いてもよい。
Further, the generation unit may set an area having a size or shape corresponding to the information of the handwriting input acquired from the first user device as the first area.
Furthermore, a recognition unit that recognizes the character when the first handwritten image is a character is provided, and the generation unit determines the size of the character or the character when the first handwritten image is recognized as the character. The line-up direction may be used as the information of the handwriting input.

また、取得された前記手書き入力の情報の履歴を蓄積する蓄積部を備え、前記生成部は、前記第1ユーザ装置について蓄積された前記履歴から入力されることが推定される手書き画像に応じたサイズ又は形の領域を前記第1領域としてもよい。
さらに、前記生成部は、前記第1手書き画像が前記第1領域に納まらなくなった場合、当該第1手書き画像が納まるサイズに当該第1領域を拡大し、前記第2領域を拡大された当該第1領域と重ならない位置に移動させてもよい。
Further, the image processing apparatus further includes a storage unit that stores a history of the acquired information of the handwriting input, and the generation unit responds to a handwritten image estimated to be input from the history stored for the first user device. A region of size or shape may be the first region.
Furthermore, when the first handwritten image does not fit in the first area, the generation unit enlarges the first area to a size that the first handwritten image fits, and enlarges the second area. You may move to the position which does not overlap with 1 area|region.

また、前記生成部は、前記第1手書き画像及び前記第2手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、当該隙間を埋める位置に当該第1手書き画像及び当該第2手書き画像の一方又は両方を移動させてもよい。
さらに、前記第1ユーザ装置からユーザが指定した指定画像を取得する画像取得部を備え、前記生成部は、取得された前記指定画像を前記第1領域に配置して表した前記画面データを生成してもよい。
Further, when the input of at least one of the first handwritten image and the second handwritten image is completed and there is a gap between both images, the generation unit is configured to fill the gap with the first handwritten image. One or both of the image and the second handwritten image may be moved.
Furthermore, an image acquisition unit that acquires a designated image designated by the user from the first user device is provided, and the generation unit generates the screen data in which the obtained designated image is arranged in the first area. You may.

本発明によれば、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、それらのユーザの手書き画像が重ならないようにすることができる。 According to the present invention, even if each user inputs handwritten images at the same time in order to display them on the shared screen, the handwritten images of those users can be prevented from overlapping.

実施例に係る手書き画像共有システムの全体構成を表す図The figure showing the whole structure of the handwritten image sharing system which concerns on an Example. 画面共有サーバ装置のハードウェア構成を表す図Diagram showing the hardware configuration of the screen sharing server device ユーザ装置のハードウェア構成を表す図Diagram showing the hardware configuration of the user device 手書き画像共有システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the handwritten image sharing system 指示位置の特定方法の一例を表す図The figure showing an example of the specified method of the pointing position. 入力許可領域の決定方法の一例を表す図The figure showing an example of the determination method of an input permission area 他のユーザ装置に表示される手書き画像の一例を表す図The figure showing an example of the handwritten image displayed on another user apparatus. 入力許可領域の決定方法の別の一例を表す図The figure showing another example of the determination method of an input permission area. 共有表示処理における各装置の動作手順の一例を表す図The figure showing an example of the operation procedure of each apparatus in a shared display process. 拡大された入力許可領域の一例を表す図The figure showing an example of the enlarged input permission area. 縮小された手書き画像の一例を表す図The figure showing an example of the reduced handwritten image. 隙間を縮小するように移動された手書き画像の一例を表す図The figure showing an example of the handwritten image moved so as to reduce the gap. 変形例の手書き画像共有システムが実現する機能構成を表す図The figure showing the functional structure which the handwritten image sharing system of a modification implement|achieves. 蓄積された履歴の一例を表す図Figure showing an example of accumulated history 変形例の手書き画像共有システムが実現する機能構成を表す図The figure showing the functional structure which the handwritten image sharing system of a modification implement|achieves. 表示された指定画像の一例を表す図Figure showing an example of the displayed designated image 変形例の手書き画像共有システムの全体構成の一例を表す図The figure showing an example of the whole structure of the handwriting image sharing system of a modification. 手書き画像共有システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the handwritten image sharing system

[1]実施例
図1は実施例に係る手書き画像共有システム1の全体構成を表す。手書き画像共有システム1は、複数のユーザがそれぞれ利用するユーザ装置に共有画面を表示させ、ユーザが共有画面に手書き入力を行うと、自分のユーザ装置の共有画面だけでなく他のユーザのユーザ装置の共有画面にも手書き入力した手書き画像を表示させることで、各ユーザが入力した手書き画像を複数のユーザで共有させるシステムである。
[1] Example FIG. 1 shows an overall configuration of a handwritten image sharing system 1 according to an example. The handwritten image sharing system 1 displays a shared screen on a user device used by each of a plurality of users, and when the user performs handwriting input on the shared screen, not only the shared screen of the own user device but also the user devices of other users. In this system, a handwritten image input by handwriting is also displayed on the shared screen of (1) to share the handwritten image input by each user with a plurality of users.

手書き画像共有システム1は、ネットワーク2と、画面共有サーバ装置10と、ユーザ装置20−1、20−2及び20−3(以下特に区別しない場合は「ユーザ装置20」という)とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを仲介する。ネットワーク2には、画面共有サーバ装置10が有線通信でアクセスしており、ユーザ装置20が無線通信でアクセスしている。なお、ネットワーク2とのアクセスは有線通信及び無線通信のどちらでもよい。 The handwritten image sharing system 1 includes a network 2, a screen sharing server device 10, and user devices 20-1, 20-2, and 20-3 (hereinafter referred to as “user device 20” unless otherwise specified). The network 2 is a communication system including a mobile communication network, the Internet, and the like, and mediates exchange of data between devices that access the own system. The screen sharing server device 10 is accessing the network 2 by wire communication, and the user device 20 is accessing by wireless communication. The access to the network 2 may be wired communication or wireless communication.

画面共有サーバ装置10は、各ユーザ装置20が表示する手書き入力用の画面を共有するための処理を行う情報処理装置である。ユーザ装置20は、画面共有サーバ装置10によって共有される手書き入力用の画面、すなわち手書き画像の共有画面を表示してユーザによる手書き入力を受け付けるとともに、手書き入力により描かれた手書き画像(自装置を利用するユーザの手書き画像及び他のユーザ装置20を利用するユーザの手書き画像)を表示する情報処理装置である。 The screen sharing server device 10 is an information processing device that performs processing for sharing a screen for handwriting input displayed by each user device 20. The user device 20 displays a screen for handwriting input shared by the screen sharing server device 10, that is, a shared screen of handwritten images, accepts handwriting input by the user, and draws a handwritten image drawn by the handwriting input. It is an information processing device that displays a handwritten image of a user who uses it and a handwritten image of a user who uses another user device 20.

図2は画面共有サーバ装置10のハードウェア構成を表す。画面共有サーバ装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、バス17という各装置を備えるコンピュータである。なお、ここでいう「装置」という文言は、回路、デバイス及びユニット等に読み替えることができる。また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。 FIG. 2 shows the hardware configuration of the screen sharing server device 10. The screen sharing server device 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, and a bus 17. Note that the word "apparatus" here can be read as a circuit, a device, a unit, or the like. In addition, each device may include one or more devices, or may not include some devices.

プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を、ストレージ13及び/又は通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。各種処理を実行するプロセッサ11は1つでもよいし、2以上であってもよく、2以上のプロセッサ11は、同時又は逐次に各種処理を実行してもよい。また、プロセッサ11は、1以上のチップで実装されてもよい。プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 11 operates, for example, an operating system to control the entire computer. The processor 11 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, a calculation device, a register, and the like. Further, the processor 11 reads a program (program code), a software module, data, and the like from the storage 13 and/or the communication device 14 into the memory 12, and executes various processes according to these. The number of processors 11 that execute various processes may be one, or two or more, and the two or more processors 11 may execute various processes simultaneously or sequentially. Further, the processor 11 may be implemented by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ12は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ12は、レジスタ、キャッシュ及びメインメモリ(主記憶装置)等と呼ばれてもよい。メモリ12は、前述したプログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を保存することができる。 The memory 12 is a computer-readable recording medium, and includes at least one of a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), and the like. May be done. The memory 12 may be called a register, a cache, a main memory (main storage device), or the like. The memory 12 can store the above-mentioned program (program code), software module, data, and the like.

ストレージ13は、コンピュータが読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。また、ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及び/又はストレージ13を含むデータベース、サーバその他の適切な媒体であってもよい。ストレージ13は、手書きでの入力を実現するアプリケーション(手書きアプリ)のプログラムを記憶している。 The storage 13 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-disk). ray(R) disk), smart card, flash memory (e.g., card, stick, key drive), floppy(R) disk, magnetic strip, and the like. The storage 13 may also be called an auxiliary storage device. The above-described storage medium may be, for example, a database including the memory 12 and/or the storage 13, a server, or another appropriate medium. The storage 13 stores a program of an application (handwriting application) that realizes handwriting input.

通信装置14は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。入力装置15は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。 The communication device 14 is hardware (transmission/reception device) for performing communication between computers via a wired and/or wireless network, and is also called, for example, a network device, a network controller, a network card, a communication module, or the like. The input device 15 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside.

出力装置16は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置15及び出力装置16は、一体となった構成(例えば、タッチスクリーン)であってもよい。また、プロセッサ11及びメモリ12等の各装置は、情報を通信するためのバス17を介して互いにアクセス可能となっている。バス17は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 The output device 16 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 15 and the output device 16 may be integrated (for example, a touch screen). Further, the respective devices such as the processor 11 and the memory 12 are accessible to each other via a bus 17 for communicating information. The bus 17 may be configured with a single bus or different buses between devices.

また、画面共有サーバ装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つで実装されてもよい。 The screen sharing server device 10 is a hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured to include hardware, and a part or all of each functional block may be realized by the hardware. For example, the processor 11 may be implemented with at least one of these hardware.

図3はユーザ装置20のハードウェア構成を表す。ユーザ装置20は、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、入出力装置25と、バス26という各装置を備えるコンピュータである。プロセッサ21から通信装置24及びバス26は、図2に表す同名の各装置と共通するハードウェアである。入出力装置25は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン及びタッチセンサ等)と、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー及びLEDランプ等)とを備える。ユーザ装置20は、本実施例では、入力デバイス及び出力デバイスが一体となった入出力デバイスであるタッチスクリーンを備える。 FIG. 3 shows the hardware configuration of the user device 20. The user device 20 is a computer including a processor 21, a memory 22, a storage 23, a communication device 24, an input/output device 25, and a bus 26. The processor 21 to the communication device 24 and the bus 26 are hardware common to the devices of the same name shown in FIG. The input/output device 25 includes an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a touch sensor, and the like) that receives an input from the outside, and an output device that performs an output to the outside (for example, a display, a speaker, and an LED). Lamp, etc.). In the present embodiment, the user device 20 includes a touch screen which is an input/output device in which an input device and an output device are integrated.

画面共有サーバ装置10のプロセッサ11及び各ユーザ装置20のプロセッサ21がプログラムを実行して各々の装置の各部を制御することで、以下に述べる機能が実現される。
図4は手書き画像共有システム1が実現する機能構成を表す。画面共有サーバ装置10は、手書き入力情報取得部101と、文字認識部102と、領域決定部103と、画面データ生成部104と、画面データ出力部105とを備える。ユーザ装置20は、手書き入力操作受付部201と、手書き入力情報出力部202と、手書き入力画面表示部203とを備える。なお、図4では、ユーザ装置20を1つしか表していないが、どのユーザ装置20も構成が共通しているものとする。
The functions described below are realized by the processor 11 of the screen sharing server device 10 and the processor 21 of each user device 20 executing a program to control each unit of each device.
FIG. 4 shows a functional configuration realized by the handwritten image sharing system 1. The screen sharing server device 10 includes a handwriting input information acquisition unit 101, a character recognition unit 102, a region determination unit 103, a screen data generation unit 104, and a screen data output unit 105. The user device 20 includes a handwriting input operation reception unit 201, a handwriting input information output unit 202, and a handwriting input screen display unit 203. Although only one user device 20 is shown in FIG. 4, it is assumed that all user devices 20 have the same configuration.

ユーザ装置20の手書き入力操作受付部201は、ユーザが表示面上の位置を指示して行う手書き入力の操作を受け付ける。手書き入力操作受付部201は、手書き入力の操作を受け付けると、その操作により指示された表示面上の位置(指示位置)を例えば次の方法で特定する。 The handwriting input operation receiving unit 201 of the user device 20 receives an operation of handwriting input performed by the user by instructing the position on the display surface. Upon receiving the handwriting input operation, the handwriting input operation receiving unit 201 specifies the position (instructed position) on the display surface instructed by the operation, for example, by the following method.

図5は指示位置の特定方法の一例を表す。図5(a)では、手書き入力画面を表示している表示面A1上の位置をユーザの指B1が指示している状態が表されている。手書き入力操作受付部201は、例えば、図5(b)に表すように、指B1のうち表示面A1と接触している接触領域F1を特定し、接触領域F1の中心を指示位置G1として特定する。なお、指示位置の特定方法はこれに限らず、他の周知の技術を用いてもよい。 FIG. 5 shows an example of a method of specifying the designated position. FIG. 5A shows a state in which the user's finger B1 indicates the position on the display surface A1 displaying the handwriting input screen. For example, as shown in FIG. 5B, the handwriting input operation receiving unit 201 identifies the contact area F1 of the finger B1 that is in contact with the display surface A1, and identifies the center of the contact area F1 as the designated position G1. To do. Note that the method for identifying the designated position is not limited to this, and other known techniques may be used.

手書き入力操作受付部201は、特定した指示位置を示す位置情報を手書き入力情報出力部202に供給する。図に表すように表示面A1は長方形なので、手書き入力操作受付部201は、表示面A1の或る角(本実施例では表示される文字の上側を上方に向けた場合に左上にくる角)を原点P0とし、その角を形成する一辺をX軸、別の一辺をY軸とした座標系における指示位置G1の座標を位置情報として供給する。 The handwriting input operation reception unit 201 supplies position information indicating the specified pointing position to the handwriting input information output unit 202. As shown in the figure, since the display surface A1 is a rectangle, the handwriting input operation receiving unit 201 has a certain corner of the display surface A1 (in this embodiment, the upper left corner of the displayed character is the upper left corner). Is the origin P0, and the coordinates of the designated position G1 in the coordinate system in which one side forming the angle is the X axis and another side is the Y axis are supplied as position information.

この座標系では、図中のX軸を示す矢印の方向(右向きの方向)がX軸の正方向、Y軸を示す矢印の方向(下向きの方向)がY軸の正方向であるものとする。手書き入力操作受付部201は、指示位置の特定と位置情報の供給を例えば一定の時間間隔で繰り返し行う。ここで用いられる時間間隔は、指示位置の軌跡によって表される画像(文字又は絵等の手書き画像)が認識できる程度には狭くしておくことが望ましい。 In this coordinate system, the direction of the arrow indicating the X axis (rightward direction) in the figure is the positive direction of the X axis, and the direction of the arrow indicating the Y axis (downward direction) is the positive direction of the Y axis. .. The handwriting input operation reception unit 201 repeatedly specifies the designated position and supplies the position information, for example, at regular time intervals. It is desirable that the time intervals used here be narrow enough so that an image (handwritten image such as a character or a picture) represented by the locus of the designated position can be recognized.

手書き入力情報出力部202は、手書き入力操作受付部201が操作を受け付けた手書き入力の情報を画面共有サーバ装置10に対して出力する。手書き入力情報出力部202は、手書き入力操作受付部201から繰り返し供給されてくる位置情報、すなわち手書き入力操作受付部201が特定した複数の指示位置を示す位置情報を、供給されてくる度に手書き入力の情報として出力する。手書き入力の情報とは、手書き入力された手書き画像(文字又は絵等)を表す情報であり、手書き入力情報出力部202により順次出力されるこれら複数の位置情報が示す複数の位置の軌跡は、手書き画像を表す。 The handwriting input information output unit 202 outputs the information of the handwriting input received by the handwriting input operation receiving unit 201 to the screen sharing server apparatus 10. The handwriting input information output unit 202 handwrites position information repeatedly supplied from the handwriting input operation reception unit 201, that is, position information indicating a plurality of designated positions specified by the handwriting input operation reception unit 201, each time the position information is handwritten. Output as input information. The handwritten input information is information representing a handwritten image (characters or pictures, etc.) input by handwriting, and the loci of a plurality of positions indicated by the plurality of position information sequentially output by the handwriting input information output unit 202 are: Represents a handwritten image.

画面共有サーバ装置10の手書き入力情報取得部101は、複数のユーザ装置からユーザの手書き入力の情報を取得する。手書き入力情報取得部101は本発明の「情報取得部」の一例である。手書き入力情報取得部101は、本実施例では図1に表すユーザ装置20−1、20−2及び20−3が出力してきた上記の位置情報を、各々の装置を利用するユーザの手書き入力の情報として取得する。手書き入力情報取得部101は、手書き入力の情報を取得する度に、取得したその情報を文字認識部102及び領域決定部103に供給する。 The handwriting input information acquisition unit 101 of the screen sharing server device 10 acquires the handwriting input information of the user from a plurality of user devices. The handwritten input information acquisition unit 101 is an example of the “information acquisition unit” in the present invention. In the present embodiment, the handwriting input information acquisition unit 101 uses the above-mentioned position information output by the user devices 20-1, 20-2 and 20-3 shown in FIG. 1 as the handwriting input of the user who uses each device. Get as information. The handwritten input information acquisition unit 101 supplies the acquired information to the character recognition unit 102 and the area determination unit 103 every time the handwritten input information is acquired.

文字認識部102は、手書き入力情報取得部101により取得された手書き入力の情報が示す手書き画像が文字を表す場合に、その文字を認識する。文字認識部102は本発明の「認識部」の一例である。文字認識部102は、手書き入力情報取得部101から供給された手書き入力の情報、すなわちユーザが指示した指示位置を示す位置情報に基づいて、例えばOCR(Optical character recognition)の技術を用いて、その指示位置の軌跡が示す文字を認識する。 The character recognition unit 102 recognizes a character when the handwritten image indicated by the handwriting input information acquired by the handwriting input information acquisition unit 101 represents the character. The character recognition unit 102 is an example of the “recognition unit” in the present invention. The character recognition unit 102 uses, for example, the technique of OCR (Optical character recognition) based on the handwriting input information supplied from the handwriting input information acquisition unit 101, that is, the position information indicating the pointing position instructed by the user. The character indicated by the locus of the designated position is recognized.

文字認識部102は、文字を認識した場合、文字を認識したことを示す情報及び供給された手書き入力の情報を領域決定部103に供給する。文字認識部102は、文字を認識しなかった場合には、その旨を通知する情報及び供給された手書き入力の情報を領域決定部103に供給する。本実施例では、文字が認識された場合を説明する。 When recognizing a character, the character recognition unit 102 supplies information indicating that the character has been recognized and the supplied handwriting input information to the area determination unit 103. When the character recognition unit 102 does not recognize the character, the character recognition unit 102 supplies information notifying that effect and the supplied handwriting input information to the area determination unit 103. In this embodiment, a case where a character is recognized will be described.

領域決定部103は、共有画面において各ユーザ装置20による手書き入力が許可される領域(入力許可領域)の形及び大きさを、各ユーザ装置20についてそれぞれ決定する。この入力許可領域の決定方法について図6から図8までを参照して説明する。
図6は入力許可領域の決定方法の一例を表す。図6(a)では、ユーザ装置20−1を利用するユーザ1が、表示面A1に手書き入力画面を表示させ、「こんにちは!」という手書き画像B11を入力したところが表されている。この手書き画像B11は後述する画面データ生成部104、画面データ出力部105及び手書き入力画面表示部203の動作により表示されるが、それらの動作については後ほど説明する。
The area determination unit 103 determines the shape and size of the area (input permitted area) where handwriting input by each user device 20 is permitted on the shared screen, for each user device 20. A method of determining the input permission area will be described with reference to FIGS. 6 to 8.
FIG. 6 shows an example of a method of determining the input permission area. In FIG. 6 (a), the user 1 to use the user device 20-1, display the handwriting input screen on the display surface A1, was entered handwritten image B11 that "Hello!" Is shown. The handwritten image B11 is displayed by the operations of the screen data generation unit 104, the screen data output unit 105, and the handwriting input screen display unit 203, which will be described later, and these operations will be described later.

領域決定部103は、文字を認識したことを示す情報が供給されると、ともに供給された手書き入力の情報が示す手書き画像、すなわち手書き文字に外接する四角形C1(各辺が図5に表した原点P0を中心とした座標系のX軸及びY軸に沿った四角形)のX軸に沿った辺の長さL11及びY軸に沿った辺の長さL12を図6(b)に表すように算出する。領域決定部103は、L11>L12であれば手書き文字が横書きで描かれたものであり、L11<L12であれば手書き文字が縦書きで描かれたものであると判断する。 When the information indicating that the character has been recognized is supplied, the area determination unit 103 supplies a handwritten image indicated by the supplied handwriting input information, that is, a quadrangle C1 circumscribing the handwritten character (each side is shown in FIG. 5). A side length L11 along the X axis and a side length L12 along the Y axis of a quadrangle along the X axis and the Y axis of the coordinate system centered on the origin P0 are shown in FIG. 6B. Calculate to. The area determination unit 103 determines that the handwritten characters are drawn horizontally when L11>L12, and the handwriting characters are drawn vertically when L11<L12.

この例では領域決定部103は手書き文字を横書きと判断している。この場合、領域決定部103は、横長の長方形を入力許可領域として決定する。具体的には、領域決定部103は、四角形C1の上側の辺を表示面A1の端まで左右に伸ばし、縦方向のサイズを四角形C1よりも所定の割合で大きくした(この例ではN(Nは自然数)倍にした)四角形を入力許可領域D1として決定する。本実施例では、横書きの文字は右端まで書いて改行すると下側に次の文字を書くものとして、領域決定部103は、入力済みの手書き文字よりも下側に領域が広がるように入力許可領域を決定する。 In this example, the area determination unit 103 determines that the handwritten character is written horizontally. In this case, the area determination unit 103 determines a horizontally long rectangle as the input permission area. Specifically, the area determination unit 103 extends the upper side of the quadrangle C1 to the left and right to the edge of the display surface A1, and makes the size in the vertical direction larger than the quadrangle C1 by a predetermined ratio (in this example, N(N Is a natural number and multiplied by 4) is determined as the input permission area D1. In the present embodiment, the horizontally written character is written to the right end and the next character is written on the lower side when a line feed is performed, and the area determination unit 103 causes the area determination unit 103 to input the area so that the area extends below the handwritten character that has already been input. To decide.

なお、領域決定部103は手書き文字を縦書きと判断した場合、縦長の長方形を入力許可領域として決定する。その場合、領域決定部103は、手書き文字に外接する四角形の右側の辺を表示面A1の端まで上下に伸ばし、横方向のサイズをその四角形よりも所定の割合で大きくした四角形を入力許可領域として決定する。本実施例では、縦書きの文字は下端まで書いて改行すると左側に次の文字を書くものとして、領域決定部103は、入力済みの手書き文字よりも左側に領域が広がるように入力許可領域を決定する。 When the handwriting character is determined to be vertically written, the region determination unit 103 determines a vertically long rectangle as the input permission region. In that case, the area determining unit 103 extends the right side of the quadrangle circumscribing the handwritten character up and down to the end of the display surface A1, and makes the horizontal size larger than the quadrangle by a predetermined ratio. To decide. In this embodiment, vertically written characters are written to the lower end, and when a line feed is performed, the next character is written on the left side. The area determining unit 103 sets the input permission area so that the area extends to the left side of the input handwritten character. decide.

図6の例で決定された入力許可領域D1にはユーザ1は手書き入力が許可されるので、ユーザ1が入力許可領域D1に手書き入力した手書き画像は、図6(d)に表す手書き画像B12のように表示される。一方、他のユーザは入力許可領域D1への手書き入力が許可されない。そのため、例えばユーザ装置20−2を利用するユーザ2が手書き入力した手書き画像は、図6(e)に表す「こんにちは!」という手書き画像B21のように入力許可領域D1の外の領域に表示されることになる。 Since the user 1 is permitted handwriting input in the input permission area D1 determined in the example of FIG. 6, the handwritten image handwritten by the user 1 in the input permission area D1 is the handwritten image B12 shown in FIG. 6D. Is displayed. On the other hand, other users are not permitted to input by handwriting in the input permission area D1. Therefore, for example, hand-drawn image user 2 to use the user device 20-2 has handwriting input is displayed in the region outside the input permission area D1 as handwritten image B21 that "Hello!" Depicted in Fig. 6 (e) Will be.

図6(e)では、手書き画像B21の右下に「....(書き込み中)」という他のユーザが書き込み中であることを示す書き込み中画像H1が表示されている。この書き込み中画像H1は、ユーザ2に許可された入力許可領域の範囲を表している。この例では、書き込み中画像H1として、ユーザ2が手書き入力した画像ではなく、予め用意された手書風の文字列の画像が用いられている。 In FIG. 6E, an in-writing image H1 indicating that another user is writing is displayed at the lower right of the handwritten image B21. This in-writing image H1 represents the range of the input permission area permitted by the user 2. In this example, an image of a handwritten character string prepared in advance is used as the in-writing image H1 instead of the image handwritten by the user 2.

図7は他のユーザ装置に表示される手書き画像の一例を表す。図7(a)では、ユーザ装置20−2の表示面A2に、ユーザ装置20−1で手書き入力された「こんにちは!」という手書き画像B11が表示されている。また、表示面A2には、書き込み中画像H2が表示されている。この書き込み中画像H2は、図6の説明で述べた入力許可領域D1の下側の端に表示されており、入力許可領域D1の下端を表している。手書き画像B11及び書き込み中画像H2に挟まれた領域に入力しても手書き画像が表示されないので、ユーザ2は書き込み中画像H2よりも下側から手書き入力を開始する。 FIG. 7 shows an example of a handwritten image displayed on another user device. In FIG. 7 (a), the display surface A2 of the user device 20-2, the hand-drawn image B11 is displayed that is handwriting input at the user device 20-1 "Hello!". Further, the in-writing image H2 is displayed on the display surface A2. The in-writing image H2 is displayed at the lower end of the input permission area D1 described in the description of FIG. 6, and represents the lower end of the input permission area D1. Since the handwritten image is not displayed even if input is made in the area sandwiched between the handwritten image B11 and the in-writing image H2, the user 2 starts handwriting input from the lower side of the in-writing image H2.

図7(b)では、入力許可領域D1の外の領域にユーザ2が入力した手書き画像B21が表示面A2に表示されている。手書き画像B21は文字認識部102により文字として認識されるので、領域決定部103は、図6の例と同様に、手書き画像B21に外接する四角形C2のX軸に沿った辺の長さL21及びY軸に沿った辺の長さL22を図7(c)に表すように算出する。 In FIG. 7B, the handwritten image B21 input by the user 2 is displayed on the display surface A2 in an area outside the input permission area D1. Since the handwriting image B21 is recognized as a character by the character recognizing unit 102, the region determining unit 103 causes the region determining unit 103 to determine the side length L21 of the quadrangle C2 circumscribing the handwriting image B21 along the X-axis and The length L22 of the side along the Y axis is calculated as shown in FIG.

領域決定部103は、L21>L22なので手書き画像B21が表す文字を横書きであると判断し、入力許可領域D1と同様に四角形C2に基づいて入力許可領域D2(縦方向のサイズがL22のN倍の四角形)を図7(d)に表すように決定する。このとき、図6(e)で表示面A1に表示されていた書き込み中画像H1は、表示面A2には表示されない。 Since L21>L22, the area determination unit 103 determines that the character represented by the handwritten image B21 is in horizontal writing, and based on the rectangle C2 as in the input allowed area D1, the input allowed area D2 (the vertical size is N times as large as L22). Square) is determined as shown in FIG. At this time, the in-writing image H1 displayed on the display surface A1 in FIG. 6E is not displayed on the display surface A2.

また、領域決定部103は、文字認識部102によって文字が認識される前には、手書き入力情報取得部101から供給される手書き入力の情報に基づいて入力許可領域を決定する。
図8は入力許可領域の決定方法の別の一例を表す。図8(a)では、ユーザ2がユーザ装置20−2の表示面A2の指示位置G2を指示して手書き入力を開始したところが表されている。領域決定部103は、例えば、手書き入力の情報が示すこの指示位置G2が縦方向の中心に位置し、縦方向のサイズが予め決められており(この例ではサイズL1と決められており)、表示面の横方向の幅を横方向のサイズとする四角形を入力許可領域D3として決定する。
Further, the area determination unit 103 determines the input permission area based on the handwriting input information supplied from the handwriting input information acquisition unit 101 before the character is recognized by the character recognition unit 102.
FIG. 8 shows another example of the method of determining the input permission area. FIG. 8A shows that the user 2 has designated the designated position G2 on the display surface A2 of the user device 20-2 and started the handwriting input. In the area determination unit 103, for example, the designated position G2 indicated by the information of the handwriting input is located at the center in the vertical direction, and the size in the vertical direction is predetermined (determined as the size L1 in this example). A quadrangle having the horizontal width of the display surface as the horizontal size is determined as the input permission area D3.

このとき、ユーザ装置20−1の表示面A1には、図8(b)に表すように、入力許可領域D3に書き込み中画像H3だけが表示され、ユーザ2が入力した手書き画像はまだ表示されない。この場合も、書き込み中画像H3はユーザ2に許可された入力許可領域の範囲を表している。領域決定部103は、以上のとおり決定した入力許可領域を示す領域情報を、供給された手書き入力の情報とともに画面データ生成部104に供給する。 At this time, on the display surface A1 of the user device 20-1, only the in-writing image H3 is displayed in the input permission area D3 as shown in FIG. 8B, and the handwritten image input by the user 2 is not yet displayed. .. In this case as well, the in-writing image H3 represents the range of the input permission area permitted by the user 2. The area determination unit 103 supplies the area information indicating the input permission area determined as described above to the screen data generation unit 104 together with the supplied handwriting input information.

画面データ生成部104は、供給された手書き入力の情報、すなわち複数のユーザ装置20から取得された各々の手書き入力情報が示す手書き画像を共有画面に表した画面データを生成する。また、画面データ生成部104は、例えばユーザ装置20−1(本発明の「第1ユーザ装置」の一例)のユーザ1が手書き入力を行い、その手書き入力が行われている期間にユーザ装置20−2(本発明の「第2ユーザ装置」の一例)のユーザ2が手書き入力を行った場合、次のように画面データを生成する。 The screen data generation unit 104 generates screen data in which a handwritten image indicated by the supplied handwriting input information, that is, the handwritten input information acquired from each of the plurality of user devices 20 is displayed on the shared screen. Further, the screen data generation unit 104, for example, the user 1 of the user device 20-1 (an example of the “first user device” of the present invention) performs handwriting input, and the user device 20 is in a period during which the handwriting input is performed. -2 (an example of the "second user device" of the present invention), when user 2 performs handwriting input, screen data is generated as follows.

画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報が示す手書き画像を、共有画面においてユーザ装置20−1による手書き入力が許可される第1入力許可領域に配置する。以下では、このように先に入力された手書き画像を「第1手書き画像」といい、第1手書き画像が入力されたユーザ装置20に許可される入力許可領域を「第1入力許可領域」という。図6の例では、画面データ生成部104は、第1手書き画像である手書き画像B11を、領域決定部103により決定された入力許可領域D1を第1入力許可領域として配置している。 The screen data generation unit 104 arranges the handwritten image indicated by the handwriting input information acquired from the user device 20-1 in the first input permission area on the shared screen where the handwriting input by the user device 20-1 is permitted. In the following, the handwritten image previously input in this manner is referred to as a “first handwritten image”, and the input permission area permitted by the user device 20 in which the first handwritten image is input is referred to as a “first input permission area”. .. In the example of FIG. 6, the screen data generation unit 104 arranges the handwritten image B11, which is the first handwritten image, with the input permission area D1 determined by the area determination unit 103 as the first input permission area.

また、画面データ生成部104は、ユーザ装置20−1から手書き入力の情報が取得されている期間にユーザ装置20−2から取得された手書き入力の情報が示す手書き画像を、共有画面において第1入力許可領域と重ならず且つユーザ装置20−2による手書き入力が許可される入力許可領域に配置して画面データを生成する。以下では、このように後から入力された手書き画像を「第2手書き画像」といい、第2手書き画像が入力されたユーザ装置20に許可される入力許可領域を「第2入力許可領域」という。 In addition, the screen data generation unit 104 displays the handwritten image indicated by the handwritten input information acquired from the user device 20-2 during the period in which the handwritten input information is acquired from the user device 20-1 as a first image on the shared screen. The screen data is generated by arranging it in an input permission area that does not overlap the input permission area and in which handwriting input by the user device 20-2 is permitted. Hereinafter, the handwritten image thus input later is referred to as a “second handwritten image”, and the input permission area permitted by the user device 20 to which the second handwritten image is input is referred to as a “second input permission area”. ..

ここでいう「手書き入力の情報が取得されている期間」とは、手書き入力情報取得部101が手書き入力の情報を取得する瞬間(手書き入力の情報を示すデータのパケットを受信する瞬間)だけをいうのではなく、ユーザ1がユーザ装置20−1に手書きの入力を継続して行っており、手書き入力の情報が断続的に取得される期間の全体をいうものとする。画面データ生成部104は、例えば手書き入力の情報が取得されない期間が閾値を超えたときに、手書き入力の情報が取得されている期間が終了したと判断する。 The “period during which the handwritten input information is acquired” here means only the moment when the handwritten input information acquisition unit 101 acquires the handwritten input information (the moment when the packet of data indicating the handwritten input information is received). Rather, it means the entire period in which the user 1 continuously inputs the handwriting to the user device 20-1 and the information of the handwriting input is intermittently acquired. The screen data generation unit 104 determines that the period in which the handwritten input information is acquired has ended when, for example, the period in which the handwritten input information is not acquired exceeds the threshold value.

図6(d)の例では、ユーザ1が「こんにちは!」という手書き画像B11の入力を開始してから「今日もよい天気ですね!」という手書き画像B12の入力を終了するまでに指示された位置を示す位置情報が手書き入力の情報として断続的に取得される期間となっている。図7の例では、ユーザ装置20−1から手書き入力の情報(「今日もよい天気ですね!」という手書き画像B12の軌跡を示す位置情報)が取得されている期間にユーザ装置20−2から手書き入力の情報(「こんにちは!」という手書き画像B21の軌跡を示す位置情報)が取得されている。 In the example of FIG. 6 (d), the has been instructed to until the user 1 is completed the input of the handwritten image B12 of "Hello!", "It's good weather today!" From the start of the input of the handwritten image B11 that The position information indicating the position is intermittently acquired as handwritten input information. In the example of FIG. 7, the handwriting input information (position information indicating the locus of the handwritten image B12 of “Today is good weather!”) is acquired from the user device 20-1 from the user device 20-2. of handwriting input information ( "Hello!" position information indicating the trajectory of the handwritten image B21 that) has been acquired.

この場合、画面データ生成部104は、第1入力許可領域である入力許可領域D1と重ならない領域として決定されている入力許可領域D2を第2入力許可領域として第2手書き画像である手書き画像B21を配置している。本実施例では、領域決定部103が図6(b)の説明で述べたように入力許可領域を決定するため、画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報に応じたサイズ及び形の領域を入力許可領域(図6(b)の例では入力許可領域D1)とすることになる。 In this case, the screen data generation unit 104 uses the input permission area D2, which is determined as an area that does not overlap the input permission area D1 that is the first input permission area, as the second input permission area and is the second handwritten image B21. Are arranged. In the present embodiment, since the area determination unit 103 determines the input permission area as described in the description of FIG. 6B, the screen data generation unit 104 causes the screen data generation unit 104 to obtain the handwriting input information acquired from the user device 20-1. An area having a size and shape corresponding to the input permission area (the input permission area D1 in the example of FIG. 6B) is set.

より詳細には、画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報が示す手書き画像が文字認識部102によって文字として認識された場合に、その文字(図6(b)の例では手書き画像B11)の大きさ及びその文字が並ぶ向きに応じたサイズ及び形の領域を入力許可領域(図6(b)の例では入力許可領域D1)とすることになる。 More specifically, when the handwriting image indicated by the handwriting input information acquired from the user device 20-1 is recognized as a character by the character recognition unit 102, the screen data generation unit 104 recognizes the character (see FIG. In the example of (), the area having a size and shape corresponding to the size of the handwritten image B11) and the direction in which the characters are arranged is set as the input permission area (the input permission area D1 in the example of FIG. 6B).

入力許可領域D1は、縦方向のサイズが手書き画像B11の縦方向のサイズを所定の割合で(図6の例ではN倍に)大きくした領域である。また、入力許可領域D1は、手書き画像B11が表す文字が横書きであるため、横長の長方形の形の領域となっている。また、手書き文字が縦書きの場合には、入力許可領域は、上述したように、縦長の長方形の形となり、横方向のサイズが手書き文字の横方向のサイズを所定の割合で大きくした領域となる。画面データ生成部104は、以上のとおり生成した画面データを画面データ出力部105に供給する。 The input permission area D1 is an area in which the vertical size is larger than the vertical size of the handwritten image B11 by a predetermined ratio (N times in the example of FIG. 6). The input permission area D1 is a horizontally long rectangular area because the character represented by the handwritten image B11 is horizontally written. Further, when the handwritten character is written vertically, the input permitted area has a vertically long rectangular shape as described above, and the horizontal size is an area in which the horizontal size of the handwritten character is increased by a predetermined ratio. Become. The screen data generation unit 104 supplies the screen data generated as described above to the screen data output unit 105.

画面データ出力部105は、画面データ生成部104により生成された画面データを出力する。画面データ出力部105は本発明の「出力部」の一例である。手書き画像共有システム1においては、手書き画像を供給するユーザ装置20のグループが登録されている。画面共有サーバ装置10には、同一グループのユーザ装置20の宛先(IP(Internet Protocol)アドレス等)が、そのグループを識別する情報(例えばグループID(Identification))に対応付けて記憶されている。 The screen data output unit 105 outputs the screen data generated by the screen data generation unit 104. The screen data output unit 105 is an example of the “output unit” in the present invention. In the handwritten image sharing system 1, a group of user devices 20 that supply handwritten images is registered. The screen sharing server device 10 stores the destinations (IP (Internet Protocol) addresses and the like) of the user devices 20 in the same group in association with information (for example, group ID (Identification)) for identifying the group.

本実施例では、ユーザ装置20−1、20−2、20−3が同一グループとして登録されている。画面データ出力部105は、図6、図7の例のようにユーザ装置20−1及び20−2から手書き入力の情報が手書き入力情報取得部101によって取得されると、画面データ生成部104から供給された画面データをユーザ装置20−1、20−2、20−3に出力する。 In this embodiment, the user devices 20-1, 20-2, 20-3 are registered as the same group. When the handwriting input information acquisition unit 101 acquires the handwriting input information from the user devices 20-1 and 20-2 as in the examples of FIGS. 6 and 7, the screen data output unit 105 outputs the screen data generation unit 104. The supplied screen data is output to the user devices 20-1, 20-2, 20-3.

ユーザ装置20の手書き入力画面表示部203は、画面共有サーバ装置10から出力されてきた画面データが示す画面を表示する。ユーザ装置20−1の手書き入力画面表示部203は、例えば図6に表すように画面を表示し、ユーザ装置20−2の手書き入力画面表示部203は、例えば図7に表すように画面を表示する。また、ユーザ装置20−3の手書き入力画面表示部203も、ユーザ1及びユーザ2が手書き入力した手書き画像を表示する。また、ユーザ装置20−3を利用するユーザ3が手書き入力を行えば、各ユーザ装置20の手書き入力画面表示部203は、その手書き画像を表示する。 The handwriting input screen display unit 203 of the user device 20 displays the screen indicated by the screen data output from the screen sharing server device 10. The handwriting input screen display unit 203 of the user device 20-1 displays a screen as shown in FIG. 6, for example, and the handwriting input screen display unit 203 of the user device 20-2 displays a screen as shown in FIG. 7, for example. To do. The handwriting input screen display unit 203 of the user device 20-3 also displays the handwritten image input by handwriting by the user 1 and the user 2. Moreover, when the user 3 who uses the user device 20-3 performs handwriting input, the handwriting input screen display unit 203 of each user device 20 displays the handwritten image.

画面共有サーバ装置10及び各ユーザ装置20は、上記の構成に基づいて、ユーザの手書き画像を共有画面に表示させる共有表示処理を行う。
図9は共有表示処理における各装置の動作手順の一例を表す。図9ではユーザ装置20−1及び20−2だけが表されているが、ユーザ装置20−3もこれらと同様の動作をするものとする。この動作手順は、例えば、各ユーザが自分のユーザ装置20を操作して手書きアプリを起動して、手書き画像を描く操作を行うことを契機に開始される。
The screen sharing server device 10 and each user device 20 perform sharing display processing for displaying a user's handwritten image on the shared screen based on the above configuration.
FIG. 9 shows an example of an operation procedure of each device in the shared display processing. Although only the user devices 20-1 and 20-2 are shown in FIG. 9, the user device 20-3 also operates similarly to these. This operation procedure is started, for example, when each user operates his or her own user device 20 to activate the handwriting application and perform an operation of drawing a handwritten image.

まず、ユーザ装置20(手書き入力操作受付部201)は、ユーザが表示面を指示して行う手書き入力の操作を受け付ける(ステップS11、S21)。なお、ユーザ装置20−1及び20−2の共通の動作についてはこのようにまとめて表すものとする。次に、ユーザ装置20(手書き入力情報出力部202)は、操作が受け付けられた手書き入力の情報を画面共有サーバ装置10に対して出力する(ステップS12、S22)。 First, the user device 20 (handwriting input operation receiving unit 201) receives an operation of handwriting input performed by the user instructing the display surface (steps S11 and S21). The common operations of the user devices 20-1 and 20-2 are collectively represented as described above. Next, the user device 20 (handwriting input information output unit 202) outputs the information of the handwriting input for which the operation is accepted to the screen sharing server device 10 (steps S12 and S22).

画面共有サーバ装置10(手書き入力情報取得部101)は、ユーザ装置20−1、20−2からそれぞれ出力されてきた手書き入力の情報を取得する(ステップS31、S32)。次に、画面共有サーバ装置10(文字認識部102)は、取得された手書き入力の情報が示す手書き画像が文字であればその文字を認識する(ステップS33)。続いて、画面共有サーバ装置10(領域決定部103)は、認識された文字の大きさ及びその文字が並ぶ向きに応じたサイズ及び形の領域を入力許可領域として決定する(ステップS34)。 The screen sharing server device 10 (handwriting input information acquisition unit 101) acquires the handwriting input information output from each of the user devices 20-1 and 20-2 (steps S31 and S32). Next, the screen sharing server apparatus 10 (character recognition unit 102) recognizes the character if the handwritten image indicated by the acquired handwriting input information is a character (step S33). Subsequently, the screen sharing server apparatus 10 (area determining unit 103) determines an area having a size and shape corresponding to the size of the recognized character and the direction in which the characters are arranged as the input permission area (step S34).

次に、画面共有サーバ装置10(画面データ生成部104)は、決定された入力許可領域に手書き画像を配置した共有画面を示す画面データを生成する(ステップS35)。続いて、画面共有サーバ装置10(画面データ出力部105)は、生成された画面データを同一グループの複数のユーザ装置20に対してそれぞれ出力する(ステップS36、S37)。ユーザ装置20(手書き入力画面表示部203)は、出力されてきた画面データが示す共有画面を表示する(ステップS13、S23)。そして、ユーザ装置20は、ステップS11、S21に戻って動作を続ける。このようにして、ユーザが手書き入力をした手書き画像が各ユーザ装置20の手書入力画面を共有画面として表示されることになる。 Next, the screen sharing server device 10 (screen data generation unit 104) generates screen data indicating a shared screen in which a handwritten image is arranged in the determined input permission area (step S35). Subsequently, the screen sharing server device 10 (screen data output unit 105) outputs the generated screen data to the plurality of user devices 20 in the same group (steps S36 and S37). The user device 20 (handwriting input screen display unit 203) displays the shared screen indicated by the output screen data (steps S13 and S23). Then, the user device 20 returns to steps S11 and S21 and continues the operation. In this way, the handwritten image input by the user by handwriting is displayed with the handwriting input screen of each user device 20 as a shared screen.

本実施例では、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、例えば図7の例のようにユーザ1の手書き画像B11は入力許可領域D1に表示され、ユーザ2の手書き画像B21は入力許可領域D1とは重ならない領域として決定された入力許可領域D2に表示されるので、それらのユーザ1、2の手書き画像が重ならないようにすることができる。 In this embodiment, even if each user simultaneously inputs a handwritten image to display it on the shared screen, the handwritten image B11 of the user 1 is displayed in the input permission area D1 as shown in the example of FIG. Since the handwritten image B21 of No. 2 is displayed in the input permission area D2 that is determined as an area that does not overlap the input permission area D1, it is possible to prevent the handwritten images of the users 1 and 2 from overlapping.

また、本実施例では、ユーザが手書き文字を入力した場合、その文字の大きさに応じたサイズの領域が入力許可領域となる。これにより、例えば大きな文字を書くユーザには大きな入力許可領域を確保し、小さな文字を書くユーザには小さな入力許可領域を確保するというように、入力許可領域のサイズが一定の場合に比べて、入力許可領域に入力可能な文字数のユーザ間の違いを小さくすることができる。 Further, in this embodiment, when the user inputs a handwritten character, an area having a size corresponding to the size of the character becomes the input permission area. As a result, for example, a large input permission area is secured for a user who writes large characters, and a small input permission area is secured for a user who writes small characters. The difference in the number of characters that can be input in the input permission area between users can be reduced.

また、本実施例では、ユーザが手書き文字を入力した場合、その文字が並ぶ向きに応じた形の領域が入力許可領域となる。これにより、例えば横書きで文字を書くユーザには横に長い長方形の入力許可領域を確保し、縦書きで文字を書くユーザには縦に長い入力許可領域を確保するというように、入力許可領域の形が一定の場合に比べて、文字を書いていてすぐに改行が必要となり書きにくくなるということを防ぐことができる。 Further, in this embodiment, when the user inputs a handwritten character, an area having a shape corresponding to the direction in which the character is arranged becomes the input permission area. Thus, for example, a horizontally long rectangular input permission area is secured for a user who writes characters horizontally, and a vertically long input permission area is secured for a user who writes characters vertically. Compared with the case where the shape is constant, it is possible to prevent the difficulty of writing because a line break is required immediately after writing a character.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modified Example The above-described embodiment is merely an example of the implementation of the present invention, and may be modified as follows. Further, the embodiment and each modification may be implemented in combination as necessary.

[2−1]入力許可領域の拡大
実施例で述べたように確保された入力許可領域にユーザの手書き画像が納まらない場合がある。その場合に、入力許可領域を拡大して手書き画像が納まるようにしてもよい。本変形例では、領域決定部103が、手書き画像が入力許可領域に納まらなくなった場合、その手書き画像が納まるサイズに拡大した入力許可領域を決定する。
[2-1] Expansion of Input Allowed Area The handwritten image of the user may not fit in the input allowed area secured as described in the embodiment. In that case, the input permission area may be enlarged to accommodate the handwritten image. In this modification, when the handwritten image does not fit in the input permission area, the area determination unit 103 determines the input permission area enlarged to a size in which the handwritten image fits.

そのため、画面データ生成部104も、手書き画像が入力許可領域に納まらなくなった場合、その手書き画像が納まるサイズに入力許可領域を拡大した画面を示す画面データを生成する。
図10は拡大された入力許可領域の一例を表す。図10(a)では、ユーザ装置20−1の表示面A1の入力許可領域D4にユーザ1が手書き入力した「こんにちは!今日もよい天気ですね!」という手書き画像B13が表示されており、入力許可領域D4の下側にはユーザ2が手書き入力した「こんにちは!」という手書き画像B24と書き込み中画像H4とが入力許可領域D5に表示されている。
Therefore, when the handwritten image does not fit in the input permission area, the screen data generation unit 104 also generates screen data indicating a screen in which the input permission area is enlarged to a size in which the handwritten image fits.
FIG. 10 shows an example of the enlarged input permission area. Figure 10 (a), the are displayed hand-drawn image B13 that the user 1 has handwriting input "Hello! It's good weather today!" To the input enable area D4 of the display surface A1 of the user device 20-1, input and in the image H4 writing the handwritten image B24 that the user 2 has handwriting input "Hello!" is on the lower side of the permit area D4 are displayed in the input permission area D5.

図10(b)では、ユーザ1が手書き画像B13の下側に続けて手書き入力した「ど」という手書き画像B14が表示面A1に表示されている。この手書き画像B14は入力許可領域D4に納まっていないので、画面データ生成部104は、入力許可領域D4を手書き画像B14が納まるサイズに拡大して入力許可領域D6とし、その入力許可領域D6に手書き画像B14を配置した画面データを生成している。 In FIG. 10B, a handwritten image B14, which is “DO”, which is continuously input by the user 1 below the handwritten image B13, is displayed on the display surface A1. Since this handwritten image B14 is not stored in the input permission area D4, the screen data generation unit 104 enlarges the input permission area D4 to a size in which the handwritten image B14 can be stored as an input permission area D6, and handwrites in the input permission area D6. The screen data in which the image B14 is arranged is generated.

また、画面データ生成部104は、入力許可領域がD6に拡大したことで、拡大された部分に表示されていた手書き画像B24が配置された入力許可領域D5を、入力許可領域D6と重ならない位置に移動させている。このように、画面データ生成部104は、第1手書き画像(先に入力された手書き画像。この例では手書き画像B14)が第1入力許可領域(この例では入力許可領域D4)に納まらなくなった場合、その第1手書き画像が納まるサイズに第1入力許可領域を拡大し、第2手書き画像(後から入力された手書き画像。この例では手書き画像B24)が配置された第2入力許可領域(この例では入力許可領域D5)を拡大された第1入力許可領域と重ならない位置に移動させる。 Further, the screen data generation unit 104 expands the input permission area to D6, so that the input permission area D5 in which the handwritten image B24 displayed in the enlarged portion is arranged does not overlap the input permission area D6. Have moved to. In this way, the screen data generation unit 104 stops storing the first handwritten image (the previously input handwritten image. Handwritten image B14 in this example) in the first input permission area (input permission area D4 in this example). In this case, the first input permission area is enlarged to fit the first handwritten image, and the second input permission area (handwritten image B24 input later. In this example, handwritten image B24) is arranged in the second input permission area ( In this example, the input permission area D5) is moved to a position that does not overlap the enlarged first input permission area.

本変形例では、こうして入力許可領域がD6に拡大し、入力許可領域D5が移動した(入力許可領域D5に配置された手書き画像B24及び書き込み中画像H4もともに移動した)ことで、ユーザ1は、図10(c)に表すように、「どこか遊びに行こう!」という手書き画像B15をユーザ2の手書き画像B24に重ねることなく描くことができるようになっている。 In this modification, the input permission area is expanded to D6 in this way, and the input permission area D5 is moved (the handwritten image B24 and the writing image H4 arranged in the input permission area D5 are also moved). As shown in FIG. 10C, the handwritten image B15 “Let's go play somewhere!” can be drawn without overlapping the handwritten image B24 of the user 2.

なお、図8の例で述べた文字が認識される前に決定された入力許可領域も、文字が認識されると、より大きな入力許可領域に拡大されることになる。この入力許可領域を第1入力許可領域とすれば、この場合も、画面データ生成部104は、第2手書き画像が配置された第2入力許可領域を拡大された第1入力許可領域と重ならない位置に移動させればよい。これにより、ユーザ1の第1手書き文字が認識される前にユーザ2が描き始めた第2手書き画像が表示されても、ユーザ1は、その第2手書き文字に重ねることなく第1手書き文字を書き続けることができる。 The input permission area determined before the characters are recognized as described in the example of FIG. 8 is expanded to a larger input permission area when the characters are recognized. If this input permission area is set as the first input permission area, in this case also, the screen data generation unit 104 does not overlap the second input permission area in which the second handwritten image is arranged with the enlarged first input permission area. Just move it to the position. As a result, even if the second handwritten image that the user 2 started to draw is displayed before the first handwritten character of the user 1 is recognized, the user 1 does not overlap the second handwritten character with the first handwritten character. I can continue to write.

[2−2]手書き画像の縮小
上記のように入力許可領域にユーザの手書き画像が納まらない場合に、入力許可領域を拡大するのではなく、手書き画像を縮小してもよい。本変形例では、画面データ生成部104が、手書き画像が入力許可領域に納まらなくなった場合、その入力許可領域に納まるサイズに手書き画像を縮小して配置した画面を示す画面データを生成する。
[2-2] Reduction of handwritten image When the handwritten image of the user does not fit in the input permission area as described above, the handwritten image may be reduced instead of enlarging the input permission area. In this modified example, when the handwritten image does not fit in the input permission area, the screen data generation unit 104 generates screen data indicating a screen in which the handwritten image is reduced in size and placed in the input permission area.

図11は縮小された手書き画像の一例を表す。図11の例では、画面データ生成部104が、図10に表す入力許可領域D4に納まるように縮小した手書き画像B13及びB15を入力許可領域D4に配置した画面を示す画面データを生成している。本変形例では、手書き画像が入力許可領域に納まらなくなった場合に、他のユーザの手書き画像を移動させなくても、他のユーザの手書き画像に重ねることなく手書き画像を描き続けることができる。 FIG. 11 shows an example of a reduced handwritten image. In the example of FIG. 11, the screen data generation unit 104 generates screen data showing a screen in which the handwritten images B13 and B15 reduced to fit in the input permission area D4 shown in FIG. 10 are arranged in the input permission area D4. .. In the present modification, when the handwritten image does not fit in the input permission area, it is possible to continue drawing the handwritten image without overlapping the handwritten image of the other user without moving the handwritten image of the other user.

[2−3]隙間の縮小
確保された入力許可領域に入力される手書き画像が少なければ、入力されなかった入力許可領域が他のユーザの手書き画像との隙間となって残ることになる。この隙間を縮小する動作が行われてもよい。
[2-3] Reduction of Gap If there are few handwritten images input to the secured input permission area, the input permission area that has not been input remains as a gap with the handwritten image of another user. An operation of reducing this gap may be performed.

本変形例では、画面データ生成部104が、第1手書き画像及び第2手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、その隙間を埋める位置に第1手書き画像及び第2手書き画像の一方又は両方を移動させた画面を示す画面データを生成する。 In the present modification, when the screen data generation unit 104 has completed the input of at least one of the first handwritten image and the second handwritten image and a gap has been created in both images, the screen data generation unit 104 first sets the position to fill the gap. Screen data indicating a screen obtained by moving one or both of the first handwritten image and the second handwritten image is generated.

図12は隙間を縮小するように移動された手書き画像の一例を表す。図12(a)では、ユーザ装置20−2の表示面A2に、ユーザ1が手書き入力した「こんにちは!」という手書き画像B15と、その手書き画像B15が配置された入力許可領域D7の範囲を表す書き込み中画像H5とが表示されている。また、入力許可領域D7の下側に確保された入力許可領域D8にユーザ2が手書き入力した「こんにちは!」という手書き画像B17が表示されている。 FIG. 12 shows an example of a handwritten image moved so as to reduce the gap. Figure 12 (a), the display surface A2 of the user device 20-2, represents the handwritten image B15 that the user 1 has handwriting input "Hello!", The range of the input enable area D7 where the handwritten image B15 is arranged The in-writing image H5 is displayed. In addition, the hand-drawn image B17 of "Hello!" User 2 handwriting input to the input enabled area D8, which is secured on the lower side of the input enable area D7 is displayed.

この例では、図12(a)の状態以降もユーザ2は手書き入力を続けているが、ユーザ1は手書き入力を止めてしまったため、図12(b)に表すように書き込み中画像H5が表示されなくなっている。そのため、手書き画像B15及び手書き画像B17の間には、図12(c)に表すように縦方向の長さがL31の隙間E1が生じている。この場合に、画面データ生成部104は、手書き画像B15の入力が完了して手書き画像B15及びB17に隙間が生じているので、その隙間を埋める位置に手書き画像B15を移動させた画面を示す画面データを生成する。 In this example, the user 2 continues to input the handwriting even after the state of FIG. 12A, but the user 1 has stopped the handwriting input, so that the in-writing image H5 is displayed as shown in FIG. 12B. It is no longer being done. Therefore, between the handwritten image B15 and the handwritten image B17, a gap E1 having a length L31 in the vertical direction is formed as shown in FIG. In this case, the screen data generation unit 104 has completed the input of the handwritten image B15 and created a gap between the handwritten images B15 and B17. Therefore, a screen showing the screen in which the handwritten image B15 is moved to a position to fill the gap. Generate data.

こうして生成された画面データが示す画面が図12(d)に表すように表示面A2に表示されている。この例では、手書き画像B15及びB17が隙間E2(縦方向の長さがL32(L32<L31))だけ離れて表示されている。これにより、隙間の縮小が行われない場合に比べて、共有画面に表示される手書き画像の間の隙間を小さくすることができ、より多くの手書き画像が共有画面に表示されるようにすることができる。 The screen represented by the screen data thus generated is displayed on the display surface A2 as shown in FIG. In this example, the handwritten images B15 and B17 are displayed separated by a gap E2 (the length in the vertical direction is L32 (L32<L31)). This makes it possible to reduce the gap between the handwritten images displayed on the shared screen and reduce the number of handwritten images displayed on the shared screen, as compared to the case where the gap is not reduced. You can

[2−4]入力許可領域の決定方法
領域決定部103は、上記の例とは異なる方法で入力許可領域を決定してもよい。
図13は本変形例の手書き画像共有システム1aが実現する機能構成を表す。手書き画像共有システム1aは、画面共有サーバ装置10a及びユーザ装置20を備える。画面共有サーバ装置10aは、図4に表す各部に加えて情報蓄積部106と、手書き画像推定部107とを備える。
[2-4] Method of Determining Input Allowed Area The area determining unit 103 may determine the input allowed area by a method different from the above example.
FIG. 13 shows a functional configuration realized by the handwritten image sharing system 1a of this modification. The handwritten image sharing system 1a includes a screen sharing server device 10a and a user device 20. The screen sharing server device 10a includes an information storage unit 106 and a handwritten image estimation unit 107 in addition to the units illustrated in FIG.

本変形例では、文字認識部102が、文字を認識した場合、文字を認識したことを示す情報及び供給された手書き入力の情報を情報蓄積部106に供給し、文字を認識しなかった場合も、供給された手書き入力の情報を情報蓄積部106に供給する。情報蓄積部106は、供給された手書き入力の情報、すなわち、手書き入力情報取得部101によって取得された手書き入力の情報の履歴を蓄積する。 In this modification, when the character recognition unit 102 recognizes a character, the character storage unit 106 supplies information indicating that the character has been recognized and the supplied handwriting input information to the information storage unit 106, and may not recognize the character. , And supplies the supplied handwritten input information to the information storage unit 106. The information storage unit 106 stores the supplied handwriting input information, that is, the history of the handwriting input information acquired by the handwriting input information acquisition unit 101.

図14は蓄積された履歴の一例を表す。図14の例では、情報蓄積部106は、ユーザ装置20を利用する各ユーザ装置(この例ではユーザ装置20−1、20−2)について、手書き画像の種類と、手書き画像のサイズと、入力日時とを対応付けて記憶している。本変形例では、ユーザ装置20の手書き入力情報出力部202が手書き入力の情報を出力する際に自装置を識別する識別情報として例えば装置IDをともに出力し、その装置IDが手書き入力情報取得部101及び文字認識部102を介して情報蓄積部106に供給される(ユーザ装置20−1、20−2の装置IDはそれぞれ「U001」、「U002」とする)。 FIG. 14 shows an example of the accumulated history. In the example of FIG. 14, the information storage unit 106 inputs the type of the handwritten image, the size of the handwritten image, and the input for each user device (user devices 20-1 and 20-2 in this example) that uses the user device 20. The date and time are stored in association with each other. In the present modification, when the handwriting input information output unit 202 of the user device 20 outputs handwriting input information, for example, a device ID is also output as identification information for identifying the own device, and the device ID is the handwriting input information acquisition unit. The information is supplied to the information storage unit 106 via the 101 and the character recognition unit 102 (the device IDs of the user devices 20-1 and 20-2 are “U001” and “U002”, respectively).

情報蓄積部106は、画面データ生成部104と同様に手書き入力の情報が取得されている期間を判断し、その期間に供給された手書き入力の情報に基づいて手書き画像の種類及びサイズを判断する。情報蓄積部106は、文字認識部102により文字が認識されていれば、図6(b)の説明で述べた領域決定部103と同じように横書きが縦書きかを判断し、横書きと判断すれば「横書きの文字」を、縦書きと判断すれば「縦書きの文字」を手書き画像の種類として記憶する。また、情報蓄積部106は、文字認識部102により文字が認識されていなければ、「絵」を手書き画像の種類として記憶する。 Like the screen data generation unit 104, the information storage unit 106 determines the period during which the handwritten input information is acquired, and determines the type and size of the handwritten image based on the handwritten input information supplied during that period. .. If the character is recognized by the character recognition unit 102, the information storage unit 106 determines whether horizontal writing is vertical writing as in the area determination unit 103 described in the description of FIG. For example, if "horizontal writing" is determined to be vertical writing, "vertical writing" is stored as the type of handwritten image. Further, the information storage unit 106 stores “picture” as the type of the handwritten image if the character is not recognized by the character recognition unit 102.

また、情報蓄積部106は、手書き入力の情報が示す手書き画像に外接する四角形のサイズを手書き画像のサイズとして記憶する。また、情報蓄積部106は、例えば手書き入力の情報が取得されている期間が開始された又は終了したときの日時を入力日時として記憶する。情報蓄積部106は、これらの情報を手書き入力の情報とともに供給された装置IDに対応付けて記憶する。 The information storage unit 106 also stores the size of a quadrangle circumscribing the handwritten image indicated by the handwritten input information as the size of the handwritten image. In addition, the information storage unit 106 stores, for example, the date and time when the period in which the information of the handwritten input is acquired starts or ends as the input date and time. The information storage unit 106 stores these pieces of information in association with the device ID supplied together with the handwritten input information.

手書き画像推定部107は、ユーザが利用するユーザ装置20について蓄積された手書き入力の履歴から、そのユーザによって入力されることが推定される手書き画像を推定する。手書き画像推定部107は、例えば、装置IDに対応付けて最も多く記憶されている手書き画像の種類を、その装置IDに対応するユーザ装置20を利用するユーザによって入力されることが推定される手書き画像と推定する。 The handwritten image estimation unit 107 estimates a handwritten image estimated to be input by the user, from the history of handwritten input accumulated for the user device 20 used by the user. The handwritten image estimation unit 107 estimates that the type of the handwritten image that is most stored in association with the device ID is input by the user who uses the user device 20 corresponding to the device ID, for example. Presumed to be an image.

手書き画像推定部107は、例えば、装置IDが「U001」のユーザ装置20−1については、手書き画像の種類がいずれも「横書きの文字」なので、「横書きの文字」が描かれると推定する。また、手書き画像推定部107は、装置IDが「U002」のユーザ装置20−2については、「縦書きの文字」が1回、「絵」が2回なので、「絵」が描かれると推定する。手書き画像推定部107は、こうして推定した手書き画像を示す情報(手書き情報の種類)を領域決定部103に供給する。 For example, for the user device 20-1 with the device ID “U001”, the handwritten image estimation unit 107 estimates that “horizontal characters” are drawn because all types of handwritten images are “horizontal characters”. Further, the handwritten image estimation unit 107 estimates that the “drawing” is drawn for the user device 20-2 having the device ID “U002”, because the “vertical writing” is once and the “drawing” is twice. To do. The handwritten image estimation unit 107 supplies information indicating the handwritten image thus estimated (type of handwritten information) to the area determination unit 103.

領域決定部103は、供給された手書き画像の種類、すなわちユーザ装置20について蓄積された手書き入力の履歴から入力されることが推定される手書き画像、に応じたサイズ及び形の領域を入力許可領域として決定する。領域決定部103は、例えば「横書きの文字」が推定された場合、表示面の横方向の幅一杯の長方形を入力許可領域の形として決定する。そして、領域決定部103は、「横書きの文字」に対応付けて記憶されている手書き画像の縦方向のサイズの平均値を算出し、その平均値を縦方向のサイズとして決定する。 The area determination unit 103 sets an area having a size and shape corresponding to the supplied type of handwritten image, that is, a handwritten image estimated to be input from the history of handwriting input accumulated for the user device 20, as an input permission area. To decide. For example, when “horizontal writing” is estimated, the area determination unit 103 determines a rectangle having the full width in the horizontal direction of the display surface as the shape of the input permission area. Then, the area determination unit 103 calculates an average value of the vertical size of the handwritten image stored in association with the “horizontal characters”, and determines the average value as the vertical size.

図14の例であれば、領域決定部103は、装置IDが「U001」のユーザ装置20−1について、横書きの文字として描かれた手書き画像の縦方向のサイズに基づき、(L41+L43+L45)÷3を縦方向のサイズとする長方形を入力許可領域として決定する。また、領域決定部103は、例えば「縦書きの文字」が推定された場合、表示面の縦方向の幅一杯の長方形を入力許可領域の形として決定し、縦書きの文字として描かれた手書き画像の横方向のサイズの平均値を横方向のサイズとする長方形を入力許可領域として決定する。 In the example of FIG. 14, the area determination unit 103 determines (L41+L43+L45)/3 based on the vertical size of the handwritten image drawn as horizontally-written characters for the user device 20-1 having the device ID “U001”. A rectangle whose size is in the vertical direction is determined as the input permission area. Further, for example, when “vertical writing characters” are estimated, the area determining unit 103 determines a rectangle having the full width in the vertical direction of the display surface as the shape of the input permission area, and handwriting drawn as vertical writing characters. A rectangle whose horizontal size is the average value of the horizontal size of the image is determined as the input permission area.

また、領域決定部103は、「絵」が推定された場合、絵として描かれた手書き画像の縦方向のサイズの平均値及び横方向のサイズの平均値をそれぞれ算出し、それらの平均値を縦方向のサイズ及び横方向のサイズとする長方形を入力許可領域として決定する。図14の例であれば、領域決定部103は、装置IDが「U002」のユーザ装置20−2について、絵として描かれた手書き画像の縦方向のサイズの平均値(L53+L55)÷2を縦方向のサイズとし、横方向のサイズの平均値(L54+L56)÷2を横方向のサイズとする長方形を入力許可領域として決定する。 In addition, when the “picture” is estimated, the area determination unit 103 calculates the average value of the vertical size and the average value of the horizontal size of the handwritten image drawn as a picture, and calculates the average values. A rectangle having a vertical size and a horizontal size is determined as the input permission area. In the example of FIG. 14, the area determination unit 103 vertically sets the average value (L53+L55)/2 of the vertical size of the handwritten image drawn as a picture for the user device 20-2 having the device ID “U002”. A rectangle having the horizontal size and the average horizontal size (L54+L56)/2 is determined as the input permission area.

領域決定部103が上記のとおり入力許可領域を決定するため、画面データ生成部104は、ユーザ装置20について蓄積された手書き入力の履歴から入力されることが推定される手書き画像に応じたサイズ及び形の領域を入力許可領域とすることになる。これにより、図8の例のように手書き入力情報取得部101が手書き入力の情報の取得を開始してから文字認識部102によって文字が認識される前であっても、ユーザの手書き入力の傾向に合った領域を入力許可領域として確保することができる。 Since the area determination unit 103 determines the input permission area as described above, the screen data generation unit 104 determines the size and the size according to the handwritten image estimated to be input from the history of handwriting input accumulated for the user device 20. The shape area will be the input permission area. As a result, the tendency of the user's handwriting input even after the handwriting input information acquisition unit 101 starts acquisition of handwriting input information and before the character recognition unit 102 recognizes a character, as in the example of FIG. It is possible to secure an area that matches the above as an input permission area.

なお、上記の例ではサイズの平均値を算出したが、これに限らず、サイズの最大値、最小値又は中間値を算出してもよい。また、推定に用いる履歴を、特定の期間(例えば過去の1年間等)に蓄積されたものだけに限定してもよい。その場合、ユーザの最近の手書き入力の傾向に合った領域を入力許可領域として確保することができる。 In the above example, the average value of the sizes is calculated, but the present invention is not limited to this, and the maximum value, the minimum value, or the intermediate value of the sizes may be calculated. Further, the history used for estimation may be limited to only the history accumulated in a specific period (for example, the past one year). In that case, it is possible to secure an area suitable for the recent tendency of the user's handwriting input as the input permission area.

[2−5]手書き以外の画像の表示
入力許可領域に手書き画像(ユーザ装置の手書き入力操作受付部201が受け付けた操作により描かれる画像)以外の画像が表示されてもよい。
図15は本変形例の手書き画像共有システム1bが実現する機能構成を表す。手書き画像共有システム1bは、画面共有サーバ装置10b及びユーザ装置20bを備える。画面共有サーバ装置10bは、図4に表す各部に加えて指定画像取得部108を備える。ユーザ装置20bは、図4に表す各部に加えて指定画像出力部204を備える。
[2-5] Display of images other than handwritten images Images other than handwritten images (images drawn by the operation accepted by the handwriting input operation acceptance unit 201 of the user device) may be displayed in the input permission area.
FIG. 15 shows a functional configuration realized by the handwritten image sharing system 1b of this modification. The handwritten image sharing system 1b includes a screen sharing server device 10b and a user device 20b. The screen sharing server device 10b includes a designated image acquisition unit 108 in addition to the units illustrated in FIG. The user device 20b includes a designated image output unit 204 in addition to the units shown in FIG.

指定画像出力部204は、表示面に表示されている画像を指定し、又はファイル管理アプリ等を表示させて画像ファイルを指定して、指定した画像を入力許可領域に貼り付ける操作(例えば表示中の画像又は画像ファイルをドラッグして入力許可領域にドロップする操作等)を受け付けると、それらの操作により指定された画像を画面共有サーバ装置10bに対して出力する。指定画像取得部108は、こうして出力されてきた画像、すなわちユーザが指定した指定画像をユーザ装置20から取得する。指定画像取得部108は本発明の「画像取得部」の一例である。 The designated image output unit 204 designates an image displayed on the display surface, or displays a file management application or the like to designate an image file, and pastes the designated image in the input permission area (for example, during display). (Operations of dragging the image or image file to the input permission area and the like) are received, the image designated by these operations is output to the screen sharing server device 10b. The designated image acquisition unit 108 acquires, from the user device 20, the image thus output, that is, the designated image designated by the user. The designated image acquisition unit 108 is an example of the “image acquisition unit” in the present invention.

指定画像取得部108は、取得した指定画像を画面データ生成部104に供給する。画面データ生成部104は、指定画像取得部108によって取得された指定画像を入力許可領域に配置して表した画面データを生成する。
図16は表示された指定画像の一例を表す。図16の例では、画面データ生成部104が、図6(c)に表す入力許可領域D1に指定画像J1を配置して表した画面データを生成している。なお、指定画像出力部204が指定画像を貼り付ける貼り付け位置を示す位置情報を指定画像とともに出力することで、画面データ生成部104が、指定画像を入力許可領域の貼り付け位置に配置した画面データを生成してもよい。
The designated image acquisition unit 108 supplies the acquired designated image to the screen data generation unit 104. The screen data generation unit 104 generates screen data in which the designated image acquired by the designated image acquisition unit 108 is arranged in the input permission area.
FIG. 16 shows an example of the designated image displayed. In the example of FIG. 16, the screen data generation unit 104 generates screen data in which the designated image J1 is arranged in the input permission area D1 shown in FIG. 6C. The designated image output unit 204 outputs the position information indicating the pasting position where the designated image is pasted together with the designated image, so that the screen data generation unit 104 displays the screen in which the designated image is arranged at the pasted position of the input permission area. Data may be generated.

また、指定画像が入力許可領域をはみ出す場合に、画面データ生成部104が、指定画像を入力許可領域に納まる大きさに縮小した画面データを生成してもよいし、指定画像が納まる大きさに入力許可領域を拡大した画面データを生成してもよい。また、指定画像として、キーボード等で入力されたフォントで表された文字が用いられてもよい。本変形例によれば、手書き画像とともに写真、CG(Computer Graphics)及びフォントで表された文字等の指定画像を手書き画像の共有画面に表示させることができる。 In addition, when the designated image extends beyond the input permission area, the screen data generation unit 104 may generate screen data in which the designated image is reduced to a size that fits in the input permission area, or a size that fits the designated image. You may generate the screen data which expanded the input permission area. Further, as the designated image, a character represented by a font input with a keyboard or the like may be used. According to this modification, it is possible to display a designated image such as a photograph, CG (Computer Graphics) and characters represented by a font together with a handwritten image on the shared screen of the handwritten image.

[2−6]各部を実現する装置
図4に表す各部を実現する装置は、上述した装置だけに限らない。例えば文字認識部102及び領域決定部103の一方又は両方の機能が他のサーバ装置によって実現されてもよい。また、画面共有サーバ装置が実現する機能をユーザ装置が実現してもよい。
[2-6] Device that realizes each unit The device that realizes each unit illustrated in FIG. 4 is not limited to the above-described device. For example, one or both of the functions of the character recognition unit 102 and the area determination unit 103 may be realized by another server device. The user device may also realize the function realized by the screen sharing server device.

図17は本変形例の手書き画像共有システム1cの全体構成の一例を表す。手書き画像共有システム1cは、ネットワーク2と、ユーザ装置20c−1、20c−2、20c−3(以下特に区別しない場合は「ユーザ装置20c」という)とを備える。各ユーザ装置20cは、ネットワーク2を介して互いに通信する。なお、各ユーザ装置20c同士がP2P(Peer to Peer)で通信し、又は、1台のユーザ装置20cが無線ルータとして機能することでそのユーザ装置20cを介して他のユーザ装置20c同士が通信してもよい。 FIG. 17 shows an example of the overall configuration of the handwritten image sharing system 1c of this modification. The handwritten image sharing system 1c includes a network 2 and user devices 20c-1, 20c-2, 20c-3 (hereinafter referred to as "user device 20c" unless otherwise specified). Each user device 20c communicates with each other via the network 2. Note that the user devices 20c communicate with each other by P2P (Peer to Peer), or one user device 20c functions as a wireless router so that other user devices 20c communicate with each other via the user device 20c. May be.

図18は手書き画像共有システム1cが実現する機能構成を表す。ユーザ装置20cは、図4においてユーザ装置20が備える各部に加えて、画面共有サーバ装置が備える各部も備えている。ユーザ装置20cの手書き入力情報取得部101は、自装置及び他のユーザ装置20cから手書き入力の情報を取得し、画面データ生成部104は、取得されたそれらの手書き入力の情報に基づいて画面データを生成する。また、ユーザ装置20cの画面データ出力部105は、自装置の手書き入力画面表示部203に画面データを出力することで共有画面を表示する。この例によれば、サーバ装置を設けなくても、各ユーザ装置の共有画面に手書き画像を表示させて複数のユーザで手書き画像を共有することができる。 FIG. 18 shows a functional configuration realized by the handwritten image sharing system 1c. The user device 20c includes not only the units included in the user device 20 in FIG. 4 but also each unit included in the screen sharing server device. The handwriting input information acquisition unit 101 of the user device 20c acquires handwriting input information from the own device and another user device 20c, and the screen data generation unit 104 uses screen data based on the acquired handwriting input information. To generate. The screen data output unit 105 of the user device 20c displays the shared screen by outputting the screen data to the handwriting input screen display unit 203 of the own device. According to this example, even if the server device is not provided, it is possible to display the handwritten image on the shared screen of each user device and share the handwritten image with a plurality of users.

[2−7]入力許可領域
入力許可領域は、上述した形及び大きさの領域に限らない。領域決定部103は、例えば上記の例ではいずれも長方形の入力許可領域を決定したが、正方形、L字型、円形、楕円形及び多角形等の形の入力許可領域を決定してもよい。例えば手書き画像を表示面の左端から右端まで描いた後、そこから下向きに描く癖のあるユーザについては、手書き画像がL字型になるので、領域決定部103は、L字型の領域を決定する。領域決定部103は、上述した手書き入力の情報の履歴に基づいて入力許可領域の形を判断されればよい。
[2-7] Input Allowed Area The input allowed area is not limited to the area having the above-described shape and size. For example, although the area determination unit 103 determines a rectangular input permission area in each of the above examples, it may determine a square, L-shaped, circular, elliptical, polygonal, or other input permission area. For example, for a user who draws a handwritten image from the left end to the right end of the display surface and then draws downward from that, the handwritten image is L-shaped, so the area determination unit 103 determines the L-shaped area. To do. The area determination unit 103 may determine the shape of the input permission area based on the above-mentioned history of handwritten input information.

また、領域決定部103は、上記の例では例えば横書きの文字が描かれた場合、横方向のサイズを表示面と同じサイズとしたが、それより小さいサイズとしてもよいし、共有画面がスクロールする場合にそれよりも大きいサイズとしてもよい。領域決定部103は、例えば上述した手書き入力の情報の履歴に基づいて、すぐに改行する傾向のあるユーザはサイズを小さくし、画面の端まで一杯に手書きする傾向のあるユーザはサイズを大きくする。これにより、ユーザが手書き入力を行う可能性がより高い領域を入力許可領域とすることができる。 Further, in the above example, when the horizontally written characters are drawn, the area determination unit 103 sets the horizontal size to the same size as the display surface, but the size may be smaller than that, or the shared screen scrolls. The size may be larger than that. The area determining unit 103 reduces the size of a user who tends to start a new line immediately and increases the size of a user who tends to handwrite to the edge of the screen based on, for example, the history of handwriting input information described above. .. Thereby, the area in which the user is more likely to perform handwriting input can be set as the input permission area.

[2−8]入力許可領域の範囲を示す画像
上記の各例では、書き込み中画像を表示させることで入力許可領域の範囲を表したが、これに限らない。例えば、画面データ生成部104が、入力許可領域の範囲を示す画像が表された画面データを生成してもよい。入力許可領域の範囲を示す画像とは、例えば入力許可領域とそれ以外の領域との境界を表す線の画像、若しくは、入力許可領域の背景を他の領域とは異なる色又は模様等で表す画像である。これにより、ユーザはどこまでが自分に対して入力を許可された領域なのかを知ることができる。
[2-8] Image Showing Range of Input Allowed Area In each of the above examples, the range of the input allowed area is represented by displaying the image during writing, but it is not limited to this. For example, the screen data generation unit 104 may generate screen data in which an image showing the range of the input permission area is displayed. The image showing the range of the input permission area is, for example, an image of a line representing the boundary between the input permission area and other areas, or an image showing the background of the input permission area with a color or pattern different from that of other areas. Is. This allows the user to know to what extent the user is allowed to input.

[2−9]発明のカテゴリ
本発明は、画面共有サーバ装置及びユーザ装置のような情報処理装置の他、それらの装置を備える手書き画像共有システムのような情報処理システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられるし、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-9] Category of Invention The present invention can be understood as an information processing system such as a screen sharing server device and a user device, as well as an information processing system such as a handwritten image sharing system including these devices. Further, the present invention can be regarded as an information processing method for realizing the processing executed by each device, and also as a program for causing a computer controlling each device to function. This program may be provided in the form of a recording medium such as an optical disc having the program stored therein, or may be provided in the form of being downloaded by a computer via a network such as the Internet and then installed and made available. May be done.

[2−10]処理手順等
本明細書で説明した各実施例の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-10] Processing Procedures and the Like The processing procedures, sequences, flowcharts, and the like of the respective embodiments described in this specification may be interchanged as long as there is no contradiction. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.

[2−11]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-11] Handling of input/output information, etc. The input/output information, etc. may be stored in a specific place (for example, a memory) or may be managed by a management table. Information that is input/output may be overwritten, updated, or added. The output information and the like may be deleted. The input information and the like may be transmitted to another device.

[2−12]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-12] Software Software, whether called software, firmware, middleware, microcode, hardware description language, or any other name, is an instruction, instruction set, code, code segment, program code, program. , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, etc., should be broadly construed.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Moreover, software, instructions, etc. may be transmitted and received via a transmission medium. For example, the software may use a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and/or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wireline and/or wireless technologies are included within the definition of transmission medium.

[2−13]情報、信号
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-13] Information, Signals The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that may be mentioned throughout the above description are voltage, current, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any of these. May be represented by a combination of

[2−14]システム、ネットワーク
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-14] System, Network As used herein, the terms "system" and "network" are used interchangeably.

[2−15]「に基づいて」の意味
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-15] Meaning of “based on” As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

[2−16]「及び」、「又は」
本明細書において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-16] "and", "or"
In the present specification, with respect to a configuration that can be implemented with “A and B” or “A or B”, the configuration described in one expression may be used as the configuration described in the other expression. For example, when "A and B" is described, it may be used as "A or B" as long as it is practicable without inconsistency with other descriptions.

例えば、上述した領域決定部103が入力許可領域の「形及び大きさ」を各ユーザ装置20についてそれぞれ決定するという構成は、領域決定部103が入力許可領域の「形又は大きさ」を各ユーザ装置20についてそれぞれ決定する構成としてもよい。その場合、領域決定部103が入力許可領域の「形及び大きさのうちいずれか選択した方」を各ユーザ装置20についてそれぞれ決定するという場合だけでなく、単に領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する場合も、領域決定部103が入力許可領域の「大きさ」を各ユーザ装置20についてそれぞれ決定する場合も含まれる。 For example, in the above-described configuration in which the area determination unit 103 determines the “shape and size” of the input permission area for each user device 20, the area determination unit 103 determines the “shape or size” of the input permission area for each user. The configuration may be such that each device 20 is determined. In that case, not only the case where the area determination unit 103 determines the “whichever is selected among the shape and the size” of the input permitted area for each user device 20, but the area determination unit 103 does not simply determine the input permitted area. This includes a case where the “shape” is determined for each user device 20, and a case where the region determination unit 103 determines the “size” of the input permission region for each user device 20.

また、例えば領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する構成は、入力許可領域の「形」以外のものも合わせて決定する構成を排除するものではない。そのため、領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する構成には、領域決定部103が入力許可領域の「形及び大きさ」を各ユーザ装置20についてそれぞれ決定するという構成も含まれる。このように、「A又はB」という記載には、「A及びB」という実施態様もそれが実施可能である限り含まれるものとする。 Further, for example, the configuration in which the area determining unit 103 determines the “shape” of the input permission area for each user device 20 does not exclude the configuration in which the shape other than the “shape” of the input permission area is also determined. Therefore, in the configuration in which the area determination unit 103 determines the “shape” of the input permission area for each user device 20, the area determination unit 103 determines the “shape and size” of the input permission area for each user device 20. The configuration of doing is also included. Thus, the description "A or B" also includes the embodiments "A and B" as long as it is practicable.

[2−17]態様のバリエーション等
本明細書で説明した各実施例は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-17] Variations of Aspect, etc. The embodiments described in the present specification may be used alone, in combination, or may be switched according to execution. Further, the notification of the predetermined information (for example, the notification of “being X”) is not limited to the explicit notification, and is performed implicitly (for example, the notification of the predetermined information is not performed). Good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施例に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description of the present specification is for the purpose of exemplifying explanation, and does not have any restrictive meaning to the present invention.

1…手書き画像共有システム、10…画面共有サーバ装置、20…ユーザ装置、101…手書き入力情報取得部、102…文字認識部、103…領域決定部、104…画面データ生成部、105…画面データ出力部、106…情報蓄積部、107…手書き画像推定部、201…手書き入力操作受付部、202…手書き入力情報出力部、203…手書き入力画面表示部。 DESCRIPTION OF SYMBOLS 1... Handwriting image sharing system, 10... Screen sharing server device, 20... User device, 101... Handwriting input information acquisition part, 102... Character recognition part, 103... Area determination part, 104... Screen data generation part, 105... Screen data Output unit 106... Information storage unit 107... Handwriting image estimation unit 201... Handwriting input operation reception unit 202... Handwriting input information output unit 203... Handwriting input screen display unit.

Claims (7)

複数のユーザ装置からユーザの手書き入力の入力情報を取得する情報取得部と、
第1ユーザ装置から第1入力情報が取得されると、当該第1入力情報が示す第1手書き画像と、当該第1入力情報に後続する第2入力情報が示す第2手書き画像とが配置される第1領域を、当該第2入力情報が取得される前に共有画面において決定するとともに、前記第1ユーザ装置から前記第1入力情報が取得された後に第2ユーザ装置から第3入力情報が取得されると、当該第3入力情報が示す第3手書き画像と、当該第3入力情報に後続する第4入力情報が示す第4手書き画像とが配置される第2領域であって、前記第1領域と重ならない第2領域を、当該第4入力情報が取得される前に前記共有画面において決定する領域決定部と、
前記第1手書き画像と前記第2手書き画像を前記第1領域に配置し、前記第3手書き画像と前記第4手書き画像を前記第2領域に配置することで、前記共有画面を表す画面データを生成する生成部と、
生成された前記画面データを出力する出力部と
を備える情報処理装置。
An information acquisition unit for acquiring input information of user's handwriting input from a plurality of user devices;
When the first input information is acquired from the first user device, the first handwritten image indicated by the first input information and the second handwritten image indicated by the second input information subsequent to the first input information are arranged. The first area is determined on the shared screen before the second input information is acquired, and the third input information is acquired from the second user device after the first input information is acquired from the first user device. When acquired, it is the second area in which the third handwritten image indicated by the third input information and the fourth handwritten image indicated by the fourth input information subsequent to the third input information are arranged, An area determination unit that determines a second area that does not overlap one area in the shared screen before the fourth input information is acquired;
By arranging the first handwritten image and the second handwritten image in the first area, and arranging the third handwritten image and the fourth handwritten image in the second area, screen data representing the shared screen is displayed. A generator to generate,
An information processing apparatus, comprising: an output unit that outputs the generated screen data.
前記領域決定部は、前記第1手書き画像に応じたサイズ又は形の領域を前記第1領域とする
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the area determination unit sets an area having a size or shape corresponding to the first handwritten image as the first area.
前記第1手書き画像が文字である場合に当該文字を認識する認識部を備え、
前記領域決定部は、前記第1手書き画像が文字として認識された場合に当該文字の大きさ又は当該文字が並ぶ向きに応じたサイズ又は形の領域を前記第1領域とする
請求項2に記載の情報処理装置。
A recognition unit for recognizing the character when the first handwritten image is the character,
The said area|region determination part makes the said area | region the size or shape according to the size of the said character, or the direction in which the said character arranges, when the said 1st handwritten image is recognized as a said 1st area | region. Information processing equipment.
取得された入力情報の履歴を蓄積する蓄積部を備え、
前記領域決定部は、前記第1ユーザ装置について蓄積された前記履歴から入力されることが推定される手書き画像に応じたサイズ又は形の領域を前記第1領域とする
請求項1から3のいずれか1項に記載の情報処理装置。
Equipped with a storage unit that stores the history of acquired input information ,
The area determination unit sets the area having a size or shape corresponding to a handwritten image estimated to be input from the history accumulated for the first user device as the first area. The information processing apparatus according to item 1.
前記領域決定部は、前記第1手書き画像が前記第1領域に納まらなくなった場合、当該第1手書き画像が納まるサイズに当該第1領域を拡大し、前記第2領域を拡大された当該第1領域と重ならない位置に移動させる
請求項1から4のいずれか1項に記載の情報処理装置。
When the first handwritten image does not fit in the first area, the area determination unit expands the first area to a size in which the first handwritten image fits and expands the second area. The information processing apparatus according to claim 1, wherein the information processing apparatus is moved to a position that does not overlap the area.
前記領域決定部は、前記第1手書き画像及び前記第手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、当該隙間を埋める位置に当該第1手書き画像及び当該第手書き画像の一方又は両方を移動させる
請求項1から5のいずれか1項に記載の情報処理装置。
When the input of at least one of the first handwritten image and the third handwritten image has been completed and a gap has occurred between both images, the area determination unit is configured to fill the gap with the first handwritten image. The information processing apparatus according to claim 1, wherein one or both of the third handwritten image and the third handwritten image are moved.
前記第1ユーザ装置からユーザが指定した指定画像を取得する画像取得部を備え、
前記生成部は、取得された前記指定画像を前記第1領域に配置して表した前記画面データを生成する
請求項1から6のいずれか1項に記載の情報処理装置。
An image acquisition unit for acquiring a designated image designated by the user from the first user device;
The information processing apparatus according to claim 1, wherein the generation unit generates the screen data in which the acquired designated image is arranged and displayed in the first area.
JP2016185241A 2016-09-23 2016-09-23 Information processing equipment Active JP6716409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185241A JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185241A JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2018049503A JP2018049503A (en) 2018-03-29
JP6716409B2 true JP6716409B2 (en) 2020-07-01

Family

ID=61767711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185241A Active JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Country Status (1)

Country Link
JP (1) JP6716409B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4918458B2 (en) * 2007-11-02 2012-04-18 シャープ株式会社 Handwriting input device and handwriting input method
JP5248696B1 (en) * 2012-05-25 2013-07-31 株式会社東芝 Electronic device, handwritten document creation method, and handwritten document creation program
JP5751228B2 (en) * 2012-09-05 2015-07-22 コニカミノルタ株式会社 Conference support system, control device, and input terminal
JP2015114976A (en) * 2013-12-13 2015-06-22 株式会社東芝 Electronic device and method
JP5939285B2 (en) * 2014-08-28 2016-06-22 日本電気株式会社 Drawing control apparatus, information sharing system, drawing control method, and drawing control program

Also Published As

Publication number Publication date
JP2018049503A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
US9207858B2 (en) Method and apparatus for drawing and erasing calligraphic ink objects on a display surface
EP3091426B1 (en) User terminal device providing user interaction and method therefor
JP6364893B2 (en) Terminal device, electronic whiteboard system, electronic whiteboard input support method, and program
US10205873B2 (en) Electronic device and method for controlling a touch screen of the electronic device
US20110115814A1 (en) Gesture-controlled data visualization
US9645782B2 (en) Multiple displays for displaying workspaces
EP2843531A2 (en) Electronic device and method for providing content according to field attribute
JP2011040035A (en) Display input device and computer program
US9329775B2 (en) Figure drawing apparatus, figure drawing method and recording medium on which figure drawing programs are recorded
JP6807840B2 (en) Systems and methods for recognizing geometry
EP2649795A1 (en) Annotation method and system for conferencing
CN112991178B (en) Image splicing method, device, equipment and medium
JPWO2017138223A1 (en) Image processing apparatus, image processing system, and image processing method
JP6433923B2 (en) Providing a specific object location to the device
CN114063858B (en) Image processing method, image processing device, electronic equipment and storage medium
JP6988060B2 (en) Image processing equipment, image processing system, image processing method and program
CN109298817B (en) Item display method, item display device, terminal and storage medium
CN113139905B (en) Image stitching method, device, equipment and medium
CN110727383A (en) Touch interaction method and device based on small program, electronic equipment and storage medium
CN114565701A (en) Line segment drawing method and device, electronic equipment and computer readable storage medium
JP6716409B2 (en) Information processing equipment
EP3048524A1 (en) Document display support device, terminal, document display method, and computer-readable storage medium for computer program
JP6287498B2 (en) Electronic whiteboard device, electronic whiteboard input support method, and program
US9799103B2 (en) Image processing method, non-transitory computer-readable storage medium and electrical device
JP6592056B2 (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200610

R150 Certificate of patent or registration of utility model

Ref document number: 6716409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250