JP2018049503A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2018049503A
JP2018049503A JP2016185241A JP2016185241A JP2018049503A JP 2018049503 A JP2018049503 A JP 2018049503A JP 2016185241 A JP2016185241 A JP 2016185241A JP 2016185241 A JP2016185241 A JP 2016185241A JP 2018049503 A JP2018049503 A JP 2018049503A
Authority
JP
Japan
Prior art keywords
handwritten
input
image
area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016185241A
Other languages
Japanese (ja)
Other versions
JP6716409B2 (en
Inventor
利夫 金田
Toshio Kaneda
利夫 金田
宣人 荒井
Nobuhito Arai
宣人 荒井
真都 吉岡
Masato Yoshioka
真都 吉岡
大悟 鹿島
Daigo Kashima
大悟 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016185241A priority Critical patent/JP6716409B2/en
Publication of JP2018049503A publication Critical patent/JP2018049503A/en
Application granted granted Critical
Publication of JP6716409B2 publication Critical patent/JP6716409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent handwritten images of respective users from overlapping even though the respective users input the handwritten images at the same time to display the handwritten images on a shared screen.SOLUTION: A handwriting input information acquisition part 101 acquires user's handwriting input information from a plurality of user devices. A character recognition part 102 recognizes a character in the case that a handwritten image shown by the acquired handwriting input information shows the character. An area determination part 103 respectively determines the shape and size of an area (an input permission area) where a handwriting input by each user device 20 is permitted on a shared screen about each user device 20. A screen data generation part 104 generates screen data representing a handwritten image shown by each handwriting input information acquired from the plurality of user devices 20, shown on the shared screen. A screen data output part 105 outputs the generated screen data.SELECTED DRAWING: Figure 4

Description

本発明は、手書き画像を共有画面に表示する技術に関する。   The present invention relates to a technique for displaying a handwritten image on a shared screen.

手書き画像を共有画面に表示する技術がある。例えば特許文献1には、自端末で入力された手書き入力情報と他の端末から送信されてきた手書き入力情報とを同じ表示面(つまり共有画面)に表示する場合に、その手書き入力情報を送信してきた端末に紐付けられた表示色で表示する技術が開示されている。   There is a technique for displaying a handwritten image on a shared screen. For example, in Patent Document 1, when handwritten input information input from its own terminal and handwritten input information transmitted from another terminal are displayed on the same display surface (that is, a shared screen), the handwritten input information is transmitted. A technique for displaying in a display color associated with a terminal that has been used is disclosed.

特開2010−157098号公報JP 2010-157098 A

特許文献1の技術では、他のユーザの手書き画像は自分の手書き画像とは異なる色で表示されるが、例えば複数のユーザが同時に同じ領域に入力したために手書き画像が重なって見えにくくなってしまうということまでは想定されていない。
そこで、本発明は、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、それらのユーザの手書き画像が重ならないようにすることを目的とする。
In the technique of Patent Document 1, the handwritten image of another user is displayed in a color different from the handwritten image of his / her own. However, for example, a plurality of users input the same region at the same time, so the handwritten images overlap and become difficult to see. This is not expected.
Therefore, an object of the present invention is to prevent the handwritten images of those users from overlapping each other even if each user inputs simultaneously to display the handwritten images on a shared screen.

上記目的を達成するために、複数のユーザ装置からユーザの手書き入力の情報を取得する情報取得部と、複数の前記ユーザ装置から取得された各々の前記情報が示す手書き画像を共有画面に表した画面データを生成する生成部であって、第1ユーザ装置から取得された前記情報が示す第1手書き画像を、前記共有画面において前記第1ユーザ装置による手書き入力が許可される第1領域に配置し、前記第1ユーザ装置から当該情報が取得されている期間に第2ユーザ装置から取得された前記情報が示す第2手書き画像を、前記共有画面において前記第1領域と重ならず且つ前記第2ユーザ装置による手書き入力が許可される第2領域に配置して前記画面データを生成する生成部と、生成された前記画面データを出力する出力部とを備える情報処理装置を提供する。   In order to achieve the above-described object, an information acquisition unit that acquires information on user handwriting input from a plurality of user devices, and a handwritten image indicated by each of the information acquired from the plurality of user devices are displayed on a shared screen A generation unit for generating screen data, wherein the first handwritten image indicated by the information acquired from the first user device is arranged in a first area where handwriting input by the first user device is permitted on the shared screen. The second handwritten image indicated by the information acquired from the second user device during a period in which the information is acquired from the first user device does not overlap the first region on the shared screen and the first Information that includes a generation unit that generates the screen data by arranging in a second region where handwriting input by two user devices is permitted, and an output unit that outputs the generated screen data To provide a management apparatus.

また、前記生成部は、前記第1ユーザ装置から取得された前記手書き入力の情報に応じたサイズ又は形の領域を前記第1領域としてもよい。
さらに、前記第1手書き画像が文字である場合に当該文字を認識する認識部を備え、前記生成部は、前記第1手書き画像が文字として認識された場合に当該文字の大きさ又は当該文字が並ぶ向きを前記手書き入力の情報として用いてもよい。
Moreover, the said production | generation part is good also considering the area | region of the size or shape according to the information of the said handwritten input acquired from the said 1st user apparatus as said 1st area | region.
Furthermore, the recognition part which recognizes the said character when the said 1st handwritten image is a character is provided, The said production | generation part has the magnitude | size of the said character or the said character, when the said 1st handwritten image is recognized as a character. The line-up direction may be used as information for the handwriting input.

また、取得された前記手書き入力の情報の履歴を蓄積する蓄積部を備え、前記生成部は、前記第1ユーザ装置について蓄積された前記履歴から入力されることが推定される手書き画像に応じたサイズ又は形の領域を前記第1領域としてもよい。
さらに、前記生成部は、前記第1手書き画像が前記第1領域に納まらなくなった場合、当該第1手書き画像が納まるサイズに当該第1領域を拡大し、前記第2領域を拡大された当該第1領域と重ならない位置に移動させてもよい。
In addition, a storage unit that stores the history of the acquired handwritten input information is provided, and the generation unit responds to a handwritten image estimated to be input from the history stored for the first user device. A region of size or shape may be the first region.
Further, when the first handwritten image does not fit in the first area, the generation unit enlarges the first area to a size that fits the first handwritten image and enlarges the second area. You may move to the position which does not overlap with 1 area | region.

また、前記生成部は、前記第1手書き画像及び前記第2手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、当該隙間を埋める位置に当該第1手書き画像及び当該第2手書き画像の一方又は両方を移動させてもよい。
さらに、前記第1ユーザ装置からユーザが指定した指定画像を取得する画像取得部を備え、前記生成部は、取得された前記指定画像を前記第1領域に配置して表した前記画面データを生成してもよい。
In addition, when the input of at least one of the first handwritten image and the second handwritten image is completed and a gap is generated between both images, the generating unit is configured to fill the first handwritten at a position where the gap is filled. One or both of the image and the second handwritten image may be moved.
Furthermore, the image acquisition part which acquires the designated image which the user designated from the said 1st user apparatus is provided, The said production | generation part produces | generates the said screen data which arranged and represented the acquired said designated image in the said 1st area | region. May be.

本発明によれば、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、それらのユーザの手書き画像が重ならないようにすることができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it inputs simultaneously in order that each user may display a handwritten image on a shared screen, it can prevent those users' handwritten images from overlapping.

実施例に係る手書き画像共有システムの全体構成を表す図The figure showing the whole structure of the handwritten image sharing system which concerns on an Example. 画面共有サーバ装置のハードウェア構成を表す図The figure showing the hardware constitutions of a screen sharing server device ユーザ装置のハードウェア構成を表す図The figure showing the hardware constitutions of a user apparatus 手書き画像共有システムが実現する機能構成を表す図The figure showing the functional composition which a handwritten image sharing system realizes 指示位置の特定方法の一例を表す図The figure showing an example of the specification method of an indication position 入力許可領域の決定方法の一例を表す図The figure showing an example of the determination method of an input permission area 他のユーザ装置に表示される手書き画像の一例を表す図The figure showing an example of the handwritten image displayed on another user apparatus 入力許可領域の決定方法の別の一例を表す図The figure showing another example of the determination method of an input permission area | region 共有表示処理における各装置の動作手順の一例を表す図The figure showing an example of the operation procedure of each apparatus in shared display processing 拡大された入力許可領域の一例を表す図The figure showing an example of the enlarged input permission area 縮小された手書き画像の一例を表す図The figure showing an example of the reduced handwritten image 隙間を縮小するように移動された手書き画像の一例を表す図The figure showing an example of the handwritten image moved so that a clearance gap may be reduced 変形例の手書き画像共有システムが実現する機能構成を表す図The figure showing the functional structure which the handwritten image sharing system of a modification implement | achieves 蓄積された履歴の一例を表す図A figure showing an example of the accumulated history 変形例の手書き画像共有システムが実現する機能構成を表す図The figure showing the functional structure which the handwritten image sharing system of a modification implement | achieves 表示された指定画像の一例を表す図A figure showing an example of the displayed designated image 変形例の手書き画像共有システムの全体構成の一例を表す図The figure showing an example of the whole structure of the handwritten image sharing system of a modification 手書き画像共有システムが実現する機能構成を表す図The figure showing the functional composition which a handwritten image sharing system realizes

[1]実施例
図1は実施例に係る手書き画像共有システム1の全体構成を表す。手書き画像共有システム1は、複数のユーザがそれぞれ利用するユーザ装置に共有画面を表示させ、ユーザが共有画面に手書き入力を行うと、自分のユーザ装置の共有画面だけでなく他のユーザのユーザ装置の共有画面にも手書き入力した手書き画像を表示させることで、各ユーザが入力した手書き画像を複数のユーザで共有させるシステムである。
[1] Embodiment FIG. 1 shows an overall configuration of a handwritten image sharing system 1 according to an embodiment. When the handwritten image sharing system 1 displays a shared screen on user devices respectively used by a plurality of users and the user performs handwriting input on the shared screen, not only the shared screen of the user device but also the user devices of other users This is a system in which a handwritten image input by handwriting is displayed on the sharing screen, and the handwritten image input by each user is shared by a plurality of users.

手書き画像共有システム1は、ネットワーク2と、画面共有サーバ装置10と、ユーザ装置20−1、20−2及び20−3(以下特に区別しない場合は「ユーザ装置20」という)とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを仲介する。ネットワーク2には、画面共有サーバ装置10が有線通信でアクセスしており、ユーザ装置20が無線通信でアクセスしている。なお、ネットワーク2とのアクセスは有線通信及び無線通信のどちらでもよい。   The handwritten image sharing system 1 includes a network 2, a screen sharing server device 10, and user devices 20-1, 20-2 and 20-3 (hereinafter referred to as “user device 20” unless otherwise distinguished). The network 2 is a communication system including a mobile communication network and the Internet, and mediates exchange of data between devices accessing the own system. The screen sharing server apparatus 10 is accessing the network 2 via wired communication, and the user apparatus 20 is accessing via wireless communication. Access to the network 2 may be either wired communication or wireless communication.

画面共有サーバ装置10は、各ユーザ装置20が表示する手書き入力用の画面を共有するための処理を行う情報処理装置である。ユーザ装置20は、画面共有サーバ装置10によって共有される手書き入力用の画面、すなわち手書き画像の共有画面を表示してユーザによる手書き入力を受け付けるとともに、手書き入力により描かれた手書き画像(自装置を利用するユーザの手書き画像及び他のユーザ装置20を利用するユーザの手書き画像)を表示する情報処理装置である。   The screen sharing server device 10 is an information processing device that performs processing for sharing a screen for handwriting input displayed by each user device 20. The user device 20 displays a screen for handwriting input shared by the screen sharing server device 10, that is, a screen for sharing a handwritten image, accepts handwritten input by the user, and creates a handwritten image drawn by handwriting input (the device itself). It is an information processing apparatus which displays a user's handwritten image to be used, and a user's handwritten image using the other user apparatus 20).

図2は画面共有サーバ装置10のハードウェア構成を表す。画面共有サーバ装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、バス17という各装置を備えるコンピュータである。なお、ここでいう「装置」という文言は、回路、デバイス及びユニット等に読み替えることができる。また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。   FIG. 2 shows a hardware configuration of the screen sharing server apparatus 10. The screen sharing server device 10 is a computer that includes a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, and a bus 17. Note that the term “apparatus” here can be read as a circuit, a device, a unit, or the like. Each device may include one or a plurality of devices, or some of the devices may not be included.

プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を、ストレージ13及び/又は通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。各種処理を実行するプロセッサ11は1つでもよいし、2以上であってもよく、2以上のプロセッサ11は、同時又は逐次に各種処理を実行してもよい。また、プロセッサ11は、1以上のチップで実装されてもよい。プログラムは、電気通信回線を介してネットワークから送信されても良い。   The processor 11 controls the entire computer by operating an operating system, for example. The processor 11 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. Further, the processor 11 reads programs (program codes), software modules, data, and the like from the storage 13 and / or the communication device 14 to the memory 12, and executes various processes according to these. The number of processors 11 that execute various processes may be one, two or more, and the two or more processors 11 may execute various processes simultaneously or sequentially. Further, the processor 11 may be implemented by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ12は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ12は、レジスタ、キャッシュ及びメインメモリ(主記憶装置)等と呼ばれてもよい。メモリ12は、前述したプログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を保存することができる。   The memory 12 is a computer-readable recording medium, and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be. The memory 12 may be called a register, a cache, a main memory (main storage device), or the like. The memory 12 can store the above-described program (program code), software module, data, and the like.

ストレージ13は、コンピュータが読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。また、ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及び/又はストレージ13を含むデータベース、サーバその他の適切な媒体であってもよい。ストレージ13は、手書きでの入力を実現するアプリケーション(手書きアプリ)のプログラムを記憶している。   The storage 13 is a computer-readable recording medium such as an optical disc such as a CD-ROM (Compact Disc ROM), a hard disc drive, a flexible disc, a magneto-optical disc (eg, a compact disc, a digital versatile disc, a Blu- ray (registered trademark) disk, smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, or the like. The storage 13 may also be called an auxiliary storage device. The above-described storage medium may be, for example, a database including the memory 12 and / or the storage 13, a server, or other suitable medium. The storage 13 stores a program of an application (handwriting application) that realizes handwritten input.

通信装置14は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。入力装置15は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。   The communication device 14 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, or a communication module. The input device 15 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts an input from the outside.

出力装置16は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置15及び出力装置16は、一体となった構成(例えば、タッチスクリーン)であってもよい。また、プロセッサ11及びメモリ12等の各装置は、情報を通信するためのバス17を介して互いにアクセス可能となっている。バス17は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。   The output device 16 is an output device (for example, a display, a speaker, an LED lamp, or the like) that performs output to the outside. Note that the input device 15 and the output device 16 may have an integrated configuration (for example, a touch screen). The devices such as the processor 11 and the memory 12 are accessible to each other via a bus 17 for communicating information. The bus 17 may be composed of a single bus or may be composed of different buses between devices.

また、画面共有サーバ装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つで実装されてもよい。   The screen sharing server device 10 includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). Hardware may be configured, and a part or all of each functional block may be realized by the hardware. For example, the processor 11 may be implemented by at least one of these hardware.

図3はユーザ装置20のハードウェア構成を表す。ユーザ装置20は、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、入出力装置25と、バス26という各装置を備えるコンピュータである。プロセッサ21から通信装置24及びバス26は、図2に表す同名の各装置と共通するハードウェアである。入出力装置25は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン及びタッチセンサ等)と、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー及びLEDランプ等)とを備える。ユーザ装置20は、本実施例では、入力デバイス及び出力デバイスが一体となった入出力デバイスであるタッチスクリーンを備える。   FIG. 3 shows a hardware configuration of the user device 20. The user device 20 is a computer including a processor 21, a memory 22, a storage 23, a communication device 24, an input / output device 25, and a bus 26. The communication device 24 and the bus 26 from the processor 21 are hardware common to the devices of the same name shown in FIG. The input / output device 25 includes an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, and a touch sensor) that receives input from the outside, and an output device (for example, a display, a speaker, and an LED) that performs output to the outside. Lamp). In this embodiment, the user apparatus 20 includes a touch screen that is an input / output device in which an input device and an output device are integrated.

画面共有サーバ装置10のプロセッサ11及び各ユーザ装置20のプロセッサ21がプログラムを実行して各々の装置の各部を制御することで、以下に述べる機能が実現される。
図4は手書き画像共有システム1が実現する機能構成を表す。画面共有サーバ装置10は、手書き入力情報取得部101と、文字認識部102と、領域決定部103と、画面データ生成部104と、画面データ出力部105とを備える。ユーザ装置20は、手書き入力操作受付部201と、手書き入力情報出力部202と、手書き入力画面表示部203とを備える。なお、図4では、ユーザ装置20を1つしか表していないが、どのユーザ装置20も構成が共通しているものとする。
The functions described below are realized by the processor 11 of the screen sharing server device 10 and the processor 21 of each user device 20 executing a program to control each unit of each device.
FIG. 4 shows a functional configuration realized by the handwritten image sharing system 1. The screen sharing server apparatus 10 includes a handwritten input information acquisition unit 101, a character recognition unit 102, an area determination unit 103, a screen data generation unit 104, and a screen data output unit 105. The user device 20 includes a handwriting input operation reception unit 201, a handwriting input information output unit 202, and a handwriting input screen display unit 203. In FIG. 4, only one user device 20 is shown, but it is assumed that all user devices 20 have the same configuration.

ユーザ装置20の手書き入力操作受付部201は、ユーザが表示面上の位置を指示して行う手書き入力の操作を受け付ける。手書き入力操作受付部201は、手書き入力の操作を受け付けると、その操作により指示された表示面上の位置(指示位置)を例えば次の方法で特定する。   The handwriting input operation accepting unit 201 of the user device 20 accepts a handwriting input operation performed by the user indicating a position on the display surface. When the handwriting input operation reception unit 201 receives a handwriting input operation, the position (instructed position) on the display surface instructed by the operation is specified by, for example, the following method.

図5は指示位置の特定方法の一例を表す。図5(a)では、手書き入力画面を表示している表示面A1上の位置をユーザの指B1が指示している状態が表されている。手書き入力操作受付部201は、例えば、図5(b)に表すように、指B1のうち表示面A1と接触している接触領域F1を特定し、接触領域F1の中心を指示位置G1として特定する。なお、指示位置の特定方法はこれに限らず、他の周知の技術を用いてもよい。   FIG. 5 shows an example of a method for specifying the designated position. FIG. 5A shows a state in which the user's finger B1 indicates the position on the display surface A1 displaying the handwriting input screen. For example, as illustrated in FIG. 5B, the handwriting input operation reception unit 201 specifies the contact area F1 in contact with the display surface A1 of the finger B1, and specifies the center of the contact area F1 as the designated position G1. To do. Note that the method of specifying the designated position is not limited to this, and other known techniques may be used.

手書き入力操作受付部201は、特定した指示位置を示す位置情報を手書き入力情報出力部202に供給する。図に表すように表示面A1は長方形なので、手書き入力操作受付部201は、表示面A1の或る角(本実施例では表示される文字の上側を上方に向けた場合に左上にくる角)を原点P0とし、その角を形成する一辺をX軸、別の一辺をY軸とした座標系における指示位置G1の座標を位置情報として供給する。   The handwriting input operation reception unit 201 supplies position information indicating the specified pointing position to the handwriting input information output unit 202. Since the display surface A1 is rectangular as shown in the figure, the handwriting input operation accepting unit 201 has a certain corner of the display surface A1 (in this embodiment, the upper left corner when the upper side of the displayed character is turned upward). Is the origin P0, the coordinates of the designated position G1 in the coordinate system with one side forming the corner as the X axis and the other side as the Y axis are supplied as position information.

この座標系では、図中のX軸を示す矢印の方向(右向きの方向)がX軸の正方向、Y軸を示す矢印の方向(下向きの方向)がY軸の正方向であるものとする。手書き入力操作受付部201は、指示位置の特定と位置情報の供給を例えば一定の時間間隔で繰り返し行う。ここで用いられる時間間隔は、指示位置の軌跡によって表される画像(文字又は絵等の手書き画像)が認識できる程度には狭くしておくことが望ましい。   In this coordinate system, the arrow direction (rightward direction) indicating the X axis in the figure is the positive direction of the X axis, and the arrow direction (downward direction) indicating the Y axis is the positive direction of the Y axis. . The handwriting input operation reception unit 201 repeatedly specifies the designated position and supplies the position information, for example, at regular time intervals. It is desirable that the time interval used here be narrow enough to recognize an image (a handwritten image such as a character or a picture) represented by the locus of the designated position.

手書き入力情報出力部202は、手書き入力操作受付部201が操作を受け付けた手書き入力の情報を画面共有サーバ装置10に対して出力する。手書き入力情報出力部202は、手書き入力操作受付部201から繰り返し供給されてくる位置情報、すなわち手書き入力操作受付部201が特定した複数の指示位置を示す位置情報を、供給されてくる度に手書き入力の情報として出力する。手書き入力の情報とは、手書き入力された手書き画像(文字又は絵等)を表す情報であり、手書き入力情報出力部202により順次出力されるこれら複数の位置情報が示す複数の位置の軌跡は、手書き画像を表す。   The handwritten input information output unit 202 outputs the information of the handwritten input received by the handwriting input operation receiving unit 201 to the screen sharing server device 10. Each time handwritten input information output unit 202 is supplied with position information repeatedly supplied from handwriting input operation receiving unit 201, that is, position information indicating a plurality of designated positions specified by handwriting input operation receiving unit 201. Output as input information. The handwritten input information is information representing a handwritten image (such as a character or a picture) input by handwriting, and a plurality of position trajectories indicated by the plurality of position information sequentially output by the handwritten input information output unit 202 are: Represents a handwritten image.

画面共有サーバ装置10の手書き入力情報取得部101は、複数のユーザ装置からユーザの手書き入力の情報を取得する。手書き入力情報取得部101は本発明の「情報取得部」の一例である。手書き入力情報取得部101は、本実施例では図1に表すユーザ装置20−1、20−2及び20−3が出力してきた上記の位置情報を、各々の装置を利用するユーザの手書き入力の情報として取得する。手書き入力情報取得部101は、手書き入力の情報を取得する度に、取得したその情報を文字認識部102及び領域決定部103に供給する。   The handwritten input information acquisition unit 101 of the screen sharing server device 10 acquires information on a user's handwritten input from a plurality of user devices. The handwritten input information acquisition unit 101 is an example of the “information acquisition unit” in the present invention. In the present embodiment, the handwritten input information acquisition unit 101 uses the above-described position information output by the user devices 20-1, 20-2, and 20-3 shown in FIG. Obtain as information. Each time handwritten input information acquisition unit 101 acquires handwritten input information, it supplies the acquired information to character recognition unit 102 and region determination unit 103.

文字認識部102は、手書き入力情報取得部101により取得された手書き入力の情報が示す手書き画像が文字を表す場合に、その文字を認識する。文字認識部102は本発明の「認識部」の一例である。文字認識部102は、手書き入力情報取得部101から供給された手書き入力の情報、すなわちユーザが指示した指示位置を示す位置情報に基づいて、例えばOCR(Optical character recognition)の技術を用いて、その指示位置の軌跡が示す文字を認識する。   When the handwritten image indicated by the handwritten input information acquired by the handwritten input information acquiring unit 101 represents a character, the character recognizing unit 102 recognizes the character. The character recognition unit 102 is an example of the “recognition unit” in the present invention. The character recognition unit 102 uses, for example, OCR (Optical character recognition) technology based on handwritten input information supplied from the handwritten input information acquisition unit 101, that is, position information indicating an instruction position indicated by the user. The character indicated by the locus of the indicated position is recognized.

文字認識部102は、文字を認識した場合、文字を認識したことを示す情報及び供給された手書き入力の情報を領域決定部103に供給する。文字認識部102は、文字を認識しなかった場合には、その旨を通知する情報及び供給された手書き入力の情報を領域決定部103に供給する。本実施例では、文字が認識された場合を説明する。   When the character recognition unit 102 recognizes the character, the character recognition unit 102 supplies information indicating that the character has been recognized and the supplied handwritten input information to the region determination unit 103. When the character recognizing unit 102 does not recognize the character, the character recognizing unit 102 supplies information notifying that effect and the supplied handwritten input information to the region determining unit 103. In this embodiment, a case where a character is recognized will be described.

領域決定部103は、共有画面において各ユーザ装置20による手書き入力が許可される領域(入力許可領域)の形及び大きさを、各ユーザ装置20についてそれぞれ決定する。この入力許可領域の決定方法について図6から図8までを参照して説明する。
図6は入力許可領域の決定方法の一例を表す。図6(a)では、ユーザ装置20−1を利用するユーザ1が、表示面A1に手書き入力画面を表示させ、「こんにちは!」という手書き画像B11を入力したところが表されている。この手書き画像B11は後述する画面データ生成部104、画面データ出力部105及び手書き入力画面表示部203の動作により表示されるが、それらの動作については後ほど説明する。
The area determination unit 103 determines the shape and size of an area (input permission area) in which handwriting input by each user apparatus 20 is permitted on the shared screen for each user apparatus 20. A method of determining the input permission area will be described with reference to FIGS.
FIG. 6 shows an example of a method for determining the input permission area. In FIG. 6 (a), the user 1 to use the user device 20-1, display the handwriting input screen on the display surface A1, was entered handwritten image B11 that "Hello!" Is shown. The handwritten image B11 is displayed by operations of a screen data generation unit 104, a screen data output unit 105, and a handwriting input screen display unit 203, which will be described later, which will be described later.

領域決定部103は、文字を認識したことを示す情報が供給されると、ともに供給された手書き入力の情報が示す手書き画像、すなわち手書き文字に外接する四角形C1(各辺が図5に表した原点P0を中心とした座標系のX軸及びY軸に沿った四角形)のX軸に沿った辺の長さL11及びY軸に沿った辺の長さL12を図6(b)に表すように算出する。領域決定部103は、L11>L12であれば手書き文字が横書きで描かれたものであり、L11<L12であれば手書き文字が縦書きで描かれたものであると判断する。   When the information indicating that the character has been recognized is supplied, the region determination unit 103 supplies the handwritten image indicated by the supplied handwritten input information, that is, the rectangle C1 circumscribing the handwritten character (each side is shown in FIG. 5). FIG. 6B shows the side length L11 along the X axis and the side length L12 along the Y axis of the coordinate system centered on the origin P0 along the X axis and the Y axis. To calculate. The region determination unit 103 determines that the handwritten character is drawn in horizontal writing if L11> L12 and the handwritten character is drawn in vertical writing if L11 <L12.

この例では領域決定部103は手書き文字を横書きと判断している。この場合、領域決定部103は、横長の長方形を入力許可領域として決定する。具体的には、領域決定部103は、四角形C1の上側の辺を表示面A1の端まで左右に伸ばし、縦方向のサイズを四角形C1よりも所定の割合で大きくした(この例ではN(Nは自然数)倍にした)四角形を入力許可領域D1として決定する。本実施例では、横書きの文字は右端まで書いて改行すると下側に次の文字を書くものとして、領域決定部103は、入力済みの手書き文字よりも下側に領域が広がるように入力許可領域を決定する。   In this example, the area determination unit 103 determines that the handwritten character is horizontal writing. In this case, the region determination unit 103 determines a horizontally long rectangle as the input permission region. Specifically, the region determination unit 103 extends the upper side of the quadrangle C1 to the left and right to the end of the display surface A1, and increases the size in the vertical direction at a predetermined rate than the quadrangle C1 (in this example, N (N Is a natural number) multiplied by a square) is determined as the input permission area D1. In this embodiment, the horizontal determination character is written up to the right end and the next character is written on the lower side when a new line is entered, and the area determination unit 103 inputs the input permission area so that the area extends below the input handwritten character. To decide.

なお、領域決定部103は手書き文字を縦書きと判断した場合、縦長の長方形を入力許可領域として決定する。その場合、領域決定部103は、手書き文字に外接する四角形の右側の辺を表示面A1の端まで上下に伸ばし、横方向のサイズをその四角形よりも所定の割合で大きくした四角形を入力許可領域として決定する。本実施例では、縦書きの文字は下端まで書いて改行すると左側に次の文字を書くものとして、領域決定部103は、入力済みの手書き文字よりも左側に領域が広がるように入力許可領域を決定する。   When the area determination unit 103 determines that the handwritten character is vertical writing, the area determination unit 103 determines a vertically long rectangle as the input permission area. In that case, the area determination unit 103 extends a right side of the quadrilateral circumscribing the handwritten character up and down to the end of the display surface A1, and forms a quadrangle whose horizontal size is larger than the quadrangle by a predetermined ratio. Determine as. In this embodiment, assuming that the vertically written characters are written to the bottom and a new line is written, the next character is written on the left side, and the area determination unit 103 sets the input permission area so that the area extends to the left side of the input handwritten characters. decide.

図6の例で決定された入力許可領域D1にはユーザ1は手書き入力が許可されるので、ユーザ1が入力許可領域D1に手書き入力した手書き画像は、図6(d)に表す手書き画像B12のように表示される。一方、他のユーザは入力許可領域D1への手書き入力が許可されない。そのため、例えばユーザ装置20−2を利用するユーザ2が手書き入力した手書き画像は、図6(e)に表す「こんにちは!」という手書き画像B21のように入力許可領域D1の外の領域に表示されることになる。   Since the user 1 is allowed to input handwriting in the input permission area D1 determined in the example of FIG. 6, the handwritten image input by the user 1 in the input permission area D1 is the handwritten image B12 shown in FIG. Is displayed. On the other hand, handwriting input to the input permission area D1 is not permitted for other users. Therefore, for example, hand-drawn image user 2 to use the user device 20-2 has handwriting input is displayed in the region outside the input permission area D1 as handwritten image B21 that "Hello!" Depicted in Fig. 6 (e) Will be.

図6(e)では、手書き画像B21の右下に「....(書き込み中)」という他のユーザが書き込み中であることを示す書き込み中画像H1が表示されている。この書き込み中画像H1は、ユーザ2に許可された入力許可領域の範囲を表している。この例では、書き込み中画像H1として、ユーザ2が手書き入力した画像ではなく、予め用意された手書風の文字列の画像が用いられている。   In FIG. 6 (e), a writing image H1 indicating that another user is writing is displayed at the lower right of the handwritten image B21. This in-writing image H1 represents the range of the input permission area permitted by the user 2. In this example, an image of a handwritten character string prepared in advance is used as the writing image H1 instead of an image handwritten by the user 2.

図7は他のユーザ装置に表示される手書き画像の一例を表す。図7(a)では、ユーザ装置20−2の表示面A2に、ユーザ装置20−1で手書き入力された「こんにちは!」という手書き画像B11が表示されている。また、表示面A2には、書き込み中画像H2が表示されている。この書き込み中画像H2は、図6の説明で述べた入力許可領域D1の下側の端に表示されており、入力許可領域D1の下端を表している。手書き画像B11及び書き込み中画像H2に挟まれた領域に入力しても手書き画像が表示されないので、ユーザ2は書き込み中画像H2よりも下側から手書き入力を開始する。   FIG. 7 shows an example of a handwritten image displayed on another user device. In FIG. 7 (a), the display surface A2 of the user device 20-2, the hand-drawn image B11 is displayed that is handwriting input at the user device 20-1 "Hello!". In addition, a writing image H2 is displayed on the display surface A2. This in-writing image H2 is displayed at the lower end of the input permission area D1 described in the description of FIG. 6, and represents the lower end of the input permission area D1. Since the handwritten image is not displayed even if it is input to the region sandwiched between the handwritten image B11 and the writing image H2, the user 2 starts handwriting input from below the writing image H2.

図7(b)では、入力許可領域D1の外の領域にユーザ2が入力した手書き画像B21が表示面A2に表示されている。手書き画像B21は文字認識部102により文字として認識されるので、領域決定部103は、図6の例と同様に、手書き画像B21に外接する四角形C2のX軸に沿った辺の長さL21及びY軸に沿った辺の長さL22を図7(c)に表すように算出する。   In FIG.7 (b), the handwritten image B21 which the user 2 input into the area | region outside the input permission area | region D1 is displayed on the display surface A2. Since the handwritten image B21 is recognized as a character by the character recognizing unit 102, the region determining unit 103 determines the length L21 of the side along the X axis of the quadrangle C2 circumscribing the handwritten image B21, as in the example of FIG. The side length L22 along the Y-axis is calculated as shown in FIG.

領域決定部103は、L21>L22なので手書き画像B21が表す文字を横書きであると判断し、入力許可領域D1と同様に四角形C2に基づいて入力許可領域D2(縦方向のサイズがL22のN倍の四角形)を図7(d)に表すように決定する。このとき、図6(e)で表示面A1に表示されていた書き込み中画像H1は、表示面A2には表示されない。   The area determination unit 103 determines that the character represented by the handwritten image B21 is horizontal writing because L21> L22, and similarly to the input permission area D1, based on the rectangle C2, the input permission area D2 (the vertical size is N times L22). Are determined as shown in FIG. 7 (d). At this time, the writing image H1 displayed on the display surface A1 in FIG. 6E is not displayed on the display surface A2.

また、領域決定部103は、文字認識部102によって文字が認識される前には、手書き入力情報取得部101から供給される手書き入力の情報に基づいて入力許可領域を決定する。
図8は入力許可領域の決定方法の別の一例を表す。図8(a)では、ユーザ2がユーザ装置20−2の表示面A2の指示位置G2を指示して手書き入力を開始したところが表されている。領域決定部103は、例えば、手書き入力の情報が示すこの指示位置G2が縦方向の中心に位置し、縦方向のサイズが予め決められており(この例ではサイズL1と決められており)、表示面の横方向の幅を横方向のサイズとする四角形を入力許可領域D3として決定する。
Further, the area determination unit 103 determines an input permission area based on handwritten input information supplied from the handwritten input information acquisition unit 101 before the character recognition unit 102 recognizes a character.
FIG. 8 shows another example of the method of determining the input permission area. FIG. 8A shows that the user 2 has designated the designated position G2 on the display surface A2 of the user device 20-2 and started handwriting input. For example, the region determination unit 103 has the indicated position G2 indicated by the handwritten input information at the center in the vertical direction, and the vertical size is determined in advance (in this example, the size L1 is determined). A rectangle having the horizontal width of the display surface as the horizontal size is determined as the input permission area D3.

このとき、ユーザ装置20−1の表示面A1には、図8(b)に表すように、入力許可領域D3に書き込み中画像H3だけが表示され、ユーザ2が入力した手書き画像はまだ表示されない。この場合も、書き込み中画像H3はユーザ2に許可された入力許可領域の範囲を表している。領域決定部103は、以上のとおり決定した入力許可領域を示す領域情報を、供給された手書き入力の情報とともに画面データ生成部104に供給する。   At this time, as shown in FIG. 8B, only the writing image H3 is displayed in the input permission area D3 and the handwritten image input by the user 2 is not yet displayed on the display surface A1 of the user device 20-1. . Also in this case, the writing image H3 represents the range of the input permission area permitted by the user 2. The area determination unit 103 supplies area information indicating the input permission area determined as described above to the screen data generation unit 104 together with the supplied handwriting input information.

画面データ生成部104は、供給された手書き入力の情報、すなわち複数のユーザ装置20から取得された各々の手書き入力情報が示す手書き画像を共有画面に表した画面データを生成する。また、画面データ生成部104は、例えばユーザ装置20−1(本発明の「第1ユーザ装置」の一例)のユーザ1が手書き入力を行い、その手書き入力が行われている期間にユーザ装置20−2(本発明の「第2ユーザ装置」の一例)のユーザ2が手書き入力を行った場合、次のように画面データを生成する。   The screen data generation unit 104 generates screen data representing the supplied handwritten input information, that is, the handwritten image indicated by each handwritten input information acquired from the plurality of user devices 20 on the shared screen. Further, the screen data generation unit 104 is, for example, a user device 20-1 (an example of the “first user device” of the present invention) in which the user 1 performs handwriting input and the user device 20 is in a period during which the handwriting input is performed. -2 (an example of the “second user device” of the present invention), when the user 2 performs handwriting input, screen data is generated as follows.

画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報が示す手書き画像を、共有画面においてユーザ装置20−1による手書き入力が許可される第1入力許可領域に配置する。以下では、このように先に入力された手書き画像を「第1手書き画像」といい、第1手書き画像が入力されたユーザ装置20に許可される入力許可領域を「第1入力許可領域」という。図6の例では、画面データ生成部104は、第1手書き画像である手書き画像B11を、領域決定部103により決定された入力許可領域D1を第1入力許可領域として配置している。   The screen data generation unit 104 arranges the handwritten image indicated by the handwritten input information acquired from the user device 20-1 in the first input permission area where the handwritten input by the user device 20-1 is permitted on the shared screen. Hereinafter, the handwritten image previously input in this manner is referred to as a “first handwritten image”, and the input permission area permitted for the user device 20 in which the first handwritten image is input is referred to as a “first input permission area”. . In the example of FIG. 6, the screen data generation unit 104 arranges the handwritten image B11 that is the first handwritten image, with the input permission area D1 determined by the area determination unit 103 as the first input permission area.

また、画面データ生成部104は、ユーザ装置20−1から手書き入力の情報が取得されている期間にユーザ装置20−2から取得された手書き入力の情報が示す手書き画像を、共有画面において第1入力許可領域と重ならず且つユーザ装置20−2による手書き入力が許可される入力許可領域に配置して画面データを生成する。以下では、このように後から入力された手書き画像を「第2手書き画像」といい、第2手書き画像が入力されたユーザ装置20に許可される入力許可領域を「第2入力許可領域」という。   In addition, the screen data generation unit 104 displays the first handwritten image indicated by the handwritten input information acquired from the user device 20-2 during the period in which the handwritten input information is acquired from the user device 20-1 on the shared screen. The screen data is generated by being arranged in an input permission area that does not overlap with the input permission area and in which handwriting input by the user device 20-2 is permitted. Hereinafter, the handwritten image input later is referred to as “second handwritten image”, and the input permission area permitted for the user device 20 to which the second handwritten image is input is referred to as “second input permission area”. .

ここでいう「手書き入力の情報が取得されている期間」とは、手書き入力情報取得部101が手書き入力の情報を取得する瞬間(手書き入力の情報を示すデータのパケットを受信する瞬間)だけをいうのではなく、ユーザ1がユーザ装置20−1に手書きの入力を継続して行っており、手書き入力の情報が断続的に取得される期間の全体をいうものとする。画面データ生成部104は、例えば手書き入力の情報が取得されない期間が閾値を超えたときに、手書き入力の情報が取得されている期間が終了したと判断する。   Here, the “period during which handwritten input information is acquired” means only the moment when the handwritten input information acquisition unit 101 acquires the information of the handwritten input (the moment when the data packet indicating the information of the handwritten input is received). Instead, the user 1 continues to perform handwriting input to the user device 20-1, and the entire period during which handwritten input information is intermittently acquired is assumed. For example, when the period during which handwritten input information is not acquired exceeds a threshold, the screen data generation unit 104 determines that the period during which handwritten input information is acquired has ended.

図6(d)の例では、ユーザ1が「こんにちは!」という手書き画像B11の入力を開始してから「今日もよい天気ですね!」という手書き画像B12の入力を終了するまでに指示された位置を示す位置情報が手書き入力の情報として断続的に取得される期間となっている。図7の例では、ユーザ装置20−1から手書き入力の情報(「今日もよい天気ですね!」という手書き画像B12の軌跡を示す位置情報)が取得されている期間にユーザ装置20−2から手書き入力の情報(「こんにちは!」という手書き画像B21の軌跡を示す位置情報)が取得されている。   In the example of FIG. 6 (d), the has been instructed to until the user 1 is completed the input of the handwritten image B12 of "Hello!", "It's good weather today!" From the start of the input of the handwritten image B11 that It is a period in which position information indicating the position is intermittently acquired as handwritten input information. In the example of FIG. 7, handwritten input information (position information indicating the trajectory of the handwritten image B <b> 12 that is “good weather today!”) Is acquired from the user device 20-1 during the period in which the handwritten input information is acquired. of handwriting input information ( "Hello!" position information indicating the trajectory of the handwritten image B21 that) has been acquired.

この場合、画面データ生成部104は、第1入力許可領域である入力許可領域D1と重ならない領域として決定されている入力許可領域D2を第2入力許可領域として第2手書き画像である手書き画像B21を配置している。本実施例では、領域決定部103が図6(b)の説明で述べたように入力許可領域を決定するため、画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報に応じたサイズ及び形の領域を入力許可領域(図6(b)の例では入力許可領域D1)とすることになる。   In this case, the screen data generation unit 104 uses the input permission area D2 determined as an area that does not overlap the input permission area D1 that is the first input permission area as the second input permission area, and the handwritten image B21 that is the second handwritten image. Is arranged. In this embodiment, since the area determination unit 103 determines the input permission area as described in the description of FIG. 6B, the screen data generation unit 104 acquires the handwritten input information acquired from the user device 20-1. An area having a size and a shape corresponding to the input permission area (input permission area D1 in the example of FIG. 6B) is set.

より詳細には、画面データ生成部104は、ユーザ装置20−1から取得された手書き入力の情報が示す手書き画像が文字認識部102によって文字として認識された場合に、その文字(図6(b)の例では手書き画像B11)の大きさ及びその文字が並ぶ向きに応じたサイズ及び形の領域を入力許可領域(図6(b)の例では入力許可領域D1)とすることになる。   More specifically, when the handwritten image indicated by the handwritten input information acquired from the user device 20-1 is recognized as a character by the character recognizing unit 102, the screen data generating unit 104 displays the character (FIG. 6B). In the example of), an area having a size and a shape corresponding to the size of the handwritten image B11) and the direction in which the characters are arranged is set as the input permission area (the input permission area D1 in the example of FIG. 6B).

入力許可領域D1は、縦方向のサイズが手書き画像B11の縦方向のサイズを所定の割合で(図6の例ではN倍に)大きくした領域である。また、入力許可領域D1は、手書き画像B11が表す文字が横書きであるため、横長の長方形の形の領域となっている。また、手書き文字が縦書きの場合には、入力許可領域は、上述したように、縦長の長方形の形となり、横方向のサイズが手書き文字の横方向のサイズを所定の割合で大きくした領域となる。画面データ生成部104は、以上のとおり生成した画面データを画面データ出力部105に供給する。   The input permission area D1 is an area whose vertical size is larger than the vertical size of the handwritten image B11 by a predetermined ratio (N times in the example of FIG. 6). The input permission area D1 is a horizontally long rectangular area because the character represented by the handwritten image B11 is horizontally written. In addition, when the handwritten character is vertically written, the input permission region is a vertically long rectangular shape as described above, and the horizontal size is a region in which the horizontal size of the handwritten character is increased by a predetermined ratio. Become. The screen data generation unit 104 supplies the screen data generated as described above to the screen data output unit 105.

画面データ出力部105は、画面データ生成部104により生成された画面データを出力する。画面データ出力部105は本発明の「出力部」の一例である。手書き画像共有システム1においては、手書き画像を供給するユーザ装置20のグループが登録されている。画面共有サーバ装置10には、同一グループのユーザ装置20の宛先(IP(Internet Protocol)アドレス等)が、そのグループを識別する情報(例えばグループID(Identification))に対応付けて記憶されている。   The screen data output unit 105 outputs the screen data generated by the screen data generation unit 104. The screen data output unit 105 is an example of the “output unit” in the present invention. In the handwritten image sharing system 1, a group of user devices 20 that supply handwritten images is registered. The screen sharing server device 10 stores the destination (IP (Internet Protocol) address or the like) of the user device 20 in the same group in association with information (for example, group ID (Identification)) for identifying the group.

本実施例では、ユーザ装置20−1、20−2、20−3が同一グループとして登録されている。画面データ出力部105は、図6、図7の例のようにユーザ装置20−1及び20−2から手書き入力の情報が手書き入力情報取得部101によって取得されると、画面データ生成部104から供給された画面データをユーザ装置20−1、20−2、20−3に出力する。   In this embodiment, the user devices 20-1, 20-2, and 20-3 are registered as the same group. When the handwritten input information acquisition unit 101 acquires the handwritten input information from the user devices 20-1 and 20-2 as in the example of FIGS. 6 and 7, the screen data output unit 105 starts from the screen data generation unit 104. The supplied screen data is output to the user devices 20-1, 20-2, and 20-3.

ユーザ装置20の手書き入力画面表示部203は、画面共有サーバ装置10から出力されてきた画面データが示す画面を表示する。ユーザ装置20−1の手書き入力画面表示部203は、例えば図6に表すように画面を表示し、ユーザ装置20−2の手書き入力画面表示部203は、例えば図7に表すように画面を表示する。また、ユーザ装置20−3の手書き入力画面表示部203も、ユーザ1及びユーザ2が手書き入力した手書き画像を表示する。また、ユーザ装置20−3を利用するユーザ3が手書き入力を行えば、各ユーザ装置20の手書き入力画面表示部203は、その手書き画像を表示する。   The handwriting input screen display unit 203 of the user device 20 displays the screen indicated by the screen data output from the screen sharing server device 10. The handwriting input screen display unit 203 of the user device 20-1 displays a screen, for example, as shown in FIG. 6, and the handwriting input screen display unit 203 of the user device 20-2, for example, displays a screen as shown in FIG. To do. The handwriting input screen display unit 203 of the user device 20-3 also displays the handwritten image input by the user 1 and the user 2 by handwriting. Moreover, if the user 3 using the user device 20-3 performs handwriting input, the handwriting input screen display unit 203 of each user device 20 displays the handwritten image.

画面共有サーバ装置10及び各ユーザ装置20は、上記の構成に基づいて、ユーザの手書き画像を共有画面に表示させる共有表示処理を行う。
図9は共有表示処理における各装置の動作手順の一例を表す。図9ではユーザ装置20−1及び20−2だけが表されているが、ユーザ装置20−3もこれらと同様の動作をするものとする。この動作手順は、例えば、各ユーザが自分のユーザ装置20を操作して手書きアプリを起動して、手書き画像を描く操作を行うことを契機に開始される。
The screen sharing server device 10 and each user device 20 perform shared display processing for displaying a user's handwritten image on the shared screen based on the above configuration.
FIG. 9 shows an example of the operation procedure of each device in the shared display processing. Although only the user devices 20-1 and 20-2 are shown in FIG. 9, the user device 20-3 is assumed to perform the same operation. This operation procedure is started, for example, when each user operates his / her user device 20 to activate a handwriting application and performs an operation of drawing a handwritten image.

まず、ユーザ装置20(手書き入力操作受付部201)は、ユーザが表示面を指示して行う手書き入力の操作を受け付ける(ステップS11、S21)。なお、ユーザ装置20−1及び20−2の共通の動作についてはこのようにまとめて表すものとする。次に、ユーザ装置20(手書き入力情報出力部202)は、操作が受け付けられた手書き入力の情報を画面共有サーバ装置10に対して出力する(ステップS12、S22)。   First, the user device 20 (handwriting input operation reception unit 201) receives a handwriting input operation performed by the user instructing a display surface (steps S11 and S21). Note that common operations of the user devices 20-1 and 20-2 are collectively expressed in this way. Next, the user device 20 (handwritten input information output unit 202) outputs information of the handwritten input whose operation is accepted to the screen sharing server device 10 (steps S12 and S22).

画面共有サーバ装置10(手書き入力情報取得部101)は、ユーザ装置20−1、20−2からそれぞれ出力されてきた手書き入力の情報を取得する(ステップS31、S32)。次に、画面共有サーバ装置10(文字認識部102)は、取得された手書き入力の情報が示す手書き画像が文字であればその文字を認識する(ステップS33)。続いて、画面共有サーバ装置10(領域決定部103)は、認識された文字の大きさ及びその文字が並ぶ向きに応じたサイズ及び形の領域を入力許可領域として決定する(ステップS34)。   The screen sharing server device 10 (handwriting input information acquisition unit 101) acquires the handwriting input information respectively output from the user devices 20-1 and 20-2 (steps S31 and S32). Next, if the handwritten image indicated by the acquired handwritten input information is a character, the screen sharing server device 10 (character recognition unit 102) recognizes the character (step S33). Subsequently, the screen sharing server apparatus 10 (area determination unit 103) determines an area having a size and a shape corresponding to the recognized character size and the direction in which the characters are arranged as an input permission area (step S34).

次に、画面共有サーバ装置10(画面データ生成部104)は、決定された入力許可領域に手書き画像を配置した共有画面を示す画面データを生成する(ステップS35)。続いて、画面共有サーバ装置10(画面データ出力部105)は、生成された画面データを同一グループの複数のユーザ装置20に対してそれぞれ出力する(ステップS36、S37)。ユーザ装置20(手書き入力画面表示部203)は、出力されてきた画面データが示す共有画面を表示する(ステップS13、S23)。そして、ユーザ装置20は、ステップS11、S21に戻って動作を続ける。このようにして、ユーザが手書き入力をした手書き画像が各ユーザ装置20の手書入力画面を共有画面として表示されることになる。   Next, the screen sharing server device 10 (screen data generation unit 104) generates screen data indicating a shared screen in which a handwritten image is arranged in the determined input permission area (step S35). Subsequently, the screen sharing server device 10 (screen data output unit 105) outputs the generated screen data to each of the plurality of user devices 20 in the same group (steps S36 and S37). The user device 20 (handwriting input screen display unit 203) displays the shared screen indicated by the output screen data (steps S13 and S23). And the user apparatus 20 returns to step S11, S21, and continues operation | movement. In this way, the handwritten image input by the user by handwriting is displayed using the handwriting input screen of each user device 20 as a shared screen.

本実施例では、各ユーザが手書き画像を共有画面に表示させるために同時に入力をしても、例えば図7の例のようにユーザ1の手書き画像B11は入力許可領域D1に表示され、ユーザ2の手書き画像B21は入力許可領域D1とは重ならない領域として決定された入力許可領域D2に表示されるので、それらのユーザ1、2の手書き画像が重ならないようにすることができる。   In this embodiment, even if each user inputs simultaneously to display the handwritten image on the shared screen, the handwritten image B11 of the user 1 is displayed in the input permission area D1 as shown in the example of FIG. Since the handwritten image B21 is displayed in the input permission area D2 determined as an area that does not overlap the input permission area D1, the handwritten images of the users 1 and 2 can be prevented from overlapping.

また、本実施例では、ユーザが手書き文字を入力した場合、その文字の大きさに応じたサイズの領域が入力許可領域となる。これにより、例えば大きな文字を書くユーザには大きな入力許可領域を確保し、小さな文字を書くユーザには小さな入力許可領域を確保するというように、入力許可領域のサイズが一定の場合に比べて、入力許可領域に入力可能な文字数のユーザ間の違いを小さくすることができる。   In this embodiment, when the user inputs a handwritten character, an area having a size corresponding to the size of the character is an input permission area. Thus, for example, a large input permission area is secured for a user who writes a large character, and a small input permission area is secured for a user who writes a small character, compared to a case where the size of the input permission area is constant, The difference between users in the number of characters that can be entered in the input permission area can be reduced.

また、本実施例では、ユーザが手書き文字を入力した場合、その文字が並ぶ向きに応じた形の領域が入力許可領域となる。これにより、例えば横書きで文字を書くユーザには横に長い長方形の入力許可領域を確保し、縦書きで文字を書くユーザには縦に長い入力許可領域を確保するというように、入力許可領域の形が一定の場合に比べて、文字を書いていてすぐに改行が必要となり書きにくくなるということを防ぐことができる。   In this embodiment, when a user inputs handwritten characters, an area having a shape corresponding to the direction in which the characters are arranged is an input permission area. As a result, for example, a user who writes characters in horizontal writing has a rectangular input permission area that is long horizontally, and a user who writes characters in vertical writing has a long vertical input permission area. Compared to the case where the shape is constant, it is possible to prevent the need for line breaks immediately after writing and making it difficult to write.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows. Moreover, you may implement an Example and each modification in combination as needed.

[2−1]入力許可領域の拡大
実施例で述べたように確保された入力許可領域にユーザの手書き画像が納まらない場合がある。その場合に、入力許可領域を拡大して手書き画像が納まるようにしてもよい。本変形例では、領域決定部103が、手書き画像が入力許可領域に納まらなくなった場合、その手書き画像が納まるサイズに拡大した入力許可領域を決定する。
[2-1] Expansion of input permission area There are cases where the handwritten image of the user does not fit in the input permission area secured as described in the embodiment. In this case, the input permission area may be enlarged so that the handwritten image is accommodated. In the present modification, when the handwritten image does not fit in the input permission area, the area determination unit 103 determines an input permission area that has been enlarged to a size that allows the handwritten image to fit.

そのため、画面データ生成部104も、手書き画像が入力許可領域に納まらなくなった場合、その手書き画像が納まるサイズに入力許可領域を拡大した画面を示す画面データを生成する。
図10は拡大された入力許可領域の一例を表す。図10(a)では、ユーザ装置20−1の表示面A1の入力許可領域D4にユーザ1が手書き入力した「こんにちは!今日もよい天気ですね!」という手書き画像B13が表示されており、入力許可領域D4の下側にはユーザ2が手書き入力した「こんにちは!」という手書き画像B24と書き込み中画像H4とが入力許可領域D5に表示されている。
Therefore, when the handwritten image does not fit in the input permission area, the screen data generation unit 104 also generates screen data indicating a screen in which the input permission area is enlarged to fit the handwritten image.
FIG. 10 shows an example of the enlarged input permission area. Figure 10 (a), the are displayed hand-drawn image B13 that the user 1 has handwriting input "Hello! It's good weather today!" To the input enable area D4 of the display surface A1 of the user device 20-1, input and in the image H4 writing the handwritten image B24 that the user 2 has handwriting input "Hello!" is on the lower side of the permit area D4 are displayed in the input permission area D5.

図10(b)では、ユーザ1が手書き画像B13の下側に続けて手書き入力した「ど」という手書き画像B14が表示面A1に表示されている。この手書き画像B14は入力許可領域D4に納まっていないので、画面データ生成部104は、入力許可領域D4を手書き画像B14が納まるサイズに拡大して入力許可領域D6とし、その入力許可領域D6に手書き画像B14を配置した画面データを生成している。   In FIG. 10B, the handwritten image B14 “DO” which the user 1 inputs by handwriting continuously below the handwritten image B13 is displayed on the display surface A1. Since the handwritten image B14 is not stored in the input permission area D4, the screen data generation unit 104 enlarges the input permission area D4 to a size that allows the handwritten image B14 to be stored, and forms the input permission area D6. Screen data on which the image B14 is arranged is generated.

また、画面データ生成部104は、入力許可領域がD6に拡大したことで、拡大された部分に表示されていた手書き画像B24が配置された入力許可領域D5を、入力許可領域D6と重ならない位置に移動させている。このように、画面データ生成部104は、第1手書き画像(先に入力された手書き画像。この例では手書き画像B14)が第1入力許可領域(この例では入力許可領域D4)に納まらなくなった場合、その第1手書き画像が納まるサイズに第1入力許可領域を拡大し、第2手書き画像(後から入力された手書き画像。この例では手書き画像B24)が配置された第2入力許可領域(この例では入力許可領域D5)を拡大された第1入力許可領域と重ならない位置に移動させる。   Further, the screen data generation unit 104 is configured such that the input permission area D5 in which the handwritten image B24 displayed in the enlarged portion is arranged does not overlap the input permission area D6 because the input permission area is enlarged to D6. Has been moved to. In this way, the screen data generation unit 104 does not fit the first handwritten image (the handwritten image input first. In this example, the handwritten image B14) does not fit in the first input permission area (in this example, the input permission area D4). In this case, the first input permission area is enlarged to a size in which the first handwritten image can be accommodated, and the second input permission area (the handwritten image input later, handwritten image B24 in this example) is arranged ( In this example, the input permission area D5) is moved to a position that does not overlap the enlarged first input permission area.

本変形例では、こうして入力許可領域がD6に拡大し、入力許可領域D5が移動した(入力許可領域D5に配置された手書き画像B24及び書き込み中画像H4もともに移動した)ことで、ユーザ1は、図10(c)に表すように、「どこか遊びに行こう!」という手書き画像B15をユーザ2の手書き画像B24に重ねることなく描くことができるようになっている。   In this modified example, the input permission area is enlarged to D6 and the input permission area D5 is moved (the handwritten image B24 and the writing image H4 arranged in the input permission area D5 are also moved). As shown in FIG. 10C, the handwritten image B15 “Let's go play somewhere!” Can be drawn without overlapping the handwritten image B24 of the user 2.

なお、図8の例で述べた文字が認識される前に決定された入力許可領域も、文字が認識されると、より大きな入力許可領域に拡大されることになる。この入力許可領域を第1入力許可領域とすれば、この場合も、画面データ生成部104は、第2手書き画像が配置された第2入力許可領域を拡大された第1入力許可領域と重ならない位置に移動させればよい。これにより、ユーザ1の第1手書き文字が認識される前にユーザ2が描き始めた第2手書き画像が表示されても、ユーザ1は、その第2手書き文字に重ねることなく第1手書き文字を書き続けることができる。   In addition, the input permission area | region determined before the character described in the example of FIG. 8 is recognized will be expanded to a larger input permission area | region, if a character is recognized. If this input permission area is set as the first input permission area, the screen data generation unit 104 also does not overlap with the enlarged first input permission area in this case as well. What is necessary is just to move to a position. Thereby, even if the 2nd handwritten image which the user 2 started drawing before the 1st handwritten character of the user 1 is recognized is displayed, the user 1 does not superimpose the 1st handwritten character on the 2nd handwritten character. I can continue to write.

[2−2]手書き画像の縮小
上記のように入力許可領域にユーザの手書き画像が納まらない場合に、入力許可領域を拡大するのではなく、手書き画像を縮小してもよい。本変形例では、画面データ生成部104が、手書き画像が入力許可領域に納まらなくなった場合、その入力許可領域に納まるサイズに手書き画像を縮小して配置した画面を示す画面データを生成する。
[2-2] Reduction of Handwritten Image When the user's handwritten image does not fit in the input permission area as described above, the handwritten image may be reduced instead of expanding the input permission area. In the present modification, when the handwritten image does not fit in the input permission area, the screen data generation unit 104 generates screen data indicating a screen in which the handwritten image is reduced and arranged in a size that fits in the input permission area.

図11は縮小された手書き画像の一例を表す。図11の例では、画面データ生成部104が、図10に表す入力許可領域D4に納まるように縮小した手書き画像B13及びB15を入力許可領域D4に配置した画面を示す画面データを生成している。本変形例では、手書き画像が入力許可領域に納まらなくなった場合に、他のユーザの手書き画像を移動させなくても、他のユーザの手書き画像に重ねることなく手書き画像を描き続けることができる。   FIG. 11 shows an example of a reduced handwritten image. In the example of FIG. 11, the screen data generation unit 104 generates screen data indicating a screen in which the handwritten images B13 and B15 reduced so as to fit in the input permission area D4 shown in FIG. 10 are arranged in the input permission area D4. . In this modification, when the handwritten image does not fit in the input permission area, the handwritten image can be continuously drawn without being superimposed on the handwritten image of the other user without moving the handwritten image of the other user.

[2−3]隙間の縮小
確保された入力許可領域に入力される手書き画像が少なければ、入力されなかった入力許可領域が他のユーザの手書き画像との隙間となって残ることになる。この隙間を縮小する動作が行われてもよい。
[2-3] Reduction of gap If the handwritten image input to the secured input permission area is small, the input permission area that has not been input remains as a gap with the handwritten image of another user. An operation for reducing the gap may be performed.

本変形例では、画面データ生成部104が、第1手書き画像及び第2手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、その隙間を埋める位置に第1手書き画像及び第2手書き画像の一方又は両方を移動させた画面を示す画面データを生成する。   In the present modification, when the screen data generation unit 104 completes input of at least one of the first handwritten image and the second handwritten image and a gap is generated between the two images, the screen data generation unit 104 is placed at a position where the gap is filled. Screen data indicating a screen on which one or both of the first handwritten image and the second handwritten image are moved is generated.

図12は隙間を縮小するように移動された手書き画像の一例を表す。図12(a)では、ユーザ装置20−2の表示面A2に、ユーザ1が手書き入力した「こんにちは!」という手書き画像B15と、その手書き画像B15が配置された入力許可領域D7の範囲を表す書き込み中画像H5とが表示されている。また、入力許可領域D7の下側に確保された入力許可領域D8にユーザ2が手書き入力した「こんにちは!」という手書き画像B17が表示されている。   FIG. 12 shows an example of the handwritten image moved so as to reduce the gap. Figure 12 (a), the display surface A2 of the user device 20-2, represents the handwritten image B15 that the user 1 has handwriting input "Hello!", The range of the input enable area D7 where the handwritten image B15 is arranged A writing image H5 is displayed. In addition, the hand-drawn image B17 of "Hello!" User 2 handwriting input to the input enabled area D8, which is secured on the lower side of the input enable area D7 is displayed.

この例では、図12(a)の状態以降もユーザ2は手書き入力を続けているが、ユーザ1は手書き入力を止めてしまったため、図12(b)に表すように書き込み中画像H5が表示されなくなっている。そのため、手書き画像B15及び手書き画像B17の間には、図12(c)に表すように縦方向の長さがL31の隙間E1が生じている。この場合に、画面データ生成部104は、手書き画像B15の入力が完了して手書き画像B15及びB17に隙間が生じているので、その隙間を埋める位置に手書き画像B15を移動させた画面を示す画面データを生成する。   In this example, the user 2 continues the handwriting input after the state of FIG. 12A, but the user 1 has stopped the handwriting input, so the in-writing image H5 is displayed as shown in FIG. 12B. It is no longer being done. Therefore, between the handwritten image B15 and the handwritten image B17, a gap E1 having a length L31 in the vertical direction is generated as shown in FIG. In this case, since the screen data generation unit 104 has completed the input of the handwritten image B15 and a gap has occurred in the handwritten images B15 and B17, a screen showing a screen in which the handwritten image B15 is moved to a position to fill the gap. Generate data.

こうして生成された画面データが示す画面が図12(d)に表すように表示面A2に表示されている。この例では、手書き画像B15及びB17が隙間E2(縦方向の長さがL32(L32<L31))だけ離れて表示されている。これにより、隙間の縮小が行われない場合に比べて、共有画面に表示される手書き画像の間の隙間を小さくすることができ、より多くの手書き画像が共有画面に表示されるようにすることができる。   The screen indicated by the screen data generated in this way is displayed on the display surface A2 as shown in FIG. In this example, the handwritten images B15 and B17 are displayed separated by a gap E2 (the length in the vertical direction is L32 (L32 <L31)). As a result, the gap between the handwritten images displayed on the shared screen can be made smaller than when the gap is not reduced, and more handwritten images are displayed on the shared screen. Can do.

[2−4]入力許可領域の決定方法
領域決定部103は、上記の例とは異なる方法で入力許可領域を決定してもよい。
図13は本変形例の手書き画像共有システム1aが実現する機能構成を表す。手書き画像共有システム1aは、画面共有サーバ装置10a及びユーザ装置20を備える。画面共有サーバ装置10aは、図4に表す各部に加えて情報蓄積部106と、手書き画像推定部107とを備える。
[2-4] Method for Determining Input Permission Area The area determination unit 103 may determine the input permission area by a method different from the above example.
FIG. 13 shows a functional configuration realized by the handwritten image sharing system 1a of the present modification. The handwritten image sharing system 1a includes a screen sharing server device 10a and a user device 20. The screen sharing server device 10a includes an information storage unit 106 and a handwritten image estimation unit 107 in addition to the units shown in FIG.

本変形例では、文字認識部102が、文字を認識した場合、文字を認識したことを示す情報及び供給された手書き入力の情報を情報蓄積部106に供給し、文字を認識しなかった場合も、供給された手書き入力の情報を情報蓄積部106に供給する。情報蓄積部106は、供給された手書き入力の情報、すなわち、手書き入力情報取得部101によって取得された手書き入力の情報の履歴を蓄積する。   In this modification, when the character recognizing unit 102 recognizes a character, the character recognizing unit 102 supplies information indicating that the character is recognized and the supplied handwritten input information to the information accumulating unit 106 and may not recognize the character. The supplied handwritten input information is supplied to the information storage unit 106. The information storage unit 106 stores the supplied handwritten input information, that is, the history of the handwritten input information acquired by the handwritten input information acquisition unit 101.

図14は蓄積された履歴の一例を表す。図14の例では、情報蓄積部106は、ユーザ装置20を利用する各ユーザ装置(この例ではユーザ装置20−1、20−2)について、手書き画像の種類と、手書き画像のサイズと、入力日時とを対応付けて記憶している。本変形例では、ユーザ装置20の手書き入力情報出力部202が手書き入力の情報を出力する際に自装置を識別する識別情報として例えば装置IDをともに出力し、その装置IDが手書き入力情報取得部101及び文字認識部102を介して情報蓄積部106に供給される(ユーザ装置20−1、20−2の装置IDはそれぞれ「U001」、「U002」とする)。   FIG. 14 shows an example of the accumulated history. In the example of FIG. 14, the information storage unit 106 inputs the type of handwritten image, the size of the handwritten image, and the input for each user device that uses the user device 20 (the user devices 20-1 and 20-2 in this example). The date and time are stored in association with each other. In this modified example, when the handwritten input information output unit 202 of the user device 20 outputs handwritten input information, for example, the device ID is output together as identification information for identifying the own device, and the device ID is the handwritten input information acquisition unit. 101 and the character recognition unit 102 are supplied to the information storage unit 106 (the device IDs of the user devices 20-1 and 20-2 are “U001” and “U002”, respectively).

情報蓄積部106は、画面データ生成部104と同様に手書き入力の情報が取得されている期間を判断し、その期間に供給された手書き入力の情報に基づいて手書き画像の種類及びサイズを判断する。情報蓄積部106は、文字認識部102により文字が認識されていれば、図6(b)の説明で述べた領域決定部103と同じように横書きが縦書きかを判断し、横書きと判断すれば「横書きの文字」を、縦書きと判断すれば「縦書きの文字」を手書き画像の種類として記憶する。また、情報蓄積部106は、文字認識部102により文字が認識されていなければ、「絵」を手書き画像の種類として記憶する。   Similar to the screen data generation unit 104, the information storage unit 106 determines a period during which handwritten input information is acquired, and determines the type and size of the handwritten image based on the handwritten input information supplied during that period. . If the character is recognized by the character recognition unit 102, the information storage unit 106 determines whether horizontal writing is vertical writing as in the area determination unit 103 described in the explanation of FIG. For example, “horizontal writing character” is stored as a type of handwritten image. Further, the information storage unit 106 stores “picture” as the type of handwritten image if the character recognition unit 102 has not recognized the character.

また、情報蓄積部106は、手書き入力の情報が示す手書き画像に外接する四角形のサイズを手書き画像のサイズとして記憶する。また、情報蓄積部106は、例えば手書き入力の情報が取得されている期間が開始された又は終了したときの日時を入力日時として記憶する。情報蓄積部106は、これらの情報を手書き入力の情報とともに供給された装置IDに対応付けて記憶する。   Further, the information storage unit 106 stores the size of a rectangle circumscribing the handwritten image indicated by the handwritten input information as the size of the handwritten image. Further, the information storage unit 106 stores, for example, the date and time when the period during which handwritten input information is acquired starts or ends as the input date and time. The information storage unit 106 stores these pieces of information in association with the device ID supplied together with the handwritten input information.

手書き画像推定部107は、ユーザが利用するユーザ装置20について蓄積された手書き入力の履歴から、そのユーザによって入力されることが推定される手書き画像を推定する。手書き画像推定部107は、例えば、装置IDに対応付けて最も多く記憶されている手書き画像の種類を、その装置IDに対応するユーザ装置20を利用するユーザによって入力されることが推定される手書き画像と推定する。   The handwritten image estimation unit 107 estimates a handwritten image estimated to be input by the user from the history of handwritten input accumulated for the user device 20 used by the user. The handwritten image estimation unit 107 is, for example, handwritten that is estimated to be input by the user using the user device 20 corresponding to the device ID, for example, the type of handwritten image that is stored most frequently in association with the device ID. Estimated as an image.

手書き画像推定部107は、例えば、装置IDが「U001」のユーザ装置20−1については、手書き画像の種類がいずれも「横書きの文字」なので、「横書きの文字」が描かれると推定する。また、手書き画像推定部107は、装置IDが「U002」のユーザ装置20−2については、「縦書きの文字」が1回、「絵」が2回なので、「絵」が描かれると推定する。手書き画像推定部107は、こうして推定した手書き画像を示す情報(手書き情報の種類)を領域決定部103に供給する。   For example, for the user device 20-1 with the device ID “U001”, the handwritten image estimation unit 107 estimates that “horizontal characters” are drawn because the types of handwritten images are “horizontal characters”. The handwritten image estimation unit 107 estimates that “picture” is drawn for the user device 20-2 with the device ID “U002” because “vertical writing” is once and “picture” is twice. To do. The handwritten image estimation unit 107 supplies information indicating the handwritten image thus estimated (type of handwritten information) to the region determination unit 103.

領域決定部103は、供給された手書き画像の種類、すなわちユーザ装置20について蓄積された手書き入力の履歴から入力されることが推定される手書き画像、に応じたサイズ及び形の領域を入力許可領域として決定する。領域決定部103は、例えば「横書きの文字」が推定された場合、表示面の横方向の幅一杯の長方形を入力許可領域の形として決定する。そして、領域決定部103は、「横書きの文字」に対応付けて記憶されている手書き画像の縦方向のサイズの平均値を算出し、その平均値を縦方向のサイズとして決定する。   The area determination unit 103 inputs an area having a size and a shape according to the type of the supplied handwritten image, that is, the handwritten image estimated to be input from the handwriting input history accumulated for the user device 20. Determine as. For example, when “horizontal writing characters” are estimated, the region determination unit 103 determines a rectangle having a full width in the horizontal direction of the display surface as the shape of the input permission region. Then, the region determination unit 103 calculates the average value of the vertical sizes of the handwritten images stored in association with “horizontal writing characters”, and determines the average value as the vertical size.

図14の例であれば、領域決定部103は、装置IDが「U001」のユーザ装置20−1について、横書きの文字として描かれた手書き画像の縦方向のサイズに基づき、(L41+L43+L45)÷3を縦方向のサイズとする長方形を入力許可領域として決定する。また、領域決定部103は、例えば「縦書きの文字」が推定された場合、表示面の縦方向の幅一杯の長方形を入力許可領域の形として決定し、縦書きの文字として描かれた手書き画像の横方向のサイズの平均値を横方向のサイズとする長方形を入力許可領域として決定する。   In the example of FIG. 14, the area determination unit 103 determines (L41 + L43 + L45) ÷ 3 based on the vertical size of the handwritten image drawn as horizontally written characters for the user device 20-1 with the device ID “U001”. A rectangle having a vertical size of is determined as the input permission area. In addition, for example, when “vertically written characters” are estimated, the region determining unit 103 determines a rectangle having a full width in the vertical direction of the display surface as the shape of the input-permitted region, and the handwriting drawn as vertically written characters A rectangle whose horizontal size is the average value of the horizontal size of the image is determined as the input permission area.

また、領域決定部103は、「絵」が推定された場合、絵として描かれた手書き画像の縦方向のサイズの平均値及び横方向のサイズの平均値をそれぞれ算出し、それらの平均値を縦方向のサイズ及び横方向のサイズとする長方形を入力許可領域として決定する。図14の例であれば、領域決定部103は、装置IDが「U002」のユーザ装置20−2について、絵として描かれた手書き画像の縦方向のサイズの平均値(L53+L55)÷2を縦方向のサイズとし、横方向のサイズの平均値(L54+L56)÷2を横方向のサイズとする長方形を入力許可領域として決定する。   In addition, when the “picture” is estimated, the area determination unit 103 calculates the average value of the vertical size and the average value of the horizontal size of the handwritten image drawn as a picture, and calculates the average value thereof. A rectangle having a vertical size and a horizontal size is determined as an input-permitted area. In the example of FIG. 14, for the user device 20-2 whose device ID is “U002”, the region determination unit 103 vertically calculates the average value (L53 + L55) ÷ 2 of the vertical size of the handwritten image drawn as a picture. A rectangle having the size in the direction and the average value in the horizontal direction (L54 + L56) ÷ 2 in the size in the horizontal direction is determined as the input permission area.

領域決定部103が上記のとおり入力許可領域を決定するため、画面データ生成部104は、ユーザ装置20について蓄積された手書き入力の履歴から入力されることが推定される手書き画像に応じたサイズ及び形の領域を入力許可領域とすることになる。これにより、図8の例のように手書き入力情報取得部101が手書き入力の情報の取得を開始してから文字認識部102によって文字が認識される前であっても、ユーザの手書き入力の傾向に合った領域を入力許可領域として確保することができる。   Since the area determination unit 103 determines the input permission area as described above, the screen data generation unit 104 has a size corresponding to the handwritten image estimated to be input from the handwriting input history accumulated for the user device 20 and The shape area is set as the input permission area. Thereby, even if it is before a character is recognized by the character recognition part 102 after the handwriting input information acquisition part 101 starts acquisition of the information of handwriting input like the example of FIG. 8, the tendency of a user's handwriting input It is possible to secure an area suitable for the input permission area.

なお、上記の例ではサイズの平均値を算出したが、これに限らず、サイズの最大値、最小値又は中間値を算出してもよい。また、推定に用いる履歴を、特定の期間(例えば過去の1年間等)に蓄積されたものだけに限定してもよい。その場合、ユーザの最近の手書き入力の傾向に合った領域を入力許可領域として確保することができる。   In the above example, the average value of the sizes is calculated. However, the present invention is not limited to this, and the maximum value, the minimum value, or the intermediate value of the sizes may be calculated. Further, the history used for estimation may be limited to only those accumulated in a specific period (for example, the past year). In this case, an area that matches the recent tendency of handwriting input by the user can be secured as the input permission area.

[2−5]手書き以外の画像の表示
入力許可領域に手書き画像(ユーザ装置の手書き入力操作受付部201が受け付けた操作により描かれる画像)以外の画像が表示されてもよい。
図15は本変形例の手書き画像共有システム1bが実現する機能構成を表す。手書き画像共有システム1bは、画面共有サーバ装置10b及びユーザ装置20bを備える。画面共有サーバ装置10bは、図4に表す各部に加えて指定画像取得部108を備える。ユーザ装置20bは、図4に表す各部に加えて指定画像出力部204を備える。
[2-5] Display of non-handwritten image An image other than a handwritten image (an image drawn by an operation received by the handwriting input operation receiving unit 201 of the user device) may be displayed in the input permission area.
FIG. 15 illustrates a functional configuration realized by the handwritten image sharing system 1b according to the present modification. The handwritten image sharing system 1b includes a screen sharing server device 10b and a user device 20b. The screen sharing server apparatus 10b includes a designated image acquisition unit 108 in addition to the units illustrated in FIG. The user device 20b includes a designated image output unit 204 in addition to the units illustrated in FIG.

指定画像出力部204は、表示面に表示されている画像を指定し、又はファイル管理アプリ等を表示させて画像ファイルを指定して、指定した画像を入力許可領域に貼り付ける操作(例えば表示中の画像又は画像ファイルをドラッグして入力許可領域にドロップする操作等)を受け付けると、それらの操作により指定された画像を画面共有サーバ装置10bに対して出力する。指定画像取得部108は、こうして出力されてきた画像、すなわちユーザが指定した指定画像をユーザ装置20から取得する。指定画像取得部108は本発明の「画像取得部」の一例である。   The designated image output unit 204 designates an image displayed on the display surface, displays a file management application or the like, designates an image file, and pastes the designated image in the input permission area (for example, being displayed) When an operation such as dragging and dropping the image or image file to the input-permitted area is received, the image designated by those operations is output to the screen sharing server apparatus 10b. The designated image obtaining unit 108 obtains the image output in this way, that is, the designated image designated by the user from the user device 20. The designated image acquisition unit 108 is an example of the “image acquisition unit” in the present invention.

指定画像取得部108は、取得した指定画像を画面データ生成部104に供給する。画面データ生成部104は、指定画像取得部108によって取得された指定画像を入力許可領域に配置して表した画面データを生成する。
図16は表示された指定画像の一例を表す。図16の例では、画面データ生成部104が、図6(c)に表す入力許可領域D1に指定画像J1を配置して表した画面データを生成している。なお、指定画像出力部204が指定画像を貼り付ける貼り付け位置を示す位置情報を指定画像とともに出力することで、画面データ生成部104が、指定画像を入力許可領域の貼り付け位置に配置した画面データを生成してもよい。
The designated image acquisition unit 108 supplies the acquired designated image to the screen data generation unit 104. The screen data generation unit 104 generates screen data in which the designated image acquired by the specified image acquisition unit 108 is arranged and represented in the input permission area.
FIG. 16 shows an example of the displayed designated image. In the example of FIG. 16, the screen data generation unit 104 generates screen data represented by arranging the designated image J1 in the input permission area D1 shown in FIG. The designated image output unit 204 outputs position information indicating the pasting position where the designated image is pasted together with the designated image, so that the screen data generation unit 104 has placed the designated image at the pasting position of the input permission area. Data may be generated.

また、指定画像が入力許可領域をはみ出す場合に、画面データ生成部104が、指定画像を入力許可領域に納まる大きさに縮小した画面データを生成してもよいし、指定画像が納まる大きさに入力許可領域を拡大した画面データを生成してもよい。また、指定画像として、キーボード等で入力されたフォントで表された文字が用いられてもよい。本変形例によれば、手書き画像とともに写真、CG(Computer Graphics)及びフォントで表された文字等の指定画像を手書き画像の共有画面に表示させることができる。   In addition, when the designated image protrudes from the input permission area, the screen data generation unit 104 may generate screen data that is reduced to a size that fits the designated image in the input permission area, or to a size that fits the designated image. Screen data in which the input permission area is enlarged may be generated. In addition, as the designated image, characters represented by a font input with a keyboard or the like may be used. According to this modification, it is possible to display a designated image such as a photograph, a CG (Computer Graphics), and a character represented by a font together with the handwritten image on the handwritten image sharing screen.

[2−6]各部を実現する装置
図4に表す各部を実現する装置は、上述した装置だけに限らない。例えば文字認識部102及び領域決定部103の一方又は両方の機能が他のサーバ装置によって実現されてもよい。また、画面共有サーバ装置が実現する機能をユーザ装置が実現してもよい。
[2-6] Apparatus for Implementing Each Unit The apparatus for implementing each unit illustrated in FIG. 4 is not limited to the above-described apparatus. For example, one or both functions of the character recognition unit 102 and the region determination unit 103 may be realized by another server device. In addition, the user device may realize the function realized by the screen sharing server device.

図17は本変形例の手書き画像共有システム1cの全体構成の一例を表す。手書き画像共有システム1cは、ネットワーク2と、ユーザ装置20c−1、20c−2、20c−3(以下特に区別しない場合は「ユーザ装置20c」という)とを備える。各ユーザ装置20cは、ネットワーク2を介して互いに通信する。なお、各ユーザ装置20c同士がP2P(Peer to Peer)で通信し、又は、1台のユーザ装置20cが無線ルータとして機能することでそのユーザ装置20cを介して他のユーザ装置20c同士が通信してもよい。   FIG. 17 shows an example of the overall configuration of the handwritten image sharing system 1c according to this modification. The handwritten image sharing system 1c includes a network 2 and user devices 20c-1, 20c-2, and 20c-3 (hereinafter referred to as “user device 20c” unless otherwise distinguished). Each user device 20 c communicates with each other via the network 2. In addition, each user apparatus 20c communicates by P2P (Peer to Peer), or the other user apparatus 20c communicates through the user apparatus 20c because one user apparatus 20c functions as a wireless router. May be.

図18は手書き画像共有システム1cが実現する機能構成を表す。ユーザ装置20cは、図4においてユーザ装置20が備える各部に加えて、画面共有サーバ装置が備える各部も備えている。ユーザ装置20cの手書き入力情報取得部101は、自装置及び他のユーザ装置20cから手書き入力の情報を取得し、画面データ生成部104は、取得されたそれらの手書き入力の情報に基づいて画面データを生成する。また、ユーザ装置20cの画面データ出力部105は、自装置の手書き入力画面表示部203に画面データを出力することで共有画面を表示する。この例によれば、サーバ装置を設けなくても、各ユーザ装置の共有画面に手書き画像を表示させて複数のユーザで手書き画像を共有することができる。   FIG. 18 shows a functional configuration realized by the handwritten image sharing system 1c. The user device 20c includes various units included in the screen sharing server device in addition to the units included in the user device 20 in FIG. The handwritten input information acquisition unit 101 of the user device 20c acquires handwritten input information from the own device and the other user device 20c, and the screen data generation unit 104 generates screen data based on the acquired information on the handwritten input. Is generated. Further, the screen data output unit 105 of the user device 20c displays the shared screen by outputting the screen data to the handwriting input screen display unit 203 of the own device. According to this example, a handwritten image can be displayed on a shared screen of each user device and shared by a plurality of users without providing a server device.

[2−7]入力許可領域
入力許可領域は、上述した形及び大きさの領域に限らない。領域決定部103は、例えば上記の例ではいずれも長方形の入力許可領域を決定したが、正方形、L字型、円形、楕円形及び多角形等の形の入力許可領域を決定してもよい。例えば手書き画像を表示面の左端から右端まで描いた後、そこから下向きに描く癖のあるユーザについては、手書き画像がL字型になるので、領域決定部103は、L字型の領域を決定する。領域決定部103は、上述した手書き入力の情報の履歴に基づいて入力許可領域の形を判断されればよい。
[2-7] Input permission area The input permission area is not limited to the area having the shape and size described above. For example, in the above example, the area determination unit 103 has determined the rectangular input permission area, but may determine an input permission area having a shape such as a square, an L shape, a circle, an ellipse, or a polygon. For example, for a user with a habit of drawing a handwritten image from the left end to the right end of the display surface and then drawing downward from there, the handwritten image becomes L-shaped, so the region determination unit 103 determines the L-shaped region. To do. The area determination unit 103 only needs to determine the shape of the input permission area based on the above-described history of handwritten input information.

また、領域決定部103は、上記の例では例えば横書きの文字が描かれた場合、横方向のサイズを表示面と同じサイズとしたが、それより小さいサイズとしてもよいし、共有画面がスクロールする場合にそれよりも大きいサイズとしてもよい。領域決定部103は、例えば上述した手書き入力の情報の履歴に基づいて、すぐに改行する傾向のあるユーザはサイズを小さくし、画面の端まで一杯に手書きする傾向のあるユーザはサイズを大きくする。これにより、ユーザが手書き入力を行う可能性がより高い領域を入力許可領域とすることができる。   In the above example, for example, when horizontally written characters are drawn, the area determination unit 103 sets the horizontal size to the same size as the display surface, but the size may be smaller than that, or the shared screen scrolls. In some cases, the size may be larger. For example, based on the above-described history of handwritten input information, the area determination unit 103 reduces the size of a user who tends to immediately start a new line, and increases the size of a user who tends to hand-draw to the end of the screen. . Thereby, an area | region where possibility that a user will perform handwriting input is higher can be made into an input permission area | region.

[2−8]入力許可領域の範囲を示す画像
上記の各例では、書き込み中画像を表示させることで入力許可領域の範囲を表したが、これに限らない。例えば、画面データ生成部104が、入力許可領域の範囲を示す画像が表された画面データを生成してもよい。入力許可領域の範囲を示す画像とは、例えば入力許可領域とそれ以外の領域との境界を表す線の画像、若しくは、入力許可領域の背景を他の領域とは異なる色又は模様等で表す画像である。これにより、ユーザはどこまでが自分に対して入力を許可された領域なのかを知ることができる。
[2-8] Image Showing Range of Input Permitted Area In each of the above examples, the range of the input permitted area is represented by displaying the image being written, but this is not restrictive. For example, the screen data generation unit 104 may generate screen data representing an image indicating the range of the input permission area. The image indicating the range of the input-permitted area is, for example, an image of a line that represents the boundary between the input-permitted area and the other area, or an image that represents the background of the input-permitted area in a color or pattern different from the other areas. It is. As a result, the user can know how far the area is permitted to be input to the user.

[2−9]発明のカテゴリ
本発明は、画面共有サーバ装置及びユーザ装置のような情報処理装置の他、それらの装置を備える手書き画像共有システムのような情報処理システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられるし、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-9] Category of Invention The present invention can be understood as an information processing system such as a handwritten image sharing system including such devices as well as information processing devices such as a screen sharing server device and a user device. In addition, the present invention can be understood as an information processing method for realizing processing performed by each device, or as a program for causing a computer that controls each device to function. This program may be provided in the form of a recording medium such as an optical disk in which it is stored, or may be provided in the form of being downloaded to a computer via a network such as the Internet, installed and made available for use. May be.

[2−10]処理手順等
本明細書で説明した各実施例の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-10] Processing Procedures, etc. The processing procedures, sequences, flowcharts, and the like of each embodiment described in this specification may be switched in order as long as there is no contradiction. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.

[2−11]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-11] Handling of input / output information and the like Input / output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

[2−12]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-12] Software Software, regardless of whether it is called software, firmware, middleware, microcode, hardware description language, or another name, is an instruction, instruction set, code, code segment, program code, program , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be interpreted broadly.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

[2−13]情報、信号
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-13] Information, Signals The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of

[2−14]システム、ネットワーク
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-14] System, Network As used herein, the terms “system” and “network” are used interchangeably.

[2−15]「に基づいて」の意味
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-15] Meaning of “based on” As used herein, the term “based on” does not mean “based only on”, unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

[2−16]「及び」、「又は」
本明細書において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-16] “and”, “or”
In the present specification, for a configuration that can be implemented by either “A and B” or “A or B”, a configuration described in one expression may be used as a configuration described in the other expression. For example, when “A and B” is described, it may be used as “A or B” as long as it is feasible without inconsistency with other descriptions.

例えば、上述した領域決定部103が入力許可領域の「形及び大きさ」を各ユーザ装置20についてそれぞれ決定するという構成は、領域決定部103が入力許可領域の「形又は大きさ」を各ユーザ装置20についてそれぞれ決定する構成としてもよい。その場合、領域決定部103が入力許可領域の「形及び大きさのうちいずれか選択した方」を各ユーザ装置20についてそれぞれ決定するという場合だけでなく、単に領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する場合も、領域決定部103が入力許可領域の「大きさ」を各ユーザ装置20についてそれぞれ決定する場合も含まれる。   For example, in the configuration in which the area determination unit 103 determines the “shape and size” of the input permission area for each user device 20, the area determination unit 103 determines the “shape or size” of the input permission area for each user. It is good also as a structure which determines each about the apparatus 20. FIG. In that case, not only the case where the area determination unit 103 determines “whichever shape or size is selected” of the input permission area for each user device 20, but the area determination unit 103 simply determines whether the input permission area The case where the “shape” is determined for each user device 20 and the case where the area determination unit 103 determines the “size” of the input permission area for each user device 20 are also included.

また、例えば領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する構成は、入力許可領域の「形」以外のものも合わせて決定する構成を排除するものではない。そのため、領域決定部103が入力許可領域の「形」を各ユーザ装置20についてそれぞれ決定する構成には、領域決定部103が入力許可領域の「形及び大きさ」を各ユーザ装置20についてそれぞれ決定するという構成も含まれる。このように、「A又はB」という記載には、「A及びB」という実施態様もそれが実施可能である限り含まれるものとする。   In addition, for example, the configuration in which the area determination unit 103 determines the “shape” of the input permission area for each user device 20 does not exclude the configuration in which other than the “shape” of the input permission area is determined. Therefore, in the configuration in which the area determination unit 103 determines the “shape” of the input permission area for each user device 20, the area determination unit 103 determines the “shape and size” of the input permission area for each user device 20. The configuration of performing is also included. Thus, the description “A or B” includes the embodiments “A and B” as long as they are feasible.

[2−17]態様のバリエーション等
本明細書で説明した各実施例は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-17] Variations of Aspect, etc. Each embodiment described in the present specification may be used alone, in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施例に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

1…手書き画像共有システム、10…画面共有サーバ装置、20…ユーザ装置、101…手書き入力情報取得部、102…文字認識部、103…領域決定部、104…画面データ生成部、105…画面データ出力部、106…情報蓄積部、107…手書き画像推定部、201…手書き入力操作受付部、202…手書き入力情報出力部、203…手書き入力画面表示部。 DESCRIPTION OF SYMBOLS 1 ... Handwritten image sharing system, 10 ... Screen sharing server apparatus, 20 ... User apparatus, 101 ... Handwritten input information acquisition part, 102 ... Character recognition part, 103 ... Area determination part, 104 ... Screen data generation part, 105 ... Screen data Output unit 106 ... information storage unit 107 107 handwritten image estimation unit 201 handwritten input operation accepting unit 202 handwritten input information output unit 203 handwritten input screen display unit

Claims (7)

複数のユーザ装置からユーザの手書き入力の情報を取得する情報取得部と、
複数の前記ユーザ装置から取得された各々の前記情報が示す手書き画像を共有画面に表した画面データを生成する生成部であって、第1ユーザ装置から取得された前記情報が示す第1手書き画像を、前記共有画面において前記第1ユーザ装置による手書き入力が許可される第1領域に配置し、前記第1ユーザ装置から当該情報が取得されている期間に第2ユーザ装置から取得された前記情報が示す第2手書き画像を、前記共有画面において前記第1領域と重ならず且つ前記第2ユーザ装置による手書き入力が許可される第2領域に配置して前記画面データを生成する生成部と、
生成された前記画面データを出力する出力部と
を備える情報処理装置。
An information acquisition unit for acquiring user handwriting input information from a plurality of user devices;
A generation unit that generates screen data representing a handwritten image indicated by each piece of information acquired from a plurality of user devices on a shared screen, the first handwritten image indicated by the information acquired from the first user device In the first area where handwriting input by the first user device is permitted on the shared screen, and the information acquired from the second user device during the period in which the information is acquired from the first user device A generation unit configured to generate the screen data by arranging the second handwritten image indicated by the second handwritten image in a second region that does not overlap the first region on the shared screen and is allowed to be handwritten by the second user device;
An information processing apparatus comprising: an output unit that outputs the generated screen data.
前記生成部は、前記第1ユーザ装置から取得された前記手書き入力の情報に応じたサイズ又は形の領域を前記第1領域とする
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the generation unit sets, as the first area, an area having a size or a shape corresponding to information of the handwritten input acquired from the first user apparatus.
前記第1手書き画像が文字である場合に当該文字を認識する認識部を備え、
前記生成部は、前記第1手書き画像が文字として認識された場合に当該文字の大きさ又は当該文字が並ぶ向きを前記手書き入力の情報として用いる
請求項2に記載の情報処理装置。
A recognition unit for recognizing the character when the first handwritten image is a character;
The information processing apparatus according to claim 2, wherein when the first handwritten image is recognized as a character, the generating unit uses the size of the character or the direction in which the character is arranged as information of the handwritten input.
取得された前記手書き入力の情報の履歴を蓄積する蓄積部を備え、
前記生成部は、前記第1ユーザ装置について蓄積された前記履歴から入力されることが推定される手書き画像に応じたサイズ又は形の領域を前記第1領域とする
請求項1から3のいずれか1項に記載の情報処理装置。
A storage unit for storing a history of acquired handwritten input information;
4. The generation unit according to claim 1, wherein an area having a size or a shape corresponding to a handwritten image estimated to be input from the history accumulated for the first user device is used as the first area. The information processing apparatus according to item 1.
前記生成部は、前記第1手書き画像が前記第1領域に納まらなくなった場合、当該第1手書き画像が納まるサイズに当該第1領域を拡大し、前記第2領域を拡大された当該第1領域と重ならない位置に移動させる
請求項1から4のいずれか1項に記載の情報処理装置。
When the first handwritten image does not fit in the first area, the generation unit enlarges the first area to a size that fits the first handwritten image, and enlarges the second area. The information processing apparatus according to claim 1, wherein the information processing apparatus is moved to a position that does not overlap with the information processing apparatus.
前記生成部は、前記第1手書き画像及び前記第2手書き画像のうち少なくとも一方の入力が完了して両画像に隙間が生じている場合には、当該隙間を埋める位置に当該第1手書き画像及び当該第2手書き画像の一方又は両方を移動させる
請求項1から5のいずれか1項に記載の情報処理装置。
When the input of at least one of the first handwritten image and the second handwritten image is completed and a gap is generated between both images, the generating unit includes the first handwritten image and the position at which the gap is filled. The information processing apparatus according to any one of claims 1 to 5, wherein one or both of the second handwritten images are moved.
前記第1ユーザ装置からユーザが指定した指定画像を取得する画像取得部を備え、
前記生成部は、取得された前記指定画像を前記第1領域に配置して表した前記画面データを生成する
請求項1から6のいずれか1項に記載の情報処理装置。
An image acquisition unit for acquiring a designated image designated by a user from the first user device;
The information processing apparatus according to any one of claims 1 to 6, wherein the generation unit generates the screen data representing the acquired designated image arranged in the first region.
JP2016185241A 2016-09-23 2016-09-23 Information processing equipment Active JP6716409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185241A JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185241A JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2018049503A true JP2018049503A (en) 2018-03-29
JP6716409B2 JP6716409B2 (en) 2020-07-01

Family

ID=61767711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185241A Active JP6716409B2 (en) 2016-09-23 2016-09-23 Information processing equipment

Country Status (1)

Country Link
JP (1) JP6716409B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7521372B2 (en) 2020-10-15 2024-07-24 セイコーエプソン株式会社 Display method and display device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116475A (en) * 2007-11-02 2009-05-28 Sharp Corp Handwriting input device and handwriting input method
JP2013246633A (en) * 2012-05-25 2013-12-09 Toshiba Corp Electronic apparatus, handwriting document creation method, and handwriting document creation program
JP2014052690A (en) * 2012-09-05 2014-03-20 Konica Minolta Inc Meeting support system, control device, and input terminal
JP2015114976A (en) * 2013-12-13 2015-06-22 株式会社東芝 Electronic device and method
JP2016048484A (en) * 2014-08-28 2016-04-07 日本電気株式会社 Drawing control apparatus, information sharing system, drawing control method, and drawing control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116475A (en) * 2007-11-02 2009-05-28 Sharp Corp Handwriting input device and handwriting input method
JP2013246633A (en) * 2012-05-25 2013-12-09 Toshiba Corp Electronic apparatus, handwriting document creation method, and handwriting document creation program
JP2014052690A (en) * 2012-09-05 2014-03-20 Konica Minolta Inc Meeting support system, control device, and input terminal
JP2015114976A (en) * 2013-12-13 2015-06-22 株式会社東芝 Electronic device and method
JP2016048484A (en) * 2014-08-28 2016-04-07 日本電気株式会社 Drawing control apparatus, information sharing system, drawing control method, and drawing control program

Also Published As

Publication number Publication date
JP6716409B2 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
US11381756B2 (en) DIY effects image modification
CN104424359B (en) For providing the electronic equipment of content and method according to field attribute
JP6364893B2 (en) Terminal device, electronic whiteboard system, electronic whiteboard input support method, and program
US11785132B2 (en) Information processing apparatus and non-transitory computer readable medium for processing information
EP2613238A2 (en) Method and apparatus for managing icon in portable terminal
CN104508684A (en) Setting an operating-system color using a photograph
US10416783B2 (en) Causing specific location of an object provided to a device
AU2015202698B2 (en) Method and apparatus for processing input using display
EP2988198B1 (en) Apparatus and method for processing drag and drop
RU2699236C2 (en) Telephone panel
CN106445956B (en) Shopping data management method and device
CN109298817B (en) Item display method, item display device, terminal and storage medium
CN110727383A (en) Touch interaction method and device based on small program, electronic equipment and storage medium
JP2018049503A (en) Information processing device
CN114863008B (en) Image processing method, image processing device, electronic equipment and storage medium
JP2017021859A (en) Object processing method, recording medium with program recorded thereon, and information processing apparatus
JP6287498B2 (en) Electronic whiteboard device, electronic whiteboard input support method, and program
KR102535086B1 (en) Electronic device and operating mehtod thereof
KR20220109170A (en) Method and system for providing mini-map in chatroom
CN104951223A (en) Method and device for achieving magnifying lens on touch screen and host
JP2017084002A (en) Information processing system, terminal device and program
US9799103B2 (en) Image processing method, non-transitory computer-readable storage medium and electrical device
WO2019077766A1 (en) Information processing terminal device
US10444982B2 (en) Method and apparatus for performing operation using intensity of gesture in electronic device
CN114741567A (en) Display method, intelligent terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200610

R150 Certificate of patent or registration of utility model

Ref document number: 6716409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250