JP2016143183A - Information processing apparatus, image processing system, and program - Google Patents

Information processing apparatus, image processing system, and program Download PDF

Info

Publication number
JP2016143183A
JP2016143183A JP2015017648A JP2015017648A JP2016143183A JP 2016143183 A JP2016143183 A JP 2016143183A JP 2015017648 A JP2015017648 A JP 2015017648A JP 2015017648 A JP2015017648 A JP 2015017648A JP 2016143183 A JP2016143183 A JP 2016143183A
Authority
JP
Japan
Prior art keywords
data
symbol
unit
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015017648A
Other languages
Japanese (ja)
Inventor
佑一 河崎
Yuichi Kawasaki
佑一 河崎
笠谷 潔
Kiyoshi Kasatani
潔 笠谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015017648A priority Critical patent/JP2016143183A/en
Priority to PCT/JP2016/000449 priority patent/WO2016121403A1/en
Publication of JP2016143183A publication Critical patent/JP2016143183A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Transfer Between Computers (AREA)
  • Facsimiles In General (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus configured to transmit a conversion candidate of handwritten information to another device.SOLUTION: An information processing apparatus (electronic blackboard) 2 for displaying information on a display unit 3 includes: pointed position detection means 25 (event processing section) that detects a position of information pointed on a display surface; visual information generation means 32 (stroke processing section) which generates visual information from the pointed position detected by the pointed position detection means; a character recognition section 321 which recognizes a symbol formed by one or more pieces of visual information generated by the visual information generation means, and determines a recognition candidate of the symbol; data conversion means 322 (serialization/deserialization section) that converts the symbol and the recognition candidate to data to be transmitted; and a communication control section 60 which transmits the symbol and the recognition candidate converted to the data by the data conversion means, to another information processing apparatus.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、画像処理システム及びプログラムに関する。   The present invention relates to an information processing apparatus, an image processing system, and a program.

従来、企業や教育機関、行政機関等における会議等において、大型ディスプレイに背景画像を表示させ、この背景画像の上にユーザが文字や数字、図形等の手書き可能な電子黒板が利用されている。   2. Description of the Related Art Conventionally, an electronic blackboard on which a background image is displayed on a large display and a user can hand-write letters, numbers, figures, etc. is used on the background image in a meeting at a company, an educational institution, an administrative organization, or the like.

このような電子黒板では、大型ディスプレイが表示装置と入力装置を兼ねており、ユーザは大型ディスプレイに対し専用ペンや指などを用いて座標を入力することができる。電子黒板は、座標を時系列に接続するなどしてユーザによって描画された文字や数字、図形などを背景画像に重畳して表示装置に表示する。   In such an electronic blackboard, the large display serves as both a display device and an input device, and the user can input coordinates to the large display using a dedicated pen or a finger. The electronic blackboard superimposes characters, numbers, figures, etc. drawn by the user by connecting the coordinates in time series and displays them on the display device.

電子黒板はこのようにして表示された文字などを画像として保存することもできるが、文字認識することで文字や数字をテキストデータに変換することができる。テキストデータに変換すれば画像として保存される場合よりも記憶容量を低減でき、また、文字の再利用などが容易になる。   The electronic blackboard can store the characters displayed in this manner as an image, but can recognize characters and numbers to convert them into text data. If converted into text data, the storage capacity can be reduced as compared with the case where the data is stored as an image, and the reuse of characters becomes easier.

しかしながら、手書きされた文字の認識率は必ずしも100%ではないことが知られている。このため文字の誤認識に対応するための技術が考案されている(例えば、特許文献1参照。)。特許文献1には、文字の認識後もその文字の再変換を可能にするため、文書の各文字に対して認識侯補を保持する候補バッファを備えた文字処理装置が開示されている。   However, it is known that the recognition rate of handwritten characters is not necessarily 100%. For this reason, a technique for dealing with erroneous recognition of characters has been devised (for example, see Patent Document 1). Patent Document 1 discloses a character processing device including a candidate buffer that holds a recognition supplement for each character of a document so that the character can be reconverted even after the character is recognized.

しかしながら、特許文献1に開示された文字処理装置は、候補バッファにポインタにより指定可能な変換候補が格納されているが、候補バッファを他の装置に転送することが困難であるという問題がある。すなわち、文字認識された文字と変換候補を他の装置に転送することが困難なため、他の装置は変換候補を用いて文字を変換することができない。   However, although the character processing device disclosed in Patent Document 1 stores conversion candidates that can be specified by a pointer in the candidate buffer, there is a problem that it is difficult to transfer the candidate buffer to another device. That is, since it is difficult to transfer the character-recognized character and the conversion candidate to another device, the other device cannot convert the character using the conversion candidate.

本発明は、上記課題に鑑み、手書き情報の変換候補を他の装置に送信することができる情報処理装置を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide an information processing apparatus capable of transmitting handwritten information conversion candidates to another apparatus.

上記課題に鑑み、本発明は、表示装置に情報を表示する情報処理装置であって、情報の表示面に対する指示位置を検出する指示位置検出手段と、前記指示位置検出手段が検出した前記指示位置により視覚情報を生成する視覚情報生成手段と、前記視覚情報生成手段が生成した1つ以上の視覚情報が形成する記号を認識すると共に前記記号の認識候補を決定する記号認識手段と、前記記号及び前記認識候補を送信可能なデータに変換するデータ変換手段と、前記データ変換手段が送信可能なデータに変換した前記記号及び前記認識候補を他の情報処理装置に送信する送信手段と、を有する。   In view of the above problems, the present invention is an information processing apparatus that displays information on a display device, and includes an indication position detection unit that detects an indication position on an information display surface, and the indication position detected by the indication position detection unit Visual information generating means for generating visual information, symbol recognition means for recognizing a symbol formed by one or more visual information generated by the visual information generating means, and determining a recognition candidate for the symbol; Data conversion means for converting the recognition candidate into data that can be transmitted, and transmission means for transmitting the symbol converted into data that can be transmitted by the data conversion means and the recognition candidate to another information processing apparatus.

手書き情報の変換候補を他の装置に送信することができる情報処理装置を提供することができる。   An information processing apparatus capable of transmitting handwritten information conversion candidates to another apparatus can be provided.

本実施形態の画像処理システムの全体構成図の一例である。It is an example of the whole block diagram of the image processing system of this embodiment. 電子黒板のハードウェア構成図の一例である。It is an example of the hardware block diagram of an electronic blackboard. 電子黒板の機能ブロック図の一例である。It is an example of the functional block diagram of an electronic blackboard. ファイル処理部の機能ブロック図の一例である。It is an example of a functional block diagram of a file processing unit. 通信制御部及びサーバ機の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a communication control part and a server machine. ストローク配列データを示す概念図の一例である。It is an example of the conceptual diagram which shows stroke arrangement | sequence data. 座標配列データを示す概念図の一例である。It is an example of the conceptual diagram which shows coordinate arrangement | sequence data. 各画像レイヤの構成図の一例である。It is an example of the block diagram of each image layer. 各電子黒板の処理を示したシーケンス図の一例である。It is an example of the sequence diagram which showed the process of each electronic blackboard. 各電子黒板の処理を示したシーケンス図の一例である。It is an example of the sequence diagram which showed the process of each electronic blackboard. 文字認識部321が手書きされた視覚情報の座標から記号を認識する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which the character recognition part 321 recognizes a symbol from the coordinate of the visual information handwritten. ディスプレイに描画された記号とその認識結果の一例である。It is an example of the symbol drawn on the display and its recognition result. 認識処理候補が含まれるテキストをストローク処理部32が保存する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which the stroke process part 32 preserve | saves the text containing a recognition process candidate. シリアライズとデシリアライズを説明するための図の一例である。It is an example of the figure for demonstrating serialization and deserialization.

以下、図面を用いて、本発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<用語について>
以下の実施形態で用いられる用語について説明する。
・オブジェクト…1つ以上の座標が接続されディスプレイに表示された視覚情報。本実施形態のオブジェクトには、テキスト、図形、ストローク及び背景画像がある。
・テキスト…文字、数値、特殊記号(%、&、=、〜など)等の記号であり、コードで扱われることが可能な視覚情報である。テキストは記号の認識(文字認識と呼ばれる場合がある)によりコードに変換されるが、本実施形態では手書きされた状態もテキストに含める。
・図形…丸や四角形などの予め定められた形状の図形である。形状の認識により決まった図形を意味するコードへ変換されてもよいし、直線や曲線で囲まれた線図として認識されてもよい。
・ストローク…テキスト及び図形のどちらとも判別されない視覚情報がストロークになる。
・ページデータ…ディスプレイに表示された1ページ分のオブジェクトである。
<Terminology>
Terms used in the following embodiments will be described.
Object: Visual information displayed on a display with one or more coordinates connected. The objects of this embodiment include text, graphics, strokes, and background images.
Text: Symbols such as characters, numerical values, special symbols (%, &, =, to, etc.), which are visual information that can be handled by codes. The text is converted into a code by symbol recognition (sometimes referred to as character recognition). In the present embodiment, the handwritten state is also included in the text.
A figure: a figure having a predetermined shape such as a circle or a rectangle. It may be converted into a code representing a figure determined by shape recognition, or may be recognized as a diagram surrounded by straight lines or curves.
Stroke: Visual information that cannot be distinguished from either text or graphics is a stroke.
-Page data: An object for one page displayed on the display.

<システムの概要>
図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の電子黒板や電子ペン等が利用されてもよい。電子黒板2aと2bは別々の拠点に設置されている。
<System overview>
FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. In FIG. 1, only two electronic blackboards 2a and 2b and associated electronic pens 4a and 4b are shown to simplify the description. A pen or the like may be used. The electronic blackboards 2a and 2b are installed at different bases.

図1に示されているように、画像処理システム1は、複数の電子黒板2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、ノートPC(Personal Computer)6a,6b、テレビ会議端末7a,7b(ビデオ会議端末と称してもよい)、及び、PC8を有する。また、電子黒板2a,2b及びPC8は、通信ネットワーク9を介して通信可能に接続されている。PC8は電子黒板2と画面を共有するためのPCである。更に、複数の電子黒板2a,2bには、それぞれディスプレイ3a,3b(ディスプレイ3は表示装置の一例であり、ディスプレイの表示面に情報が表示される。)が設けられている。また、電子黒板2aは、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻をタッチすること)により描画された画像を、ディスプレイ3aに表示させることができる。なお、電子黒板2aは、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。   As shown in FIG. 1, the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computers) 6a and 6b, a video conference. Terminals 7a and 7b (also referred to as video conference terminals) and a PC 8 are provided. The electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so that they can communicate with each other. The PC 8 is a PC for sharing the screen with the electronic blackboard 2. Further, the plurality of electronic blackboards 2a and 2b are respectively provided with displays 3a and 3b (the display 3 is an example of a display device, and information is displayed on the display surface of the display). The electronic blackboard 2a displays an image drawn by an event generated by the electronic pen 4a (touching the pen tip of the electronic pen 4a or the pen bottom of the electronic pen 4a on the display 3a) on the display 3a. be able to. Note that the electronic blackboard 2a changes the image displayed on the display 3a based on not only the electronic pen 4a but also an event (a gesture such as enlargement, reduction, and page turning) generated by the user's hand Ha or the like. You can also

また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aはUSBメモリ5aからPDF(Portable Document Format)等の電子ファイルを読み出したり、USBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aは、ディスプレイ3aに対する電子ペン4aや手Haの接触を検知してイベントを発生させ、このイベントを示すイベント情報をマウスやキーボード等の入力装置のイベントと同様に、ノートPC6aに送信する。   Further, a USB memory 5a can be connected to the electronic blackboard 2a, and the electronic blackboard 2a reads an electronic file such as PDF (Portable Document Format) from the USB memory 5a or records an electronic file in the USB memory 5a. be able to. Further, the electronic blackboard 2a is connected via a cable 10a1 capable of communication according to standards such as DisplayPort, DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and VGA (Video Graphics Array). A notebook PC 6a is connected. Then, the electronic blackboard 2a detects the contact of the electronic pen 4a or the hand Ha with the display 3a and generates an event. Event information indicating the event is sent to the notebook PC 6a in the same manner as an event of an input device such as a mouse or a keyboard. Send.

同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介してテレビ会議端末7aが接続されている。なお、ノートPC6a及びテレビ会議端末7aは、Bluetooth(登録商標)や無線LAN等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。   Similarly, a video conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above standard. Note that the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark) and wireless LAN.

一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1及びケーブル10b2が利用される。更に、電子黒板2bはユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。   On the other hand, in the other bases where the electronic blackboard 2b is installed, the electronic blackboard 2b with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 in the same manner as described above. Is used. Furthermore, the electronic blackboard 2b can change the image displayed on the display 3b based on an event caused by the user's hand Hb or the like.

これにより、一方の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。   Thereby, the image drawn on the display 3a of the electronic blackboard 2a at one base is also displayed on the display 3b of the electronic blackboard 2b at the other base, and conversely on the display 3b of the electronic blackboard 2b at the other base. The image drawn on is displayed on the display 3a of the electronic blackboard 2a at one base. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and thus is very convenient when used for a conference or the like at a remote location.

なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。   In the following, when an arbitrary electronic blackboard among the plurality of electronic blackboards is indicated, it is indicated as “electronic blackboard 2”. When an arbitrary display among a plurality of displays is shown, “display 3” is shown. When an arbitrary electronic pen among a plurality of electronic pens is indicated, it is indicated as “electronic pen 4”. When an arbitrary USB memory is indicated among the plurality of USB memories, it is indicated as “USB memory 5”. When an arbitrary notebook PC among the plurality of notebook PCs is indicated, it is indicated as “notebook PC 6”. When an arbitrary video conference terminal is indicated among the plurality of video conference terminals, it is indicated as “video conference terminal 7”. In addition, “hand H” is used when an arbitrary hand among the hands of a plurality of users is shown. When an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.

また、本実施形態では、画像処理装置の一例として、電子黒板を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例としてノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、ウェアラブルPC、スマートフォン、PDA(Personal Digital Assistant)、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。   In the present embodiment, an electronic blackboard is described as an example of an image processing device. However, the present invention is not limited to this, and other examples of the image processing device include electronic signboards (digital signage), sports and weather forecasts. It may be a telestrator to be used, a remote image (video) diagnostic device, or the like. The notebook PC 6 will be described as an example of the information processing terminal, but is not limited thereto. Other examples of the information processing terminal include a desktop PC, a tablet PC, a wearable PC, a smartphone, and a PDA (Personal Digital Assistant). It may be a terminal capable of supplying image frames such as a digital video camera, a digital camera, and a game machine.

更に、通信ネットワーク9には、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。   Further, the communication network 9 includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. In this embodiment, a USB memory is described as an example of a recording medium. However, the present invention is not limited to this, and various recording media such as an SD card may be used as another example of the recording medium.

<電子黒板のハードウェア構成>
続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図の一例である。
<Hardware configuration of electronic blackboard>
Next, the hardware configuration of the electronic blackboard according to the present embodiment will be described with reference to FIG. FIG. 2 is an example of a hardware configuration diagram of the electronic blackboard.

図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2の機能を提供するためのプログラム1041や各種データ等を記憶するSSD104、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。   As shown in FIG. 2, the electronic blackboard 2 includes a CPU 101 that controls the operation of the electronic blackboard 2 as a whole, a ROM 102 that stores programs used to drive the CPU 101 such as an IPL (Initial Program Loader), and a work area of the CPU 101. Control of communication with the RAM 103, the SSD 104 for storing the program 1041 for providing the functions of the electronic blackboard 2 and various data, the network controller 105 for controlling communication with the communication network 9, and the USB memory 5 The external storage controller 106 is provided.

また、電子黒板2は、ノートPC6のディスプレイに対して映像情報を静止画または動画として表示させるキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPU112からの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。なお、キャプチャデバイス111はノートPC6がノートPC6のディスプレイに表示している静止画または動画の映像情報を取得してディスプレイコントローラ113に出力することができる。   The electronic blackboard 2 displays a capture device 111 that displays video information as a still image or a moving image on the display of the notebook PC 6, a GPU (Graphics Processing Unit) 112 that specializes in graphics, and an output image from the GPU 112. 3 and a display controller 113 for controlling and managing screen display for output to the video conference terminal 7. Note that the capture device 111 can acquire video information of a still image or a moving image displayed on the display of the notebook PC 6 by the notebook PC 6 and output it to the display controller 113.

更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行に複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって同一光路上に反射する光を受光する方法である。接触センサ115は、物体(電子ペン4や手H)によって遮断された赤外光の遮断位置を撮影してセンサコントローラ114に出力する。センサコントローラ114は、遮断位置に基づき物体の接触位置である座標位置(指示位置の一例)を特定する。   The electronic blackboard 2 further includes a sensor controller 114 that controls processing of the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3. The contact sensor 115 performs coordinate input and coordinate detection by an infrared ray blocking method. In this method of inputting coordinates and detecting coordinates, two light emitting / receiving devices installed at both upper ends of the display 3 radiate a plurality of infrared rays in parallel to the display 3, and reflections provided around the display 3. In this method, light reflected by the member on the same optical path is received. The contact sensor 115 captures an infrared light blocking position blocked by an object (the electronic pen 4 or the hand H) and outputs the image to the sensor controller 114. The sensor controller 114 specifies a coordinate position (an example of an instruction position) that is a contact position of an object based on the blocking position.

また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2の抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。   In addition, the contact sensor 115 is not limited to the infrared ray blocking method, but a capacitance type touch panel that identifies a contact position by detecting a change in capacitance, or a contact position determined by a voltage change of two opposing resistance films. Various detection means such as a resistance film type touch panel to be identified and an electromagnetic induction type touch panel to identify a contact position by detecting electromagnetic induction caused by contact of a contact object with the display unit may be used.

また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先やペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、電子ペン4のその他の部分のタッチの有無を判断するようにしてもよい。   The electronic blackboard 2 includes an electronic pen controller 116. This electronic pen controller 116 communicates with the electronic pen 4 to determine whether or not the pen tip or pen butt touches the display 3. It should be noted that the electronic pen controller 116 may determine whether there is a touch on a part gripped by the user of the electronic pen 4 and other parts of the electronic pen 4 as well as the pen tip and the bottom of the electronic pen 4. .

更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、及びセンサコントローラ114を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。   Further, the electronic blackboard 2 electrically connects the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, and sensor controller 114 as shown in FIG. A bus line 120 such as an address bus or a data bus is provided.

なお、電子黒板2のCPU101が実行するプログラム1041は、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して配布されてもよいし、プログラムを配信する情報処理装置から通信ネットワーク9を介して配布されてもよい。   The program 1041 executed by the CPU 101 of the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM, or may be distributed from an information processing apparatus that distributes the program via the communication network 9. May be distributed.

<電子黒板の機能構成>
続いて、図3〜図5を用いて、電子黒板2の機能構成について説明する。まず、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図の一例である。
<Functional configuration of electronic blackboard>
Next, the functional configuration of the electronic blackboard 2 will be described with reference to FIGS. First, the overall functional configuration of the electronic blackboard 2 will be described with reference to FIG. FIG. 3 is an example of a functional block diagram of the electronic blackboard.

電子黒板2は、図2に示されているCPU101がプログラム1041を実行すると共に図2に示されているハードウェアを制御等することによって、図3に示されている各機能を実現する。電子黒板2は、クライアント機20及びサーバ機90を有する。すなわち、電子黒板2の1台の筐体内に、クライアント機20及びサーバ機90が含まれている。以下、順に説明する。   The electronic blackboard 2 implements each function shown in FIG. 3 by the CPU 101 shown in FIG. 2 executing the program 1041 and controlling the hardware shown in FIG. The electronic blackboard 2 includes a client machine 20 and a server machine 90. That is, the client machine 20 and the server machine 90 are included in one housing of the electronic blackboard 2. Hereinafter, it demonstrates in order.

<<クライアント機20の機能構成>>
主に図3〜図5を用いて、クライアント機20の機能構成について説明する。クライアント機20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント処理部25、操作処理部26、ジェスチャ処理部27、映像合成部28、画像処理部30、及び、通信制御部60を有する。
<< Functional Configuration of Client Machine 20 >>
The functional configuration of the client machine 20 will be described mainly with reference to FIGS. The client machine 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event processing unit 25, an operation processing unit 26, a gesture processing unit 27, a video synthesis unit 28, an image processing unit 30, The communication control unit 60 is included.

映像取得部21は、ケーブル10に接続されたノートPC6等の映像出力機器の出力映像を取得する。映像取得部21は、映像出力機器(ノートPC6)から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。   The video acquisition unit 21 acquires an output video of a video output device such as a notebook PC 6 connected to the cable 10. When receiving the image signal from the video output device (notebook PC 6), the video acquisition unit 21 analyzes the image signal, and the resolution of the image frame that is a display image of the video output device formed by the image signal, Image information such as an image frame update frequency is derived and output to the image acquisition unit 31.

座標検知部22は、ディスプレイ3上でユーザによって生じたイベントの座標位置を検出する。また、座標検知部22は、ユーザによってタッチされた面積も検出する。   The coordinate detection unit 22 detects the coordinate position of the event generated by the user on the display 3. The coordinate detection unit 22 also detects the area touched by the user.

自動調整部23は、電子黒板2の起動時に(電源のON時や省エネモードからの復帰時など)座標検知部22の調整を自動で行う。   The automatic adjustment unit 23 automatically adjusts the coordinate detection unit 22 when the electronic blackboard 2 is activated (when the power is turned on or when returning from the energy saving mode).

接触検知部24は、ユーザが生じさせたイベント(ディスプレイ3に電子ペン4のペン先、又は、電子ペン4のペン尻がタッチ)を検出する。   The contact detection unit 24 detects an event (the pen tip of the electronic pen 4 or the pen tip of the electronic pen 4 is touched on the display 3) generated by the user.

イベント処理部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果に基づいて、ストローク描画(オブジェクトの描画)、UI操作、及びジェスチャ操作に振り分ける。ここで、ストローク描画は、ユーザによる電子ペン4や手Hによる描画である。UI操作は、ユーザによるUI画像(後述のUI画像(A))の操作であり、例えば、電子ペン4により描画される線の色や幅等を設定するための操作である。ジェスチャ操作は、ユーザによるジェスチャの操作であり、例えば、ユーザがディスプレイ3に手Hを接触させた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うための操作である。   The event processing unit 25 distributes stroke drawing (object drawing), UI operation, and gesture operation based on the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24. Here, stroke drawing is drawing by the user with the electronic pen 4 or the hand H. The UI operation is an operation of a UI image (a UI image (A) described later) by the user, for example, an operation for setting a color, a width, and the like of a line drawn by the electronic pen 4. The gesture operation is a gesture operation by the user. For example, when the user moves the hand H while the hand H is in contact with the display 3, the image is enlarged (or reduced), the display area is changed, or This is an operation for switching pages.

操作処理部26は、イベント処理部25によってUI操作と判断されたものから、イベントが発生されたUIの要素に従って各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。   The operation processing unit 26 executes various operations in accordance with the UI element in which the event is generated, from what is determined as the UI operation by the event processing unit 25. Examples of the UI element include a button, a list, a check box, and a text box.

ジェスチャ処理部27は、イベント処理部25によってジェスチャ操作と判断されたものに対応した操作を実行する。   The gesture processing unit 27 performs an operation corresponding to what is determined as a gesture operation by the event processing unit 25.

映像合成部28は、後述の表示合成部36で合成された画像を映像としてディスプレイ3などに表示する。また、映像合成部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャしてディスプレイ3に表示する。更に、映像合成部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。   The video synthesizing unit 28 displays the image synthesized by the display synthesizing unit 36 described later as a video on the display 3 or the like. In addition, the video composition unit 28 performs picture-in-picture processing on the video sent from another video output device (such as the video conference terminal 7) in response to the video from the video output device (such as the notebook PC 6). Displayed on the display 3. Further, the video composition unit 28 performs switching for displaying the video image-in-picture and displayed on a part of the display 3 on the entire display 3.

次に、画像処理部30について説明する。画像処理部30は、図8に示されているような各画像レイヤの合成処理等を行う。図8は各画像レイヤの構成図の一例である。画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示合成部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。   Next, the image processing unit 30 will be described. The image processing unit 30 performs synthesis processing of each image layer as shown in FIG. FIG. 8 is an example of a configuration diagram of each image layer. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a display composition unit 36, a page processing unit 37, a file processing unit 40, and page data storage. Section 300 and a remote license management table 310.

このうち、画像取得部31は、映像取得部21により取得された映像から、各フレームを画像として取得する。この画像は、図8に示されている映像出力機器(ノートPC6)からの出力画像(C)に相当する。   Among these, the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21. This image corresponds to an output image (C) from the video output device (notebook PC 6) shown in FIG.

ストローク処理部32は、イベント処理部25によって、電子ペン4のペン先のタッチ、ペン尻のタッチ、又は、ユーザの手Hによるタッチなどストローク等に基づいて画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストロークによって描画された画像は、図8に示されているストローク画像(B)に相当する。また、このストローク等に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、後述する操作データ記憶部840に記憶される。   The stroke processing unit 32 draws an image based on a stroke or the like by the event processing unit 25, such as a touch of the pen tip of the electronic pen 4, a touch of the pen butt, or a touch by the user's hand H, or a drawn image. Delete or edit the rendered image. The image drawn by this stroke corresponds to the stroke image (B) shown in FIG. In addition, each result of drawing, deleting, and editing an image based on the stroke and the like is stored in an operation data storage unit 840 described later as operation data described later.

ストローク処理部32は文字認識部321とシリアライズ/デシリアライズ部322を有する。文字認識部321は、イベント処理部25によって取得された座標データを解析し、テキスト(文字、数値、特殊記号などの記号)、丸や四角形などの図形、又は、ストロークに判別する。テキストと判別された場合、手書きされた視覚情報を記号として認識する。記号の認識には拡張セル特徴を用いる方式、加重方向ヒストグラムを特徴量として用いる方式、外郭方向寄与度特徴を用いる方式など様々な方式があるが、本実施形態ではどのような方式を用いてもよい。しかしながらどの方式でも各記号の特徴量の標準パターンが用意されており、手書きされたテキストの特徴量のパターンと最も近い標準パターンの記号がテキストとして認識される。   The stroke processing unit 32 includes a character recognition unit 321 and a serialization / deserialization unit 322. The character recognizing unit 321 analyzes the coordinate data acquired by the event processing unit 25 and discriminates it into text (a symbol such as a character, a numerical value, or a special symbol), a figure such as a circle or a rectangle, or a stroke. When it is determined as text, handwritten visual information is recognized as a symbol. There are various methods for symbol recognition, such as a method using an extended cell feature, a method using a weighted direction histogram as a feature amount, a method using a contour direction contribution feature, and any method can be used in this embodiment. Good. However, in any method, a standard pattern of the feature amount of each symbol is prepared, and a standard pattern symbol closest to the feature amount pattern of the handwritten text is recognized as text.

認識の際、文字認識部321は少なくとも1つ以上の認識処理候補(認識候補の一例)を各記号に対応付けて保存しておく。文字(記号)の認識では、パターンの類似度に基づいて手書きされたテキストと適合する確率が最も高いテキストが認識結果として特定される。そして、適合する確率が最も高いテキスト以外のテキストが、認識処理候補となる(本実施形態の認識処理候補には処理の便宜のため、適合する確率が最も高いテキストも含まれている)。認識処理候補は、適合確率の高い順に予め定められている最小数と最大数の範囲で抽出される。記号と認識処理候補はページ処理部37に出力される。   At the time of recognition, the character recognition unit 321 stores at least one recognition processing candidate (an example of a recognition candidate) in association with each symbol. In the recognition of characters (symbols), a text having the highest probability of matching with handwritten text is identified as a recognition result based on the pattern similarity. Then, text other than the text with the highest probability of matching becomes a recognition processing candidate (for the convenience of processing, the text with the highest probability of matching is included in the recognition processing candidate of this embodiment). The recognition process candidates are extracted in a range of a predetermined minimum number and maximum number in descending order of the matching probability. The symbols and recognition process candidates are output to the page processing unit 37.

シリアライズ/デシリアライズ部322はテキストと認識処理候補をシリアライズしたり、シリアライズされたテキストと認識処理候補をデシリアライズする。詳細は後述する。   The serialization / deserialization unit 322 serializes the text and the recognition process candidate, or deserializes the serialized text and the recognition process candidate. Details will be described later.

UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図8に示されているUI画像(A)に相当する。   The UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2. This UI image corresponds to the UI image (A) shown in FIG.

背景生成部34は、ディスプレイ3上に表示される背景画像を生成する。この背景画像は、図8に示されている背景画像(D)に相当する。背景画像のパターンは、無地、グリッド表示等である。   The background generation unit 34 generates a background image displayed on the display 3. This background image corresponds to the background image (D) shown in FIG. The pattern of the background image is plain or grid display.

レイアウト管理部35は、画像取得部31、ストローク処理部32、UI画像生成部33、及び背景生成部34から出力された各画像のレイアウトを示すレイアウト情報を管理し、表示合成部36に対して出力する。これにより、レイアウト管理部35は、表示合成部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。   The layout management unit 35 manages layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, the UI image generation unit 33, and the background generation unit 34. Output. Thereby, the layout management unit 35 causes the display composition unit 36 to display the output image (C) and the stroke image (B) in which position in the UI image (A) and the background image (D) or It is possible to instruct whether to hide.

表示合成部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、UI画像生成部33、及び背景生成部34から出力された各画像のレイアウトを行う。   Based on the layout information output from the layout management unit 35, the display synthesis unit 36 performs the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, the UI image generation unit 33, and the background generation unit 34. .

ページ処理部37は、認識処理候補を含むテキスト、図形、ストローク及び背景画像(D)を1ページのページデータとしてページデータ記憶部300に記録する。このうち認識処理候補を含むテキスト、図形、ストロークがストローク画像(B)である。また、ページ処理部37は、記録したページを再表示し、ストロークの再編集を行う。更に、ページ処理部37は、ページを削除したり複製したりする。   The page processing unit 37 records text, graphics, strokes, and a background image (D) including recognition processing candidates in the page data storage unit 300 as page data for one page. Of these, text, graphics, and strokes including recognition process candidates are stroke images (B). The page processing unit 37 redisplays the recorded page and re-edits the stroke. Further, the page processing unit 37 deletes or duplicates the page.

表示合成部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトに従って合成する。これにより、図8に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。   The display composition unit 36 outputs an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background generation unit 34. The background image (D) is synthesized according to the layout designated by the layout management unit 35. Accordingly, as shown in FIG. 8, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) is displayed in the order in which the user can see each image even if they overlap. It has Leia composition.

また、表示合成部36は、図8に示されている出力画像(C)と背景画像(D)を切り替えて合成することも可能である。例えば、電子黒板2と映像出力機器(ノートPC6等)とを接続するケーブル10が取り外された場合には、レイアウト管理部35の指定によって出力画像(C)を合成対象から外すことができる。また、表示合成部36は、合成された画像の拡大、表示の縮小、表示領域の移動処理も行う。   The display composition unit 36 can also perform composition by switching between the output image (C) and the background image (D) shown in FIG. For example, when the cable 10 connecting the electronic blackboard 2 and the video output device (notebook PC 6 or the like) is removed, the output image (C) can be removed from the synthesis target by the designation of the layout management unit 35. The display composition unit 36 also performs enlargement of the synthesized image, reduction of display, and movement processing of the display area.

ページデータ記憶部300は、表1に示されているようなページデータを記憶する。表1は、ページデータを示す概念図の一例である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(テキスト、図形、ストローク及び背景画像)である。以下、ページデータの内容を説明する。   The page data storage unit 300 stores page data as shown in Table 1. Table 1 is an example of a conceptual diagram showing page data. The page data is data for one page (text, figure, stroke, and background image) displayed on the display 3. The contents of the page data will be described below.

Figure 2016143183
ページデータは、表1に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開示時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及び、メディアデータを識別するためのメディアデータIDが関連付けて記憶されている。これらのIDを含む全てのIDは、識別情報の一例である。
Figure 2016143183
As shown in Table 1, the page data is a page data ID for identifying an arbitrary page, a disclosure time indicating the start time of display of this page, and rewriting of the contents of the page by a stroke, a gesture, etc. The end time indicating the time when the operation is stopped, the stroke arrangement data ID for identifying the stroke arrangement data generated by the stroke of the electronic pen 4 or the user's hand H, and the media data ID for identifying the media data It is stored in association. All IDs including these IDs are examples of identification information.

ここで、メディアデータは、ページデータの記憶時にディスプレイ3に表示されている画像のデータである。例えば、ディスプレイ3上に、背景画像(D)と、ストローク画像(B)が表示されている場合には、メディアデータは、背景画像(D)のデータとストローク画像(B)のデータの両方を意味する。また、ディスプレイ3上に、背景画像(D)が表示されず、ストローク画像(B)のみが表示されている場合には、メディアデータは、ストローク画像(B)のデータを意味する。   Here, the media data is image data displayed on the display 3 when the page data is stored. For example, when the background image (D) and the stroke image (B) are displayed on the display 3, the media data includes both the data of the background image (D) and the data of the stroke image (B). means. When the background image (D) is not displayed on the display 3 and only the stroke image (B) is displayed, the media data means the data of the stroke image (B).

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、1つのストローク(次述するストロークデータIDが1つ)で一文字のアルファベット[S]が示される。ところが、電子ペン4によって、アルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。   With such page data, for example, when the user draws the alphabet “S” with the electronic pen 4, the stroke is written with one stroke, and therefore, one letter (S with one stroke data ID described below) is used for one letter [S]. Is shown. However, when the electronic pen 4 is used to draw the alphabet “T”, it is written with two strokes, so that one stroke of the alphabet “T” is indicated by two stroke data IDs.

図6は、ストローク配列データを示す概念図の一例である。ストローク配列データは、図6に示されているように詳細な情報を示している。1つのストローク配列データは、複数のストロークデータによって表される。1つのストロークデータがペンダウンからペンアップまでの一筆を意味する。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、ストロークの通過点の配列を識別するための座標配列データID及び座標から判別された記号の記号IDを示している。記号IDは1つのページデータ内で一意に記号を識別するための識別情報である。例えば「S」のように1ストロークで1つの記号が手書きされる場合、1つのストロークデータIDに1つの記号IDが対応付けられる。「T」のように2つのストロークで1つの記号が手書きされる場合、2つのストロークデータIDに1つの記号IDが対応付けられる。   FIG. 6 is an example of a conceptual diagram showing stroke arrangement data. The stroke arrangement data shows detailed information as shown in FIG. One stroke arrangement data is represented by a plurality of stroke data. One stroke data means one stroke from pen down to pen up. One stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, an end time indicating the end time of writing one stroke, the color of the stroke, The stroke width, the coordinate array data ID for identifying the array of the passing points of the stroke, and the symbol ID of the symbol determined from the coordinates are shown. The symbol ID is identification information for uniquely identifying a symbol within one page data. For example, when one symbol is handwritten by one stroke like “S”, one symbol ID is associated with one stroke data ID. When one symbol is handwritten with two strokes as in “T”, one symbol ID is associated with two stroke data IDs.

座標配列データIDによって特定される座標配列データは、図7に示されているように詳細な情報を示している。図7は、座標配列データを示す概念図の一例である。図7に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの描画の開示時刻からの差分時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。すなわち、図8に示されている1点の集まりが、図7に示されているストロークデータIDで特定される1つの座標配列データを表す。例えば、電子ペン4によって、アルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データはこれら複数の通過点の情報を示している。   The coordinate array data specified by the coordinate array data ID indicates detailed information as shown in FIG. FIG. 7 is an example of a conceptual diagram showing coordinate array data. As shown in FIG. 7, the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a differential time (from the disclosure time of drawing a stroke when the one point is passed) ms) and information on the writing pressure of the electronic pen 4 at this one point. That is, a collection of one point shown in FIG. 8 represents one coordinate array data specified by the stroke data ID shown in FIG. For example, when the alphabet “S” is drawn with the electronic pen 4, it is written with a single stroke, but passes through a plurality of passing points before the drawing of “S”, so the coordinate array data is information on these passing points. Is shown.

Figure 2016143183
表2は記号データを概念的に示す例である。記号データは、記号を特定するための記号ID、手書きされた1つ以上のストロークから変換されたテキスト、及び、テキスト以外の1つ以上の認識処理候補を有する。ページデータに記号データが紐付けられているため、ユーザがページをディスプレイ3に表示すると認識処理候補からテキストを選択することができる。
Figure 2016143183
Table 2 is an example conceptually showing the symbol data. The symbol data includes a symbol ID for identifying the symbol, text converted from one or more handwritten strokes, and one or more recognition processing candidates other than the text. Since the symbol data is associated with the page data, when the user displays the page on the display 3, the user can select the text from the recognition process candidates.

Figure 2016143183
次に、表3を用いてメディアデータについて説明する。表3は、メディアデータを示す概念的な表の一例である。メディアデータは、各メディアデータを識別するためのメディアデータID、メディアデータの種類を示すデータ種類、メディアデータが記録された時刻を示す記録時刻、メディアデータの左上コーナーの座標のX座標値、Y座標値、メディアデータの幅、高さ、及び、メディアデータのファイルを示す画像データを有している。
Figure 2016143183
Next, media data will be described using Table 3. Table 3 is an example of a conceptual table showing media data. The media data includes a media data ID for identifying each media data, a data type indicating the type of the media data, a recording time indicating the time when the media data was recorded, an X coordinate value of the coordinates of the upper left corner of the media data, Y It has image data indicating coordinate values, media data width and height, and media data files.

図3に戻って説明する。遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。遠隔共有処理とは、一方の拠点の電子黒板2aが他の拠点の電子黒板2bとディスプレイ3a、3bに表示する画像を共有する処理である。   Returning to FIG. The remote license management table 310 manages license data necessary for executing remote sharing processing. The remote sharing process is a process in which the electronic blackboard 2a at one site shares an image displayed on the displays 3a and 3b with the electronic blackboard 2b at the other site.

Figure 2016143183
表4は、遠隔ライセンス管理テーブルの概念図の一例を示す。遠隔ライセンス管理テーブル310では、電子黒板2のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。
Figure 2016143183
Table 4 shows an example of a conceptual diagram of the remote license management table. In the remote license management table 310, the product ID of the electronic blackboard 2, the license ID used for authentication, and the license expiration date are managed in association with each other.

続いて、図4を用いて図3に示されているファイル処理部40の機能構成を説明する。図4は、ファイル処理部40の機能ブロック図の一例である。なお、以下では、最初に遠隔共有処理を開始する電子黒板2を「主催装置」、既に開始されている遠隔共有処理に後から参加する電子黒板2を「参加装置」として示している。   Next, the functional configuration of the file processing unit 40 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is an example of a functional block diagram of the file processing unit 40. In the following, the electronic blackboard 2 that starts the remote sharing process first is indicated as “host device”, and the electronic blackboard 2 that participates in the remote sharing process that has already been started later is indicated as “participating device”.

ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び、接続先管理テーブル440を有している。   The file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit. 48, a setting file input unit 49a, and a setting file output unit 49b. Further, the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.

リカバリ処理部41は、電子黒板2が動作異常によって終了した後に、異常終了を検知し、未保存のページデータを復旧する。   The recovery processing unit 41 detects the abnormal end after the electronic blackboard 2 is ended due to the abnormal operation, and recovers the unsaved page data.

ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとして取り込む。   The file input unit 42a reads a PDF file from the USB memory 5 and takes each page as page data.

ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。   The file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file.

ファイル出力部42bは、ファイル変換部42によって出力されたPDFファイルをUSBメモリ5に記録する。   The file output unit 42 b records the PDF file output by the file conversion unit 42 in the USB memory 5.

ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示合成部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザからの宛先の選択を受け付けることによって決定される。また、ファイル送信部44が、ユーザによって宛先としてのメールアドレスの入力を受け付けることもできる。   The file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 by attaching it to an electronic mail. The transmission destination of this file is determined by displaying the contents of the address book management table 410 on the display 3 by the display composition unit 36 and the file transmission unit 44 accepting selection of a destination from the user. Further, the file transmission unit 44 can accept an input of a mail address as a destination by the user.

Figure 2016143183
表5はアドレス帳管理テーブル410の一例を示す。アドレス帳管理テーブル410には、宛先の名前及び宛先の電子メールのメールアドレスが関連付けて管理されている。
Figure 2016143183
Table 5 shows an example of the address book management table 410. In the address book management table 410, the name of the destination and the mail address of the destination e-mail are managed in association with each other.

図4に戻り、アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。   Returning to FIG. 4, the address book input unit 45 reads the e-mail address list file from the USB memory 5 and manages it in the address book management table 410.

バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。バックアップデータは、表6に示されているように、PDF形式で記憶される。表6はバックアップデータの一例を示す。   The backup processing unit 46 performs backup by storing the file output by the file output unit 42 b and the file transmitted by the file transmission unit 44 in the backup data storage unit 420. If the user does not set backup, backup processing is not performed. The backup data is stored in PDF format as shown in Table 6. Table 6 shows an example of backup data.

Figure 2016143183
バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶には、パスワードが必要である。
Figure 2016143183
The backup output unit 47 stores the backed up file in the USB memory 5. This memory requires a password.

設定管理部48は、電子黒板2の各種設定情報を管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、及び、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。   The setting management unit 48 manages various setting information of the electronic blackboard 2. Examples of the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings. The network setting is, for example, an IP address setting of the electronic blackboard 2, a net mask setting, a default gateway setting, a DNS (Domain Name System) setting, or the like.

設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティー上の理由により暗号化され、ユーザは中身を見ることができない。   The setting file output unit 49b records various setting information of the electronic blackboard 2 in the USB memory 5 as a setting file. Note that the configuration file is encrypted for security reasons, and the user cannot see the contents.

設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板の各種設定に反映させる。   The setting file input unit 49a reads a setting file stored in the USB memory 5 and reflects various setting information on various settings of the electronic blackboard.

アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、表7に示す接続先管理テーブル440に管理する。   The address book input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages it in the connection destination management table 440 shown in Table 7.

Figure 2016143183
表7は接続先管理テーブル440を概念的に示す。接続先管理テーブル440は、電子黒板2が遠隔共有処理に参加しようとする参加装置である場合、この参加装置のユーザが主催装置としての役割を果たす電子黒板のIPアドレスを入力する手間を削減するために、該IPアドレスを予め管理しておくためのテーブルである。この接続先管理テーブル440では、参加可能な主催装置としての電子黒板2が設置されている拠点の名称、及び、主催装置としての電子黒板2のIPアドレスが関連付けて管理されている。なお、接続先管理テーブル440は無くてもよい。但し、この場合には、参加装置のユーザは、電話や電子メール等によって、主催装置のユーザから主催装置としての電子黒板2のIPアドレスを知る必要がある。
Figure 2016143183
Table 7 conceptually shows the connection destination management table 440. When the electronic blackboard 2 is a participating device that intends to participate in the remote sharing process, the connection destination management table 440 reduces the effort for the user of the participating device to input the IP address of the electronic blackboard that plays the role of the host device. Therefore, this is a table for managing the IP address in advance. In the connection destination management table 440, the name of the base where the electronic blackboard 2 as a hosting apparatus that can participate is installed and the IP address of the electronic blackboard 2 as the hosting apparatus are managed in association with each other. Note that the connection destination management table 440 may be omitted. However, in this case, the user of the participating device needs to know the IP address of the electronic blackboard 2 as the hosting device from the user of the hosting device by telephone or electronic mail.

<<通信制御部60の機能構成>>
続いて、図5を用いて、通信制御部60の機能構成について説明する。図5は通信制御部60及びサーバ機90の機能構成の一例を示す図である。通信制御部60は、通信ネットワーク9を介して他の電子黒板2と行う通信や、サーバ機90における後述の通信制御部70と行う通信を制御する。そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66、及び、参加拠点管理テーブル610を有している。
<< Functional Configuration of Communication Control Unit 60 >>
Next, the functional configuration of the communication control unit 60 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of functional configurations of the communication control unit 60 and the server machine 90. The communication control unit 60 controls communication performed with another electronic blackboard 2 via the communication network 9 and communication performed with the communication control unit 70 described later in the server machine 90. Therefore, the communication control unit 60 includes a remote start processing unit 61, a remote participation processing unit 62, a remote image transmission unit 63, a remote image reception unit 64, a remote operation transmission unit 65, a remote operation reception unit 66, and a participation base management table. 610.

このうち、遠隔開始処理部61は、同一筐体内の電子黒板2のサーバ機90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ機90から要求の結果を受信する。この場合、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照し、ライセンス情報(プロダクトID、ライセンスID、及び有効期限)が管理されている場合には、遠隔共有処理を開始する要求を行うことができる。ライセンス情報が管理されていない場合には遠隔共有処理を開始する要求を行うことができない。   Among these, the remote start processing unit 61 makes a request for starting a new remote sharing process to the server machine 90 of the electronic blackboard 2 in the same housing, and receives the request result from the server machine 90. In this case, the remote start processing unit 61 refers to the remote license management table 310 and makes a request to start remote sharing processing when license information (product ID, license ID, and expiration date) is managed. be able to. If the license information is not managed, a request to start remote sharing processing cannot be made.

また、遠隔開始処理部61は参加拠点管理テーブル610を参照する。参加拠点管理テーブル610は、電子黒板2が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板を管理するテーブルである。この参加拠点管理テーブル610では、表8に示されているように、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスが関連付けて管理されている。表8は、参加拠点管理テーブルの一例を示す。   Further, the remote start processing unit 61 refers to the participating site management table 610. The participation base management table 610 is a table for managing an electronic blackboard as a participating device currently participating in the remote sharing process when the electronic blackboard 2 is a sponsor device. In this participating site management table 610, as shown in Table 8, the name of the site where the participating electronic blackboard 2 is installed and the IP address of the electronic blackboard 2 are managed in association with each other. Table 8 shows an example of the participating base management table.

Figure 2016143183
遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置としての電子黒板2のサーバ機90における遠隔接続要求受信部71に対して、遠隔共有処理への参加要求を行う。この場合も、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62が、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して、参加先の電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブルが参照されず、ユーザによって参加先の電子黒板2のIPアドレスが入力されてもよい。
Figure 2016143183
The remote participation processing unit 62 transmits the remote connection processing to the remote sharing processing to the remote connection request receiving unit 71 in the server 90 of the electronic blackboard 2 as the hosting device that has already started the remote sharing processing via the communication network 9. Request participation. Also in this case, the remote participation processing unit 62 refers to the remote license management table 310. In addition, when the remote participation processing unit 62 participates in the remote sharing process that has already been started, the IP address of the electronic blackboard 2 of the participation destination is acquired with reference to the connection destination management table 440. The remote participation processing unit 62 may not refer to the connection destination management table, and the user may input the IP address of the electronic blackboard 2 as the participation destination.

遠隔画像送信部63は、映像取得部21から画像取得部31を介して送られて来た出力画像(C)をサーバ機90に送信する。   The remote image transmission unit 63 transmits the output image (C) sent from the video acquisition unit 21 via the image acquisition unit 31 to the server machine 90.

遠隔画像受信部64は、サーバ機90から、他の電子黒板2に接続された映像出力機器からの画像データを受信し、表示合成部36に出力することで、遠隔共有処理を可能にする。   The remote image receiving unit 64 receives image data from a video output device connected to another electronic blackboard 2 from the server 90 and outputs it to the display composition unit 36, thereby enabling remote sharing processing.

遠隔操作送信部65は、遠隔共有処理に必要な各種操作データをサーバ機90に送信する。この各種操作データとしては、例えば、ストロークの追加、ストロークの削除、ストロークの編集(拡大、縮小、移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの削除、表示されているページの切り替え等に関するデータが挙げられる。また、遠隔操作受信部66は、サーバ機90から、他の電子黒板2で入力された操作データを受信し、画像処理部30に出力することで、遠隔共有処理を行う。   The remote operation transmission unit 65 transmits various operation data necessary for remote sharing processing to the server machine 90. Examples of the operation data include adding a stroke, deleting a stroke, editing a stroke (enlarging, reducing, moving), storing page data, creating page data, duplicating page data, deleting page data, and displaying. Data related to the switching of the current page. In addition, the remote operation receiving unit 66 receives the operation data input from the other electronic blackboard 2 from the server machine 90 and outputs it to the image processing unit 30 to perform remote sharing processing.

<サーバ機の機能構成>
続いて、図5を用いてサーバ機90の機能構成について説明する。サーバ機90は、各電子黒板2に設けられており、いずれの電子黒板2であっても、サーバ機としての役割を果たすことができる。そのため、サーバ機90は、通信制御部70及びデータ管理部80を有している。
<Functional configuration of server machine>
Next, the functional configuration of the server machine 90 will be described with reference to FIG. The server machine 90 is provided in each electronic blackboard 2, and any electronic blackboard 2 can serve as a server machine. Therefore, the server machine 90 has a communication control unit 70 and a data management unit 80.

<<通信制御部70の機能構成>>
次に、通信制御部70の機能構成について説明する。通信制御部70は、同じ電子黒板2内のクライアント機20における通信制御部60との通信、及び、通信ネットワーク9を介して他の電子黒板2内のクライアント機20における通信制御部60との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
<< Functional Configuration of Communication Control Unit 70 >>
Next, the functional configuration of the communication control unit 70 will be described. The communication control unit 70 communicates with the communication control unit 60 in the client machine 20 in the same electronic blackboard 2 and communicates with the communication control unit 60 in the client machine 20 in another electronic blackboard 2 via the communication network 9. To control. The data management unit 80 manages operation data, image data, and the like.

更に詳細に説明すると、通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75、及び、遠隔操作送信部76を有している。   More specifically, the communication control unit 70 includes a remote connection request receiving unit 71, a remote connection result transmitting unit 72, a remote image receiving unit 73, a remote image transmitting unit 74, a remote operation receiving unit 75, and a remote operation transmitting unit. 76.

このうち、遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、通信ネットワーク9を介する遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信する。   Among these, the remote connection request receiving unit 71 receives a remote sharing processing start request from the remote start processing unit 61 or receives a participation request for remote sharing processing from the remote participation processing unit 62 via the communication network 9. .

遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、通信ネットワーク9を介して遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信する。   The remote connection result transmission unit 72 transmits the result of the remote sharing processing start request to the remote start processing unit 61 or transmits the result of the participation request for the remote sharing processing to the remote participation processing unit 62 via the communication network 9. .

遠隔画像受信部73は、遠隔画像送信部63からの画像データ(出力画像(C)のデータ)を受信し、後述の遠隔画像処理部82に送信する。遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対してこの画像データを送信する。   The remote image receiving unit 73 receives the image data (data of the output image (C)) from the remote image transmitting unit 63 and transmits it to the remote image processing unit 82 described later. The remote image transmission unit 74 receives image data from the remote image processing unit 82 and transmits this image data to the remote image reception unit 64.

遠隔操作受信部75は、遠隔操作送信部65からの各種操作データを受信し、後述の遠隔操作処理部83に送信する。遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対してこの操作データを送信する。   The remote operation reception unit 75 receives various operation data from the remote operation transmission unit 65 and transmits it to the remote operation processing unit 83 described later. The remote operation transmission unit 76 receives operation data from the remote operation processing unit 83 and transmits the operation data to the remote operation reception unit 66.

<<データ管理部80の機能構成>>
次に、データ管理部80の機能構成について説明する。データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84及びページ処理部85を有している。更に、データ管理部80は、パスコード管理部810、参加拠点管理テーブル820、画像データ管理部830、操作データ記憶部840及びページデータ記憶部850を有している。
<< Functional Configuration of Data Management Unit 80 >>
Next, the functional configuration of the data management unit 80 will be described. The data management unit 80 includes a remote connection processing unit 81, a remote image processing unit 82, a remote operation processing unit 83, an operation composition processing unit 84, and a page processing unit 85. Further, the data management unit 80 includes a passcode management unit 810, a participating site management table 820, an image data management unit 830, an operation data storage unit 840, and a page data storage unit 850.

このうち、遠隔接続処理部81は、遠隔共有処理の開始及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信したライセンス情報、又は、遠隔参加処理部62から遠隔共有処理の参加要求と共に受信したライセンス情報に基づいて、ライセンスの有無やライセンスの期間内であるかを確認する。更に、遠隔接続処理部81は、クライアント機としての他の電子黒板2からの参加要求が予め定められた参加可能数を超えていないかを確認する。   Among these, the remote connection processing unit 81 starts the remote sharing process and ends the remote sharing process. The remote connection processing unit 81 also receives the license information received by the remote connection request receiving unit 71 from the remote start processing unit 61 together with the remote sharing processing start request or the remote sharing processing unit 62 from the remote sharing processing participation request. Based on the received license information, it is confirmed whether there is a license and whether it is within the license period. Further, the remote connection processing unit 81 confirms whether or not the participation request from the other electronic blackboard 2 as the client machine exceeds the predetermined number of possible participations.

更に、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求があった際に送られて来たパスコードが、パスコード管理部810で管理されているパスコードと同じであるか否かを判断し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に遠隔接続処理部81によって発行され、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、主催装置としての電子黒板2のユーザから、電話や電子メール等により伝えられる。これにより、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、この電子黒板2にパスコードを入力して参加要求することで、参加が許可されることになる。なお、セキュリティーよりもユーザの使い勝手を優先して、ライセンス状況の確認だけで、パスコードの確認を省略してもよい。   Further, the remote connection processing unit 81 has the same passcode that is sent when another electronic blackboard 2 has requested to participate in remote sharing processing as the passcode managed by the passcode management unit 810. It is determined whether or not there is the same, and if they are the same, participation in the remote sharing process is permitted. This passcode is issued by the remote connection processing unit 81 when a new remote sharing process is started, and the user of the electronic blackboard 2 as a participating device who intends to participate in the remote sharing process can obtain the electronic code as the hosting device. It is transmitted from the user of the blackboard 2 by telephone or e-mail. As a result, the user of the electronic blackboard 2 as a participating device who intends to participate in the remote sharing process inputs the pass code to the electronic blackboard 2 and requests participation, thereby permitting participation. Note that the user's usability is given priority over security, and the confirmation of the passcode may be omitted only by confirming the license status.

また、遠隔接続処理部81は、参加装置としての電子黒板2の遠隔参加処理部62から通信ネットワーク9を介して送られて来た参加要求に含まれる参加拠点情報を、サーバ機90の参加拠点管理テーブル820に記憶する。これにより、主催装置としての電子黒板2では、クライアント機20及びサーバ機90の両方で、同じ内容の参加拠点管理テーブルを管理することになる。更に、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、通信ネットワーク9を介してサーバ機としての電子黒板2の遠隔開始処理部61に送る。   In addition, the remote connection processing unit 81 uses the participation site information included in the participation request sent from the remote participation processing unit 62 of the electronic blackboard 2 as the participation device via the communication network 9 to the participation site of the server 90. Store in the management table 820. Thereby, in the electronic blackboard 2 as the hosting device, the participation base management table having the same contents is managed by both the client machine 20 and the server machine 90. Further, the remote connection processing unit 81 reads out the remote site information stored in the participating site management table 820 and sends it to the remote start processing unit 61 of the electronic blackboard 2 as the server machine via the communication network 9.

遠隔画像処理部82は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)に接続された映像出力機器(ノートPC6等)からの画像データ(出力画像(C))を受信し、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。また、遠隔画像処理部82は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。   The remote image processing unit 82 receives image data from a video output device (such as a notebook PC 6) connected to a client device of each electronic blackboard 2 (including a client device of its own electronic blackboard that is the hosting device) during remote sharing processing. (Output image (C)) is received, and the display order of the images to be remotely shared is determined in the order of time of arrival at the server device 90 of the electronic blackboard 2 that is the host device. In addition, the remote image processing unit 82 refers to the participation base management table 820, and adds to all the client machines 20 of the electronic blackboard 2 participating in the remote sharing process (including the client machine of its own electronic blackboard that is the host device). The image data is transmitted in the determined order via the communication control unit 70 (remote image transmission unit 74).

遠隔操作処理部83は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)で描画されたストローク画像等の各種操作データ(ストローク画像(B)等)を受信し、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上述の各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に操作データを送信する。   The remote operation processing unit 83 performs various types of operation data (stroke images (B, B, B) drawn on the client machine of each electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. ) And the like, and the display order of the images to be remotely shared is determined in the order of time of arrival at the server 90 of the electronic blackboard 2 that is the host device. The various operation data is the same as the various operation data described above. Further, the remote operation processing unit 83 refers to the participating site management table 820 and operates the operation data on all the client machines 20 of the electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. Send.

操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。この操作データは、遠隔操作送信部76から、主催装置である電子黒板のクライアント機、及び参加装置である電子黒板のクライアント機のそれぞれに送信されることで、各電子黒板2で同じ操作データに係る画像が表示される。   The operation synthesis processing unit 84 synthesizes the operation data of each electronic blackboard 2 output from the remote operation processing unit 83, stores the operation data as a result of this synthesis in the operation data storage unit 840 and the remote operation processing unit 83. Return to. The operation data is transmitted from the remote operation transmission unit 76 to each of the electronic blackboard client machine that is the hosting apparatus and the electronic blackboard client machine that is the participating apparatus. Such an image is displayed.

Figure 2016143183
表9は、操作データ記憶部840に記憶されている操作データの概念図の一例である。操作データは、SEQ(Sequence)、操作データの操作名、操作データの送信元である電子黒板2のIPアドレス(クライアント機又はサーバ機のPort No.を含む)、操作データの送信先である電子黒板2のIPアドレス(クライアント機又はサーバ機のPort No.を含む)、操作データの操作種類、操作データの操作対象、及び、操作データの内容を示すデータが関連付けられて示されている。
Figure 2016143183
Table 9 is an example of a conceptual diagram of operation data stored in the operation data storage unit 840. The operation data includes SEQ (Sequence), the operation name of the operation data, the IP address of the electronic blackboard 2 that is the transmission source of the operation data (including the port number of the client machine or the server machine), and the electronic that is the transmission destination of the operation data. The IP address of the blackboard 2 (including the port number of the client machine or the server machine), the operation type of the operation data, the operation target of the operation data, and data indicating the contents of the operation data are shown in association with each other.

例えば、SEQ1では、主催装置である電子黒板(IPアドレス:192.0.0.1)のクライアント機(Port No.:50001)でストロークが描画されると、同じ主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ機(Port No.:50000)に操作データが送られたことが示されている。この場合の操作種類は「STROKE」、操作対象はページデータID「p005」、及び、操作データの内容を示すデータはストロークを示すデータである。また、SEQ2では、主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ機(Port No.:50000)から、参加装置である他の電子黒板(IPアドレス:192.0.0.1)のクライアント機(Port No.:50001)に、操作データが送られたことが示されている。   For example, in SEQ1, when a stroke is drawn on the client machine (Port No .: 50001) of the electronic blackboard (IP address: 192.0.0.1) as the hosting device, the electronic blackboard (IP address: 192.0. 0.1) indicates that operation data has been sent to the server machine (Port No .: 50000). In this case, the operation type is “STROKE”, the operation object is the page data ID “p005”, and the data indicating the contents of the operation data is data indicating the stroke. In SEQ2, the client computer of the electronic blackboard (IP address: 192.0.0.1) that is the participating device from the server device (Port No .: 50000) of the electronic blackboard (IP address: 192.0.0.1) that is the host device. (Port No .: 50001) indicates that operation data has been sent.

なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行うため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理中の全ての電子黒板2のディスプレイ3にストローク画像(B)が表示される。   The operation composition processing unit 84 performs composition in the order in which the operation data is input to the operation composition processing unit 84. Therefore, if the communication network 9 is not congested, remote sharing is performed in the order of strokes by the users of the electronic blackboards 2. A stroke image (B) is displayed on the displays 3 of all the electronic blackboards 2 being processed.

ページ処理部85は、クライアント機20の画像処理部30におけるページ処理部37と同様の機能を有し、サーバ機90でも、表1〜3及び図6、7に示されているページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。   The page processing unit 85 has the same function as the page processing unit 37 in the image processing unit 30 of the client machine 20, and the server machine 90 also converts the page data shown in Tables 1 to 3 and FIGS. The data is stored in the page data storage unit 850. Note that the page data storage unit 850 has the same contents as the page data storage unit 300 in the image processing unit 30, and therefore the description thereof is omitted.

<電子黒板2の処理又は動作>
続いて、図9及び図10を用いて、本実施形態の処理又は動作について説明する。なお、図9及び図10は、各電子黒板の処理を示したシーケンス図の一例である。
<Processing or operation of electronic blackboard 2>
Subsequently, processing or operation of the present embodiment will be described with reference to FIGS. 9 and 10. 9 and 10 are examples of sequence diagrams showing the processing of each electronic blackboard.

図9及び図10に示す実施形態では、電子黒板2aが遠隔共有処理を主催する主催装置(サーバ機及びクライアント機)としての役割を果たしており、電子黒板2b,2cが遠隔共有処理に参加する参加装置(クライアント機)としての役割を果たす場合について説明する。まず、電子黒板2b,2cが遠隔共有処理に参加するための処理について説明する。   In the embodiment shown in FIGS. 9 and 10, the electronic blackboard 2a serves as a hosting device (server machine and client machine) that hosts the remote sharing process, and the electronic blackboards 2b and 2c participate in the remote sharing process. A case where it plays a role as a device (client machine) will be described. First, a process for the electronic blackboards 2b and 2c to participate in the remote sharing process will be described.

S21:主催装置である電子黒板2aのサーバ機90における遠隔接続要求受信部71が、同じ電子黒板2aのクライアント機20における遠隔開始処理部61からサーバ機能を有効にさせるユーザ指示を受け付けることにより、サーバ機能フラグを有効にする。
S22:電子黒板2aのクライアント機20におけるUI画像生成部33が電子黒板2aとの接続を確立するための接続情報を生成し、映像合成部28が、UI画像生成部33から表示合成部36を介して得た接続情報をディスプレイ3aに表示させる。この接続情報には、主催装置のIPアドレス、及び今回の遠隔共有処理のために生成されたパスコードが含まれている。そして、接続情報は、電子黒板2aのユーザによって、電話や電子メールにより、電子黒板2b,2cのユーザに伝えられる。なお、接続先管理テーブル440があれば、接続情報には、主催装置のIPアドレスが含まれていなくても、参加装置は参加要求を行うことができる。
S23、S24:次に、電子黒板2b,2cでは、各ユーザから接続情報の入力を受け付けて、各電子黒板2a,2bのクライアント機20における遠隔参加処理部62が、接続情報のIPアドレスに基づき、通信ネットワーク9を介して電子黒板2aのサーバ機90における遠隔接続要求受信部71に対してパスコードを送信して参加要求を行う。
S25:サーバ機90における遠隔接続処理部81は、電子黒板2b,2cの各クライアント機20から受信したパスコードに対し、パスコード管理部810で管理されているパスコードを用いて認証する。
S26、S27:そして、遠隔接続結果送信部72が、各電子黒板2b,2cのクライアント機20に認証結果を通知する。
S28,S29:ステップS25の認証により、正当な電子黒板であると判断された場合には、主催装置である電子黒板2aと、参加装置である電子黒板2b,2cとの遠隔共有処理の通信が確立され、各電子黒板2b,2cのクライアント機20における遠隔参加処理部62が、それぞれ他の電子黒板との間の遠隔共有処理の有無を示す共有フラグを有効にする。
S21: By receiving a user instruction for enabling the server function from the remote start processing unit 61 in the client machine 20 of the same electronic blackboard 2a, the remote connection request receiving unit 71 in the server machine 90 of the electronic blackboard 2a that is the sponsoring device, Enable server capability flags.
S22: The UI image generation unit 33 in the client machine 20 of the electronic blackboard 2a generates connection information for establishing a connection with the electronic blackboard 2a, and the video composition unit 28 transmits the display composition unit 36 from the UI image generation unit 33. The connection information obtained through the display is displayed on the display 3a. This connection information includes the host device's IP address and the passcode generated for the current remote sharing process. Then, the connection information is transmitted to the users of the electronic blackboards 2b and 2c by telephone or electronic mail by the user of the electronic blackboard 2a. If there is the connection destination management table 440, even if the connection information does not include the IP address of the hosting device, the participating device can make a participation request.
S23, S24: Next, the electronic blackboards 2b, 2c accept input of connection information from each user, and the remote participation processing unit 62 in the client machine 20 of each of the electronic blackboards 2a, 2b performs the connection based on the IP address of the connection information. Then, a pass code is transmitted to the remote connection request receiving unit 71 in the server machine 90 of the electronic blackboard 2a via the communication network 9 to make a participation request.
S25: The remote connection processing unit 81 in the server machine 90 authenticates the passcode received from each client machine 20 of the electronic blackboards 2b and 2c using the passcode managed by the passcode management unit 810.
S26, S27: Then, the remote connection result transmitting unit 72 notifies the authentication result to the client machine 20 of each electronic blackboard 2b, 2c.
S28, S29: If it is determined by the authentication in step S25 that the electronic blackboard is a legitimate electronic blackboard, communication of remote sharing processing between the electronic blackboard 2a that is the sponsoring device and the electronic blackboards 2b and 2c that are the participating devices is performed. Once established, the remote participation processing unit 62 in the client machine 20 of each of the electronic blackboards 2b and 2c validates a sharing flag indicating whether or not there is a remote sharing process with another electronic blackboard.

続いて、遠隔共有処理における出力画像(C)の処理について説明する。
S30:図9に示す実施形態では、ユーザのノートPC6bが接続されたクライアント機20における画像取得部31が、ノートPC6bの提供する映像を用いてノートPC6bの表示画面である画像データを生成し、表示合成部36を介して、映像合成部28が、電子黒板2bのディスプレイ3bに画像(出力画像(C))を表示している。
S31:そして、電子黒板2bのクライアント機20における遠隔画像送信部63は、画像データを主催装置である電子黒板2aのサーバ機90における遠隔画像受信部73に送信する。
S32:次に、電子黒板2aのクライアント機20における映像合成部28は、サーバ機90における遠隔画像処理部82及び遠隔画像送信部74、並びにクライアント機20における遠隔画像受信部64及び表示合成部36を介して送られて来た画像データ(出力画像(C))をディスプレイ3aに表示させる。
S33:そして、主催装置としての電子黒板2aのサーバ機90における遠隔画像送信部74は、画像データを提供した電子黒板2b以外である電子黒板2cのクライアント機20における遠隔画像受信部64に、画像データを送信する。
S34:電子黒板2cのクライアント機20における映像合成部28は、遠隔画像受信部64及び表示合成部36を介して送られて来た画像データ(出力画像(C))をディスプレイ3cに表示させる(ステップS34)。
Next, output image (C) processing in remote sharing processing will be described.
S30: In the embodiment shown in FIG. 9, the image acquisition unit 31 in the client machine 20 to which the user's notebook PC 6b is connected generates image data that is a display screen of the notebook PC 6b using the video provided by the notebook PC 6b. The video composition unit 28 displays an image (output image (C)) on the display 3b of the electronic blackboard 2b via the display composition unit 36.
S31: Then, the remote image transmission unit 63 in the client machine 20 of the electronic blackboard 2b transmits the image data to the remote image reception unit 73 in the server machine 90 of the electronic blackboard 2a that is the hosting device.
S32: Next, the video composition unit 28 in the client machine 20 of the electronic blackboard 2a performs the remote image processing unit 82 and the remote image transmission unit 74 in the server machine 90, and the remote image reception unit 64 and the display composition unit 36 in the client machine 20. The image data (output image (C)) sent via is displayed on the display 3a.
S33: Then, the remote image transmission unit 74 in the server machine 90 of the electronic blackboard 2a serving as the hosting device sends an image to the remote image reception unit 64 in the client machine 20 of the electronic blackboard 2c other than the electronic blackboard 2b that provided the image data. Send data.
S34: The video composition unit 28 in the client machine 20 of the electronic blackboard 2c displays the image data (output image (C)) sent via the remote image reception unit 64 and the display composition unit 36 on the display 3c ( Step S34).

続いて、遠隔共有処理におけるストローク画像(B)の処理について説明する。
S41:ユーザが電子ペン4bを用いて電子黒板2bにストローク画像(B)を描画している。
S42:次に、電子黒板2bのクライアント機20における表示合成部36は、図8に示されているように、UI画像(A)、出力画像(C)、及び背景画像(D)に対して、ストローク画像(B)を合成し、映像合成部28が、電子黒板2bのディスプレイ3b上に、合成された合成画像(A,B,C,D)を表示させる。
S43:電子黒板2bのクライアント機20における遠隔操作送信部65は、ストローク画像(B)のデータを、主催装置である電子黒板2aのサーバ機90における遠隔操作受信部75に送信する。
S44:次に、電子黒板2aのサーバ機90における操作合成処理部84が、遠隔操作受信部75及び遠隔操作処理部83を介して送られて来た操作データ(ここでは、ストローク画像(B)のデータのみとして説明する)を合成して遠隔操作処理部83に戻す。これにより、ストローク画像(B)のデータは、電子黒板2aのサーバ機90における遠隔操作送信部76、電子黒板2aのクライアント機20における遠隔操作受信部66を介して、電子黒板2aのクライアント機20における表示合成部36に送信される。よって、表示合成部36は、UI画像(A)、出力画像(C)、及び背景画像(D)に対してストローク画像(B)を合成する。そして、映像合成部28が、表示合成部36によって合成された合成画像(A,B,C,D)をディスプレイ3a上に表示させる。
S45:また、電子黒板2aのサーバ機90における遠隔操作送信部76は、操作合成処理部84によって合成された操作データ(ここでは、ストローク画像(B)のデータのみとして説明する)を、ストローク画像(B)のデータを提供した電子黒板2b以外である電子黒板2cのクライアント機20における遠隔操作受信部66に送信する。
S46:次に、電子黒板2cのクライアント機20における表示合成部36が、上記ステップS43と同様に合成画像(A,B,C,D)を生成し、映像合成部28が、電子黒板2cのディスプレイ3c上に、合成画像(A,B,C,D)を表示させる。
Next, the stroke image (B) process in the remote sharing process will be described.
S41: The user is drawing a stroke image (B) on the electronic blackboard 2b using the electronic pen 4b.
S42: Next, as shown in FIG. 8, the display composition unit 36 in the client machine 20 of the electronic blackboard 2b performs the UI image (A), the output image (C), and the background image (D). The stroke image (B) is synthesized, and the video composition unit 28 displays the synthesized image (A, B, C, D) on the display 3b of the electronic blackboard 2b.
S43: The remote operation transmission unit 65 in the client machine 20 of the electronic blackboard 2b transmits the data of the stroke image (B) to the remote operation reception unit 75 in the server machine 90 of the electronic blackboard 2a that is the host device.
S44: Next, the operation composition processing unit 84 in the server machine 90 of the electronic blackboard 2a sends the operation data (here, the stroke image (B)) sent via the remote operation receiving unit 75 and the remote operation processing unit 83. Are described as only the data of the data) and returned to the remote operation processing unit 83. Thereby, the data of the stroke image (B) is transmitted to the client machine 20 of the electronic blackboard 2a via the remote operation transmission unit 76 in the server machine 90 of the electronic blackboard 2a and the remote operation reception unit 66 in the client machine 20 of the electronic blackboard 2a. Is transmitted to the display composition unit 36. Therefore, the display combining unit 36 combines the stroke image (B) with the UI image (A), the output image (C), and the background image (D). Then, the video composition unit 28 displays the composite image (A, B, C, D) synthesized by the display composition unit 36 on the display 3a.
S45: Further, the remote operation transmission unit 76 in the server 90 of the electronic blackboard 2a uses the operation data synthesized by the operation synthesis processing unit 84 (here, only the data of the stroke image (B) is described) as the stroke image. The data of (B) is transmitted to the remote operation receiving unit 66 in the client machine 20 of the electronic blackboard 2c other than the electronic blackboard 2b that provided the data.
S46: Next, the display composition unit 36 in the client machine 20 of the electronic blackboard 2c generates a composite image (A, B, C, D) in the same manner as in step S43, and the video composition unit 28 displays the electronic blackboard 2c. The composite image (A, B, C, D) is displayed on the display 3c.

続いて、遠隔共有処理の通信を終了させる処理について説明する。図10に示す実施形態では、電子黒板2cが参加を終了する処理が示されている。
S47:電子黒板2cのクライアント機20における遠隔参加処理部62は、主催装置としての電子黒板2aのサーバ機90における遠隔接続要求受信部71に対して、参加の終了要求を行う。
S48:そして、電子黒板2のサーバ機90における遠隔接続処理部81は、参加拠点管理テーブル820から、参加の終了要求を行った電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスを削除し、遠隔接続結果送信部72が、電子黒板2cのクライアント機20における遠隔参加処理部62に、参加の終了を指示する。
S49:これにより、電子黒板2cのクライアント機20における遠隔参加処理部62が、通信を切断することで、参加の終了処理を行う。
Next, a process for terminating the remote sharing process communication will be described. In the embodiment shown in FIG. 10, processing for the electronic blackboard 2c to finish participation is shown.
S47: The remote participation processing unit 62 in the client machine 20 of the electronic blackboard 2c makes a participation termination request to the remote connection request receiving unit 71 in the server machine 90 of the electronic blackboard 2a as the hosting device.
S48: Then, the remote connection processing unit 81 in the server 90 of the electronic blackboard 2 uses the participation base management table 820 and the name of the base where the electronic blackboard 2 that requested the end of participation is installed and the electronic blackboard 2 The IP address is deleted, and the remote connection result transmission unit 72 instructs the remote participation processing unit 62 in the client machine 20 of the electronic blackboard 2c to end the participation.
S49: As a result, the remote participation processing unit 62 in the client machine 20 of the electronic blackboard 2c disconnects the communication, thereby performing the participation termination process.

なお、図9及び図10に示す実施形態では、クライアント機が画像フレームを提供するが、サーバ機が画像フレームを送信してもよい。また、本実施形態では、画像フレームを提供するクライアント機がストローク画像(B)を送信するが、他のクライアント機やサーバ機がストローク画像(B)を送信してもよい。さらに、本実施形態では、画像フレームを提供しないクライアント機が位置指示イベントを送信するが、画像フレームを提供しないサーバ機が位置指示イベント情報を送信してもよい。   In the embodiment shown in FIGS. 9 and 10, the client machine provides the image frame, but the server machine may transmit the image frame. In this embodiment, the client machine that provides the image frame transmits the stroke image (B). However, another client machine or server machine may transmit the stroke image (B). Furthermore, in this embodiment, a client machine that does not provide an image frame transmits a position instruction event, but a server machine that does not provide an image frame may transmit position instruction event information.

<<記号の認識処理>>
続いて、図11、図12を用いて記号の認識処理について説明する。図11は文字認識部321が手書きされた視覚情報の座標から記号を認識する手順を示すフローチャート図の一例であり、図12はディスプレイ3に描画された記号とその認識結果の一例を示す。
<< Symbol recognition process >>
Next, the symbol recognition process will be described with reference to FIGS. 11 and 12. FIG. 11 is an example of a flowchart showing a procedure for recognizing a symbol from the coordinates of visual information handwritten by the character recognition unit 321, and FIG. 12 shows an example of a symbol drawn on the display 3 and its recognition result.

まず、イベント処理部25がイベントとして受け付けた視覚情報の座標をストローク処理部32が取得する(S10)。   First, the stroke processing unit 32 acquires the coordinates of the visual information received as an event by the event processing unit 25 (S10).

次に、文字認識部321は視覚情報の座標を解析する(S20)。   Next, the character recognition unit 321 analyzes the coordinates of the visual information (S20).

文字認識部321は視覚情報の座標の解析結果に基づき、テキスト、図形(丸や四角)又はストロークのどれが描画されたのかを判別する(S30)。例えば、記号の認識を行い、一定以上の確度で適合する記号を特定できればテキストであると判定し、図形の認識を行い一定以上の確度で図形と適合すれば図形であると判定する。記号とも図形とも認識されない場合はストロークと判定される。   The character recognition unit 321 determines which of text, a figure (circle or square), or a stroke is drawn based on the analysis result of the coordinates of the visual information (S30). For example, if a symbol is recognized and a suitable symbol can be identified with a certain degree of accuracy, it is determined to be a text. If a graphic is recognized and matched with a graphic with a certain degree of accuracy, it is determined to be a graphic. If neither symbol nor figure is recognized, it is determined as a stroke.

テキストでない場合(S30のNo)、ストローク処理部32はストローク又は図形を作成する(S40)。すなわち描画して表示合成部36に送出する。   If it is not text (No in S30), the stroke processing unit 32 creates a stroke or a graphic (S40). That is, it is drawn and sent to the display composition unit 36.

次に、ストローク処理部32は、ストロークと図形をRAM103などのメモリ上に保存し、表示合成部36に送出する(S43)。ストロークと図形は図8のストローク画像(B)に表示される。   Next, the stroke processing unit 32 stores the stroke and the figure on a memory such as the RAM 103 and sends them to the display composition unit 36 (S43). A stroke and a figure are displayed on the stroke image (B) of FIG.

次に、シリアライズ/デシリアライズ部322はストロークと図形をシリアライズする(S45)。   Next, the serialization / deserialization unit 322 serializes strokes and graphics (S45).

テキストであった場合(S30のYes)、文字認識部321は確度の高い順にテキストと認識処理候補を作成する(S50)。ここで改めて記号の認識処理を行ってもよい。このテキストも図8のストローク画像(B)に表示される。   If it is text (Yes in S30), the character recognition unit 321 creates text and recognition process candidates in descending order of accuracy (S50). Here, symbol recognition processing may be performed again. This text is also displayed in the stroke image (B) of FIG.

次に、文字認識部321は、テキストと認識処理候補をRAM103などのメモリ上に保存し、表示合成部36に送出する(S60)。   Next, the character recognizing unit 321 saves the text and the recognition processing candidate in a memory such as the RAM 103 and sends it to the display combining unit 36 (S60).

表示合成部36はテキスト、ストローク及び図形をディスプレイ3に表示するので、ユーザがテキストを描画した場合は最も確度が高いテキストが表示される。   Since the display synthesis unit 36 displays text, strokes, and graphics on the display 3, when the user draws the text, the text with the highest accuracy is displayed.

例えば、図12(a)に示すように、ユーザが「あ」という文字を手書きしたが、文字認識部321は図12(b)に示すように「前」という字であると認識している。すなわち、誤変換している。本実施形態では、「前」の他に認識処理候補が生成されているので、ユーザは後に正しい認識結果を選択することができる。   For example, as shown in FIG. 12A, the user has handwritten the character “A”, but the character recognition unit 321 recognizes that the character is “Previous” as shown in FIG. . That is, it is erroneously converted. In this embodiment, since the recognition process candidate is generated in addition to “Before”, the user can later select a correct recognition result.

次に、シリアライズ/デシリアライズ部322はテキストと認識処理候補をシリアライズする(S70)。すなわち、テキストと認識処理候補がひとまとまりのデータに変換される。シリアライズについては図14にて説明する。   Next, the serialization / deserialization unit 322 serializes the text and the recognition process candidate (S70). That is, the text and the recognition process candidate are converted into a set of data. The serialization will be described with reference to FIG.

次に、シリアライズ/デシリアライズ部322はシリアライズされたストロークと図形、及び、テキストと認識処理候補を通信制御部60に送出する(S80)。送信手順は、図10のステップS41〜S45と同様でよい。記号を認識した電子黒板2がクライアント機の場合、シリアライズされた記号データは通信制御部60の遠隔操作送信部65がネットワーク9を介して他の電子黒板2の遠隔操作受信部75に送信する。記号を認識した電子黒板2がサーバ機とクライアント機を兼ねる場合、遠隔操作送信部65を介して遠隔操作受信部75がシリアライズされた記号データを受け取る。   Next, the serialization / deserialization unit 322 sends the serialized stroke and figure, text, and recognition process candidate to the communication control unit 60 (S80). The transmission procedure may be the same as steps S41 to S45 in FIG. When the electronic blackboard 2 that has recognized the symbol is a client machine, the serialized symbol data is transmitted by the remote operation transmission unit 65 of the communication control unit 60 to the remote operation reception unit 75 of another electronic blackboard 2 via the network 9. When the electronic blackboard 2 that has recognized the symbol serves as both the server machine and the client machine, the remote operation receiving unit 75 receives the serialized symbol data via the remote operation transmitting unit 65.

これにより、シリアライズされた記号データを他の電子黒板2に送信できる。他の電子黒板2は認識処理することなく、テキストを表示し、次述するように認識処理候補を表示したり、認識処理候補から別の文字を選択できる。   Thereby, the serialized symbol data can be transmitted to another electronic blackboard 2. Other electronic blackboards 2 can display text without performing recognition processing, display recognition processing candidates as described below, and select other characters from the recognition processing candidates.

<<他の電子黒板2による記号の表示>>
続いて、図13を用いて他の電子黒板2がテキストを表示する際の手順について説明する。図13は認識処理候補が含まれるテキストをストローク処理部32が保存する手順を示すフローチャート図の一例である。
<< Symbol display by other electronic blackboard 2 >>
Next, a procedure when another electronic blackboard 2 displays text will be described with reference to FIG. FIG. 13 is an example of a flowchart illustrating a procedure in which the stroke processing unit 32 saves text including recognition process candidates.

まず、他の電子黒板2の通信制御部70の遠隔操作受信部75がシリアライズされたデータを受信する(S10)。遠隔操作処理部83は遠隔操作受信部75を介してシリアライズされたデータを取得し、遠隔操作送信部76を介して送信元以外の電子黒板2のクライアント機20に送信する。これにより画像処理部30のストローク処理部32がシリアライズされたデータを取得する。   First, the remote operation receiving unit 75 of the communication control unit 70 of another electronic blackboard 2 receives the serialized data (S10). The remote operation processing unit 83 acquires the serialized data via the remote operation receiving unit 75 and transmits it to the client machine 20 of the electronic blackboard 2 other than the transmission source via the remote operation transmitting unit 76. Thereby, the stroke processing unit 32 of the image processing unit 30 acquires the serialized data.

次に、シリアライズ/デシリアライズ部322はシリアライズされたデータをデシリアライズする(S20)。   Next, the serialization / deserialization unit 322 deserializes the serialized data (S20).

ストローク処理部32はデシリアライズされたデータがテキストか否かを判定する(S30)。図11で説明したように、シリアライズされるデータは、ストロークと図形又はテキスト(認識処理候補)がある。テキストか否かの判定は、オブジェクトを識別するための識別情報を参照して行う。   The stroke processing unit 32 determines whether the deserialized data is text (S30). As described with reference to FIG. 11, data to be serialized includes a stroke and a graphic or text (recognition processing candidate). The determination of whether or not the text is made is performed with reference to identification information for identifying the object.

テキスト以外の場合(S30のNo)、ストローク処理部32はストローク又は図形を作成する(S40)。ストローク処理部32は操作データ(STROKE)として送信された座標データを描画してストロークを作成し、図形コードで示される図形の画像データを作成する。   In the case other than the text (No in S30), the stroke processing unit 32 creates a stroke or a graphic (S40). The stroke processing unit 32 draws the coordinate data transmitted as the operation data (STROKE) to create a stroke, and creates graphic image data indicated by the graphic code.

テキストの場合(S30のYes)、ストローク処理部32はテキストと認識処理候補を作成する(S50)。すでに、記号の認識は行われているので、デシリアライズされたテキストと認識処理候補の文字コードでテキストの画像データを作成する。   In the case of text (Yes in S30), the stroke processing unit 32 creates a text and a recognition process candidate (S50). Since the symbol has already been recognized, text image data is created using the deserialized text and the character code of the recognition process candidate.

次に、文字認識部321は、ストローク、図形、テキスト及び認識処理候補をRAM103に記憶させる(S60)。デシリアライズにより、他の電子黒板2が記号の認識を行ったかのようにテキストと認識処理候補を復元できる。   Next, the character recognition unit 321 stores the stroke, figure, text, and recognition process candidate in the RAM 103 (S60). By deserialization, the text and the recognition process candidate can be restored as if the other electronic blackboard 2 recognized the symbol.

この後、表示合成部36はテキストと認識処理候補、ストローク又は図形をディスプレイ3に表示させる。図12(b)に示すように、他の電子黒板2がテキストを表示したものとする。ユーザは例えば変換するテキスト(前)を電子ペン4a等で一定時間タッチする。これにより、図12(c)に示すように認識処理候補が表示される。ユーザが認識処理候補の中から正しいテキスト(あ)を選択すると、図12(d)に示すようにディスプレイ3には選択されたテキストが表示される。   Thereafter, the display composition unit 36 causes the display 3 to display text and recognition process candidates, strokes or figures. Assume that another electronic blackboard 2 displays text as shown in FIG. For example, the user touches the text to be converted (front) with the electronic pen 4a or the like for a predetermined time. Thereby, recognition process candidates are displayed as shown in FIG. When the user selects the correct text (a) from the recognition process candidates, the selected text is displayed on the display 3 as shown in FIG.

したがって、本実施形態の電子黒板2によれば、テキストだけでなく認識処理候補を他の電子黒板2と共有でき、他の電子黒板2のユーザが認識処理候補の中から正しいテキストを選択できる。   Therefore, according to the electronic blackboard 2 of the present embodiment, not only the text but also the recognition processing candidates can be shared with other electronic blackboards 2, and the user of the other electronic blackboard 2 can select the correct text from the recognition processing candidates.

<<シリアライズ、デシリアライズ>>
図14は、シリアライズとデシリアライズを説明するための図の一例である。シリアライズとは、オブジェクトの内部状態をバイトストリームに変換することをいう。また、バイトストリームから再び元と同じオブジェクトを再現することがデシリアライズである。
<< Serialization, Deserialization >>
FIG. 14 is an example of a diagram for explaining serialization and deserialization. Serialization refers to converting the internal state of an object into a byte stream. Deserialization is to reproduce the same object from the byte stream again.

電子黒板2の中でこれらはプログラムが扱うデータとなっており、そのままでは保存や送信が困難な状態である。シリアライズは、プログラムが扱うデータをファイルで保存できる形式に変換する処理である。よって、送信可能になる。   In the electronic blackboard 2, these are data handled by the program, and it is difficult to store and transmit the data as it is. Serialization is a process of converting data handled by a program into a format that can be saved as a file. Therefore, transmission becomes possible.

また、デシリアライズにより、送信されたシリアライズされたデータは、元のプログラムが扱うデータに変換される。   In addition, the serialized data transmitted is converted into data handled by the original program by deserialization.

図14に示す、シリアライズされたテキストと認識処理候補が電子黒板2に送信される。送信先の電子黒板2はデシリアライズすることで自機が記号の認識を行ったかのように、送信元の電子黒板2が記号を認識した直後の状態を復元できる。   The serialized text and recognition process candidate shown in FIG. 14 are transmitted to the electronic blackboard 2. By deserializing the electronic blackboard 2 as the transmission destination, it is possible to restore the state immediately after the electronic blackboard 2 as the transmission source recognizes the symbol as if the own device recognized the symbol.

<好適な適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Preferred application example>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、電子黒板2のディスプレイはフラットパネル型に限られず、プロジェクタが投影する画像により形成されてもよい。この場合、手Hや電子ペン4の座標はカメラなどにより取得されてもよいし、異なる計測点において電子ペンが発する超音波の到達時間の時間差などにより取得されてもよい。   For example, the display of the electronic blackboard 2 is not limited to a flat panel type, and may be formed by an image projected by a projector. In this case, the coordinates of the hand H and the electronic pen 4 may be acquired by a camera or the like, or may be acquired by a time difference between arrival times of ultrasonic waves emitted from the electronic pen at different measurement points.

また、図1などではテレビ会議端末7を電子黒板2とは別の装置として図示したが、テレビ会議端末7の機能を電子黒板2に内蔵してもよい。すなわち、電子黒板2はカメラ機能を有し、カメラが撮像した映像をディスプレイ3に表示したり、他の電子黒板2に送信したりする。   1 and the like, the video conference terminal 7 is illustrated as a device different from the electronic blackboard 2, but the function of the video conference terminal 7 may be incorporated in the electronic blackboard 2. That is, the electronic blackboard 2 has a camera function, and displays an image captured by the camera on the display 3 or transmits it to another electronic blackboard 2.

また、本実施形態では電子黒板2による記号の認識と再変換を説明したが、記号の認識と再変換は電子黒板2としての機能を備えていない情報処理装置により行われてもよい。   In the present embodiment, the recognition and reconversion of symbols by the electronic blackboard 2 have been described. However, the recognition and reconversion of symbols may be performed by an information processing apparatus that does not have the function as the electronic blackboard 2.

1 画像処理システム
2 電子黒板
3 ディスプレイ
4 電子ペン
6 ノートPC
7 テレビ会議端末
20 クライアント機
25 イベント処理部
32 ストローク処理部
36 表示合成部
37 ページ処理部
90 サーバ機
321 文字認識部
322 シリアライズ/デシリアライズ部
1 image processing system 2 electronic blackboard 3 display 4 electronic pen 6 notebook PC
7 Video conference terminal 20 Client machine 25 Event processing unit 32 Stroke processing unit 36 Display composition unit 37 Page processing unit 90 Server machine 321 Character recognition unit 322 Serialization / deserialization unit

特許第3534469号公報Japanese Patent No. 3534469

Claims (6)

表示装置に情報を表示する情報処理装置であって、
情報の表示面に対する指示位置を検出する指示位置検出手段と、
前記指示位置検出手段が検出した前記指示位置により視覚情報を生成する視覚情報生成手段と、
前記視覚情報生成手段が生成した1つ以上の視覚情報が形成する記号を認識すると共に前記記号の認識候補を決定する記号認識手段と、
前記記号及び前記認識候補を送信可能なデータに変換するデータ変換手段と、
前記データ変換手段が送信可能なデータに変換した前記記号及び前記認識候補を他の情報処理装置に送信する送信手段と、を有する情報処理装置。
An information processing device for displaying information on a display device,
Indicated position detecting means for detecting an indicated position with respect to a display surface of information;
Visual information generating means for generating visual information based on the indicated position detected by the indicated position detecting means;
Symbol recognition means for recognizing a symbol formed by one or more pieces of visual information generated by the visual information generation means and determining a recognition candidate for the symbol;
Data conversion means for converting the symbol and the recognition candidate into transmittable data;
An information processing apparatus comprising: a transmission unit configured to transmit the symbol converted to data that can be transmitted by the data conversion unit and the recognition candidate to another information processing apparatus.
前記データ変換手段は前記記号だけでなく前記認識候補も合わせてシリアライズすることで、プログラムが扱う形式の前記記号及び前記認識候補を送信可能なデータに変換する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the data conversion unit serializes not only the symbol but also the recognition candidate to convert the symbol and the recognition candidate in a format handled by a program into transmittable data. 送信可能なデータに変換された前記記号及び前記認識候補を受信する受信手段を有し、
前記データ変換手段は、前記受信手段が受信した送信可能なデータに変換された前記記号及び前記認識候補をプログラムが扱う形式のデータに変換する請求項1又は2に記載の情報処理装置。
Receiving means for receiving the symbol and the recognition candidate converted into transmittable data;
The information processing apparatus according to claim 1, wherein the data conversion unit converts the symbol and the recognition candidate converted into transmittable data received by the receiving unit into data of a format handled by a program.
前記データ変換手段は、送信可能なデータに変換された前記記号及び前記認識候補をデシリアライズすることで、前記記号及び前記認識候補をプログラムが扱う形式のデータに変換する請求項3に記載の情報処理装置。   The information according to claim 3, wherein the data conversion unit converts the symbol and the recognition candidate into data of a format handled by a program by deserializing the symbol and the recognition candidate converted into transmittable data. Processing equipment. 表示装置に情報を表示する2つ以上の情報処理装置が通信可能に接続された画像処理システムあって、
第1の情報処理装置は、情報の表示面に対する指示位置を検出する指示位置検出手段と、
前記指示位置検出手段が検出した前記指示位置により視覚情報を生成する視覚情報生成手段と、
前記視覚情報生成手段が生成した1つ以上の視覚情報が形成する記号を認識すると共に前記記号の認識候補を決定する記号認識手段と、
前記記号及び前記認識候補を送信可能なデータに変換する第1のデータ変換手段と、
前記データ変換手段が送信可能なデータに変換した前記記号及び前記認識候補を他の情報処理装置に送信する送信手段と、を有し、
第2の情報処理装置は、
送信可能なデータに変換された前記記号及び前記認識候補を受信する受信手段と、
前記受信手段が受信した送信可能なデータに変換された前記記号及び前記認識候補を、プログラムが扱う形式のデータに変換する第2のデータ変換手段と、を有する画像処理システム。
There is an image processing system in which two or more information processing devices that display information on a display device are connected to be able to communicate with each other,
The first information processing apparatus includes designated position detection means for detecting a designated position on the information display surface;
Visual information generating means for generating visual information based on the indicated position detected by the indicated position detecting means;
Symbol recognition means for recognizing a symbol formed by one or more pieces of visual information generated by the visual information generation means and determining a recognition candidate for the symbol;
First data conversion means for converting the symbol and the recognition candidate into transmittable data;
Transmission means for transmitting the symbol converted to data that can be transmitted by the data conversion means and the recognition candidate to another information processing apparatus,
The second information processing apparatus
Receiving means for receiving the symbol and the recognition candidate converted into transmittable data;
An image processing system comprising: second data conversion means for converting the symbol and the recognition candidate converted into transmittable data received by the receiving means into data in a format handled by a program.
表示装置に情報を表示する情報処理装置を、
情報の表示面に対する指示位置を検出する指示位置検出手段、
前記指示位置検出手段が検出した前記指示位置により視覚情報を生成する視覚情報生成手段、
前記視覚情報生成手段が生成した1つ以上の視覚情報が形成する記号を認識すると共に前記記号の認識候補を決定する記号認識手段、
前記記号及び前記認識候補を送信可能なデータに変換するデータ変換手段、及び、
前記データ変換手段が送信可能なデータに変換した前記記号及び前記認識候補を他の情報処理装置に送信する送信手段として機能させるためのプログラム。
An information processing device that displays information on a display device,
Indicated position detecting means for detecting an indicated position with respect to a display surface of information;
Visual information generating means for generating visual information from the indicated position detected by the indicated position detecting means;
A symbol recognizing unit for recognizing a symbol formed by one or more pieces of visual information generated by the visual information generating unit and determining a recognition candidate for the symbol;
Data conversion means for converting the symbol and the recognition candidate into transmittable data; and
The program for functioning as a transmission means which transmits the said symbol converted into the data which can be transmitted by the said data conversion means, and the said recognition candidate to another information processing apparatus.
JP2015017648A 2015-01-30 2015-01-30 Information processing apparatus, image processing system, and program Pending JP2016143183A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015017648A JP2016143183A (en) 2015-01-30 2015-01-30 Information processing apparatus, image processing system, and program
PCT/JP2016/000449 WO2016121403A1 (en) 2015-01-30 2016-01-28 Information processing apparatus, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015017648A JP2016143183A (en) 2015-01-30 2015-01-30 Information processing apparatus, image processing system, and program

Publications (1)

Publication Number Publication Date
JP2016143183A true JP2016143183A (en) 2016-08-08

Family

ID=56543025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015017648A Pending JP2016143183A (en) 2015-01-30 2015-01-30 Information processing apparatus, image processing system, and program

Country Status (2)

Country Link
JP (1) JP2016143183A (en)
WO (1) WO2016121403A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022041A (en) * 2019-07-25 2021-02-18 株式会社リコー Communication terminal, communication system, display control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305802A (en) * 1995-05-09 1996-11-22 Sharp Corp Handwritten character recognizing information processor
JPH11250180A (en) * 1998-02-27 1999-09-17 Mitsubishi Electric Corp Handwritten character input system and its method
JP2008203959A (en) * 2007-02-16 2008-09-04 Technical Research & Development Institute Ministry Of Defence Serialization method in data transfer, data format and data transfer device
JP2013105416A (en) * 2011-11-16 2013-05-30 Oki Electric Ind Co Ltd Information processing device, information display method and computer program

Also Published As

Publication number Publication date
WO2016121403A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP2016143182A (en) Information processing apparatus and program
US10521500B2 (en) Image processing device and image processing method for creating a PDF file including stroke data in a text format
US10572779B2 (en) Electronic information board apparatus, information processing method, and computer program product
JP6094550B2 (en) Information processing apparatus and program
US10901605B2 (en) Electronic whiteboard, method for displaying data, and image processing system
JP6493546B2 (en) Electronic blackboard, storage medium, and information display method
JP6402826B2 (en) Information processing apparatus, image display method, and program
JP5846270B2 (en) Image processing system and information processing apparatus
WO2017051687A1 (en) Digital blackboard, digital blackboard image processing method, and recording medium whereupon digital blackboard program is recorded
JP6631643B2 (en) Image processing apparatus, image processing system, and image processing method
JP2021072533A (en) Display device, display method, program, and image processing system
JP6036621B2 (en) System, information processing device
JP2016143183A (en) Information processing apparatus, image processing system, and program
JP2020154660A (en) Display device and display method
JP7363064B2 (en) Image processing device, method, and program
JP7388159B2 (en) Display device, display method
WO2015186453A1 (en) Coordinate detection device, image processing device, and coordinate detection method
JP2016076775A (en) Image processing apparatus, image processing system, image processing method, and system