JP2021193774A - Electronic blackboard, voice playback method, program, and image processing system - Google Patents

Electronic blackboard, voice playback method, program, and image processing system Download PDF

Info

Publication number
JP2021193774A
JP2021193774A JP2020099494A JP2020099494A JP2021193774A JP 2021193774 A JP2021193774 A JP 2021193774A JP 2020099494 A JP2020099494 A JP 2020099494A JP 2020099494 A JP2020099494 A JP 2020099494A JP 2021193774 A JP2021193774 A JP 2021193774A
Authority
JP
Japan
Prior art keywords
data
user
voice
input
page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020099494A
Other languages
Japanese (ja)
Inventor
栄治 剣持
Eiji Kenmochi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020099494A priority Critical patent/JP2021193774A/en
Publication of JP2021193774A publication Critical patent/JP2021193774A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

To provide an electronic blackboard that can reduce time and effort to display input data input by a user and playback voice data related to the input data.SOLUTION: An electronic blackboard displays input data input by a user, and has: display processing means that reads out, from a data recording unit that stores user identification information for identifying a user, input data, and voice data related to the input data in association with each other, input data associated with user identification information on a user who has been successfully authenticated and causes a video display unit to display the input data; and voice processing means that reads out, from the data recording unit, voice data related to the input data associated with the user identification information on the user who has been successfully authenticated and causes a voice playback unit to playback the voice data.SELECTED DRAWING: Figure 4

Description

本発明は、電子黒板、音声再生方法、プログラム及び画像処理システムに関する。 The present invention relates to an electronic blackboard, an audio reproduction method, a program and an image processing system.

近年、大型のフラットパネルディスプレイにタッチパネルを搭載した電子黒板が知られている。電子黒板は、画面をフラットパネルディスプレイに表示し、タッチパネルを介して電子ペンや指などの軌跡を取り込んで、軌跡を手書き入力としてフラットパネルディスプレイの画面に描画する。 In recent years, an electronic blackboard in which a touch panel is mounted on a large flat panel display has been known. The electronic blackboard displays the screen on the flat panel display, captures the locus of an electronic pen or a finger via the touch panel, and draws the locus on the screen of the flat panel display as handwriting input.

例えば授業等において、電子黒板等に二次元表示される板書データと、音声を含むストリームデータとを自動的に関連付けて記録し、授業内容を再生することができる、データ記録装置およびデータ再生装置は従来から知られている(例えば特許文献1参照)。 For example, in a lesson or the like, a data recording device and a data reproduction device capable of automatically associating and recording the board writing data displayed two-dimensionally on an electronic blackboard or the like and stream data including audio and reproducing the lesson contents are available. It has been known conventionally (see, for example, Patent Document 1).

しかしながら、従来の電子黒板では、過去に記録した授業内容のデータをユーザが取得して電子黒板に表示させたうえで、所望の授業内容を自ら選択し板書や音声を再生させていたため、記録した授業内容からユーザが再生したい授業内容を効率的に検索する仕組みがなく、所望の授業内容を再生するまでに手間が掛かるという問題があった。 However, in the conventional electronic blackboard, the user acquires the data of the lesson contents recorded in the past and displays it on the electronic blackboard, and then selects the desired lesson contents by himself and reproduces the writing on the board and the voice, so that the data is recorded. There is no mechanism for efficiently searching the lesson content that the user wants to reproduce from the lesson content, and there is a problem that it takes time and effort to reproduce the desired lesson content.

本発明の実施の形態は、ユーザから入力された入力データの表示と、その入力データに関連する音声データの再生と、を行う手間を軽減できる電子黒板を提供することを目的とする。 It is an object of the present invention to provide an electronic blackboard that can reduce the trouble of displaying input data input by a user and reproducing voice data related to the input data.

上記した課題を達成するために本願請求項1は、ユーザから入力された入力データを表示する電子黒板であって、前記ユーザを識別するためのユーザ識別情報、前記入力データ、及び該入力データに関連する音声データ、を対応付けて記憶するデータ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データを読み出して映像表示部に表示させる表示処理手段と、前記データ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データに関連する音声データを読み出して音声再生部に再生させる音声処理手段と、を有することを特徴とする。 In order to achieve the above-mentioned problems, claim 1 of the present application is an electronic blackboard for displaying input data input by a user, and the user identification information for identifying the user, the input data, and the input data. A display processing means for reading out the input data associated with the user identification information of the user who has succeeded in authentication from the data recording unit that stores the related voice data in association with each other and displaying the data on the video display unit, and the above. It is characterized by having a voice processing means for reading voice data related to the input data associated with the user identification information of the user who has succeeded in authentication from the data recording unit and causing the voice reproduction unit to reproduce the voice data. ..

本発明の実施の形態によれば、ユーザの認証に応じてユーザに対応付いている入力データの表示や音声データの再生を行うため、ユーザから入力された入力データの表示と、その入力データに関連する音声データの再生と、を行う手間を軽減できる。 According to the embodiment of the present invention, in order to display the input data associated with the user and reproduce the voice data according to the user's authentication, the input data input by the user is displayed and the input data thereof is displayed. It is possible to reduce the trouble of playing back related audio data.

本実施形態に係る画像処理システムの一例の構成図である。It is a block diagram of an example of the image processing system which concerns on this embodiment. 本実施形態に係るコンピュータの一例のハードウェア構成図である。It is a hardware block diagram of an example of the computer which concerns on this embodiment. 本実施形態に係る電子黒板の一例のハードウェア構成図である。It is a hardware block diagram of an example of the electronic blackboard which concerns on this embodiment. 本実施形態に係る電子黒板の一例の機能構成図である。It is a functional block diagram of an example of the electronic blackboard which concerns on this embodiment. ユーザテーブルの一例の構成図である。It is a block diagram of an example of a user table. ホワイトボードテーブルの一例の構成図である。It is a block diagram of an example of a whiteboard table. ページデータテーブルの一例の構成図である。It is a block diagram of an example of a page data table. 音声データテーブルの一例の構成図である。It is a block diagram of an example of a voice data table. 手書きデータテーブルの一例の構成図である。It is a block diagram of an example of a handwritten data table. 電子黒板のページ表示の処理手順の一例のフローチャートである。It is a flowchart of an example of the processing procedure of the page display of an electronic blackboard. ユーザ認証画面の一例のイメージ図である。It is an image diagram of an example of a user authentication screen. UI画面の一例のイメージ図である。It is an image diagram of an example of a UI screen. まとめページ画面の一例のイメージ図である。It is an image diagram of an example of a summary page screen. 電子黒板の手書きデータの入力及び音声データの録音の処理手順の一例のフローチャートである。It is a flowchart of an example of the processing procedure of inputting handwritten data of an electronic blackboard and recording voice data. 電子黒板の音声データの再生の処理手順の一例のフローチャートである。It is a flowchart of an example of the processing procedure of reproduction of audio data of an electronic blackboard. 電子黒板の音声データの再生の処理手順の一例のフローチャートである。It is a flowchart of an example of the processing procedure of reproduction of audio data of an electronic blackboard. 発話データの一例のイメージ図である。It is an image diagram of an example of utterance data.

以下、本発明の実施形態について図面を参照しながら説明する。本実施形態では電子黒板装置を利用する会議の例を説明するが、会議に限定するものでなく、セミナーや講義など、様々な状況に適用できる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, an example of a conference using an electronic blackboard device will be described, but the present invention is not limited to the conference and can be applied to various situations such as seminars and lectures.

[第1の実施形態]
<システム構成>
図1は、本実施形態に係る画像処理システムの一例の構成図である。図1の画像処理システム10は、サーバ12と、1台以上の電子黒板14とが、通信ネットワーク18を介して通信可能に接続されている。通信ネットワーク18は、例えばインターネット、LAN(Local Area Network)又は携帯電話通信網等が含まれる。
[First Embodiment]
<System configuration>
FIG. 1 is a configuration diagram of an example of an image processing system according to the present embodiment. In the image processing system 10 of FIG. 1, a server 12 and one or more electronic blackboards 14 are communicably connected to each other via a communication network 18. The communication network 18 includes, for example, the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like.

サーバ12は電子黒板14と連携して動作することで、電子黒板14に関連した後述のような機能を提供する。サーバ12は、後述する電子黒板14のユーザ認証部42の機能や、データ記録部46の機能を有していてもよい。サーバ12は、オンプレミスでの運用であっても、クラウドでの運用であってもよい。なお、サーバ12はPC(Personal Computer)に限定されず、携帯電話、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)等であってもよい。 The server 12 operates in cooperation with the electronic blackboard 14 to provide the functions described below related to the electronic blackboard 14. The server 12 may have the function of the user authentication unit 42 of the electronic blackboard 14 described later and the function of the data recording unit 46. The server 12 may be operated on-premises or in the cloud. The server 12 is not limited to a PC (Personal Computer), and may be a mobile phone, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), or the like.

電子黒板14には、後述の電子ペン690によって生じたイベント(後述のディスプレイ680に電子ペン690のペン先、又は、電子ペン690のペン尻のタッチ)による描画された画像を、ディスプレイ680に表示させることができる。電子黒板14は、電子ペン690だけでなく、ユーザの手H等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ680上に表示されている画像を変更させることもできる。 On the electronic blackboard 14, an image drawn by an event (touch of the pen tip of the electronic pen 690 or the pen end of the electronic pen 690 on the display 680 described later) caused by the electronic pen 690 described later is displayed on the display 680. Can be made to. The electronic blackboard 14 can change the image displayed on the display 680 based on not only the electronic pen 690 but also an event (gestures such as enlargement, reduction, page turning, etc.) caused by the user's hand H or the like. can.

また、電子黒板14には、後述のUSB(Universal Serial Bus)メモリ630が接続可能である。電子黒板14はUSBメモリ630からPDF等の電子ファイルを読み出したり、USBメモリ630に電子ファイルを記録したり、することができる。また、電子黒板14には、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、及びVGA(Video Graphics Array)等の規格による通信が可能なケーブルを介して、後述のノートPC670を接続できる。 Further, a USB (Universal Serial Bus) memory 630, which will be described later, can be connected to the electronic blackboard 14. The electronic blackboard 14 can read an electronic file such as a PDF from the USB memory 630 and record the electronic file in the USB memory 630. Further, the electronic blackboard 14 is connected to the electronic blackboard 14 via a cable capable of communication according to standards such as DisplayPort, DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and VGA (Video Graphics Array). A notebook PC 670 described later can be connected.

電子黒板14は、ディスプレイ680に対する接触によってイベントを発生させる。電子黒板14は、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC670に送信できる。同じく、電子黒板14には、上記規格による通信が可能なケーブルを介して、テレビ(ビデオ)会議端末が接続されていてもよい。なお、ノートPC670、及びテレビ会議端末は、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板14と通信してもよい。 The electronic blackboard 14 causes an event by contact with the display 680. The electronic blackboard 14 can transmit event information indicating this event to the notebook PC 670 in the same manner as an event from an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal may be connected to the electronic blackboard 14 via a cable capable of communicating according to the above standard. The notebook PC 670 and the video conference terminal may communicate with the electronic blackboard 14 by wireless communication compliant with various wireless communication protocols such as Bluetooth (registered trademark).

また、通信ネットワーク18を介して通信可能に接続された異なる拠点などに設置されている電子黒板14は、他の電子黒板14でユーザの手H等によって生じたイベントに基づいて、ディスプレイ680上に表示されている画像を変更させることもできる。 Further, the electronic blackboard 14 installed at different bases or the like communicably connected via the communication network 18 is placed on the display 680 based on an event generated by the user's hand H or the like on another electronic blackboard 14. You can also change the displayed image.

これにより、例えば一の拠点で電子黒板14のディスプレイ680上に描画された画像は他の拠点で電子黒板14のディスプレイ680上にも表示される。また、逆に他の拠点で電子黒板14のディスプレイ680上に描画された画像は、一の拠点で電子黒板14のディスプレイ680上に表示される。このように、画像処理システム10では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。 As a result, for example, an image drawn on the display 680 of the electronic blackboard 14 at one base is also displayed on the display 680 of the electronic blackboard 14 at another base. On the contrary, the image drawn on the display 680 of the electronic blackboard 14 at another base is displayed on the display 680 of the electronic blackboard 14 at one base. As described above, since the image processing system 10 can perform remote sharing processing for sharing the same image at a remote location, it is very convenient to use it for a conference or the like at a remote location.

なお、電子黒板14は一例であり、画像を録画及び表示する機能と、音声を録音及び再生する機能と、を備えた装置であれば、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、遠隔画像(映像)診断装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、PC、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA、デジタルカメラ、デジタルビデオカメラ等であってもよい。なお、USBメモリ630は記録媒体の一例であって、SDカード等の各種記録メディアであってもよい。 The electronic blackboard 14 is an example, and if it is a device having a function of recording and displaying an image and a function of recording and playing back a voice, it can be used for an electronic signboard (digital signage), sports, weather forecast, and the like. Telestrator, remote image (video) diagnostic device, HUD (Head Up Display) device, industrial machine, image pickup device, sound collector, medical device, network home appliance, car (Connected Car), PC, mobile phone, smartphone, It may be a tablet terminal, a game machine, a PDA, a digital camera, a digital video camera, or the like. The USB memory 630 is an example of a recording medium, and may be various recording media such as an SD card.

図1に示す画像処理システム10の構成は一例である。例えばサーバ12は複数台で構成されてもよいし、サーバ12の機能を電子黒板14に備えるようにすることで、省略されてもよい。また、電子黒板14の機能の少なくとも一部はサーバ12に備えるようにしてもよい。このように、サーバ12及び電子黒板14の機能は、サーバ12及び電子黒板14の何れかが備えていればよい。また、サーバ12及び電子黒板14の機能は、サーバ12及び電子黒板14以外の他の装置で実現する構成であってもよい。 The configuration of the image processing system 10 shown in FIG. 1 is an example. For example, the server 12 may be configured by a plurality of units, or may be omitted by providing the electronic blackboard 14 with the functions of the server 12. Further, at least a part of the functions of the electronic blackboard 14 may be provided in the server 12. As described above, the functions of the server 12 and the electronic blackboard 14 may be provided by either the server 12 or the electronic blackboard 14. Further, the functions of the server 12 and the electronic blackboard 14 may be configured to be realized by a device other than the server 12 and the electronic blackboard 14.

<ハードウェア構成>
《コンピュータ》
図1に示すサーバ12は、例えば図2に示すようなハードウェア構成のコンピュータ500により実現される。図2は、本実施形態に係るコンピュータの一例のハードウェア構成図である。
<Hardware configuration>
"Computer"
The server 12 shown in FIG. 1 is realized by, for example, a computer 500 having a hardware configuration as shown in FIG. FIG. 2 is a hardware configuration diagram of an example of a computer according to the present embodiment.

図2に示されているように、コンピュータ500はCPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、データバス510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。 As shown in FIG. 2, the computer 500 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HD504, an HDD (Hard Disk Drive) controller 505, and a display 506. , External device connection I / F (Interface) 508, network I / F 509, data bus 510, keyboard 511, pointing device 512, DVD-RW (Digital Versatile Disk Rewritable) drive 514, media I / F 516.

これらのうち、CPU501は、プログラムに従ってコンピュータ500全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504はプログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。 Of these, the CPU 501 controls the operation of the entire computer 500 according to a program. The ROM 502 stores a program used to drive the CPU 501 such as an IPL. The RAM 503 is used as a work area of the CPU 501. The HD504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to the HD 504 according to the control of the CPU 501.

ディスプレイ506は、カーソル、メニュー、ウインドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。外部機器は、例えば、USBメモリやプリンタ等である。ネットワークI/F509は、通信ネットワーク18を利用してデータ通信をするためのインターフェースである。データバス510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display 506 displays various information such as cursors, menus, windows, characters, or images. The external device connection I / F 508 is an interface for connecting various external devices. The external device is, for example, a USB memory, a printer, or the like. The network I / F 509 is an interface for performing data communication using the communication network 18. The data bus 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 The keyboard 511 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 514 controls reading or writing of various data to the DVD-RW 513 as an example of a detachable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R or the like. The media I / F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

《電子黒板》
図3は本実施形態に係る電子黒板の一例のハードウェア構成図である。図3に示すように、電子黒板14は、CPU601、ROM202、RAM603、SSD(Solid State Drive)604、ネットワークI/F605、及び外部機器接続I/F606を備えている。
《Electronic blackboard》
FIG. 3 is a hardware configuration diagram of an example of an electronic blackboard according to the present embodiment. As shown in FIG. 3, the electronic blackboard 14 includes a CPU 601, a ROM 202, a RAM 603, an SSD (Solid State Drive) 604, a network I / F605, and an external device connection I / F606.

CPU601は、プログラムに従って電子黒板14全体の動作を制御する。ROM602は、CPU601やIPL等のCPU601の駆動に用いられるプログラムを記憶する。RAM603は、CPU601のワークエリアとして使用される。SSD604は電子黒板14用のプログラム等の各種データを記憶する。 The CPU 601 controls the operation of the entire electronic blackboard 14 according to a program. The ROM 602 stores a program used to drive the CPU 601 such as the CPU 601 and the IPL. The RAM 603 is used as a work area for the CPU 601. The SSD 604 stores various data such as a program for the electronic blackboard 14.

ネットワークI/F605は、通信ネットワーク18との通信を制御する。外部機器接続I/F606は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USBメモリ630、外付け機器(マイク640、スピーカ650、カメラ660等)である。 The network I / F605 controls communication with the communication network 18. The external device connection I / F606 is an interface for connecting various external devices. The external device in this case is, for example, a USB memory 630, an external device (microphone 640, speaker 650, camera 660, etc.).

また、電子黒板14は、キャプチャデバイス611、GPU(Graphics Processing Unit)612、ディスプレイコントローラ613、接触センサ614、センサコントローラ615、電子ペンコントローラ616、ICカードリーダ617、近距離通信回路619、近距離通信回路619のアンテナ619a、電源スイッチ622、及び選択スイッチ類623を備えている。 The electronic blackboard 14 includes a capture device 611, a GPU (Graphics Processing Unit) 612, a display controller 613, a contact sensor 614, a sensor controller 615, an electronic pen controller 616, an IC card reader 617, a short-range communication circuit 619, and short-range communication. The circuit 619 includes an antenna 619a, a power switch 622, and selection switches 623.

キャプチャデバイス611は、外付けのPC670のディスプレイに対して映像情報を静止画または動画として表示させる。GPU612は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ613はGPU612からの出力画像をディスプレイ680等へ出力するために画面表示の制御及び管理を行う。 The capture device 611 displays video information as a still image or a moving image on the display of the external PC 670. GPU612 is a semiconductor chip that specializes in graphics. The display controller 613 controls and manages the screen display in order to output the output image from the GPU 612 to the display 680 or the like.

接触センサ614はディスプレイ680上に電子ペン690やユーザの手H等が接触したことを検知する。センサコントローラ615は接触センサ614の処理を制御する。接触センサ614は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ680の上側両端部に設置された2つ受発光装置が、ディスプレイ680に平行して複数の赤外線を放射し、ディスプレイ680の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。 The contact sensor 614 detects that the electronic pen 690, the user's hand H, or the like touches the display 680. The sensor controller 615 controls the processing of the contact sensor 614. The contact sensor 614 inputs coordinates and detects coordinates by an infrared blocking method. In this method of inputting coordinates and detecting coordinates, two light receiving and emitting devices installed at both upper ends of the display 680 radiate a plurality of infrared rays in parallel with the display 680 and are provided around the display 680. This is a method of receiving light that is reflected by a reflecting member and returns on the same optical path as the optical path of the light emitted by the light receiving element.

接触センサ614は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ615に出力し、センサコントローラ615が、物体の接触位置である座標位置を特定する。電子ペンコントローラ616は、電子ペン690と通信することで、ディスプレイ680へのペン先のタッチやペン尻のタッチの有無を判断する。 The contact sensor 614 outputs an infrared ID emitted by two light receiving / receiving devices blocked by the object to the sensor controller 615, and the sensor controller 615 specifies a coordinate position which is a contact position of the object. The electronic pen controller 616 determines whether or not there is a touch of the pen tip or a touch of the pen tail on the display 680 by communicating with the electronic pen 690.

ICカードリーダ617はICカード700に埋め込まれたRFタグからICカード700に固有の識別情報を無線通信で読み取る。ICカードリーダ617は電子黒板14に内蔵されていても、電子黒板14に外付けされていてもよい。なお、ICカード700はスマートフォンなどのスマートデバイスが内蔵するものでもよい。また、電子黒板14はユーザを識別可能な識別情報を取得できるのであればICカードリーダ617以外を利用してもよく、生体認証装置(指紋、掌紋、虹彩、顔など)やバーコード読み取り装置等を利用してもよい。 The IC card reader 617 reads the identification information unique to the IC card 700 from the RF tag embedded in the IC card 700 by wireless communication. The IC card reader 617 may be built in the electronic blackboard 14 or externally attached to the electronic blackboard 14. The IC card 700 may be a built-in smart device such as a smartphone. Further, the electronic blackboard 14 may use a device other than the IC card reader 617 as long as it can acquire identification information that can identify the user, such as a biometric authentication device (fingerprint, palm print, iris, face, etc.), a barcode reading device, or the like. May be used.

また、近距離通信回路619はNFCやBluetooth等の通信回路である。電源スイッチ622は、電子黒板14の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類623は、例えば、ディスプレイ680の表示の明暗や色合い等を調整するためのスイッチ群である。 Further, the short-range communication circuit 619 is a communication circuit such as NFC or Bluetooth. The power switch 622 is a switch for switching ON / OFF of the power of the electronic blackboard 14. The selection switches 623 are, for example, a group of switches for adjusting the brightness and hue of the display of the display 680.

更に、電子黒板14はバスライン610を備えている。バスライン610は、図3に示されているCPU601等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the electronic blackboard 14 is provided with a bus line 610. The bus line 610 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 601 shown in FIG.

なお、接触センサ614は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ616が、電子ペン690のペン先及びペン尻だけでなく、電子ペン690のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 The contact sensor 614 is not limited to the infrared blocking method, but is a capacitive touch panel that specifies a contact position by detecting a change in capacitance, and a contact position is specified by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel and an electromagnetic induction type touch panel that detects the electromagnetic induction generated by the contact object touching the display unit and specifies the contact position may be used. Further, the electronic pen controller 616 may determine whether or not there is a touch not only on the pen tip and pen tail of the electronic pen 690 but also on the portion gripped by the user of the electronic pen 690 and other electronic pen portions.

なお、電子黒板14用のプログラムは、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させることで提供するようにしてもよいし、オンプレミスやクラウドで運用されるサーバからのダウンロードで提供するようにしてもよい。サーバ12は電子黒板14用のプログラムを電子黒板14にダウンロードさせる機能を有していてもよい。 The program for the electronic blackboard 14 may be provided by recording it on a computer-readable recording medium such as a CD-ROM and distributing it, or it may be downloaded from a server operated on-premises or in the cloud. It may be provided at. The server 12 may have a function of downloading the program for the electronic blackboard 14 to the electronic blackboard 14.

<機能構成>
本実施形態に係る電子黒板14は例えば図4に示す機能構成により実現される。図4は本実施形態に係る電子黒板の一例の機能構成図である。図4の機能構成は、本実施形態の説明に不要な構成について適宜省略している。
<Functional configuration>
The electronic blackboard 14 according to the present embodiment is realized by, for example, the functional configuration shown in FIG. FIG. 4 is a functional configuration diagram of an example of an electronic blackboard according to the present embodiment. In the functional configuration of FIG. 4, configurations unnecessary for the description of the present embodiment are appropriately omitted.

図4の電子黒板14は図3に示されているハードウェア構成及び電子黒板用のプログラムによって、図4に示す各機能構成を実現する。電子黒板14は、音声再生部20、音声入力部22、音声処理部24、データリンク部26、映像表示部28、表示処理部30、ページ処理部32、操作入力部34、操作処理部36、ストローク処理部38、カード情報取得部40、ユーザ認証部42、状態管理部44、及びデータ記録部46を有する。 The electronic blackboard 14 of FIG. 4 realizes each functional configuration shown in FIG. 4 by the hardware configuration shown in FIG. 3 and the program for the electronic blackboard. The electronic blackboard 14 includes a voice reproduction unit 20, a voice input unit 22, a voice processing unit 24, a data link unit 26, a video display unit 28, a display processing unit 30, a page processing unit 32, an operation input unit 34, and an operation processing unit 36. It has a stroke processing unit 38, a card information acquisition unit 40, a user authentication unit 42, a state management unit 44, and a data recording unit 46.

音声再生部20、音声入力部22、及び音声処理部24は電子黒板14用のプログラムが動作するOS(オペレーティングシステム)の機能を利用する。音声再生部20は音声処理部24から送信された音声データをスピーカ650で再生する。音声入力部22はマイク640から入力された音声データを音声処理部24に送信する。 The voice reproduction unit 20, the voice input unit 22, and the voice processing unit 24 use the functions of the OS (operating system) in which the program for the electronic blackboard 14 operates. The voice reproduction unit 20 reproduces the audio data transmitted from the audio processing unit 24 on the speaker 650. The voice input unit 22 transmits the voice data input from the microphone 640 to the voice processing unit 24.

音声処理部24は再生する音声データをデータ記録部46から読み出し、読み出した音声データを音声再生部20に送信してスピーカ650で再生させる。また、音声処理部24は音声入力部22から受信した音声データを録音し、データ記録部46に記憶させる。 The voice processing unit 24 reads the voice data to be reproduced from the data recording unit 46, transmits the read voice data to the voice reproduction unit 20, and reproduces the read voice data on the speaker 650. Further, the voice processing unit 24 records the voice data received from the voice input unit 22 and stores it in the data recording unit 46.

映像表示部28は表示処理部30から送信された画像データをタッチディスプレイ710に表示する。なお、タッチディスプレイ710は図3のディスプレイ680及び接触センサ614に対応する。操作入力部34はタッチディスプレイ710上でユーザにより生じたイベント(タッチディスプレイ710上にユーザの手Hがタッチされた動作など)を検出し、検出したイベントの座標位置を操作処理部36に送信する。 The video display unit 28 displays the image data transmitted from the display processing unit 30 on the touch display 710. The touch display 710 corresponds to the display 680 and the contact sensor 614 in FIG. The operation input unit 34 detects an event generated by the user on the touch display 710 (such as an operation in which the user's hand H is touched on the touch display 710), and transmits the coordinate position of the detected event to the operation processing unit 36. ..

操作処理部36は、操作入力部34から座標位置を受信したイベントを、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ストローク描画はタッチディスプレイ710上で例えば電子ペン690を押下し、押下した状態で電子ペン690を移動させ、最終的にタッチディスプレイ710から電子ペン690を離すまでのイベントである。 The operation processing unit 36 distributes the event for which the coordinate position is received from the operation input unit 34 to each event of stroke drawing, UI operation, and gesture operation. Stroke drawing is an event in which, for example, the electronic pen 690 is pressed on the touch display 710, the electronic pen 690 is moved in the pressed state, and finally the electronic pen 690 is released from the touch display 710.

このストローク描画により、例えば、手書き入力のアルファベット「S」や「T」等がタッチディスプレイ710上に描画される。なお、ストローク描画には、手書き入力の画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したり、するイベントも含まれる。 By this stroke drawing, for example, the alphabets "S" and "T" for handwriting input are drawn on the touch display 710. The stroke drawing includes not only drawing an image of handwriting input, but also an event of deleting an already drawn image or editing a drawn image.

UI操作は、タッチディスプレイ710上に例えば後述のUI画面1100が表示されている場合に、ユーザが例えば電子ペン690又は手Hによって所定の座標位置を押下したイベントである。このUI操作により、例えば、電子ペン690により描画される線の色や幅等が設定される。 The UI operation is an event in which the user presses a predetermined coordinate position with, for example, an electronic pen 690 or a hand H when, for example, the UI screen 1100 described later is displayed on the touch display 710. By this UI operation, for example, the color and width of the line drawn by the electronic pen 690 are set.

ジェスチャ操作は、タッチディスプレイ710上にストローク画像等の画像が表示されている場合に、ユーザが手Hでタッチディスプレイ710上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、ユーザはタッチディスプレイ710に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。 The gesture operation is an event in which the user touches or moves the touch display 710 with his / her hand H when an image such as a stroke image is displayed on the touch display 710. By this gesture operation, the user can enlarge (or reduce) the image, change the display area, switch pages, etc. by moving the hand H while touching the hand H on the touch display 710. ..

操作処理部36は、UI操作と判断されたものから、イベントが発生されたUI画面1100等の要素(表示部品)に従って、各種操作を実行する。このUI画面1100等の要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックス等が挙げられる。また、操作処理部36は、ジェスチャ操作と判断したものに対応した操作を実行する。 The operation processing unit 36 executes various operations from those determined to be UI operations according to the elements (display components) such as the UI screen 1100 in which the event is generated. Examples of the elements of the UI screen 1100 and the like include buttons, lists, check boxes, text boxes, and the like. Further, the operation processing unit 36 executes an operation corresponding to the gesture operation.

表示処理部30は、ページ処理部32が生成したUI画面1100などの画像データを映像表示部28に送信してタッチディスプレイ710に表示させる。ストローク処理部38は、操作処理部36によって割り振られたストローク描画のイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。 The display processing unit 30 transmits image data such as the UI screen 1100 generated by the page processing unit 32 to the video display unit 28 and displays it on the touch display 710. The stroke processing unit 38 draws an image, deletes the drawn image, and edits the drawn image based on the stroke drawing event assigned by the operation processing unit 36.

ページ処理部32は、ストローク処理部38からの手書き入力の画像、データ記録部46に記憶されている各種データなどを用いて、UI画面1100、後述のまとめページ画面1200などの画面の画像データを生成する。カード情報取得部40はICカード700からICカード700に固有の識別情報の一例であるカードIDを取得し、ユーザ認証部42に送信する。 The page processing unit 32 uses images of handwritten input from the stroke processing unit 38, various data stored in the data recording unit 46, and the like to obtain image data of screens such as the UI screen 1100 and the summary page screen 1200 described later. Generate. The card information acquisition unit 40 acquires a card ID, which is an example of identification information unique to the IC card 700, from the IC card 700 and transmits it to the user authentication unit 42.

ユーザ認証部42は、カード情報取得部40から受信したカードID及び後述のユーザテーブルに基づいてユーザ認証を行う。例えばユーザ認証部42は、カード情報取得部40から受信したカードIDが後述のユーザテーブルに登録されていれば、認証が成功と判定する。ユーザ認証部42はユーザから入力されたユーザID及びパスワードに基づいてユーザ認証を行ってもよい。また、ユーザ認証部42はカメラ660、生体認証装置等を用いて認証情報等を取得し、認証情報等に基づいてユーザ認証を行うこともできる。電子黒板14は、ユーザ認証を自装置が行ってもよく、又はユーザ認証を外部装置に行わせてもよい。 The user authentication unit 42 performs user authentication based on the card ID received from the card information acquisition unit 40 and the user table described later. For example, the user authentication unit 42 determines that the authentication is successful if the card ID received from the card information acquisition unit 40 is registered in the user table described later. The user authentication unit 42 may perform user authentication based on the user ID and password input by the user. Further, the user authentication unit 42 can acquire authentication information or the like using a camera 660, a biometric authentication device, or the like, and perform user authentication based on the authentication information or the like. The electronic blackboard 14 may have its own device perform user authentication, or may have an external device perform user authentication.

状態管理部44はユーザ認証部42によるユーザ認証の結果に基づく状態(ユーザ認証成功前の状態やユーザ認証成功後の状態など)を管理し、管理している状態を操作処理部36に提供する。 The state management unit 44 manages the state based on the result of user authentication by the user authentication unit 42 (state before successful user authentication, state after successful user authentication, etc.), and provides the managed state to the operation processing unit 36. ..

データリンク部26は後述のユーザデータ、ホワイトボードデータ、ページデータ、音声データ、及び手書きデータを、ユーザテーブル、ホワイトボードテーブル、ページデータテーブル、音声データテーブル、及び手書きデータテーブルを用いて対応付け、データ記録部46に記憶させる。データ記録部46は、図5に示すようなユーザテーブル、図6に示すようなホワイトボードテーブル、図7に示すようなページデータテーブル、図8に示すような音声データテーブル、及び図9に示すような手書きデータテーブルを記憶している。なお、図5〜図9のテーブルではデータをGUID(UUID)で管理する例を示している。GUIDは例えば{104110D9-7794-4C82-95C1-694A0F164F81}のような形式となる。 The data link unit 26 associates the user data, the whiteboard data, the page data, the voice data, and the handwritten data, which will be described later, with the user table, the whiteboard table, the page data table, the voice data table, and the handwritten data table. It is stored in the data recording unit 46. The data recording unit 46 shows a user table as shown in FIG. 5, a whiteboard table as shown in FIG. 6, a page data table as shown in FIG. 7, an audio data table as shown in FIG. 8, and a voice data table as shown in FIG. I remember a handwritten data table like this. The tables of FIGS. 5 to 9 show an example of managing data by GUID (UUID). The GUID has a format such as {104110D9-7794-4C82-95C1-694A0F164F81}.

図5はユーザテーブルの一例の構成図である。図5のユーザテーブルは、ユーザID、カードID、及びパスワードを項目として有するユーザデータを管理する。ユーザIDはユーザを識別する識別情報の一例である。カードIDはICカード700を識別する識別情報の一例である。パスワードはユーザ認証に用いる認証情報の一例である。 FIG. 5 is a configuration diagram of an example of a user table. The user table of FIG. 5 manages user data having a user ID, a card ID, and a password as items. The user ID is an example of identification information that identifies a user. The card ID is an example of identification information that identifies the IC card 700. The password is an example of authentication information used for user authentication.

図6はホワイトボードテーブルの一例の構成図である。図6のホワイトボードテーブルは、ホワイトボードID、ユーザID、及び終了時刻を項目として有するホワイトボードデータを管理する。ホワイトボードIDは、電子黒板14を識別する識別情報の一例である。ユーザIDは、ユーザを識別する識別情報の一例である。終了時刻はユーザIDにより識別されるユーザが、ホワイトボードIDにより識別される電子黒板14を最後に使用した際の使用終了時刻を表す。 FIG. 6 is a block diagram of an example of a whiteboard table. The whiteboard table of FIG. 6 manages whiteboard data having a whiteboard ID, a user ID, and an end time as items. The whiteboard ID is an example of identification information that identifies the electronic blackboard 14. The user ID is an example of identification information that identifies a user. The end time represents the end time of use when the user identified by the user ID last uses the electronic blackboard 14 identified by the whiteboard ID.

図7はページデータテーブルの一例の構成図である。図7のページデータテーブルは、ページデータID、ユーザID、ホワイトボードID、サマリーページFlag、録音Flag、及びページデータパスを項目として有するページデータを管理する。 FIG. 7 is a block diagram of an example of a page data table. The page data table of FIG. 7 manages page data having a page data ID, a user ID, a whiteboard ID, a summary page flag, a recording flag, and a page data path as items.

ページデータIDはページデータを識別する識別情報の一例である。ユーザIDはユーザを識別する識別情報の一例である。ホワイトボードIDは電子黒板14を識別する識別情報の一例である。サマリーページFlagは、後述のまとめページであるか否かを示す情報の一例である。サマリーページFlagは、まとめページの場合に「TRUE」となり、まとめページ以外の場合に「FALSE」となる。 The page data ID is an example of identification information that identifies the page data. The user ID is an example of identification information that identifies a user. The whiteboard ID is an example of identification information that identifies the electronic blackboard 14. The summary page Flag is an example of information indicating whether or not the summary page is described later. The summary page Flag is "TRUE" when it is a summary page, and "FALSE" when it is not a summary page.

録音Flagは、音声データを録音するか否かを示す情報の一例である。録音Flagは音声データを録音する状態の場合に「TRUE」となり、音声データを録音しない状態の場合に「FALSE」となる。ページデータパスはページデータの所在を表す情報の一例である。 The recording flag is an example of information indicating whether or not to record audio data. The recording flag is "TRUE" when the voice data is recorded, and "FALSE" when the voice data is not recorded. The page data path is an example of information indicating the location of page data.

図8は音声データテーブルの一例の構成図である。図8の音声データテーブルは、音声データID、ページデータID、開始時刻、終了時刻、及び音声データパスを項目として有する音声データを管理する。 FIG. 8 is a block diagram of an example of a voice data table. The voice data table of FIG. 8 manages voice data having voice data ID, page data ID, start time, end time, and voice data path as items.

音声データIDは音声データを識別する識別情報の一例である。ページデータIDはページデータを識別する識別情報の一例である。開始時刻は音声データの録音開始時刻を表している。終了時刻は音声データの録音終了時刻を表している。音声データパスは音声データの所在を表す情報の一例である。例えば音声データはMP3形式で記憶・再生できる。一例として、音声データID「GUID♯3001」が示す音声データを説明する。本音声データは、ページデータID「GUID♯2003」が示すページデータを電子黒板14に表示させた際に録音された音声データである。本音声データは、2020年01月11日13時30分00秒から録音を開始して、13時37分00秒に録音を終了した音声データである。 The voice data ID is an example of identification information for identifying voice data. The page data ID is an example of identification information that identifies the page data. The start time represents the recording start time of the voice data. The end time represents the recording end time of the voice data. The voice data path is an example of information indicating the location of voice data. For example, audio data can be stored and played back in MP3 format. As an example, the voice data indicated by the voice data ID "GUID # 3001" will be described. This audio data is audio data recorded when the page data indicated by the page data ID "GUID # 2003" is displayed on the electronic blackboard 14. This audio data is audio data that started recording at 13:30 on January 11, 2020 and ended recording at 13:37:00.

図9は手書きデータテーブルの一例の構成図である。図9の手書きデータテーブルは、手書きデータID、ページデータID、音声データID、経過時間、領域ID、手書きデータパスを項目として有する手書きデータを管理する。 FIG. 9 is a block diagram of an example of a handwritten data table. The handwritten data table of FIG. 9 manages handwritten data having a handwritten data ID, a page data ID, a voice data ID, an elapsed time, an area ID, and a handwritten data path as items.

手書きデータIDは手書きデータを識別する識別情報の一例である。ページデータIDはページデータを識別する識別情報の一例である。音声データIDは音声データを識別する識別情報の一例である。経過時間は音声データの録音を開始してから手書き開始までに経過した時間を表している。領域IDは、まとめページの手書きを行った後述の領域を表している。手書きデータパスは手書きデータの所在を表す情報の一例である。例えば手書きデータはインクシリアル化形式(ISF)で記憶・表示できる。 The handwritten data ID is an example of identification information that identifies the handwritten data. The page data ID is an example of identification information that identifies the page data. The voice data ID is an example of identification information for identifying voice data. The elapsed time represents the time elapsed from the start of recording the voice data to the start of handwriting. The area ID represents an area to be described later in which the handwritten summary page is performed. The handwritten data path is an example of information indicating the location of handwritten data. For example, handwritten data can be stored and displayed in the ink serialization format (ISF).

一例として、手書きデータID「GUID♯5101」が示す手書きデータを説明する。本手書きデータは、ページデータID「GUID♯2003」が示すページデータを電子黒板14に表示させた際に手書きしたデータである。音声データ「GUID♯3001」は、13時30分00秒から録音を開始する音声データである。手書きデータID「GUID♯5101」は、領域IDが1を示す領域に対して、録音を開始した315秒後である13時35分15秒から、手書きが開始された手書きデータである。同様にして、手書きデータID「GUID♯5102」は、領域IDが1を示す領域に対して、録音を開始した316秒後である13時35分16秒から、手書きが開始された手書きデータである。また、手書きデータID「GUID♯5115」は、領域IDが2を示す領域に対して、録音を開始した322秒後である13時35分22秒から、手書きが開始された手書きデータである。 As an example, the handwritten data indicated by the handwritten data ID "GUID # 5101" will be described. This handwritten data is data handwritten when the page data indicated by the page data ID "GUID # 2003" is displayed on the electronic blackboard 14. The voice data "GUID # 3001" is voice data that starts recording from 13:30. The handwritten data ID "GUID # 5101" is handwritten data in which handwriting is started from 13:35:15, which is 315 seconds after the start of recording, with respect to the area where the area ID is 1. Similarly, the handwritten data ID "GUID # 5102" is handwritten data in which handwriting is started from 13:35:16, which is 316 seconds after the start of recording, with respect to the area where the area ID is 1. be. Further, the handwritten data ID "GUID # 5115" is handwritten data in which handwriting is started from 13:35:22, which is 322 seconds after the start of recording, for the area where the area ID is 2.

<処理>
本実施形態に係る画像処理システム10は、例えば図10に示すような手順でページ表示の処理を行う。図10は、電子黒板のページ表示の処理手順の一例のフローチャートである。図10のページ表示の処理は、ユーザがユーザ認証を行い、ユーザ認証に成功した場合に、ユーザが前回使用したページを表示する処理の一例である。ユーザが電子黒板14の前回の使用で、まとめページを作成していた場合に、電子黒板14は、まとめページを表示する。
<Processing>
The image processing system 10 according to the present embodiment processes the page display by the procedure as shown in FIG. 10, for example. FIG. 10 is a flowchart of an example of the processing procedure for displaying the page of the electronic blackboard. The page display process of FIG. 10 is an example of a process of displaying the page used last time by the user when the user authenticates the user and the user authentication is successful. If the user has created a summary page in the previous use of the electronic blackboard 14, the electronic blackboard 14 displays the summary page.

ステップS10において、電子黒板14の映像表示部28は図11に示すようなユーザ認証画面1000をタッチディスプレイ710に表示し、ICカード700によるログインを待ち受ける。図11はユーザ認証画面の一例のイメージ図である。電子黒板14を使用するユーザは、自分のICカード700をICカードリーダ617にかざす。 In step S10, the video display unit 28 of the electronic blackboard 14 displays the user authentication screen 1000 as shown in FIG. 11 on the touch display 710, and waits for login by the IC card 700. FIG. 11 is an image diagram of an example of the user authentication screen. The user who uses the electronic blackboard 14 holds his / her IC card 700 over the IC card reader 617.

ステップS12において、カード情報取得部40はICカード700のカードIDを取得し、ユーザ認証部42に送信する。ユーザ認証部42はカード情報取得部40から受信したカードID及び図5のユーザテーブルに基づいてユーザ認証を行う。ステップS14において、ユーザ認証部42はユーザ認証が成功か失敗かを判定する。ユーザ認証部42はカード情報取得部40から受信したカードIDが図5のユーザテーブルに登録されていれば認証が成功と判定する。また、ユーザ認証部42は、カード情報取得部40から受信したカードIDが図5のユーザテーブルに登録されていなければ認証が失敗と判定する。 In step S12, the card information acquisition unit 40 acquires the card ID of the IC card 700 and transmits it to the user authentication unit 42. The user authentication unit 42 performs user authentication based on the card ID received from the card information acquisition unit 40 and the user table of FIG. In step S14, the user authentication unit 42 determines whether the user authentication is successful or unsuccessful. If the card ID received from the card information acquisition unit 40 is registered in the user table of FIG. 5, the user authentication unit 42 determines that the authentication is successful. Further, the user authentication unit 42 determines that the authentication has failed unless the card ID received from the card information acquisition unit 40 is registered in the user table of FIG.

認証が失敗と判定した場合、電子黒板14はステップS10に戻り、ICカード700によるログインを待ち受ける状態に戻る。また、認証が成功と判定した場合、電子黒板14のページ処理部32はステップS16に進み、図5のユーザテーブルから認証に成功したユーザのユーザID(GUID)を取得する。 If it is determined that the authentication has failed, the electronic blackboard 14 returns to step S10 and returns to a state of waiting for login by the IC card 700. If it is determined that the authentication is successful, the page processing unit 32 of the electronic blackboard 14 proceeds to step S16 to acquire the user ID (GUID) of the user who has succeeded in the authentication from the user table of FIG.

ステップS18において、ページ処理部32はステップS16で取得したユーザID及び図6のホワイトボードテーブルに基づいて、認証に成功したユーザが最後に使用した電子黒板14のホワイトボードID(GUID)を取得する。 In step S18, the page processing unit 32 acquires the whiteboard ID (GUID) of the electronic blackboard 14 last used by the user who succeeded in authentication based on the user ID acquired in step S16 and the whiteboard table of FIG. ..

ステップS20において、ページ処理部32は、ステップS16で取得したユーザIDと、ステップS18で取得したホワイトボードIDと、図7のページデータテーブルとに基づいて、認証に成功したユーザが最後に使用した電子黒板14のページデータID(GUID)を取得する。 In step S20, the page processing unit 32 was last used by the user who succeeded in authentication based on the user ID acquired in step S16, the whiteboard ID acquired in step S18, and the page data table of FIG. Acquire the page data ID (GUID) of the electronic blackboard 14.

ステップS22において、ページ処理部32はステップS20で取得したページデータIDのページデータと、ステップS20で取得したページデータIDに対応する図9の手書きデータとに基づいて、ホワイトボードページデータを復元する。 In step S22, the page processing unit 32 restores the whiteboard page data based on the page data of the page data ID acquired in step S20 and the handwritten data of FIG. 9 corresponding to the page data ID acquired in step S20. ..

ステップS24において表示処理部30は図12のUI画面1100又は図13のまとめページ画面1200をタッチディスプレイ710に表示させる。例えば表示処理部30はステップS20で取得したページデータの項目「サマリーページFlag」が「TRUE」でなければ、図12のようなUI画面1100をタッチディスプレイ710に表示させる。また、例えば表示処理部30はステップS20で取得したページデータの項目「サマリーページFlag」が「TRUE」であれば、図13のようなまとめページ画面1200をタッチディスプレイ710に表示させる。 In step S24, the display processing unit 30 causes the UI screen 1100 of FIG. 12 or the summary page screen 1200 of FIG. 13 to be displayed on the touch display 710. For example, the display processing unit 30 causes the touch display 710 to display the UI screen 1100 as shown in FIG. 12 if the item “summary page Flag” of the page data acquired in step S20 is not “TRUE”. Further, for example, if the item "summary page Flag" of the page data acquired in step S20 is "TRUE", the display processing unit 30 displays the summary page screen 1200 as shown in FIG. 13 on the touch display 710.

図12はUI画面の一例のイメージ図である。図12のUI画面1100はユーザからの指示を受け付ける表示部品の一例として、ページ追加ボタン1102、ページ削除ボタン1104、まとめページ作成ボタン1106、全ページ削除ボタン1108、ページ選択ボタン1110、ページリストスクロールボタン1112、ページ読み込みボタン1114、手書きボタン1116、終了ボタン1118、及び手書き削除ボタン1120が設けられている。 FIG. 12 is an image diagram of an example of the UI screen. The UI screen 1100 of FIG. 12 is an example of a display component that receives instructions from the user, such as a page addition button 1102, a page deletion button 1104, a summary page creation button 1106, an all page deletion button 1108, a page selection button 1110, and a page list scroll button. 1112, a page read button 1114, a handwritten button 1116, an end button 1118, and a handwritten delete button 1120 are provided.

ページ追加ボタン1102はユーザからのページ追加指示を受け付ける。ページ削除ボタン1104はユーザからのページ削除指示を受け付ける。まとめページ作成ボタン1106はユーザからの、まとめページ作成指示を受け付ける。全ページ削除ボタン1108はユーザからの全ページ削除指示を受け付ける。ページ選択ボタン1110はユーザからのページ選択指示を受け付ける。ページリストスクロールボタン1112はユーザからのページリストのスクロール指示を受け付ける。 The page addition button 1102 receives a page addition instruction from the user. The page deletion button 1104 receives a page deletion instruction from the user. The summary page creation button 1106 receives a summary page creation instruction from the user. The all-page deletion button 1108 receives an all-page deletion instruction from the user. The page selection button 1110 receives a page selection instruction from the user. The page list scroll button 1112 receives a page list scroll instruction from the user.

ページ読み込みボタン1114はユーザからのページの読み込み指示を受け付ける。手書きボタン1116はユーザからの手書き指示を受け付ける。終了ボタン1118はユーザからの終了指示を受け付ける。また、手書き削除ボタン1120はユーザからの手書き削除指示を受け付ける。 The page load button 1114 receives a page load instruction from the user. The handwriting button 1116 receives a handwriting instruction from the user. The end button 1118 receives an end instruction from the user. Further, the handwriting deletion button 1120 receives a handwriting deletion instruction from the user.

図13はまとめページ画面の一例のイメージ図である。図13のまとめページ画面1200は図12の表示部品に加えて、領域1202、音声再生ボタン1204、すべての音声再生ボタン1206、音声削除ボタン1208、及びまとめページのページ選択ボタン1210が設けられている。 FIG. 13 is an image diagram of an example of the summary page screen. In addition to the display components of FIG. 12, the summary page screen 1200 of FIG. 13 is provided with an area 1202, an audio reproduction button 1204, all audio reproduction buttons 1206, an audio deletion button 1208, and a page selection button 1210 of the summary page. ..

図13のまとめページ画面1200の画像データは図12のまとめページ作成ボタン1106がユーザに押下されることにより作成され、図7のページデータテーブルに新規のレコードとして追加される。1つ以上の領域1202はユーザからの手書き入力を受け付ける画面上の領域である。音声再生ボタン1204は領域1202ごとに設けられ、ユーザからの音声再生指示を受け付ける。 The image data of the summary page screen 1200 of FIG. 13 is created by the user pressing the summary page creation button 1106 of FIG. 12, and is added as a new record to the page data table of FIG. 7. One or more areas 1202 are areas on the screen that accept handwriting input from the user. The voice reproduction button 1204 is provided for each area 1202 and receives a voice reproduction instruction from the user.

すべての音声再生ボタン1206は、まとめページ画面1200と対応付けられている全ての音声データを再生する音声再生指示をユーザから受け付ける。まとめページのページ選択ボタン1210はユーザからのまとめページ選択指示を受け付ける。 All voice playback buttons 1206 receive voice playback instructions from the user to play back all voice data associated with the summary page screen 1200. The page selection button 1210 of the summary page receives a summary page selection instruction from the user.

例えば図12のUI画面1100又は図13のまとめページ画面1200で、ページ選択ボタン1110が押下されるなど、ページが切り替わるイベントを受け取ると、電子黒板14のページ処理部32は図14に示すような手順で手書きデータの入力や音声データの録音の処理を行う。図14は電子黒板の手書きデータの入力及び音声データの録音の処理手順の一例のフローチャートである。 For example, on the UI screen 1100 of FIG. 12 or the summary page screen 1200 of FIG. 13, when a page switching event such as pressing the page selection button 1110 is received, the page processing unit 32 of the electronic blackboard 14 is as shown in FIG. Input handwritten data and record audio data in the procedure. FIG. 14 is a flowchart of an example of a procedure for inputting handwritten data on an electronic blackboard and recording voice data.

ステップS30において、ページ処理部32はページが切り替わるイベントをユーザから受け取ったものとする。ステップS32において、ページ処理部32は音声データの録音中であるか否かを判定する。すでに音声データが録音されている場合、電子黒板14の音声処理部24はステップS34において音声データの録音を停止し、図8の音声データテーブルの対応するレコードに終了時刻を設定する。音声データが録音されていない場合はステップS34の処理がスキップされる。 In step S30, it is assumed that the page processing unit 32 has received an event from the user to switch pages. In step S32, the page processing unit 32 determines whether or not audio data is being recorded. When the voice data has already been recorded, the voice processing unit 24 of the electronic blackboard 14 stops the recording of the voice data in step S34, and sets the end time in the corresponding record of the voice data table of FIG. If no audio data has been recorded, the process of step S34 is skipped.

また、ページ処理部32は切り替わるページのページデータテーブルのサマリーページFlagが「TRUE」であるか否かを判定する。切り替わるページのページデータテーブルのサマリーページFlagが「TRUE」でなければ、ページ処理部32はページの切り替えにより表示される画面が、まとめページ画面1200でないため、図14の処理を終了する。 Further, the page processing unit 32 determines whether or not the summary page Flag of the page data table of the page to be switched is "TRUE". If the summary page Flag of the page data table of the page to be switched is not "TRUE", the page processing unit 32 ends the process of FIG. 14 because the screen displayed by the page switching is not the summary page screen 1200.

切り替わるページのページデータテーブルのサマリーページFlagが「TRUE」であればページ処理部32はページの切り替えにより表示される画面が、まとめページ画面1200であるため、ステップS38に進み、まとめページ画面1200のページデータテーブルの録音Flagが「TRUE」であるか否かを判定する。 If the summary page Flag of the page data table of the page to be switched is "TRUE", the page processing unit 32 proceeds to step S38 because the screen displayed by switching pages is the summary page screen 1200, and the summary page screen 1200 is displayed. It is determined whether or not the recording flag of the page data table is "TRUE".

まとめページ画面1200のページデータテーブルの録音Flagが「TRUE」でなければ、ページ処理部32は音声データが録音済みであるため、図14の処理を終了する。まとめページ画面1200のページデータテーブルの録音Flagが「TRUE」であれば、ページ処理部32は音声データが録音されていないため、ステップS42に進み、音声再生ボタン1204及びすべての音声再生ボタン1206を使用不可にする。 Summary If the recording flag of the page data table of the page screen 1200 is not "TRUE", the page processing unit 32 ends the process of FIG. 14 because the audio data has already been recorded. If the recording flag of the page data table of the summary page screen 1200 is "TRUE", the page processing unit 32 proceeds to step S42 because no audio data has been recorded, and presses the audio reproduction button 1204 and all audio reproduction buttons 1206. Disable it.

ステップS44において、ページ処理部32は音声データテーブルに新規のレコードを追加し、音声データID、ページデータID、開始時刻を設定する。ステップS46において音声処理部24は音声データの録音を開始する。また、ページ処理部32は音声データの保存先を音声データパスとして設定する。 In step S44, the page processing unit 32 adds a new record to the voice data table, and sets the voice data ID, the page data ID, and the start time. In step S46, the voice processing unit 24 starts recording voice data. Further, the page processing unit 32 sets the storage destination of the voice data as the voice data path.

まとめページ画面1200への手書き入力が開始されると、ステップS48からステップS50に進み、ページ処理部32は手書き入力が開始された手書き開始位置が領域1202内にあるか否かを判定する。手書き入力が開始された手書き開始位置が領域1202内でなければページ処理部32はステップS48に戻り、次の手書き入力まで待機する。 Summary When the handwriting input to the page screen 1200 is started, the process proceeds from step S48 to step S50, and the page processing unit 32 determines whether or not the handwriting start position where the handwriting input is started is in the area 1202. If the handwriting start position where the handwriting input is started is not within the area 1202, the page processing unit 32 returns to step S48 and waits until the next handwriting input.

手書き入力が開始された手書き開始位置が領域1202内であれば、ページ処理部32はステップS52に進み、図9の手書きテーブルに新規のレコードを追加し、手書きデータID、ページデータID、及び領域IDを設定する。また、ページ処理部32は録音の開始時刻を記録する。 If the handwriting start position where the handwriting input is started is within the area 1202, the page processing unit 32 proceeds to step S52, adds a new record to the handwriting table of FIG. 9, and has a handwriting data ID, a page data ID, and an area. Set the ID. Further, the page processing unit 32 records the recording start time.

ステップS54において、ページ処理部32は、まとめページ画面1200への手書き入力が終了すると、ステップS54からステップS56に進み、手書きデータを保存し、図9の手書きデータテーブルの手書きデータパスに、手書きデータの保存先を設定する。ページ処理部32はステップS48に戻り、次の手書き入力まで待機する。 In step S54, when the handwriting input to the summary page screen 1200 is completed, the page processing unit 32 proceeds from step S54 to step S56, saves the handwriting data, and puts the handwriting data in the handwriting data path of the handwriting data table of FIG. Set the save destination of. The page processing unit 32 returns to step S48 and waits until the next handwriting input.

また、例えば図13の音声再生ボタン1204又はすべての音声再生ボタン1206が押下されると、電子黒板14のページ処理部32は図15又は図16に示すような手順で音声データを再生する。図15及び図16は、電子黒板の音声データの再生の処理手順の一例のフローチャートである。なお、図15では、まとめページ画面1200の領域ID「1」の領域の音声再生ボタン1204が押下された例を示している。図16では、まとめページ画面1200のすべての音声再生ボタン1206が押下された例を示している。 Further, for example, when the voice reproduction button 1204 or all the voice reproduction buttons 1206 of FIG. 13 are pressed, the page processing unit 32 of the electronic blackboard 14 reproduces the voice data by the procedure as shown in FIG. 15 or FIG. 15 and 16 are flowcharts of an example of a processing procedure for reproducing audio data of an electronic blackboard. Note that FIG. 15 shows an example in which the voice reproduction button 1204 in the area of the area ID “1” of the summary page screen 1200 is pressed. FIG. 16 shows an example in which all the voice reproduction buttons 1206 on the summary page screen 1200 are pressed.

ステップS60において、ページ処理部32は図9の手書きデータテーブルから、対象のページデータIDで領域IDが「1」のレコードを抽出する。ページ処理部32はステップS62において、ステップS60で抽出したレコードの音声データIDを抽出し、抽出した音声データIDが設定されているレコードを図8の音声データテーブルから抽出する。 In step S60, the page processing unit 32 extracts a record whose area ID is "1" with the target page data ID from the handwritten data table of FIG. In step S62, the page processing unit 32 extracts the voice data ID of the record extracted in step S60, and extracts the record in which the extracted voice data ID is set from the voice data table of FIG.

ステップS64に進み、ページ処理部32は領域ID「1」の手書きデータテーブルのレコードを消去する。ページ処理部32はステップS62で抽出した音声データテーブルのレコードを録音の開始時間で降順に並び替え、ステップS68〜S70においてレコードごとに音声データを再生する。音声データの再生の開始からN秒経過後に、経過時間がNの手書きデータがあれば、ページ処理部32は、その手書きデータを領域ID「1」の領域に描画する。 Proceeding to step S64, the page processing unit 32 deletes the record of the handwritten data table of the area ID “1”. The page processing unit 32 sorts the records in the audio data table extracted in step S62 in descending order according to the recording start time, and reproduces the audio data for each record in steps S68 to S70. If there is handwritten data with an elapsed time of N after N seconds have elapsed from the start of reproduction of the audio data, the page processing unit 32 draws the handwritten data in the area of the area ID “1”.

例えば領域ID「1」の領域に、図17の発話データに示す音声データが録音されているものとして説明する。図17は発話データの一例のイメージ図である。図17に示す発話データは、発話者、発話時間、及び発話内容を表している。例えば図17の発話データに示す音声データが録音されている場合、発話者「サトウ」の発話時間「13:35:13−13:35:22」の音声再生中に、領域ID「1」の領域には図9の手書きデータID「GUID#5101」「GUID#5102」「GUID#5103」が、それぞれの経過時間「315」「316」「317」に従って表示される。 For example, it is assumed that the voice data shown in the utterance data of FIG. 17 is recorded in the area of the area ID “1”. FIG. 17 is an image diagram of an example of utterance data. The utterance data shown in FIG. 17 represents the speaker, the utterance time, and the utterance content. For example, when the voice data shown in the utterance data of FIG. 17 is recorded, the area ID "1" is set during the voice reproduction of the utterance time "13:35:13-13:35:22" of the speaker "Sato". The handwritten data IDs "GUID # 5101", "GUID # 5102", and "GUID # 5103" of FIG. 9 are displayed in the area according to the elapsed times "315", "316", and "317", respectively.

図16のステップS80において、ページ処理部32は図9の手書きデータテーブルから、対象のページデータIDのレコードを抽出する。ページ処理部32はステップS82において、ステップS80で抽出したレコードの音声データIDを抽出し、抽出した音声データIDが設定されているレコードを図8の音声データテーブルから抽出する。 In step S80 of FIG. 16, the page processing unit 32 extracts a record of the target page data ID from the handwritten data table of FIG. In step S82, the page processing unit 32 extracts the voice data ID of the record extracted in step S80, and extracts the record in which the extracted voice data ID is set from the voice data table of FIG.

ステップS84に進み、ページ処理部32は対象のページデータIDの手書きデータテーブルのレコードを消去する。ページ処理部32はステップS82で抽出した音声データテーブルのレコードを録音の開始時間で降順に並び替え、ステップS88〜S90においてレコードごとに音声データを再生する。音声データの再生の開始からN秒経過後に、経過時間がNの手書きデータがあれば、ページ処理部32は、その手書きデータを領域IDの領域に描画する。 The process proceeds to step S84, and the page processing unit 32 deletes the record in the handwritten data table of the target page data ID. The page processing unit 32 sorts the records in the audio data table extracted in step S82 in descending order according to the recording start time, and reproduces the audio data for each record in steps S88 to S90. If there is handwritten data with an elapsed time of N after N seconds have elapsed from the start of reproduction of the voice data, the page processing unit 32 draws the handwritten data in the area of the area ID.

[他の実施形態]
なお、本実施形態の画像処理システム10は図15又は図16に示すような手順で音声データを再生したあと、音声データ及び手書きデータを自動的に削除して、サーバ12又は電子黒板14の記憶容量の逼迫を避けるようにしてもよい。また、図15又は図16に示すような手順で音声データを再生したあと、本実施形態の画像処理システム10は音声データ及び手書きデータを削除するか否かをユーザに問い合わせる表示を行い、ユーザから音声データ及び手書きデータを削除する操作を受け付けるようにしてもよい。
[Other embodiments]
The image processing system 10 of the present embodiment automatically deletes the voice data and the handwritten data after reproducing the voice data by the procedure as shown in FIG. 15 or FIG. 16, and stores the server 12 or the electronic blackboard 14. You may try to avoid tight capacity. Further, after the voice data is reproduced by the procedure as shown in FIG. 15 or FIG. 16, the image processing system 10 of the present embodiment displays an inquiry to the user as to whether or not to delete the voice data and the handwritten data, and the user displays. The operation of deleting the voice data and the handwritten data may be accepted.

また、音声データ及び手書きデータを削除するタイミングは再生時に限られない。例えば、音声データ及び手書きデータを新たに録音/記録した際に、電子黒板14の記憶容量の残量を算出する。その残量が今回録音/記録した音声データ及び手書きデータの容量よりも少ない(仮に同じ音声データ及び手書きデータを改めて録音/記録しようとしても実行できない)と判断される場合に、音声データ及び手書きデータを削除するか否かをユーザに問い合わせる表示を行ってもよい。 Further, the timing of deleting the voice data and the handwritten data is not limited to the time of reproduction. For example, when voice data and handwritten data are newly recorded / recorded, the remaining amount of the storage capacity of the electronic blackboard 14 is calculated. If it is determined that the remaining amount is less than the capacity of the voice data and handwritten data recorded / recorded this time (even if the same voice data and handwritten data are recorded / recorded again, it cannot be executed), the voice data and handwritten data You may display asking the user whether or not to delete.

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。なお、本実施形態で説明した画像処理システム10は一例であって、用途や目的に応じて様々なシステム構成例があることは言うまでもない。 The present invention is not limited to the above-described embodiment disclosed specifically, and various modifications and modifications can be made without departing from the scope of claims. It is needless to say that the image processing system 10 described in this embodiment is an example, and there are various system configuration examples depending on the intended use and purpose.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" as used herein is a processor programmed to perform each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。 The group of devices described in the examples is only one of a plurality of computing environments for implementing the embodiments disclosed herein.

ある実施形態では、サーバ12は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、通信ネットワーク18や共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。同様に、電子黒板14は、互いに通信するように構成された複数のコンピューティングデバイスを含むことができる。 In one embodiment, the server 12 includes a plurality of computing devices such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including a communication network 18, shared memory, and the like, and perform the processes disclosed herein. Similarly, the electronic blackboard 14 can include a plurality of computing devices configured to communicate with each other.

さらに、サーバ12、及び電子黒板14は開示された処理ステップを様々な組み合わせで共有するように構成できる。例えば、電子黒板14によって実行されるプロセスは、サーバ12によって実行され得る。同様に、サーバ12によって実行されるプロセスは、電子黒板14によって実行することができる。また、サーバ12と電子黒板14の各要素は、1つの装置にまとめられていてもよいし、複数の装置に分けられていてもよい。 Further, the server 12 and the electronic blackboard 14 can be configured to share the disclosed processing steps in various combinations. For example, the process executed by the electronic blackboard 14 may be executed by the server 12. Similarly, the process executed by the server 12 can be executed by the electronic blackboard 14. Further, each element of the server 12 and the electronic blackboard 14 may be integrated into one device, or may be divided into a plurality of devices.

なお、手書きデータはユーザから入力された入力データの一例である。入力データとはユーザにより入力され、タッチディスプレイ710に表示されるデータであって、例えばストロークデータである。また、入力データに関連する音声データとは、入力データと対応付けられて記憶される音声データであって、例えば入力データの入力時に録音された音声データである。表示処理部30は表示処理手段の一例である。音声処理部24は音声処理手段の一例である。ページ処理部32はページ処理手段の一例である。ユーザIDはユーザ識別情報の一例である。データ記録部46はデータ記録手段の一例である。ユーザ認証部42はユーザ認証手段の一例である。 The handwritten data is an example of input data input by the user. The input data is data that is input by the user and displayed on the touch display 710, and is, for example, stroke data. Further, the voice data related to the input data is voice data stored in association with the input data, for example, voice data recorded at the time of inputting the input data. The display processing unit 30 is an example of display processing means. The voice processing unit 24 is an example of voice processing means. The page processing unit 32 is an example of page processing means. The user ID is an example of user identification information. The data recording unit 46 is an example of data recording means. The user authentication unit 42 is an example of a user authentication means.

10 画像処理システム
12 サーバ
14 電子黒板
18 通信ネットワーク
20 音声再生部
22 音声入力部
24 音声処理部
26 データリンク部
28 映像表示部
30 表示処理部
32 ページ処理部
34 操作入力部
36 操作処理部
38 ストローク処理部
40 カード情報取得部
42 ユーザ認証部
44 状態管理部
46 データ記録部
614 接触センサ
617 ICカードリーダ
640 マイク
650 スピーカ
680 ディスプレイ
690 電子ペン
700 ICカード
710 タッチディスプレイ
1106 まとめページ作成ボタン
1200 まとめページ画面
1202 領域
1204 音声再生ボタン
10 Image processing system 12 Server 14 Electronic blackboard 18 Communication network 20 Audio playback unit 22 Audio input unit 24 Audio processing unit 26 Data link unit 28 Video display unit 30 Display processing unit 32 Page processing unit 34 Operation input unit 36 Operation processing unit 38 Strokes Processing unit 40 Card information acquisition unit 42 User authentication unit 44 Status management unit 46 Data recording unit 614 Contact sensor 617 IC card reader 640 Microphone 650 Speaker 680 Display 690 Electronic pen 700 IC card 710 Touch display 1106 Summary page creation button 1200 Summary page screen 1202 Area 1204 Audio playback button

特開2005−284490号公報Japanese Unexamined Patent Publication No. 2005-284490

Claims (8)

ユーザから入力された入力データを表示する電子黒板であって、
前記ユーザを識別するためのユーザ識別情報、前記入力データ、及び該入力データに関連する音声データ、を対応付けて記憶するデータ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データを読み出して映像表示部に表示させる表示処理手段と、
前記データ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データに関連する音声データを読み出して音声再生部に再生させる音声処理手段と、
を有する電子黒板。
An electronic blackboard that displays input data entered by the user.
The data recording unit that stores the user identification information for identifying the user, the input data, and the voice data related to the input data in association with each other is associated with the user identification information of the user who has succeeded in authentication. A display processing means for reading out the input data and displaying it on the video display unit,
A voice processing means for reading voice data related to the input data associated with the user identification information of the user who has succeeded in authentication from the data recording unit and causing the voice reproduction unit to reproduce the voice data.
Electronic blackboard with.
前記音声処理手段は、前記ユーザによる前記入力データの入力時の前記音声データを録音し、前記ユーザのユーザ識別情報及び前記入力データと対応付けて前記データ記録部に記憶させること
を特徴とする請求項1記載の電子黒板。
The voice processing means is characterized in that the voice data at the time of inputting the input data by the user is recorded and stored in the data recording unit in association with the user identification information of the user and the input data. Item 1 The electronic blackboard.
前記ユーザから手書き入力を受け付ける1つ以上の領域が表示されるページを前記映像表示部に表示させ、前記領域ごとに前記ユーザから手書き入力を受け付けるページを生成するページ処理手段、を更に有し、
前記音声処理手段は、前記ユーザから手書き入力を受け付けた前記領域ごとに、前記手書き入力時の前記音声データを録音し、前記ユーザのユーザ識別情報及び前記手書き入力の入力データと対応付けて前記データ記録部に記憶させること
を特徴とする請求項2記載の電子黒板。
Further having a page processing means for displaying a page on which one or more areas for accepting handwriting input from the user are displayed on the video display unit and generating a page for accepting handwriting input from the user for each area.
The voice processing means records the voice data at the time of the handwriting input for each area that receives handwriting input from the user, and associates the data with the user identification information of the user and the input data of the handwriting input. The electronic blackboard according to claim 2, wherein the electronic blackboard is stored in a recording unit.
前記ページ処理手段は、認証に成功した前記ユーザのユーザ識別情報と対応付けられて前記データ記録部に記憶されている前記手書き入力の入力データ、及び前記手書き入力時の前記音声データに基づき、前記手書き入力を表示する1つ以上の領域と、前記領域に表示された手書き入力の前記手書き入力時の前記音声データの再生の指示を前記ユーザから受け付ける表示部品と、が表示されるページを生成して、前記映像表示部に表示させること
を特徴とする請求項3記載の電子黒板。
The page processing means is based on the input data of the handwriting input stored in the data recording unit in association with the user identification information of the user who has succeeded in authentication and the voice data at the time of the handwriting input. Generates a page displaying one or more areas for displaying handwriting input and display components for receiving instructions from the user to reproduce the voice data at the time of the handwriting input of the handwriting input displayed in the area. The electronic blackboard according to claim 3, wherein the image is displayed on the image display unit.
前記ページ処理手段は、前記音声再生部が前記音声データを再生した後、前記手書き入力の入力データ、及び前記手書き入力時の前記音声データを削除するか否かを前記ユーザに問い合わせる表示を行い、前記ユーザから前記手書き入力の入力データ、及び前記手書き入力時の前記音声データを削除する操作を受け付けること
を特徴とする請求項4記載の電子黒板。
The page processing means displays an inquiry to the user as to whether or not to delete the input data of the handwriting input and the voice data at the time of the handwriting input after the voice reproduction unit reproduces the voice data. The electronic blackboard according to claim 4, wherein the user accepts an operation of deleting the input data of the handwriting input and the voice data at the time of the handwriting input.
ユーザから入力された入力データを表示する電子黒板の音声再生方法であって、
前記ユーザを識別するためのユーザ識別情報、前記入力データ、及び該入力データに関連する音声データ、を対応付けて記憶するデータ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データを読み出して映像表示部に表示させる表示処理ステップと、
前記データ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データに関連する音声データを読み出して音声再生部に再生させる音声処理ステップと、
を有する音声再生方法。
It is a voice reproduction method of the electronic blackboard that displays the input data input by the user.
The data recording unit that stores the user identification information for identifying the user, the input data, and the voice data related to the input data in association with each other is associated with the user identification information of the user who has succeeded in authentication. A display processing step of reading out the input data and displaying it on the video display unit,
A voice processing step of reading voice data related to the input data associated with the user identification information of the user who has succeeded in authentication from the data recording unit and causing the voice reproduction unit to reproduce the voice data.
Audio reproduction method having.
ユーザから入力された入力データを表示するコンピュータを、
前記ユーザを識別するためのユーザ識別情報、前記入力データ、及び該入力データに関連する音声データ、を対応付けて記憶するデータ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データを読み出して映像表示部に表示させる表示処理手段、
前記データ記録部から、認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データに関連する音声データを読み出して音声再生部に再生させる音声処理手段、
として機能させるためのプログラム。
A computer that displays the input data entered by the user,
The data recording unit that stores the user identification information for identifying the user, the input data, and the voice data related to the input data in association with each other is associated with the user identification information of the user who has succeeded in authentication. Display processing means for reading the input data and displaying it on the video display unit,
A voice processing means for reading voice data related to the input data associated with the user identification information of the user who has succeeded in authentication from the data recording unit and causing the voice reproduction unit to reproduce the voice data.
A program to function as.
ユーザから入力された入力データを表示する電子黒板と、前記電子黒板とネットワークを介して接続可能なサーバと、を有する画像処理システムであって、
前記ユーザを識別するためのユーザ識別情報、前記入力データ、及び該入力データに関連する音声データ、を対応付けて記憶するデータ記録手段と、
前記ユーザを認証するユーザ認証手段と、
認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データを前記データ記録手段から読み出して映像表示部に表示させる表示処理手段と、
認証に成功した前記ユーザのユーザ識別情報に対応付けられている前記入力データに関連する音声データを前記データ記録手段から読み出して音声再生部に再生させる音声処理手段と、
を有する画像処理システム。
An image processing system including an electronic blackboard that displays input data input by a user, and a server that can be connected to the electronic blackboard via a network.
A data recording means for storing user identification information for identifying the user, the input data, and voice data related to the input data in association with each other.
A user authentication means for authenticating the user and
A display processing means for reading the input data associated with the user identification information of the user who has succeeded in authentication from the data recording means and displaying the input data on the video display unit.
A voice processing means for reading voice data related to the input data associated with the user identification information of the user who has succeeded in authentication from the data recording means and causing the voice reproduction unit to reproduce the voice data.
Image processing system with.
JP2020099494A 2020-06-08 2020-06-08 Electronic blackboard, voice playback method, program, and image processing system Pending JP2021193774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020099494A JP2021193774A (en) 2020-06-08 2020-06-08 Electronic blackboard, voice playback method, program, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020099494A JP2021193774A (en) 2020-06-08 2020-06-08 Electronic blackboard, voice playback method, program, and image processing system

Publications (1)

Publication Number Publication Date
JP2021193774A true JP2021193774A (en) 2021-12-23

Family

ID=79168894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020099494A Pending JP2021193774A (en) 2020-06-08 2020-06-08 Electronic blackboard, voice playback method, program, and image processing system

Country Status (1)

Country Link
JP (1) JP2021193774A (en)

Similar Documents

Publication Publication Date Title
US10572779B2 (en) Electronic information board apparatus, information processing method, and computer program product
WO2019062910A1 (en) Copy and pasting method, data processing apparatus, and user device
JP6142580B2 (en) Information processing system, information registration method, conference apparatus, and program
WO2016121401A1 (en) Information processing apparatus and program
CN104067204A (en) Stylus computing environment
JP2015518604A (en) Text selection and input
JP2017112581A (en) Electronic board, program, data display method, and image processing system
WO2019205552A1 (en) Online document commenting method and apparatus
EP3358449A1 (en) Electronic blackboard, recording medium, and information display method
US11620414B2 (en) Display apparatus, display method, and image processing system
US11271977B2 (en) Information processing apparatus, information processing system, information processing method, and non-transitory recording medium
JP2018049319A (en) Document browsing device and program
JP6369598B2 (en) Information processing system, information registration method, conference apparatus, and program
US10593077B2 (en) Associating digital ink markups with annotated content
JP2021193774A (en) Electronic blackboard, voice playback method, program, and image processing system
JP7435184B2 (en) Communication device, communication device control method, and program
JP2022087633A (en) Display device, erasing method switching method, and program
US8629846B2 (en) Information processing apparatus and information processing method
JP7476651B2 (en) Information processing device, information processing system, information processing method, and program
JP5611380B2 (en) Terminal device, input control method, and program
JP7388001B2 (en) Information processing device, information processing system, information processing method and program
JP7383959B2 (en) Display device, usage providing method, program, image processing system
JP7480608B2 (en) Display device, display method, and program
US11082461B2 (en) Information processing apparatus, information processing system, and information processing method
JP2014160416A (en) Browsing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528