JP6493546B2 - 電子黒板、記憶媒体、及び情報表示方法 - Google Patents

電子黒板、記憶媒体、及び情報表示方法 Download PDF

Info

Publication number
JP6493546B2
JP6493546B2 JP2017543590A JP2017543590A JP6493546B2 JP 6493546 B2 JP6493546 B2 JP 6493546B2 JP 2017543590 A JP2017543590 A JP 2017543590A JP 2017543590 A JP2017543590 A JP 2017543590A JP 6493546 B2 JP6493546 B2 JP 6493546B2
Authority
JP
Japan
Prior art keywords
unit
mode
coordinates
electronic blackboard
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543590A
Other languages
English (en)
Other versions
JPWO2017057629A1 (ja
Inventor
佑一 河崎
佑一 河崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017057629A1 publication Critical patent/JPWO2017057629A1/ja
Application granted granted Critical
Publication of JP6493546B2 publication Critical patent/JP6493546B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Drawing Aids And Blackboards (AREA)

Description

本発明は、電子黒板、記憶媒体、及び情報表示方法に関する。
大型のフラットパネルディスプレイにタッチパネルが搭載された電子黒板が知られている。電子黒板は、黒板の役割をする画面を表示し、タッチパネルを介して電子ペンや指などの軌跡を取り込んで、軌跡を手書き内容として画面に描画する。したがって、ユーザは画面を黒板のように使用することができる。また、パソコンと接続することができる電子黒板では、パソコンと同じ画面を表示して手書き内容を重畳して描画したり、電子黒板がタッチパネルから入力された情報にしたがってパソコンを操作したりすることができる。
電子黒板では、手書き内容を描画するモード(以下、手書きモード)の他、描画内容を拡大したり縮小したりするモード(以下、ジェスチャモード)が存在する。ユーザは例えばメニューボタンを操作することでこの2つのモードを適宜切り替えることができる。しかし、モードを切り替えるためにユーザが明示的な操作を行うことは操作性を低下させるおそれがある。
そこで、ユーザが明示的に操作しなくてもモードを切り替える技術が考案されている(例えば、特許文献1参照。)。特許文献1には、手書き軌跡が予め決められたパターンと一致する場合、ジェスチャ操作を受け付ける表示装置が開示されている。
しかしながら、従来の電子黒板では、電子黒板の動作モードを誤判定するおそれがあるという問題がある。まず、ジェスチャモードには、ユーザが二本の指を使用する操作があり、電子黒板は画面上に2つの物体(例えば二本の指)を検出した場合にジェスチャモードであると判定する。しかし、二本の指がタッチパネルに触れるタイミングに時間差がある場合、一本目の指が検出された時点で手書きモードであると誤判定し、手書き内容を描画してしまう場合がある。これとは逆に、手書きモードでユーザが手書き内容を描画している間に、他の指などがタッチパネルに触れると、電子黒板がジェスチャモードであると判定し、ジェスチャ操作を受け付ける場合がある。
本発明は、上記課題に鑑み、動作モードを適切に判別することが可能な電子黒板を提供することを目的とする。
上記課題に鑑み、本発明は、可視情報の表示部を有する電子黒板であって、前記表示部における物体の座標を検出する座標検出手段と、 前記座標検出手段により検出された物体の前記座標に基づき、前記表示部の物体の数を検出する数検出手段と、前記数検出手段が1つめの物体を検出した場合に所定時間の測定を開始する時間測定手段と、前記時間測定手段が前記所定時間を測定しても前記数検出手段が2つめの物体を検出しない場合、前記座標に基づき可視情報を表示する手書きモードであると判定し、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出した場合、前記可視情報に対する操作を受け付けるジェスチャモードであると判定するモード判定手段と、を有し、前記モード判定手段は、手書きモードであると判定すると前記座標を手書きに用い、ジェスチャモードであると判定すると前記座標を操作の受け付けに用いることを特徴とする。
動作モードを適切に判別することが可能な電子黒板を提供することができる。
画像処理システムの全体構成図の一例である。 電子黒板のハードウェア構成図の一例である。 電子黒板の機能ブロック図の一例である。 ファイル処理部の機能ブロック図の一例である。 サーバ部とクライアント部の機能ブロック図の一例である。 各画像レイヤの構成図の一例である。 各電子黒板の処理を示したシーケンス図の一例である。 各電子黒板の処理を示したシーケンス図の一例である。 イベント振分部が振り分けるイベントを説明する図の一例である。 イベント振分部が時系列に検出するイベントの一例を示すフローチャート図である。 タッチダウンイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である。 タッチダウンイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の他の例である。 タイムアウト時にモード判定部が行う処理を示すフローチャート図の一例である。 タッチムーブイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である。 タッチムーブイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の他の例である。 タッチアップイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である。 タッチダウンイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である(実施例2)。 タッチムーブイベントが検出された場合にストローク処理部が行う処理を示すフローチャート図の一例である(実施例2)。 ディスプレイに表示されたメニューを模式的に説明する図の一例であり、ワンタッチ入力ボタンと消しゴムボタンが表示されている。 ディスプレイに表示されたメニューを模式的に説明する図の一例であり、ユーザがワンタッチ入力ボタンを押下した場合の動作が表示されている。 ディスプレイに表示されたメニューを模式的に説明する図の一例であり、ユーザが消しゴムボタンを押下した場合の動作が表示されている。 タッチダウンイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である(実施例3)。 タイムアウト時にモード判定部が行う処理を示すフローチャート図の一例である(実施例3)。 タッチムーブイベントが検出された場合にストローク処理部が行う処理を示すフローチャート図の一例である(実施例3)。 タッチアップイベントが検出された場合にモード判定部が行う処理を示すフローチャート図の一例である(実施例3)。
以下、本発明を実施するための形態について図面を参照しながら説明する。
本実施形態の電子黒板は、電子黒板のディスプレイに触れる指を検出してから一定時間処理待ちを行い、一定時間の間に2つめの指が検出されるか否かに応じてジェスチャモードか手書きモードかを判別する。
・一定時間内に2つめの座標を検出した場合、ジェスチャモードであると判定する。
・一定時間内に2つめの座標を検出しない場合、手書きモードであると判定する。
ユーザがジェスチャモードで操作する場合、1つめの指の接触から一定時間内に2つめの指が接触すると考えられる。このため、一定時間処理待ちすることで、ユーザがジェスチャ操作したいのに手書き内容を描画してしまうことを抑制できる。また、ユーザが1つめの指で手書き中に2つめの指がディスプレイに触れても一定時間の経過後ではジェスチャモードであると判定されないので、手書きモード中にジェスチャモードであると誤判定することを抑制できる。
<システムの概要>
図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の電子黒板や電子ペン等を利用してもよい。図1に示されているように、画像処理システム1は、複数の電子黒板2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、ノートPC(Personal Computer)6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC8を有する。また、電子黒板2a,2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の電子黒板2a,2bには、それぞれディスプレイ3a,3bが設けられている。
また、電子黒板2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)により描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、電子黒板2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、DisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。
一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。
これにより、一の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。
なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。
また、本実施形態では、画像処理装置の一例として、電子黒板を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。
<電子黒板のハードウェア構成>
続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図である。
図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2用のプログラム等の各種データを記憶するSSD104、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。
また、電子黒板2は、ノートPC6のディスプレイに対して映像情報を静止画又は動画として表示させるキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPUからの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。
更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行に複数の赤外線を放射し、この赤外線がディスプレイ3の周囲に設けられた反射部材によって反射されて、放射した光の光路と同一の光路上を戻って来る赤外線を受光素子が受光する方法である。接触センサ115は、物体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、物体の接触位置である座標位置を特定する。なお、以下に示す全ての各IDは、識別情報の一例である。物体の一例は指や電子ペン4であるが、光を遮断する物であればよい。また、不透明な物に限られずガラスやプラスチックなど透明から半透明の材料で作成されていてもよい。
また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2の抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。
また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判定する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判定するようにしてもよい。
更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、センサコントローラ114、及び電子ペンコントローラ116を、図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。
なお、電子黒板2用のプログラムは、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
<電子黒板の機能構成>
続いて、図3〜図6を用いて、電子黒板の機能構成について説明する。なお、先ずは、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図である。
電子黒板2は、図2に示されているハードウェア構成及びプログラムによって、図3に示されている各機能構成を有する。電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、電子黒板2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。クライアント部20及びサーバ部90は、電子黒板2の1台の筐体内で実現される機能である。そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント部20とサーバ部90が実現される。また、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図1において、電子黒板2aが主催装置で、電子黒板2bが参加装置となる場合、電子黒板2aのクライアント部20は、同じ電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2bのクライアント部20と通信を行う。一方、電子黒板2bのクライアント部20は、他の電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2aのクライアント部と通信を行う。
〔クライアント部20の機能構成〕
続いて、主に図3から図5を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
このうち、映像取得部21は、ケーブル10に接続された映像出力機器の出力画像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。
座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上にユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。
自動調整部23は、電子黒板2の起動時に起動され、座標検知部22が適切な値を出力できるように、光センサ方式により座標を検知する座標検知部22がセンサーカメラの画像を処理する際のパラメータを調整する。
接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。
イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ここで、「ストローク描画」は、ディスプレイ3上に図6に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を消去したり、描画された画像を編集したりするイベントも含まれる。
「UI操作」は、ディスプレイ3上に図6に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。
「ジェスチャ操作」は、ディスプレイ3上に図6に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。
操作処理部26は、イベント振分部25によってUI操作と判定されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判定されたものに対応した操作を実行する。
映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として表示部29に対して表示する。表示部29はディスプレイ3により実現される表示機能を示す。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャーインピクチャーする。更に、映像重畳部28は、ピクチャーインピクチャーされて表示部29の一部に表示された映像を、表示部29の全体に表示させるための切り替えを行う。
画像処理部30は、図6に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。
このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図6に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。
ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を消去したり、描画された画像を編集する。このストローク描画による画像は、図6に示されているストローク画像(B)に相当する。また、このストローク描画に基づいた画像の描画、消去、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。
UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図6に示されているUI画像(A)に相当する。
背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図6に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。
レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、及びUI画像生成部33(背景生成部34)から出力された各画像のレイアウトを行う。
ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、図6に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図6に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを消去したり複製したりすることもできる。
即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。
表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、図6に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。
また、表示重畳部36は、図6に示されている画像(C)と画像(D)を切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合に、また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。
ページデータ記憶部300は、表1に示されているようなページデータを記憶する。
Figure 0006493546


表1は、ページデータを概念的に示す。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、表1〜表4に分けて、ページデータの内容を説明する。
ページデータは、表1に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開始時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図6に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の図6に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。
このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。
Figure 0006493546


また、ストローク配列データは、表2に示されているように詳細な情報を示している。表2は、ストローク配列データを概念的に示す。表2に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。
Figure 0006493546


更に、この座標配列データは、表3に示されているように詳細な情報を示している。表3は、座標配列データを概念的に示す。表3に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開始時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。即ち、表3に示されている1点の集まりが、表2に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。
また、表1に示されているページデータのうちのメディアデータは、表4に示されているように詳細な情報を示している。
Figure 0006493546


表4は、メディアデータを概念的に示す。表4に示されているように、メディアデータは、表1に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。
また、図3に戻って説明する。遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。この遠隔ライセンス管理テーブル310では、表5に示されているように、電子黒板2のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。
Figure 0006493546


(ファイル処理部40の機能構成)
続いて、図4を用いて、図3に示されているファイル処理部40の機能構成を説明する。なお、図4は、ファイル処理部の機能ブロック図である。ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び接続先管理テーブル440を有している。
このうち、リカバリ処理部41は、電子黒板2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSB5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。
ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。
ファイル出力部42bは、ファイル変換部43によって出力されたPDFファイルをUSBメモリ5に記録する。
ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。アドレス帳管理テーブル410には、表6に示されているように、宛先の名前及び宛先の電子メールのメールアドレスが関連付けて管理されている。
Figure 0006493546


また、ファイル送信部44が、ユーザによるタッチパネル等の入力装置の操作により、宛先としてのメールアドレスの入力を受け付けることもできる。
アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。
バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。バックアップデータは、表7に示されているように、PDF形式で記憶される。
Figure 0006493546


バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。
設定管理部48は、電子黒板2の各種設定情報を設定ファイル記憶部430に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。
設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。
設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板の各種設定に反映させる。
アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。接続先管理テーブル440の一例を表8に示す。
Figure 0006493546


接続先管理テーブル440は、電子黒板2が遠隔共有処理に参加しようとする参加装置である場合、この参加装置のユーザが主催装置としての役割を果たす電子黒板のIPアドレスを入力する手間を削減するために、予め管理しておくためのテーブルである。この接続先管理テーブル440では、参加されることが可能な主催装置としての電子黒板2が設置されている拠点の名称、及び主催装置としての電子黒板2のIPアドレスが関連付けて管理されている。
なお、接続先管理テーブル440は、無くてもよい。但し、この場合には、参加装置のユーザは、主催装置との間で遠隔要求処理の開始するために、タッチパネル等の入力装置によって、主催装置のIPアドレスを入力する必要がある。そのため、参加装置のユーザは、電話や電子メール等によって、主催装置のユーザから、主催装置のIPアドレスを知得する。
(通信制御部60の機能構成)
次に、図5を用いて、通信制御部60の機能構成について説明する。図5は、サーバ部90とクライアント部20の機能ブロック図の一例である。通信制御部60は、通信ネットワーク9を介して、他の電子黒板2と行う通信や、サーバ部90における後述の通信制御部70と行う通信を制御する。そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66、及び参加拠点管理テーブル610を有している。
このうち、遠隔開始処理部61は、同じ電子黒板2のサーバ部90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ部90から要求の結果を受信する。この場合、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照し、ライセンス情報(プロダクトID、ライセンスID、及び有効期限)が管理されている場合には、遠隔共有処理を開始する要求を行うことができる。但し、ライセンス情報が管理されていない場合には遠隔共有処理を開始する要求を行うことができない。
参加拠点管理テーブル610は、電子黒板が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板を管理するテーブルである。参加拠点管理テーブル610の一例を表9に示す。
Figure 0006493546


この参加拠点管理テーブル610では、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスが関連付けて管理されている。
遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置としての電子黒板2のサーバ部90における遠隔接続要求受信部71に対して、遠隔共有処理への参加要求を行う。この場合も、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62が、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して、参加先の電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブルが参照されず、ユーザによるタッチパネル等の入力装置の操作により参加先の電子黒板2のIPアドレスが入力されてもよい。
遠隔画像送信部63は、映像取得部21から画像取得部31を介して送られて来た出力画像(C)を、サーバ部90に送信する。
遠隔画像受信部64は、サーバ部90から、他の電子黒板2に接続された映像出力機器からの画像データを受信し、表示重畳部36に出力することで、遠隔共有処理を可能にする。
遠隔操作送信部65は、遠隔共有処理に必要な各種操作データをサーバ部90に送信する。この各種操作データとしては、例えば、ストロークの追加、ストロークの消去、ストロークの編集(拡大、縮小、移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの消去、表示されているページの切り替え等に関するデータが挙げられる。また、遠隔操作受信部66は、サーバ部90から、他の電子黒板2で入力された操作データを受信し、画像処理部30に出力することで、遠隔共有処理を行う。
〔サーバ部の機能構成〕
続いて、図5を用いて、サーバ部90の機能構成について説明する。サーバ部90は、各電子黒板2に設けられており、いずれの電子黒板2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
(通信制御部70の機能構成)
次に、図5を用いて、通信制御部70の機能構成について説明する。
通信制御部70は、同じ電子黒板2内のクライアント部20における通信制御部70、及び通信ネットワーク9を介して他の電子黒板2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
更に詳細に説明すると、通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75、及び遠隔操作送信部76を有している。
このうち、遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信したりする。遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信したりする。
遠隔画像受信部73は、遠隔画像送信部63からの画像データ(出力画像(C)のデータ)を受信し、後述の遠隔画像処理部82に送信する。遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対して、この画像データを送信する。
遠隔操作受信部75は、遠隔操作送信部65からの操作データ(ストローク画像(B)等のデータ)を受信し、後述の遠隔操作処理部83に送信する。遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対して、この操作データを送信する。
(データ管理部の機能構成)
次に、図5を用いて、データ管理部80の機能構成について説明する。データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84、及びページ処理部85を有している。更に、サーバ部90は、パスコード管理部810、参加拠点管理テーブル820、画像データ記憶部830、操作データ記憶部840、及びページデータ記憶部850を有している。
このうち、遠隔接続処理部81は、遠隔共有処理の開始、及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信したライセンス情報、又は、遠隔参加処理部62から遠隔共有処理の参加要求と共に受信したライセンス情報に基づいて、ライセンスの有無やライセンスの期間内であるかを確認する。更に、遠隔接続処理部81は、クライアント部としての他の電子黒板2からの参加要求が予め定められた参加可能数を超えていないかを確認する。
更に、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求があった際に送られて来たパスコードが、パスコード管理部810で管理されているパスコードと同じであるか否かを判定し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に、遠隔接続処理部81によって発行され、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、主催装置としての電子黒板2のユーザから、電話や電子メール等により伝えられる。これにより、遠隔共有処理に参加しようとする参加装置のユーザが、タッチパネル等の入力装置によって参加装置にパスコードを入力して参加要求することで、参加が許可されることになる。なお、セキュリティーよりもユーザの使い勝手を優先して、ライセンス状況の確認だけで、パスコードの確認を省略してもよい。
また、電子黒板2が主催装置の場合、遠隔接続処理部81は、参加装置の遠隔参加処理部62から通信ネットワーク9を介して送られて来た参加要求に含まれる参加拠点情報を、サーバ部90の参加拠点管理テーブル820に記憶する。そして、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、遠隔接続結果送信部72に送信する。遠隔接続結果送信部72は、同じ主催装置のクライアント部20における遠隔開始処理部61に遠隔拠点情報を送信する。遠隔開始処理部61は、参加拠点管理テーブルに610に、遠隔拠点情報を記憶する。これにより、主催装置では、クライアント部20及びサーバ部90の両方で、遠隔拠点情報を管理することになる。
遠隔画像処理部82は、遠隔共有処理中の各電子黒板2のクライアント部(主催装置である自己の電子黒板のクライアント部を含む)に接続された映像出力機器(ノートPC6等)からの画像データ(出力画像(C))を受信して画像データ記憶部830に記憶すると共に、主催装置である自己の電子黒板2のサーバ部90に届いた時間順で遠隔共有処理すべき画像データの表示順を判定する。また、遠隔画像処理部82は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の全ての電子黒板2のクライアント部20(主催装置である自己の電子黒板のクライアント部を含む)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。
遠隔操作処理部83は、遠隔共有処理中の各電子黒板2のクライアント部(主催装置である自己の電子黒板のクライアント部を含む)で描画されたストローク画像等の各種操作データ(ストローク画像(B)等)を受信し、主催装置である自己の電子黒板2のサーバ部90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上記の各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理中の全ての電子黒板2のクライアント部20(主催装置である自己の電子黒板のクライアント部を含む)に操作データを送信する。
操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶すると共に遠隔操作処理部83に戻す。この操作データは、遠隔操作送信部76から、主催装置である電子黒板のクライアント部、及び参加装置である電子黒板のクライアント部のそれぞれに送信されることで、各電子黒板2で同じ操作データに係る画像が表示される。操作データの一例を表10に示す。
Figure 0006493546


操作データは、表10に示されているように、SEQ(Sequence)、操作データの操作名、操作データの送信元である電子黒板2のIPアドレス及びクライアント部(サーバ部)のPort No.、操作データの送信先である電子黒板2のIPアドレス及びクライアント部(サーバ部)のPort No,、操作データの操作種類、操作データの操作対象、並びに操作データの内容を示すデータが関連付けられて示されている。例えば、SEQ1では、主催装置である電子黒板(IPアドレス:192.0.0.1)のクライアント部(Port No.:50001)でストロークが描画されると、同じ主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ部(Port No.:50000)に操作データが送られたことが示されている。この場合の操作種類は「STROKE」、操作対象はページデータID「p005」、及び、操作データの内容を示すデータはストロークを示すデータである。また、SEQ2では、主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ部(Port No.:50000)から、参加装置である他の電子黒板(IPアドレス:192.0.0.1)のクライアント部(Port No.:50001)に、操作データが送られたことが示されている。
なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行うため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理中の全ての電子黒板2のディスプレイ3にストローク画像(B)が表示される。
ページ処理部85は、クライアント部20の画像処理部30におけるページ処理部37と同様の機能を有し、サーバ部90でも、表1から表3に示されているページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。
<実施形態の処理又は動作>
続いて、図7及び図8を用いて、本実施形態の処理又は動作について説明する。なお、図7及び図8は、各電子黒板の処理を示したシーケンス図である。図7及び図8に示す実施形態では、電子黒板2aが遠隔共有処理を主催する主催装置(サーバ部及びクライアント部)としての役割を果たしており、電子黒板2b,2cが遠隔共有処理に参加する参加装置(クライアント部)としての役割を果たす場合について説明する。また、ここでは、電子黒板2a,2b,2cには、それぞれディスプレイ3a,3b,3cが接続され、更に、それぞれノートPC6a,6b,6cが接続されている。また、電子黒板2a,2b,2cでは、それぞれ電子ペン4a,4b,4cが使用される。
(参加の処理)
まずは、図7を用いて、電子黒板2b,2cが遠隔共有処理に参加するための処理について説明する。
ユーザが電子黒板2aの電源スイッチをオンにすると、電子黒板2aのクライアント部20が起動する。そして、ユーザがタッチパネル等の入力装置によってサーバ部90を起動させる操作をすると、クライアント部20の遠隔開始処理部61から同じ電子黒板2aのサーバ部90における遠隔接続要求受信部71に、サーバ部90の処理を開始させる指示を出力する。これにより、電子黒板2aでは、クライアント部20だけでなくサーバ部90も各種処理を開始可能となる(ステップS21)。
次に、電子黒板2aのクライアント部20におけるUI画像生成部33が電子黒板2aとの接続を確立するための接続情報を生成し、映像重畳部28が、UI画像生成部33から表示重畳部36を介して得た接続情報をディスプレイ3aに表示させる(ステップS22)。
この接続情報には、主催装置のIPアドレス、及び今回の遠隔共有処理のために生成されたパスコードが含まれている。この場合、パスコード管理部810に記憶されているパスコードは、図5に示されている遠隔接続処理部81によって読み出され、遠隔接続結果送信部72、遠隔開始処理部61の順に送信される。更に、パスコードは、遠隔開始処理部61を含む通信制御部60から、図3に示されている画像処理部30に送信され、最終的にUI画像生成部33に入力される。これにより、接続情報には、パスコードが含まれる。そして、接続情報は、電子黒板2aのユーザによって、電話や電子メールにより、電子黒板2b,2cのユーザに伝えられる。なお、接続先管理テーブル440があれば、接続情報には、主催装置のIPアドレスが含まれていなくても、参加装置は参加要求を行うことができる。
次に、電子黒板2b,2cでは、各ユーザによるタッチパネル等の入力装置の操作によって接続情報の入力を受け付けると、各電子黒板2a,2bのクライアント部20における遠隔参加処理部62が、接続情報のIPアドレスに基づき、通信ネットワーク9を介して、電子黒板2aのサーバ部90における通信制御部70に対してパスコードを送信して参加要求を行う(ステップS23,S24)。これにより、通信制御部70の遠隔接続要求受信部71は、各電子黒板2b,2cから、参加要求(パスコードを含む)を受信し、このパスコードを遠隔接続処理部81に出力する。
次に、遠隔接続処理部81は、各電子黒板2b,2cのから受信したパスコードに対し、パスコード管理部810で管理されているパスコードを用いて認証する(ステップS25)。
そして、遠隔接続結果送信部72が、各電子黒板2b,2cのクライアント部20に認証結果を通知する(ステップS26,S27)。
ステップS25の認証により、各電子黒板2b,2cが正当な電子黒板であると判定されていた場合には、主催装置である電子黒板2aと、参加装置である電子黒板2b,2cとの遠隔共有処理の通信が確立され、各電子黒板2b,2cのクライアント部20における遠隔参加処理部62が、それぞれ他の電子黒板との間の遠隔共有処理の開始を可能にする(ステップS28,S29)。
(出力画像の表示)
続いて、図7を用いて、遠隔共有処理における出力画像(C)が表示される処理について説明する。
まず、電子黒板2bは、ディスプレイ3bに出力画像(C)を表示する(ステップS30)。具体的には、電子黒板2bの画像取得部31が、ノートPC6bから映像取得部21を介して、ノートPC6bで表示されている出力画像(C)のデータを受信し、表示重畳部36及び映像重畳部28を介してディスプレイ3bに送信することで、ディスプレイ3bは出力画像(C)を表示する。
次に、電子黒板2bの画像取得部31を含む画像処理部30が、遠隔画像送信部63に出力画像(C)のデータを送信することで、遠隔画像送信部63を含む通信制御部60が通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70に出力画像(C)のデータを送信する(ステップS31)。これにより、電子黒板2aの遠隔画像受信部73は、出力画像(C)のデータを受信し、遠隔画像処理部82に出力することで、遠隔画像処理部82が画像データ記憶部830に出力画像(C)のデータを記憶する。
次に、主催装置である電子黒板2aは、ディスプレイ3aに出力画像(C)を表示する(ステップS32)。具体的には、電子黒板2aの遠隔画像処理部82は、遠隔画像受信部73から受信した出力画像(C)のデータを、遠隔画像送信部74に出力する。遠隔画像送信部74は、同じ主催装置である電子黒板2aのクライアント部20における遠隔画像受信部64に、出力画像(C)のデータを出力する。遠隔画像受信部64は、表示重畳部36に出力画像(C)のデータを出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3aに出力画像(C)のデータを出力する。これにより、ディスプレイ3aは、出力画像(C)を表示する。
次に、主催装置としての電子黒板2aのサーバ部90における遠隔画像送信部74を含む通信制御部70は、通信ネットワーク9を介して、出力画像(C)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に出力画像(C)のデータを送信する(ステップS33)。これにより、参加装置である電子黒板2cの遠隔画像受信部64は、出力画像(C)のデータを受信する。
次に、電子黒板2cは、ディスプレイ3cに出力画像(C)を表示する(ステップS34)。具体的には、電子黒板2cの遠隔画像受信部64が、上記ステップS33によって受信された出力画像(C)のデータを、電子黒板2cの表示重畳部36に出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3cに出力画像(C)のデータを出力する。これにより、ディスプレイ3cは、出力画像(C)を表示する。
なお、出力画像(C)のデータだけでなく、UI画像(A)、及びストローク画像(B)の各データが、映像重畳部28に入力されている場合には、表示重畳部36により、重畳画像(A,B,C)が生成され、映像重畳部28はディスプレイ3cに重畳画像(A,B,C)のデータを出力する。また、テレビ会議端末7から映像重畳部28に、テレビ会議用の映像(E)のデータが送られて来ている場合には、映像重畳部28は、重畳画像(A,B,C)にピクチャーインピクチャーによりテレビ会議用の映像(E)のデータを重畳して、ディスプレイ3cに出力する。
(重畳画像の表示)
続いて、図8を用いて、遠隔共有処理における重畳画像が表示される処理について説明する。
まず、電子黒板2bは、ユーザが電子ペン4bを用いて電子黒板2bにストローク画像(B)を描画する(ステップS41)。
次に、電子黒板2bの表示重畳部36は、図6に示されているように、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳し、映像重畳部28が電子黒板2bのディスプレイ3b上に、重畳された重畳画像(A,B,C)を表示させる(ステップS42)。具体的には、電子黒板2bのストローク処理部32が座標検知部22及び接触検知部24からイベント振分部25を介して、操作データとしてのストローク画像(B)のデータを受信し、表示重畳部36に送信する。これにより、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳することができ、映像重畳部28が電子黒板2bのディスプレイ3b上に重畳画像(A,B,C)を表示させることができる。
次に、電子黒板2bのストローク処理部32を含む画像処理部30が、遠隔操作送信部65にストローク画像(B)のデータを送信することで、電子黒板2bの遠隔操作送信部65は、通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70にストローク画像(B)のデータを送信する(ステップS43)。
これにより、電子黒板2aの遠隔操作受信部75は、ストローク画像(B)のデータを受信し、遠隔操作処理部83に出力することで、遠隔操作処理部83が操作合成処理部84にストローク画像(B)のデータを出力する。このようにして、電子黒板2bで描画されたストローク画像(B)のデータは、描画される度に、主催装置である電子黒板2aの遠隔操作処理部83に順次送信される。このストローク画像(B)のデータは、図7に示されているストロークデータID毎に示されるデータである。よって、例えば、上記したように、ユーザが電子ペン4によってアルファベット「T」を描く場合は二筆書きとなるため、2つのストロークデータIDのそれぞれで示されるストローク画像(B)のデータが順次送信される。
次に、主催装置である電子黒板2aは、ディスプレイ3aに、電子黒板2bから送られて来たストローク画像(B)のデータが含まれた重畳画像(A,B,C)を表示する(ステップS44)。具体的には、電子黒板2aの操作合成処理部84は、遠隔操作処理部83を介して順次送られて来た複数のストローク画像(B)のデータを合成して、操作データ記憶部840に記憶すると共に遠隔操作処理部83に戻す。これにより、遠隔操作処理部83は、操作合成処理部84から受信した、合成後のストローク画像(B)のデータを、遠隔操作送信部76に出力する。遠隔操作送信部76は、同じ主催装置である電子黒板2aのクライアント部20における遠隔操作受信部66に、合成後のストローク画像(B)のデータを出力する。遠隔操作受信部66は、画像処理部30における表示重畳部36に、合成後のストローク画像(B)のデータを出力する。よって、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、合成後のストローク画像(B)を重畳する。最後に、映像重畳部28が、表示重畳部36によって重畳された重畳画像(A,B,C)をディスプレイ3a上に表示させる。
次に、主催装置としての電子黒板2aのサーバ部90における遠隔操作送信部76を含む通信制御部70は、通信ネットワーク9を介して、ストローク画像(B)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に、合成後のストローク画像(B)のデータを送信する(ステップS45)。これにより、参加装置である電子黒板2cの遠隔操作受信部66は、合成後のストローク画像(B)のデータを受信する。
次に、電子黒板2cは、ディスプレイ3cに重畳画像(A,B,C)を表示する(ステップS46)。具体的には、電子黒板2cの遠隔操作受信部66が、上記ステップS45によって受信された合成後のストローク画像(B)のデータを、電子黒板2cの画像処理部30に出力する。画像処理部30の表示重畳部36は、UI画像(A)、及び出力画像(C)の各データと、合成後のストローク画像(B)のデータを重畳し、映像重畳部28に重畳画像(A,B,C)のデータを出力する。映像重畳部28は、ディスプレイ3cに重畳画像(A,B,C)のデータを出力する。これにより、ディスプレイ3cは、重畳画像(A,B,C)を表示する。
なお、上記処理では、ディスプレイ3上に出力画像(C)が表示されているが、この出力画像(C)に代えて、背景画像(D)を表示してもよい。また、出力画像(C)と背景画像(D)との排他的な関係をやめて、出力画像(C)と背景画像(D)との両方を同時にディスプレイ3上に表示させてもよい。
(参加の終了)
続いて、図8を用いて、参加装置が遠隔共有処理への参加を終了する処理について説明する。図8に示す実施形態では、電子黒板2cが参加を終了する処理が示されている。
まず、電子黒板2cでは、ユーザによるタッチパネル等の入力装置の操作によって参加の終了要求を受け付けると、遠隔参加処理部62は、主催装置としての電子黒板2aのサーバ部90における通信制御部70に、参加の終了要求を行う(ステップS47)。これにより、通信制御部70の遠隔接続要求受信部71は、電子黒板2cから、参加の終了要求を受信し、遠隔接続処理部81に、電子黒板2cのIPアドレスと共に参加の終了要求を出力する。そして、電子黒板2aの遠隔接続処理部81は、遠隔接続要求受信部71から送られて来たIPアドレスに基づいて、参加拠点管理テーブル820から、参加の終了要求を行った電子黒板2cのIPアドレス及び電子黒板2cが設置されている拠点の名称を消去し、遠隔接続結果送信部72に、電子黒板2cのIPアドレス及び消去した旨の通知を出力する。
次に、遠隔接続結果送信部72を含んだ通信制御部70が、通信ネットワーク9を介して、電子黒板2cのクライアント部20における通信制御部60に、参加の終了を指示する(ステップS48)。これにより、電子黒板2cにおける通信制御部60の遠隔参加処理部62が、遠隔共有処理の通信を切断することで、参加の終了処理を行うことで、参加が終了する(ステップS49)。
<イベントについて>
図9は、イベント振分部が振り分けるイベントを説明する図の一例である。上記のように、イベント振分部25は、座標検知部22及び接触検知部24によって検出されたイベントを、ストローク描画、UI操作、及びジェスチャ操作に振り分ける。以下、ストローク描画が行われる電子黒板2の動作モードを「手書きモード」、ジェスチャ操作が行われる動作モードを「ジェスチャモード」という。
イベント振分部25はイベント判定部251、モード判定部252、タイムアウトフラグ253、ジェスチャ中フラグ254、及び、タイマー255を有している。イベント判定部251は、座標検知部22が検知する座標を利用して以下のようなイベントを検知する。
・タッチダウンイベント…座標検知部22は座標を検出してイベント振分部25に出力するが、手H又は電子ペン4がペンダウン(接触センサ115に検知されること)してからペンアップ(接触センサ115に検知されなくなること)するまでの間に、イベント判定部251は1つの識別番号(以下、IDという)を手H又は電子ペン4に付与する。手H又は電子ペン4によるこのペンダウンがタッチダウンイベントである。以下では、手H又は電子ペン4を座標入力部と称する。別の座標入力部には異なるIDが付与される。
・タッチムーブイベント…タッチダウンイベントとして検知された座標が移動したことを検出した場合に、イベント判定部251はタッチムーブイベントであると判定する。座標が移動するとは、時刻tnに検出された座標と時刻tn+1に検出された座標が所定範囲内(時刻tnから時刻tn+1の間に手H又は電子ペン4が移動しうる距離)にあることをいう。
・タッチアップイベント…タッチダウンイベント又はタッチムーブイベントであると判定された座標(座標入力部)が検出されなくなった場合、イベント判定部251はタッチアップイベントを検知する。
イベント判定部251はイベントの判定結果と座標をモード判定部252に送出する。モード判定部252は、各イベントに応じた後述する処理により、ユーザが手書きしているのか(手書きモードであるか)、ジェスチャにより操作しているのか(ジェスチャモードか)を判定する。手書きモードであると判定した場合、座標をストローク処理部32に出力し、ジェスチャモードであると判定した場合、座標をジェスチャ処理部27に出力する。
なお、本実施例では、説明の便宜上、手書きモードとは1つの座標が検出されている場合にイベント振分部25が受け付ける動作モードであるとして説明する。また、手書きモードはストローク画像が描画されるモードである。ジェスチャモードとは、2つ以上の座標が同時に検出されている場合にイベント振分部25が受け付ける動作モードである。また、ジェスチャモードはストローク画像(B)、出力画像(C)又は背景画像(D)をユーザが操作するモードである。例えば、ジェスチャモードにより、2本以上の指でピンチイン(縮小)する操作や、ピンチアウト(拡大)する操作などが可能になる。3本以上の指によるジェスチャも可能である。このように、本実施例の電子黒板2は2つの座標入力部による手書きを同時に受け付けないが、ジェスチャモードでないと判定された後ならば、2つの座標入力部で同時に手書きすることは可能である。
タイマー255は一定時間を測定するための時間測定手段である。タイマー255が一定時間を測定するまでに2つめの座標が検出されるとジェスチャモードであると判定される。タイマー255はソフト的に時間を測定しても、時間を測定するICなどでハード的に時間を測定してもよい。この一定時間は、ユーザがジェスチャ操作のために2本の指をディスプレイ3に触れさせる際、1本目の指が触れてから2本目の指が触れるまでの一般的な時間である。例えば、数十ミリ秒から数百ミリ秒の一定時間がタイマー255に設定されている。しかしながら、タイマー255に設定される時間は一定でなくてもよく、ユーザがジェスチャ操作した場合に1本目の指が触れてから2本目の指が触れるまでの時間をイベント判定部251が学習して、タイマー255に設定してもよい。また、ユーザが所望の一定時間を設定してもよい。
タイムアウトフラグ253には、タイマー255がタイムアウトした場合にTrueが設定される。ジェスチャ中フラグ254にはジェスチャ中であると判定されるとTrueが設定される。タイムアウトフラグ253及びジェスチャ中フラグ254の初期値はいずれもFalseである。初期値は、電子黒板2の起動時に設定される。
<イベントの検出例>
図10は、イベント振分部25が時系列に検出するイベントの一例を示すフローチャート図である。図10では、ジェスチャモードのためにユーザが2本の指をディスプレイ3に接触させ、2つの座標入力部が検出される場合を示している。
S1:イベント判定部251がタッチダウンイベントを検出する。タッチダウンイベントを生じさせた座標入力部を識別するためにイベント判定部251は、この座標入力部にID=1を付与する。座標入力部が入力する一連の座標がID=1で識別される。
S2:次に、イベント判定部251がタッチムーブイベントを検出する。つまり、座標入力部が移動した。タッチムーブイベントにより生じた座標は、ストローク描画又はジェスチャ操作に使用される。
S3:引き続きイベント判定部251がID=1のタッチムーブイベントを検出する。
S4:次に、イベント判定部251はステップS1とは別のタッチダウンイベントを検出し、この座標入力部にID=2を付与する。
S5:引き続きイベント判定部251がID=1のタッチムーブイベントを検出する。
S6:イベント判定部251はID=2のタッチムーブイベントを検出する。なお、ステップS5とステップS6においてもっと数多くのタッチムーブイベントが検出されているが、図10では省略されている。本実施形態では手書きモードが可能なのは1つの座標入力部だけなので、ID=2のタッチムーブイベントにより生じた座標はジェスチャ操作に使用される(あるいは無視される)。
S7:イベント判定部251がID=1のタッチアップイベントを検出する。すなわち、座標検知部22が最後に検知したID=1の座標から所定距離内に座標が検出されなくなる。
S8:イベント判定部251がID=2のタッチアップイベントを検出する。すなわち、座標検知部22が最後に検知したID=2の座標から所定距離内に座標が検出されなくなる。
このように、イベント判定部251は座標入力部のIDごとにタッチダウンイベント、タッチムーブイベント及びタッチアップイベントを検出する。
本実施例では、タッチイベントが検出されてから一定時間処理待ちを行うことで、ジェスチャモードか手書きモードかを判別する電子黒板2について説明する。
<タッチダウンイベント>
図11Aは、タッチダウンイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。図11Aの処理はタッチダウンイベントが検出されるとスタートする。
モード判定部252は、タッチダウンイベントが検出された時に付与されたIDが1か否かを判定する(S10)。つまり、現在、ディスプレイ3に触れているのは1つの座標入力部だけかどうかを判定する。イベント判定部251が付与し監視しているIDが1つかどうかを判定してもよい。
ステップS10の判定がYesの場合、モード判定部252はタイマー255をスタートさせる(S20)。このタイマー255により一定時間が測定される。
ステップS10の判定がNoの場合、モード判定部252はタイマー255をストップさせる(S30)。つまり、2つめの座標入力部によりタッチダウンイベントが検出されたため、タイマー255がストップしてそれまでの測定時間が確定する。なお、3つめのタッチダウンイベントが検出された場合、タイマー255はすでにストップしている。
以上のように、検出されたタッチダウンイベントが1つめの座標入力部によるものである場合、モード判定部252はタイマー255をスタートさせることができる。
<タイムアウト時>
図12は、タイムアウト時にモード判定部252が行う処理を示すフローチャート図の一例である。図12の処理はタイマー255がタイムアウトするとスタートする。
タイマー255がタイムアウトすると、モード判定部252はタイマー255をストップする(S10)。タイマー255がタイムアウトするとは一定時間の測定が終了したことを意味する。
次に、モード判定部252はタイムアウトフラグ253にTrueを設定する(S20)。タイムアウトフラグ253がTrueであることは、タイマー255がタイムアウトしたことを意味する。
以上のように、タイマー255がタイムアウトすることで、モード判定部252はタイムアウトフラグ253にTrueを設定できる。
<タッチムーブイベント>
図13Aは、タッチムーブイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。図13Aの処理はタッチムーブイベントが検出されるとスタートする。
モード判定部252はID数が2以上か否かを判定する(S10)。ステップS10の判定がNoの場合、モード判定部252はタイムアウトしたか否かを判定する(S80)。つまり、タイムアウトフラグがTrueかどうかを判定する。座標入力部は1つだけなのでタイムアウトしたかどうかにより一定時間が経過したか否かを判定する。
そして、タイムアウトしていない場合(S80のNo)、図13Aの処理は終了し、モード判定部252は座標をストローク処理部32に出力しない。
タイムアウトした場合(S80のYes)、処理はステップS50に進む。
ステップS10の判定がYesの場合、モード判定部252はタイマー255がタイムアウトしたか否かを判定する(S20)。つまり、タイムアウトフラグがTrueかどうかを判定する。
ステップS20の判定がNoの場合、モード判定部252はジェスチャ中フラグ254にTrueを設定する(S30)。つまり、タッチダウンイベントでスタートしたタイマー255がタイムアウトする前に2つめの座標入力部が検出されたので、モード判定部252はジェスチャモードであると判定する。ユーザは、2つの指をわずかな時間差で(一定時間内に)ディスプレイ3に接触させたと考えられる。
また、モード判定部252はタイマー255をストップさせる(S40)。つまり、ジェスチャモードであると判定できたのでタイマー255による時間の測定が不要になる。
ステップS50で、モード判定部252はジェスチャ中フラグ254がTrueか否かを判定する(S50)。まず、ステップS20でYesと判定された場合(タイムアウトした場合)、ジェスチャ中フラグ254はFalseのままなので(一定時間内に2つめの座標入力部が検出されない場合はジェスチャ中フラグ254がFalseである)、ステップS50でNoと判定され、モード判定部252は手書きモードであると判定し1つめの座標入力部により入力される座標をストローク処理部32に出力する(S70)。2つめの座標入力部により入力された座標は記録されるがストローク描画には使用されない。当然ながら、ストローク描画に使用してもよい。
ステップS20でタイムアウトしていないと判定された場合、ジェスチャ中フラグ254はTrueであるので、ステップS50でYesと判定され、モード判定部252はジェスチャモードであると判定する(S60)。つまり、タッチダウンイベントから一定時間内に2つめの座標が検出された場合、モード判定部252はジェスチャモードであると判定できる。
ステップS80でYesと判定された場合、座標入力部は1つだけでタイムアウトしたが、ジェスチャ中フラグ254はFalseであるので、モード判定部252は手書きモードであると判定する(S70)。
したがって、図13Aのような処理によれば、タイムアウトした後にユーザが2つめの座標を入力してもジェスチャ操作を行えない。したがって、ユーザが1本の指で手書きしている場合に別の指や服の袖などがディスプレイに触れても、電子黒板2がジェスチャモードであると誤判定することを抑制できる。
また、電子黒板2は、一定時間が経過するまでは、手書きモードであると判定されないので、ユーザがジェスチャ操作しようとしたのに1本目の指が触れた時点で手書き線が描画されることを抑制できる。
<タッチアップイベント>
図14は、タッチアップイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。図14の処理はタッチアップイベントが検出されるとスタートする。
モード判定部252は、タッチアップイベントを検出することでタイマー255をストップする(S10)。時間を測定する必要がなくなるためである。タッチアップイベントの前にタイマー255がストップしていてもよい。
次に、モード判定部252は、ID数がゼロか否かを判定する(S20)。
ID数がゼロである場合(S20のYes)、すべての座標入力部がディスプレイ3から離れたことを意味するので、モード判定部252はジェスチャ中フラグ254及びタイムアウトフラグ253を初期化する(S30、S40)。
なお、ジェスチャ中にユーザが1つの指を離したが、再度、2本目の指を接触させた場合、すでにタイムアウトしているおりジェスチャ中フラグがTrueなのでジェスチャモードが継続される。
図14の処理によれば、タッチアップイベントが検出されることで、モード判定部252はジェスチャ中フラグ254及びタイムアウトフラグ253を初期化できる。
このように本実施例の電子黒板は、1つめのタッチダウンイベントが検出された場合に一定時間処理待ちを行い、一定時間内に2つめの座標が検出された場合にジェスチャと判定し、一定時間内に2つめの座標が検出されなかった場合には手書きだと判定する。これにより、モード判定部252はユーザが明示的な操作をしなくても手書きモードとジェスチャモードを判別できる。また、電子黒板2がジェスチャモードでないのにジェスチャモードであると誤判定したり、手書きモードでないのに手書きモードであると誤判定したりすることを抑制できる。
<変形例>
なお、手書きモードと判定された後に予め保持しておいた座標でストローク描画してもよい。この場合、図11Bに示すように、ステップS20の後、座標をRAM103に記憶しておく(S22)。そして、図13Bに示すように、タッチムーブイベント中も座標をRAM103に記憶しておく(S82)。図13BのステップS50でジェスチャモードでないと判定されると、RAM103の座標をストローク処理部32がディスプレイ3に表示する(S52)。この場合、一定時間が経過するまではストロークが表示されないが、一定時間が経過するとユーザが手書きした内容を電子黒板2が遡って表示できる。
実施例1では、タイマー255がタイムアウトするまでストローク描画が行われないので、ユーザから見ると手書きの開始が遅れると感じるおそれがある。そこで、本実施例では、タッチダウンイベントの検出時にタイマー255がタイムアウトしていなくても、先行してストローク描画を行う電子黒板2について説明する。ストローク描画が先行して実行されるので、ユーザがディスプレイ3に触れた直後から電子黒板2がストローク描画を行うことができる。
なお、本実施例において、タイムアウト時の処理とタッチアップイベントが検出された場合の処理は実施例1と同様である。
<タッチダウンイベント>
図15は、タッチダウンイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。なお、図15では図11Aとの違いを主に説明する。
ステップS20でタイマー255をスタートさせると、モード判定部252は座標をストローク処理部32に出力し、ストローク処理部32にストローク描画を開始させる(S40)。すなわち、手書きモードであると仮判定する。一定時間が経過する前からストローク描画を開始するので、ユーザがディスプレイ3に触れた直後から電子黒板2がストローク描画を行うことができる。
<タッチムーブイベント>
図16は、タッチムーブイベントが検出された場合にストローク処理部32が行う処理を示すフローチャート図の一例である。なお、図16では図13Aとの違いを主に説明する。図16ではステップS80の処理が不要になり、ステップS90が追加される。
図15にて説明したように、タッチダウンイベントが検出された場合、ストローク処理部32はタイムアウト前からにストローク描画を行っている。このため、タイムアウト前に2つめの座標入力部が検出された場合にはすでに描画されたストロークを消去する必要がある。
そこで、ステップS20の判定がNoの場合、モード判定部252はストロークを消去すると判定する(S90)。具体的には、モード判定部252は、ページデータ記憶部300に記憶されておりID=1に対応づけられている座標をストローク処理部32に消去させ、ディスプレイ3からも消去させる。すなわち、電子黒板2は、ジェスチャモードであると判定されると、一度描画されたストローク描画を消去できる。
一方、タイムアウト後に2つめの座標が検出された場合(S20のYes)、ストロークが消去されないので、ユーザが意図的に手書きしたストロークが消えることはない。
したがって、本実施例の電子黒板2によれば、実施例1の効果に加え、ストローク描画を先行して実行するので、ユーザがディスプレイ3に触れた直後からストローク描画を行うことができる。また、電子黒板2は、ジェスチャモードであると判定されると、ストローク描画を消去できる。
ジェスチャモード、手書きモードに加え、別のモードを電子黒板2が有する場合がある。この別のモードはユーザが明示的に選択するモードであるが、別のモードが選択された状態でもユーザはジェスチャにより操作することができる。このため、ユーザが別のモードを選択した状態で、電子黒板2は別のモードに基づく処理を行うのか、ジェスチャモードであるのかを判定する必要がある。
まず、図17A、図17B、図17Cを用いて別のモードについて説明する。図17A、図17B、図17Cはディスプレイ3に表示されたメニューを模式的に説明する図の一例である。図17Aにはワンタッチ入力ボタン501と消しゴムボタン502が表示されている。実際にはより多くのボタンが表示されてよいが、図17A、図17B、図17Cでは省略されている。なお、ワンタッチ入力ボタン501又は消しゴムボタン502が押下されたことをイベント振分部25が座標に基づき検出し、操作処理部26が別のモードであることをストローク処理部32に通知する。これにより、ワンタッチ入力ボタン501又は消しゴムボタン502に応じた機能が作動する。
図17Bはユーザが座標入力部でワンタッチ入力ボタン501を押下した場合の電子黒板2の動作を説明している。ユーザがワンタッチ入力ボタン501を押下すると、複数のデザイン文字が表示される。ユーザは任意のデザイン文字を選択して座標入力部で表示させる位置を指定する。ストローク処理部32はワンタッチ入力ボタン501が押下されたことを通知されているのでユーザが指定した座標にデザイン文字を表示させる。図17Bでは「済」という文字が丸で囲まれたデザイン文字503が表示されている。なお、デザイン文字503には「秘」という文字、三角形や星形、数字、アルファベットなど各種の記号を元にデザインされた多くの種類がある。
図17Cはユーザが座標入力部で消しゴムボタン502を押下した場合の電子黒板2の動作を説明している。ユーザが消しゴムボタン502を押下すると、ユーザはすでに描画したストローク504を消去できる。図17Cのストローク504が描画された状態で、ユーザが消しゴムボタン502を押下したものとする。ユーザは座標入力部ですでに描画したストローク504をなぞる。ストローク処理部32は消しゴムボタン502が押下されていることを通知されているので、座標に基づいてストローク504を消去する。すなわち、座標検知部22が検知した座標と近い座標を有するストローク504をページデータ記憶部300からストローク処理部32が検索し、ページデータ記憶部300から消去する。また、ディスプレイ3から消去した座標に基づくストローク504を消去する。なお、消しゴムボタン502にはユーザが座標入力部でストローク504上又は付近の1点に触れることでストローク504の全体を消去する機能がある。
上記のようにワンタッチ入力ボタン501又は消しゴムボタン502が押下された後でも、ユーザがジェスチャ操作するのか、又は、ワンタッチ入力するのか若しくは消しゴム操作をするのかを電子黒板2は判定しなければならない。ワンタッチ入力ボタン501が押下された状態で、実施例2の手書きモードのようにタッチダウンイベントの直後にデザイン文字503を電子黒板2が表示し、その後、ジェスチャモードであると判定されるとデザイン文字を消去する場合を考える。この場合、ユーザから見るとデザイン文字503が一瞬だけ表示されるので違和感を感じるおそれがある。一方、デザイン文字503はタッチダウンから一定時間の経過後に表示されても、ストローク504と違って表示が遅いとユーザが感じるおそれが少ない。
また、消しゴムボタン502が押下された状態で、実施例2の手書きモードのようにタッチダウンイベントの直後に電子黒板2がストローク504を消去し、その後、ジェスチャモードであると判定された場合を考える。この場合、一度、ページデータ記憶部300から消去された座標を復活させることが困難になる。
以上のような理由から、ワンタッチ入力ボタン501又は消しゴムボタン502が押下された場合、ジェスチャモードでないことが確定した後に(タイムアウトした後に)、電子黒板2がデザイン文字503を表示したり、ストローク504を消去したりすることが好ましい。以下、このような処理を説明する。なお、以下では、ワンタッチ入力ボタン501又は消しゴムボタン502が押下された状態の動作モードを「スタンプモード」という。
<タッチダウンイベント>
図18は、タッチダウンイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。なお、図18では実施例2の図15との違いを主に説明する。
ステップS20でタイマー255をスタートさせると、モード判定部252はスタンプモードか否かを判定する(S35)。すなわち、ワンタッチ入力ボタン501又は消しゴムボタン502が押下されたか否かを判定する。
スタンプモードでない場合(S35のNo)、実施例2と同様にモード判定部252は座標をストローク処理部32に送出する(S40)。これにより、ストローク処理部32はストローク描画することができる。一定時間が経過する前からストローク描画を開始するので、ユーザがディスプレイ3に触れた直後から電子黒板2がストローク描画を行うことができる。
スタンプモードであった場合(S35のYes)、モード判定部252は座標をRAM103などに記憶しておく(S50)。座標を記憶しておくことで、一定時間の経過後に座標が示す位置にストローク処理部32がデザイン文字503を表示したり、ストローク504を消去したりすることができる。
<タイムアウト処理>
図19は、タイムアウト時にモード判定部252が行う処理を示すフローチャート図の一例である。図19では図12との違いを主に説明する。
ステップS20でモード判定部252がタイムアウトフラグ253にTrueを設定すると、スタンプモードか否かを判定する(S30)。
スタンプモードでない場合(S30のNo)、図19の処理は終了する。すなわち、座標はストロークとして描画されているのでタイムアウト時にはモード判定部252は何もしない。
スタンプモードである場合(S30のYes)、モード判定部252はRAM103に記憶されている座標をストローク処理部32に送出し、スタンプモードに応じた処理を要求する(S40)。したがって、ストローク処理部32はRAM103の最後に記憶されている座標にデザイン文字503を表示するか、又は、RAM103に記憶されている座標のストロークを消去する。すなわち、タイマー255がタイムアウトした直後に、スタンプモードに応じた処理が可能になる。
そして、RAM103に記憶されている座標は不要になるので、モード判定部252はRAM103に記憶されている座標を消去する(S50)。したがって、RAM103が圧迫されることを抑制できる。
こうすることで、タイムアウトした直後に、ストローク処理部32はRAM103に記憶されている座標に基づいてスタンプモードに応じた処理を行うことができる。
<タッチムーブイベント>
図20は、タッチムーブイベントが検出された場合にストローク処理部32が行う処理を示すフローチャート図の一例である。なお、図20では実施例2の図16との違いを主に説明する。
ステップS50でジェスチャモードでないと判定されると、モード判定部252はスタンプモードか否かを判定する(S55)。
スタンプモードでない場合(S55のNo)、すでにジェスチャモードでないと判定されているので、モード判定部252は手書きモードであると判定する(S70)。
スタンプモードである場合(S55のYes)、モード判定部252はタイムアウトしたか否かを判定する(S110)。タイムアウトするまではジェスチャモードかどうか確定しないためである。
ステップS110の判定がYesの場合、すでにタイムアウトしているので、ストローク処理部32は座標検知部22が検知した座標にデザイン文字503を表示するか、又は、座標検知部22が検知した座標のストロークを消去する(S120)。すなわち、図20はタッチムーブイベントの処理なので座標が変化していることになり、ストローク処理部32はすでに表示しているデザイン文字503の位置を座標に応じて変更する。あるいは、ストローク処理部32はストロークを座標に応じて消去する。したがって、タイムアウトの直後に行ったスタンプモードに応じた処理を電子黒板2が継続して行うことができる。
ステップS110の判定がNoの場合、タイムアウトしていないのでモード判定部252はRAM103に座標を記憶していく(S130)。したがって、電子黒板2はタイムアウトした場合に、RAM103に記憶されている座標に基づきスタンプモードに応じた処理を行うことができる。
このように、タッチムーブイベントにおいてもタイムアウトしたかどうかによりスタンプモードに対し適切な処理が可能になる。
<タッチアップイベント>
図21は、タッチアップイベントが検出された場合にモード判定部252が行う処理を示すフローチャート図の一例である。図21では主に図14との違いを説明する。
ステップS10でタイマー255をストップさせると、モード判定部252はスタンプモードか否かを判定する(S12)。
スタンプモードでない場合(S12のNo)、実施例1と同様に処理はステップS20に進む。
スタンプモードである場合(S12のYes)、モード判定部252はタイムアウトフラグ253がTrueか否かを判定する(S14)。
タイムアウトフラグ253がTrueの場合、タイムアウト時の処理でスタンプモードに応じた処理が行われているので処理はステップS20に進む。
タイムアウトフラグ253がFalseの場合、スタンプモードに応じた処理が行われていないので、モード判定部252はRAM103に記憶されている座標を消去すると判定する(S16)。この処理は図16のステップS90と同じである。したがって、タイムアップの前にタッチアップイベントが検出されても電子黒板2はスタンプモードに応じた処理を行うことができる。
そして、RAM103に記憶されている座標は不要になるので、モード判定部252はRAM103に記憶されている座標を消去する(S18)。
このように、本実施例の電子黒板2は、実施例1,2の効果に加え、手書きモードとジェスチャモードの他に別のモードがある場合、ユーザの違和感が少ないように別のモードに応じた処理することができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では電子黒板2の入力モードについて説明したが、タッチパネルを有し手書きモードとジェスチャモードを切り替えるタブレット端末、スマートフォン、PDA(Personal Digital Assistant)、PC、デジタルサイネージ、ゲーム機など、情報処理装置に広く適用できる。
また、電子黒板2は、電子情報ボード又は電子ホワイトボード等どのように呼ばれているかは問わない。
また、本実施形態では、主に2本の指でユーザがジェスチャ操作する例を説明したが、義手やロボットなどの指のようにジェスチャ操作できる人工物でジェスチャ操作してもよい。2本の電子ペン4でジェスチャ操作してもよい。
また、1本の指で操作する動作モードは必ずしも手書きモードでなくてもよく、2本以上の指で操作する動作モードは必ずしもジェスチャモードでなくてもよい。例えば、1本の指でストローク画像をスクロールさせる動作モードとなり、2本の指で太線を描画する動作モードと判定することが考えられる。
また、図3〜5の構成例は、電子黒板2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。電子黒板2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
なお、ストローク画像(B)は可視情報の一例であり、手書きモードは第一の動作モードの一例であり、ジェスチャモードは第二の動作モードの一例である。座標検知部22は座標検出手段の一例であり、イベント振分部25は数検出手段の一例であり、タイマー255は時間測定手段の一例であり、モード判定部252はモード判定手段の一例である。ストローク処理部32は情報表示手段の一例である。操作処理部26はモード受付手段の一例である。スタンプモードは第三の動作モードの一例である。手H又は電子ペン4は物体の一例である。タイマー255が測定する時間は所定時間の一例である。本実施形態の電子黒板2が行う処理は情報表示方法の一例である。RAM103は記憶手段の一例である。
本国際出願は、2015年9月30日に出願した日本国特許出願第2015−194991号に基づく優先権を主張するものであり、当該出願の全内容を本国際出願に援用する。
1 画像処理システム
2 電子黒板
4 電子ペン
20 クライアント部
22 座標検知部
25 イベント振分部
26 操作処理部
27 ジェスチャ処理部
32 ストローク処理部
251 イベント判定部
252 モード判定部
253 タイムアウトフラグ
254 ジェスチャ中フラグ
255 タイマー
特開2013-012134号公報

Claims (15)

  1. 可視情報の表示部を有する電子黒板であって、
    前記表示部における物体の座標を検出する座標検出手段と、
    前記座標検出手段により検出された物体の前記座標に基づき、前記表示部の物体の数を検出する数検出手段と、
    前記数検出手段が1つめの物体を検出した場合に所定時間の測定を開始する時間測定手段と、
    前記時間測定手段が前記所定時間を測定しても前記数検出手段が2つめの物体を検出しない場合、前記座標に基づき可視情報を表示する手書きモードであると判定し、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出した場合、前記可視情報に対する操作を受け付けるジェスチャモードであると判定するモード判定手段と、を有し、
    前記モード判定手段は、手書きモードであると判定すると前記座標を手書きに用い、ジェスチャモードであると判定すると前記座標を操作の受け付けに用いることを特徴とする電子黒板。
  2. 前記数検出手段が1つめの物体を検出した場合、前記モード判定手段は前記手書きモードであると仮判定し、
    前記時間測定手段が前記所定時間を測定する前から、前記座標検出手段が検出した1つめの物体の前記座標に基づき前記表示部に前記可視情報を表示する情報表示手段を有する請求項1に記載の電子黒板。
  3. 前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出した場合、前記時間測定手段が前記所定時間を測定する前に前記情報表示手段が前記表示部に表示した前記可視情報を消去する請求項2に記載の電子黒板。
  4. 前記数検出手段が1つめの物体を検出した場合、前記座標検出手段が検出した1つめの物体の前記座標を記憶手段に記憶しておき、
    前記時間測定手段が前記所定時間を測定しても前記数検出手段が2つめの物体を検出しない場合、前記記憶手段に記憶されている前記座標に基づき前記表示部に前記可視情報を表示する情報表示手段を有する請求項1に記載の電子黒板。
  5. 更に、1つの物体の前記座標に基づく処理を行う所定の動作モードの作動を受け付けるモード受付手段を有し、
    前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記数検出手段が1つめの物体を検出した場合、前記モード判定手段は前記座標検出手段が検出した1つめの物体の前記座標を記憶手段に記憶しておくが、前記時間測定手段が前記所定時間を測定するまで前記情報表示手段は前記記憶手段に記憶された前記座標に基づく処理を行うことなく、
    前記モード受付手段が前記所定の動作モードの作動を受け付けていない状態で、前記数検出手段が1つめの物体を検出した場合、前記座標検出手段が検出した1つめの物体の座標に基づき前記情報表示手段は前記表示部に前記可視情報を表示する請求項2に記載の電子黒板。
  6. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出しない場合、前記時間測定手段が前記所定時間を測定するまで、前記モード判定手段は前記座標検出手段が検出した1つめの物体の前記座標を前記記憶手段に記憶することを継続する請求項5に記載の電子黒板。
  7. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定した場合、
    前記情報表示手段は前記記憶手段に記憶されている1つめの物体の前記座標に対する前記所定の動作モードの処理を行い、
    前記記憶手段に記憶されている1つめの物体の前記座標を消去する請求項6に記載の電子黒板。
  8. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出しない場合、
    前記時間測定手段が前記所定時間を測定し終わった後、前記情報表示手段は前記座標検出手段が検出した1つめの物体の前記座標に対する前記所定の動作モードの処理を継続する請求項7に記載の電子黒板。
  9. 前記所定の動作モードの処理は、1つめの物体の前記座標に前記モード受付手段が受け付けた記号を前記情報表示手段が表示する処理、又は、前記表示部に表示されている前記可視情報を前記表示部から消去する処理である請求項5に記載の電子黒板。
  10. 更に、1つの物体の前記座標に基づく処理を行う所定の動作モードの作動を受け付けるモード受付手段を有し、
    前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記数検出手段が1つめの物体を検出した場合、前記モード判定手段は前記座標検出手段が検出した1つめの物体の前記座標を記憶手段に記憶しておくが、前記時間測定手段が前記所定時間を測定するまで前記情報表示手段は前記記憶手段に記憶された前記座標に基づく処理を行うことなく、
    前記モード受付手段が前記所定の動作モードの作動を受け付けていない状態で、前記数検出手段が1つめの物体を検出した場合、前記座標検出手段が検出した1つめの物体の座標に基づき前記情報表示手段は前記表示部に前記可視情報を表示する請求項3に記載の電子黒板。
  11. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出しない場合、前記時間測定手段が前記所定時間を測定するまで、前記モード判定手段は前記座標検出手段が検出した1つめの物体の前記座標を前記記憶手段に記憶することを継続する請求項10に記載の電子黒板。
  12. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定した場合、
    前記情報表示手段は前記記憶手段に記憶されている1つめの物体の前記座標に対する前記所定の動作モードの処理を行い、
    前記記憶手段に記憶されている1つめの物体の前記座標を消去する請求項11に記載の電子黒板。
  13. 前記モード受付手段が前記所定の動作モードの作動を受け付けている状態で、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出しない場合、
    前記時間測定手段が前記所定時間を測定し終わった後、前記情報表示手段は前記座標検出手段が検出した1つめの物体の前記座標に対する前記所定の動作モードの処理を継続する請求項12に記載の電子黒板。
  14. 可視情報の表示部を有する電子黒板を、
    前記表示部における物体の座標を検出する座標検出手段と、
    前記座標検出手段により検出された物体の前記座標に基づき、前記表示部の物体の数を検出する数検出手段と、
    前記数検出手段が1つめの物体を検出した場合に所定時間の測定を開始する時間測定手段と、
    前記時間測定手段が前記所定時間を測定しても前記数検出手段が2つめの物体を検出しない場合、前記座標に基づき可視情報を表示する手書きモードであると判定し、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出した場合、前記可視情報に対する操作を受け付けるジェスチャモードであると判定するモード判定手段、として機能させるためのプログラムであって、
    前記モード判定手段は、手書きモードであると判定すると前記座標を手書きに用い、ジェスチャモードであると判定すると前記座標を操作の受け付けに用いるプログラムを格納した、コンピュータ読み取り可能な記録媒体。
  15. 可視情報の表示部を有する電子黒板が行う情報表示方法であって、
    座標検出手段が、前記表示部における物体の座標を検出するステップと、
    数検出手段が、前記座標検出手段により検出された物体の前記座標に基づき、前記表示部の物体の数を検出するステップと、
    時間測定手段が、前記数検出手段が1つめの物体を検出した場合に所定時間の測定を開始するステップと、
    前記時間測定手段が前記所定時間を測定しても前記数検出手段が2つめの物体を検出しない場合、モード判定手段が、前記座標に基づき可視情報を表示する手書きモードであると判定し、前記時間測定手段が前記所定時間を測定する前に前記数検出手段が2つめの物体を検出した場合、前記可視情報に対する操作を受け付けるジェスチャモードであると判定するステップと、
    手書きモードであると判定すると前記座標を手書きに用い、ジェスチャモードであると判定すると前記座標を操作の受け付けに用いるステップと、
    を有する情報表示方法。
JP2017543590A 2015-09-30 2016-09-29 電子黒板、記憶媒体、及び情報表示方法 Active JP6493546B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015194991 2015-09-30
JP2015194991 2015-09-30
PCT/JP2016/078915 WO2017057629A1 (ja) 2015-09-30 2016-09-29 電子黒板、記憶媒体、及び情報表示方法

Publications (2)

Publication Number Publication Date
JPWO2017057629A1 JPWO2017057629A1 (ja) 2018-07-05
JP6493546B2 true JP6493546B2 (ja) 2019-04-10

Family

ID=58423968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543590A Active JP6493546B2 (ja) 2015-09-30 2016-09-29 電子黒板、記憶媒体、及び情報表示方法

Country Status (5)

Country Link
US (1) US11209921B2 (ja)
EP (1) EP3358449A4 (ja)
JP (1) JP6493546B2 (ja)
CN (1) CN108139825B (ja)
WO (1) WO2017057629A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6546455B2 (ja) * 2015-06-12 2019-07-17 シャープ株式会社 イレーサ装置および指示入力システム
CN106055237B (zh) 2016-05-31 2017-11-17 广东欧珀移动通信有限公司 一种滑动加速响应方法、及设备
JP6995605B2 (ja) * 2017-12-18 2022-01-14 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム及び記憶媒体
KR102469722B1 (ko) * 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP7549492B2 (ja) 2020-09-08 2024-09-11 元路 小下 情報処理装置、情報処理方法及びプログラム
CN113469148B (zh) * 2021-09-02 2021-11-12 北京世纪好未来教育科技有限公司 一种文本擦除方法及模型的训练方法、装置、存储介质
CN113934323B (zh) * 2021-10-19 2023-12-29 河北师达教育科技有限公司 基于智能黑板的多点显示方法、装置和终端设备
WO2023229156A1 (ko) * 2022-05-25 2023-11-30 삼성전자주식회사 외부 장치로부터 어플리케이션 화면을 수신하여 표시하는 전자 장치 및 그 제어 방법
EP4432055A1 (en) 2022-05-25 2024-09-18 Samsung Electronics Co., Ltd. Electronic device for receiving application screen from external device and displaying same, and method of controlling same

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314619A (ja) * 1995-05-23 1996-11-29 Canon Inc ペン入力型電子装置及びその制御方法
JP2003196028A (ja) * 2001-12-21 2003-07-11 Ricoh Co Ltd 座標入力機能付表示装置を用いた描画方法、その方法によったプログラム、およびそのプログラムを記憶した記憶媒体
JP2003248551A (ja) * 2002-02-25 2003-09-05 Ricoh Co Ltd タッチパネル付きディスプレイ装置およびタッチパネル付きディスプレイ装置の表示制御方法
JP2011022964A (ja) * 2009-07-21 2011-02-03 Panasonic Corp タッチパネル及び入力表示システム
JP5664147B2 (ja) * 2010-09-06 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5536690B2 (ja) * 2011-02-10 2014-07-02 シャープ株式会社 タッチ描画表示装置及びその操作方法
US20120218203A1 (en) * 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
JP5589909B2 (ja) 2011-03-14 2014-09-17 株式会社リコー 表示装置、表示装置のイベント切替え制御方法及びプログラム
JP5723697B2 (ja) 2011-06-30 2015-05-27 シャープ株式会社 手書き入力機能付表示装置
US20130179844A1 (en) 2012-01-06 2013-07-11 Mirko Mandic Input Pointer Delay
CN103294375A (zh) * 2012-02-24 2013-09-11 宇龙计算机通信科技(深圳)有限公司 终端和触屏操作处理方法
CN103577086A (zh) * 2012-08-08 2014-02-12 杨丽 一种在触控板上实现快捷键模式的方法
JP5700020B2 (ja) * 2012-10-10 2015-04-15 コニカミノルタ株式会社 画像処理装置、プログラム及び操作イベント判別方法
JP5480357B1 (ja) * 2012-11-28 2014-04-23 株式会社東芝 電子機器および方法
JP2014134968A (ja) * 2013-01-10 2014-07-24 Denso Corp 感圧式タッチパネル装置
JP5835240B2 (ja) * 2013-01-28 2015-12-24 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
CN103513865A (zh) * 2013-04-27 2014-01-15 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
JP6094550B2 (ja) * 2013-09-17 2017-03-15 株式会社リコー 情報処理装置、プログラム
JP5928490B2 (ja) * 2014-01-14 2016-06-01 コニカミノルタ株式会社 情報処理装置、情報処理プログラム及び情報処理方法

Also Published As

Publication number Publication date
JPWO2017057629A1 (ja) 2018-07-05
US11209921B2 (en) 2021-12-28
CN108139825A (zh) 2018-06-08
WO2017057629A1 (ja) 2017-04-06
EP3358449A1 (en) 2018-08-08
EP3358449A4 (en) 2018-09-12
US20180203566A1 (en) 2018-07-19
CN108139825B (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
JP6493546B2 (ja) 電子黒板、記憶媒体、及び情報表示方法
JP6094550B2 (ja) 情報処理装置、プログラム
EP3251055B1 (en) Information processing apparatus and program
JP2016134014A (ja) 電子情報ボード装置、情報処理方法およびプログラム
JP6583432B2 (ja) 画像処理装置、画像表示方法、プログラム
JP6885416B2 (ja) 電子黒板、電子黒板の画像処理方法、及びプログラム
JP5846270B2 (ja) 画像処理システム、情報処理装置
JP2019186946A (ja) 電子黒板
JP6402826B2 (ja) 情報処理装置、画像表示方法、プログラム
JP2017076207A (ja) 画像処理装置及び画像処理システム
JP6631643B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP6036621B2 (ja) システム、情報処理装置
JP2022087633A (ja) 表示装置、消去方法切替方法、プログラム
US20200301645A1 (en) Display apparatus and display method
WO2015186453A1 (ja) 座標検知装置、画像処理装置、及び座標検知方法
JP7363064B2 (ja) 画像処理装置、方法、およびプログラム
WO2016121403A1 (en) Information processing apparatus, image processing system, and program
JP7388159B2 (ja) 表示装置、表示方法
JP7383959B2 (ja) 表示装置、使用方法提供方法、プログラム、画像処理システム
JP2016076775A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20180313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R151 Written notification of patent or utility model registration

Ref document number: 6493546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151