JP6051521B2 - 画像合成システム - Google Patents

画像合成システム Download PDF

Info

Publication number
JP6051521B2
JP6051521B2 JP2011286230A JP2011286230A JP6051521B2 JP 6051521 B2 JP6051521 B2 JP 6051521B2 JP 2011286230 A JP2011286230 A JP 2011286230A JP 2011286230 A JP2011286230 A JP 2011286230A JP 6051521 B2 JP6051521 B2 JP 6051521B2
Authority
JP
Japan
Prior art keywords
handwritten
position information
unit
information
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011286230A
Other languages
English (en)
Other versions
JP2013135422A (ja
Inventor
陽平 藤田
陽平 藤田
藤田 健
健 藤田
哲郎 轡田
哲郎 轡田
増田 明
明 増田
皓一 西出
皓一 西出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011286230A priority Critical patent/JP6051521B2/ja
Priority to US13/724,158 priority patent/US9875571B2/en
Publication of JP2013135422A publication Critical patent/JP2013135422A/ja
Application granted granted Critical
Publication of JP6051521B2 publication Critical patent/JP6051521B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Description

本発明は、画像合成システムに関する。
従来から、プロジェクタが、ネットワークを介して投影用の画像データをモバイル端末に配信し、モバイル端末が、配信された画像データに対して入力した手書き情報の画像データを、ネットワークを介してプロジェクタに転送し、プロジェクタが、投影用の画像データと手書き情報の画像データとを合成して投影する技術が知られている。
このような技術の類似技術として、例えば特許文献1には、カメラで撮影された撮影画像の画像データとタブレットで入力された手書き情報の画像データとを、ネットワークを介して外部サーバに送信し、外部サーバで両画像データを合成して表示用の画像データを生成する技術が開示されている。
しかしながら、上述したような従来技術では、ネットワーク上で手書き情報の画像データを通信させているため、ネットワークに負荷がかかってしまうという問題がある。
本発明は、上記事情に鑑みてなされたものであり、ネットワークにかかる負荷を低減することができる画像合成システムを提供することを目的とする。
また、本発明の別の態様にかかる画像合成システムは、第1端末装置と、当該第1端末装置とネットワークを介して接続される画像合成装置とを、備える画像合成システムであって、前記第1端末装置は、前記画像合成装置から画面用の画像データである画面データを受信する受信部と、前記画面データに基づく画面を変倍操作で設定された変倍率で変倍して表示部に表示させる表示制御部と、前記変倍して表示された画面に対するタッチ入力を受け付ける毎に、当該タッチ入力が行われた位置を示す第1手書き位置情報を取得し、当該第1手書き位置情報を前記変倍率の逆数で変倍する取得部と、前記第1手書き位置情報が取得されて変倍される毎に、当該変倍された第1手書き位置情報を前記画像合成装置に送信する送信部と、を備え、前記画像合成装置は、前記画面データを前記第1端末装置に配信する配信部と、前記第1端末装置から前記変倍された第1手書き位置情報が送信される毎に、当該変倍された第1手書き位置情報を受信し、手書き位置情報記憶部に記憶する受信部と、前記変倍された第1手書き位置情報が前記手書き位置情報記憶部に記憶される毎に、当該手書き位置情報記憶部に記憶されている前記変倍された第1手書き位置情報を用いて、前記タッチ入力に基づいて描画された第1手書き情報の画像データである第1手書き画像データを生成する生成部と、前記第1手書き画像データが生成される毎に、前記画面データと当該第1手書き画像データとを合成して合成画面データを生成する合成部と、を備える
また、本発明の別の態様にかかる画像合成システムは、画像合成装置と、当該画像合成装置とネットワークを介して接続されるコンピュータで実行されるプログラムとを、備える画像合成システムであって、前記プログラムは、前記画像合成装置から画面用の画像データである画面データを受信する受信部と、前記画面データに基づく画面を変倍操作で設定された変倍率で変倍して表示部に表示させる表示制御部と、前記変倍して表示された画面に対するタッチ入力を受け付ける毎に、当該タッチ入力が行われた位置を示す手書き位置情報を取得し、当該手書き位置情報を前記変倍率の逆数で変倍する取得部と、前記手書き位置情報が取得されて変倍される毎に、当該変倍された手書き位置情報を前記画像合成装置に送信する送信部として、前記コンピュータを機能させ、前記画像合成装置は、前記画面データを前記コンピュータに配信する配信部と、前記コンピュータから前記変倍された手書き位置情報が送信される毎に、当該変倍された手書き位置情報を受信し、手書き位置情報記憶部に記憶する受信部と、前記変倍された手書き位置情報が前記手書き位置情報記憶部に記憶される毎に、当該手書き位置情報記憶部に記憶されている前記変倍された手書き位置情報を用いて、前記タッチ入力に基づいて描画された手書き情報の画像データである手書き画像データを生成する生成部と、前記手書き画像データが生成される毎に、前記画面データと当該手書き画像データとを合成して合成画面データを生成する合成部と、を備える
本発明によれば、ネットワークにかかる負荷を低減することができるという効果を奏する。
図1は、第1実施形態の画像合成システムの構成の一例を示すブロック図である。 図2は、第1実施形態のプロジェクタの構成の一例を示すブロック図である。 図3は、第1実施形態の画面データの一例を示す図である。 図4は、第1実施形態の手書き位置情報記憶部に記憶されている手書き位置情報の一例を示す図である。 図5は、第1実施形態の手書き位置情報記憶部に記憶されている手書き位置情報の一例を示す図である。 図6は、第1実施形態の手書き画像データの一例を示す図である。 図7は、第1実施形態の合成画面データの一例を示す図である。 図8は、第1実施形態のタブレットの構成の一例を示すブロック図である。 図9は、第1実施形態の取得部の手書き位置情報の取得手法の一例を示す説明図である。 図10は、第1実施形態の画像合成システムで実行される配信処理の一例を示すシーケンス図である。 図11は、第1実施形態の画像合成システムで実行される投影処理の一例を示すシーケンス図である。 図12は、第1実施形態のタブレットで実行される手書き位置情報送信処理の一例を示すフローチャート図である。 図13は、第1実施形態のプロジェクタで実行される投影処理の一例を示すフローチャート図である。 図14は、変形例1のタブレットで実行される手書き位置情報送信処理の一例を示すフローチャート図である。 図15は、変形例2の手書き位置情報記憶部に記憶されている手書き位置情報及び削除位置情報の一例を示す図である。 図16は、変形例2の手書き画像データの一例を示す図である。 図17は、変形例2の合成画面データの一例を示す図である。 図18は、変形例3の手書き位置情報記憶部に記憶されている手書き位置情報の一例を示す図である。 図19は、変形例3の画像合成システムで実行される投影処理の一例を示すシーケンス図である。 図20は、第2実施形態の画像合成システムの構成の一例を示すブロック図である。 図21は、第2実施形態のタブレットの構成の一例を示すブロック図である。 図22は、第2実施形態のプロジェクタの構成の一例を示すブロック図である。 図23は、第2実施形態の手書き位置情報記憶部に記憶されている手書き位置情報の一例を示す図である。 図24は、第2実施形態の手書き画像データの一例を示す図である。 図25は、第2実施形態の画像合成システムで実行される投影処理の一例を示すシーケンス図である。 図26は、第3実施形態の画像合成システムのプロジェクタの構成の一例を示すブロック図である。 図27は、第3実施形態の合成色テーブル記憶部に記憶されている合成色テーブルの一例を示す図である。 図28は、第4実施形態の画像合成システムのプロジェクタの構成の一例を示すブロック図である。 図29は、第4実施形態の合成判別テーブル記憶部に記憶されている合成判別テーブルの一例を示す図である。 図30は、第4実施形態の画像合成システムで実行される合成判別テーブル更新処理の一例を示すシーケンス図である。 図31は、第5実施形態の画像合成システムのプロジェクタの構成の一例を示すブロック図である。 図32は、第5実施形態の同期判別テーブル記憶部に記憶されている同期判別テーブルの一例を示す図である。 図33は、第5実施形態の画像合成システムのタブレットの構成の一例を示すブロック図である。 図34は、第5実施形態のプロジェクタで実行される配信処理の一例を示すフローチャート図である。 図35は、第5実施形態の画像合成システム500で実行される同期判別テーブル更新処理の一例を示すシーケンス図である。
以下、添付図面を参照しながら、本発明にかかる画像合成システムの実施形態を詳細に説明する。以下の各実施形態では、画像合成装置、端末装置として、それぞれ、プロジェクタ、タブレットを例に取り説明するが、これらに限定されるものではない。画像合成装置は、画像合成が可能な装置であればよく、例えば、サーバ装置など通常のコンピュータを利用した装置であってもよい。端末装置は、手書き入力が可能な装置であればよく、例えば、スマートフォンなどであってもよい。
(第1実施形態)
図1は、第1実施形態の画像合成システム100の構成の一例を示すブロック図である。図1に示すように、画像合成システム100は、プロジェクタ110と、タブレット160とを、備える。
プロジェクタ110とタブレット160とは、ネットワーク101を介して接続されている。ネットワーク101は、プロジェクタ110とタブレット160とを通信可能に接続できればよく、例えば、インターネットやLAN(Local Area Network)などにより実現できる。
プロジェクタ110は、投影用の画像データである画面データに基づく画面を投影する。またプロジェクタ110は、画面データをタブレット160に配信するとともに、タブレット160から、画面データに基づく画像に対して入力された手書き情報の位置を示す手書き位置情報を受信する。そしてプロジェクタ110は、手書き位置情報の画像データである手書き画像データを生成し、画面データと手書き画像データとを合成して合成画面データを生成し、合成画面データに基づく画面を投影する。
図2は、第1実施形態のプロジェクタ110の構成の一例を示すブロック図である。図2に示すように、プロジェクタ110は、通信部120と、記憶部130と、制御部140と、投影部150とを、備える。
通信部120は、ネットワーク101を介して、タブレット160と通信するものであり、通信インタフェースなどの通信装置により実現できる。
記憶部130は、プロジェクタ110で実行されるプログラムやプロジェクタ110で行われる各種処理に使用されるデータなどを記憶する。記憶部130は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、ROM(Read Only Memory)、RAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な記憶装置の少なくともいずれかにより実現できる。
記憶部130は、画像データ記憶部131と、手書き位置情報記憶部132とを、含む。画像データ記憶部131は、後述の投影部150により投影される画面用の画像データである画面データなど各種画像データを記憶する。画面データの一例を図3に示す。手書き位置情報記憶部132には、手書き位置情報が記憶される。なお、手書き位置情報の詳細については、後述する。
制御部140は、プロジェクタ110の各部を制御するものであり、CPU(Central Processing Unit)などの制御装置により実現できる。制御部140は、配信部141と、受信部142と、生成部143と、合成部144とを、含む。
配信部141は、画面データをタブレット160に配信する。具体的には、配信部141は、タブレット160から画面データの配信要求を受け付け、配信要求を受け付けた画面データを画像データ記憶部131から取得してタブレット160に配信する。第1実施形態では、画面データにアスペクト比が含まれているものとするが、これに限定されるものではない。例えば、配信部141は、タブレット160から図3に示す画面データの配信要求を受け付け、図3に示す画面データを画像データ記憶部131から取得してタブレット160に配信する。
受信部142は、タブレット160上でユーザにより画面データに基づく画面に対して入力された手書き情報の位置を示す手書き位置情報を受信し、手書き位置情報記憶部132に記憶する。手書き情報とは、例えば、手書きで描かれた文字、記号、又は絵などが該当する。第1実施形態では、手書き位置情報は、画面上の2次元座標(x,y)を示すものとするが、これに限定されるものではない。なお第1実施形態では、画面左上を2次元座標の原点(0,0)とする。
具体的には、タブレット160は、手書き情報の入力(例えば、ユーザのタッチ操作の入力)が行われている間、手書き位置情報として、前回(1つ前)の座標と最新の座標との座標のペアを順次プロジェクタ110に送信するものとする。このため、受信部142は、タブレット160で手書き情報の入力が行われている間、タブレット160から座標のペアを順次受信し、座標のペアのうち最新の座標を手書き位置情報として手書き位置情報記憶部132に記憶する。
図4は、第1実施形態の手書き位置情報記憶部132に記憶されている手書き位置情報の一例を示す図である。図4に示す例では、手書き位置情報(座標(x,y))は、下に進むほど時系列が新しくなるものとする。例えば、受信部142は、タブレット160から、手書き位置情報として、前回の座標(40,55)、最新の座標(45,50)の座標のペアを受信したとする。この場合、受信部142は、図4に示す一番下の座標(40,55)が座標のペアのうちの前回の座標(40,55)と一致することを確認し、図5に示すように、座標のペアのうちの最新の座標(45,50)を一番下(図4に示す一番下の座標(40,55)の下)に追加記憶する。
但し、タブレット160は、座標のペアではなく最新の座標を順次プロジェクタ110に送信し、プロジェクタ110は、タブレット160から最新の座標を順次受信するようにしてもよい。
生成部143は、受信部142により受信された手書き位置情報を用いて手書き情報の画像データである手書き画像データを生成する。具体的には、生成部143は、手書き位置情報記憶部132に記憶されている手書き位置情報を用いて手書き画像データを生成し、画像データ記憶部131に記憶する。生成部143は、例えば、図5に示す手書き位置情報を用いて、時系列で隣接する座標を線で結ぶことにより、図6に示す手書き画像データを生成する。
合成部144は、画面データと生成部143により生成された手書き画像データとを合成して合成画面データを生成する。具体的には、合成部144は、画像データ記憶部131に記憶されている画面データと手書き画像データとを合成して合成画面データを生成し、画像データ記憶部131に記憶する。第1実施形態では、画像データ記憶部131に記憶されている画像データは、レイヤーで管理されているため、合成部144は、画面データが描かれたレイヤーと手書き画像データが描かれたレイヤーとを重ねることで合成画面データを生成する。合成部144は、例えば、図3に示す画面データと図6に示す手書き画像データとを重ねることで、図7に示す合成画面データを生成する。
投影部150は、画像を投影するものであり、例えば、液晶プロジェクタなどの投影装置により実現できる。投影部150は、画面データに基づく画面を投影する。具体的には、投影部150は、制御部140により画像データ記憶部131に記憶されている画面データが転送されると、当該画面データに基づく画面を投影する。例えば、投影部150は、制御部140により画像データ記憶部131から図3に示す画面データが転送されると、当該画面データに基づく画面を投影する。
また投影部150は、合成部144により合成画面データが生成されると、当該合成画面データに基づく画面を投影する。具体的には、投影部150は、制御部140により画像データ記憶部131に記憶されている合成画面データが転送されると、当該合成画面データに基づく画面を投影する。例えば、投影部150は、制御部140により画像データ記憶部131から図7に示す合成画面データが転送されると、当該合成画面データに基づく画面を投影する。
タブレット160は、プロジェクタ110に対して画面データの配信を要求して当該画面データを受信し、受信した画面データに基づく画面を表示する。そしてタブレット160は、表示している画面に対するユーザからの手書き情報の入力を受け付け、受け付けた手書き情報の位置を示す手書き位置情報を取得し、取得した手書き位置情報をプロジェクタ110に送信する。
図8は、第1実施形態のタブレット160の構成の一例を示すブロック図である。図8に示すように、タブレット160は、通信部170と、操作表示部172と、記憶部174と、制御部180とを、備える。
通信部170は、ネットワーク101を介して、プロジェクタ110と通信するものであり、通信インタフェースなどの通信装置により実現できる。
操作表示部172は、各種操作の入力や各種画面を表示するものであり、タッチパネル式ディスプレイなどの操作表示装置により実現できる。
記憶部174は、タブレット160で実行されるプログラムやタブレット160で行われる各種処理に使用されるデータなどを記憶する。記憶部174は、例えば、HDD、SSD、メモリカード、光ディスク、ROM、RAMなどの磁気的、光学的、又は電気的に記憶可能な記憶装置の少なくともいずれかにより実現できる。
制御部180は、タブレット160の各部を制御するものであり、CPU(Central Processing Unit)などの制御装置により実現できる。制御部180は、受信部181と、表示制御部182と、取得部183と、合成部184と、送信部185とを、含む。
受信部181は、プロジェクタ110から画面データを受信する。具体的には、受信部181は、プロジェクタ110に対して画面データの配信を要求して当該画面データを受信し、記憶部174に記憶する。第1実施形態では、画面データにアスペクト比が含まれているものとするが、これに限定されるものではない。例えば、受信部181は、プロジェクタ110に対して図3に示す画面データの配信を要求して当該画面データを受信し、記憶部174に記憶する。
表示制御部182は、受信部181により受信された画面データに基づく画面を操作表示部172に表示させる。具体的には、表示制御部182は、記憶部174に記憶されている画面データを取得し、取得した画面データに含まれるアスペクト比で、取得した画面データに基づく画面を操作表示部172に表示させる。例えば、表示制御部182は、記憶部174から図3に示す画面データを取得し、取得した画面データに基づく画面を操作表示部172に表示させる。
また表示制御部182は、後述の合成部184により合成画面データが生成されると、当該合成画面データに基づく画面を操作表示部172に表示させる。具体的には、表示制御部182は、記憶部174に記憶されている合成画面データを取得し、取得した合成画面データに基づく画面を操作表示部172に表示させる。例えば、表示制御部182は、記憶部174から図7に示す合成画面データを取得し、取得した合成画面データに基づく画面を操作表示部172に表示させる。
取得部183は、操作表示部172に表示されている画面に対するユーザからの手書き情報の入力(例えば、操作表示部172に対するユーザのタッチ操作の入力)を受け付け、当該手書き情報の位置を示す手書き位置情報を取得し、記憶部174に記憶する。これにより、例えば、図5に示す手書き位置情報が記憶部174に記憶される。
図9は、第1実施形態の取得部183の手書き位置情報の取得手法の一例を示す説明図である。図9に示す例では、操作表示部172に表示されている画面上で手書き位置情報が、点P1、点P2、点P3、点P4の順序で描かれたとする。この場合、取得部は、ユーザにより点P1がタッチされると点P1の座標(30,25)を取得して記憶部174に記憶し、タッチ位置が点P1から点P2に移動されると点P2の座標(35,30)を取得して記憶部174に記憶し、タッチ位置が点P2から点P3に移動されると点P3の座標(40,25)を取得して記憶部174に記憶し、タッチ位置が点P3から点P4に移動されると点P4の座標(45,20)を取得して記憶部174に記憶する。
合成部184は、取得部183により取得された手書き位置情報を用いて手書き情報の画像データである手書き画像データを生成し、記憶部174に記憶する。そして合成部184は、生成した手書き画像データと記憶部174に記憶されている画面データとを合成して合成画面データを生成し、記憶部174に記憶する。
例えば、合成部184は、記憶部174に記憶されている図5に示す手書き位置情報を用いて、図6に示す手書き画像データを生成し、図6に示す手書き画像データと記憶部174に記憶されている図3に示す画面データとを合成して図7に示す合成画面データを生成する。
送信部185は、取得部183により取得された手書き位置情報をプロジェクタ110に送信する。第1実施形態では、送信部185は、取得部183により手書き位置情報が取得されている間、手書き位置情報として、前回(1つ前)の座標と最新の座標との座標のペアを順次プロジェクタ110に送信する。
図9に示す例の場合、送信部185は、点P2の座標が取得されると、点P1の座標(30,25)と点P2の座標(35,30)との座標のペアをプロジェクタ110に送信し、点P3の座標が取得されると、点P2の座標(35,30)と点P3の座標(40,25)との座標のペアをプロジェクタ110に送信し、点P4の座標が取得されると、点P3の座標(40,25)と点P4の座標(45,20)との座標のペアをプロジェクタ110に送信する。
図10は、第1実施形態の画像合成システム100で実行される配信処理の一例を示すシーケンス図である。
まず、タブレット160の受信部181は、プロジェクタ110に対して画面データの配信を要求する(ステップS101)。
続いて、プロジェクタ110の配信部141は、タブレット160から画面データの配信要求を受け付け、配信要求を受け付けた画面データを画像データ記憶部131から取得し(ステップS102)、取得した画面データをタブレット160に配信する(ステップS103)。
続いて、タブレット160の受信部181は、プロジェクタ110から画面データを受信し、タブレット160の表示制御部182は、受信部181により受信された画面データに基づく画面を操作表示部172に表示させる(ステップS104)。
図11は、第1実施形態の画像合成システム100で実行される投影処理の一例を示すシーケンス図である。なお、図11に示す処理は、タブレット160上でユーザからの手書き情報の入力が行われている間、所定の周期で繰り返し行われる。
まず、タブレット160の取得部183は、操作表示部172に表示されている画面に対するユーザからの手書き情報の入力を受け付け、当該手書き情報の位置を示す手書き位置情報を取得する(ステップS201)。
続いて、タブレット160の送信部185は、取得部183により取得された手書き位置情報をプロジェクタ110に送信する(ステップS202)。
続いて、プロジェクタ110の受信部142は、タブレット160から手書き位置情報を受信し、手書き位置情報記憶部132に記憶する。そして、プロジェクタ110の生成部143は、手書き位置情報記憶部132に記憶されている手書き位置情報を用いて手書き画像データを生成し、画像データ記憶部131に記憶する(ステップS203)。
続いて、プロジェクタ110の合成部144は、画像データ記憶部131に記憶されている画面データと手書き画像データとを合成して合成画面データを生成し、画像データ記憶部131に記憶する(ステップS204)。
続いて、プロジェクタ110の投影部150は、制御部140により画像データ記憶部131に記憶されている合成画面データが転送されると、当該合成画面データに基づく画面を投影する(ステップS205)。
図12は、第1実施形態のタブレット160で実行される手書き位置情報送信処理の一例を示すフローチャート図である。
まず、受信部181は、プロジェクタ110に対して画面データの配信を要求して当該画面データを受信し、記憶部174に記憶する(ステップS301)。
続いて、表示制御部182は、記憶部174に記憶されている画面データを取得し、取得した画面データに基づく画面を操作表示部172に表示させる(ステップS302)。
続いて、取得部183は、ユーザにより操作表示部172に表示されている画面に対するタッチを待機し(ステップS303でNo)、画面に対するタッチが行われると(ステップS303でYes)、タッチ位置の座標を取得し、記憶部174に記憶する(ステップS304)。
続いて、取得部183は、画面に対するタッチ位置が移動すると(ステップS305でYes)、移動後のタッチ位置の座標を取得し、記憶部174に記憶する(ステップS306)。
続いて、送信部185は、手書き位置情報として、前回の座標と最新の座標との座標のペアをプロジェクタ110に送信し(ステップS307)、ステップS305へ戻る。最新の座標は、直前のステップS306で取得された座標である。前回の座標は、送信部185による手書き位置情報の最初の送信であれば、ステップS304で取得された座標であり、送信部185による手書き位置情報の2回目以降の送信であれば、前回のステップS306で取得された座標となる。
なお、ステップS305において、タッチ位置が移動しないが(ステップS305でNo)、画面に対するタッチが継続されている場合(ステップS308でYes)、ステップS305へ戻る。一方、ステップS305において、タッチ位置が移動せず(ステップS305でNo)、画面に対するタッチも行われていない場合(ステップS308でNo)、処理は終了となる。
図13は、第1実施形態のプロジェクタ110で実行される投影処理の一例を示すフローチャート図である。
まず、受信部142は、タブレット160から座標のペアを受信すると(ステップS401でYes)、座標のペアのうち最新の座標を手書き位置情報として手書き位置情報記憶部132に記憶する(ステップS402)。
続いて、生成部143は、手書き位置情報記憶部132に記憶されている手書き位置情報を用いて手書き画像データを生成し、画像データ記憶部131に記憶する(ステップS403)。
続いて、合成部144は、画像データ記憶部131に記憶されている画面データと手書き画像データとを合成して合成画面データを生成し、画像データ記憶部131に記憶する(ステップS404)。
続いて、投影部150は、制御部140により画像データ記憶部131に記憶されている合成画面データが転送されると、当該合成画面データに基づく画面を投影し(ステップS405)、ステップS401へ戻る。
なお、ステップS401において、タブレット160による座標のペアの送信が終了し、座標のペアの受信が終了すると(ステップS401でNo)、処理は終了となる。
以上のように第1実施形態では、タブレット160は、入力された手書き情報を画像データにしてプロジェクタ110に送信するのではなく、入力された手書き情報の手書き位置情報をオンラインでプロジェクタ110に順次送信する。そして、プロジェクタ110は、受信した手書き位置情報から手書き画像データを生成し、画面データと合成して合成画面データを生成し、投影する。
このため第1実施形態によれば、タブレット160からプロジェクタ110に送信するデータ量を少なくできるため、ネットワーク101にかかる負荷を低減することができる。これにより、プロジェクタ110では、合成画面データの生成をリアルタイムで行うことが可能となり、タブレット160に手書き情報を入力すると、この手書き情報に基づく合成画面データをプロジェクタ110でリアルタイムに投影することが可能となる。
(変形例1)
変形例1では、タブレット160が画面を変倍する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、その説明を省略する。
変形例1のタブレット160について説明する。
表示制御部182は、操作表示部172に表示されている画面に対するユーザからの変倍操作の入力を受け付け、変倍操作で設定された変倍率で画面を変倍して操作表示部172に表示させる。例えば、操作表示部172がマルチタップ機能を有するタッチパネル式ディスプレイであれば、変倍操作は、操作表示部172に対するピンチアウト操作やピンチイン操作が該当する。そして、表示制御部182は、ピンチアウト操作が行われた部分の画面を中心にピンチアウト操作で設定された変倍率(拡大率)で操作表示部172に拡大表示させ、ピンチイン操作が行われた部分の画面を中心にピンチイン操作で設定された変倍率(祝勝率)で操作表示部172に縮小表示させる。
取得部183は、操作表示部172に表示されている変倍後の画面に対するユーザからの手書き情報の入力を受け付け、当該手書き情報の手書き位置情報を取得し、記憶部174に記憶する。
また取得部183は、取得した手書き位置情報を変倍後の画面の変倍率の逆数(1/変倍率)で変倍し、記憶部174に記憶する。これにより、変倍後の画面の手書き位置情報(座標)を元の画面(変倍されていない画面)の手書き位置情報(座標)に変換できる。
合成部184は、取得部183により取得された手書き位置情報(変倍率の逆数で変倍されていない手書き位置情報)を用いて手書き情報の画像データである手書き画像データを生成する。
送信部185は、取得部183により変倍率の逆数で変倍された手書き位置情報をプロジェクタ110に送信する。
図14は、変形例1のタブレット160で実行される手書き位置情報送信処理の一例を示すフローチャート図である。
ステップS501〜S502までの処理は、図12のフローチャートのステップS301〜S302までの処理と同様である。
続いて、表示制御部182は、操作表示部172に表示されている画面に対するユーザからの変倍操作の入力を受け付け(ステップS503)、変倍操作で設定された変倍率で画面を変倍して操作表示部172に表示させる(ステップS504)。
続いて、取得部183は、ユーザにより操作表示部172に表示されている画面に対するタッチを待機し(ステップS505でNo)、画面に対するタッチが行われると(ステップS505でYes)、タッチ位置の座標を取得し、変倍後の画面の変倍率の逆数(1/変倍率)で変倍し、記憶部174に記憶する(ステップS506)。
続いて、取得部183は、画面に対するタッチ位置が移動すると(ステップS507でYes)、移動後のタッチ位置の座標を取得し、変倍後の画面の変倍率の逆数(1/変倍率)で変倍し、記憶部174に記憶する(ステップS508)。
続いて、送信部185は、手書き位置情報として、前回の座標と最新の座標との座標のペアをプロジェクタ110に送信し(ステップS509)、ステップS507へ戻る。最新の座標は、直前のステップS508で変倍された座標である。前回の座標は、送信部185による手書き位置情報の最初の送信であれば、ステップS506で変倍された座標であり、送信部185による手書き位置情報の2回目以降の送信であれば、前回のステップS508で変倍された座標となる。
なお、ステップS507において、タッチ位置が移動しないが(ステップS507でNo)、画面に対するタッチが継続されている場合(ステップS510でYes)、ステップS507へ戻る。一方、ステップS507において、タッチ位置が移動せず(ステップS507でNo)、画面に対するタッチも行われていない場合(ステップS510でNo)、処理は終了となる。
以上のように変形例1によれば、タブレット160は、画面が変倍された場合であっても、元の画面(変倍されていない画面)のサイズに合わせた手書き位置情報をプロジェクタ110に送信するので、プロジェクタ110において画面の変倍の影響を受けずに合成画面データを生成し、投影することができる。これにより、タブレット160での画面の変倍が可能となり、例えば、画面を拡大することにより、小さなスペースに対しても手書き情報を正確に入力する(書き込む)ことが可能となる。
なお、変形例1では、タブレット160側で手書き位置情報を元の画面(変倍されていない画面)のサイズに合わせるようにしたが、プロジェクタ110側で手書き位置情報を元の画面(変倍されていない画面)のサイズに合わせるようにしてもよい。この場合、タブレット160は、取得部183により取得された手書き位置情報とともに画面の変倍率をプロジェクタ110に送信すればよい。
(変形例2)
変形例2では、タブレット160が手書き情報を削除する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、その説明を省略する。
変形例2のタブレット160について説明する。
取得部183は、操作表示部172に表示された画面上に描かれている手書き情報の少なくとも一部を削除する削除情報の入力(例えば、画面上に描かれている手書き情報のうちの削除部分に対するユーザのタッチ操作の入力)を受け付け、当該削除情報の位置を示す削除位置情報を取得し、記憶部174に記憶する。変形例2では、削除情報は、手書き位置情報同様、画面上の2次元座標(x,y)を示すものとするが、これに限定されるものではない。
また変形例2では、制御部180は、手書き情報の入力モードと削除情報の入力モードとを管理しており、手書き情報の入力モードにおいて画面に対するユーザのタッチ操作の入力が行われた場合、取得部183は、手書き情報の入力を受け付け、削除情報の入力モードにおいて画面に対するユーザのタッチ操作の入力が行われた場合、取得部183は、削除情報の入力を受け付ける。
合成部184は、取得部183により取得された手書き位置情報及び削除位置情報を用いて手書き画像データを生成し、記憶部174に記憶する。
送信部185は、取得部183により取得された削除位置情報をプロジェクタ110に送信する。送信部185は、手書き位置情報の送信同様、取得部183により削除位置情報が取得されている間、削除位置情報として、前回(1つ前)の座標と最新の座標との座標のペアを順次プロジェクタ110に送信する。
なお変形例2では、送信部185は、手書き位置情報を送信する場合、手書き位置情報の座標のペアであることを示す識別子を座標のペアとともに送信し、削除位置情報を送信する場合、削除位置情報の座標のペアであることを示す識別子を座標のペアとともに送信する。
変形例2のプロジェクタ110について説明する。
受信部142は、手書き情報のうち削除される部分の位置を示す削除位置情報を受信し、手書き位置情報記憶部132に記憶する。具体的には、受信部142は、手書き位置情報の受信同様、タブレット160で削除情報の入力が行われている間、タブレット160から座標のペアを順次受信し、座標のペアのうち最新の座標を削除位置情報として手書き位置情報記憶部132に記憶する。
なお変形例2では、受信部142は、手書き位置情報を受信する場合、手書き位置情報の座標のペアであることを示す識別子とともに座標のペアを受信し、座標のペアのうち最新の座標に当該識別子を対応付けて手書き位置情報記憶部132に記憶する。同様に、受信部142は、削除位置情報を受信する場合、削除位置情報の座標のペアであることを示す識別子とともに座標のペアを受信し、座標のペアのうち最新の座標に当該識別子を対応付けて手書き位置情報記憶部132に記憶する。
図15は、変形例2の手書き位置情報記憶部132に記憶されている手書き位置情報及び削除位置情報の一例を示す図である。図15に示す例では、種別“1”が手書き位置情報を示し、種別“0”が削除位置情報を示している。これにより、手書き位置情報記憶部132に記憶されている座標が、手書き位置情報の座標であるか削除情報の座標であるかを識別できる。
生成部143は、受信部142により受信された手書き位置情報及び削除位置情報を用いて手書き画像データを生成する。生成部143は、例えば、図15に示す手書き位置情報及び削除位置情報を用いて、時系列で隣接する手書き位置情報の座標を線で結ぶとともに、時系列で隣接する削除位置情報の座標を結ぶ線を削除することにより、図16に示す手書き画像データを生成する。
合成部144は、画面データと生成部143により生成された手書き画像データとを合成して合成画面データを生成する。合成部144は、例えば、図3に示す画面データと図16に示す手書き画像データとを合成することで、図17に示す合成画面データを生成する。
以上のように変形例2によれば、タブレット160は、手書き情報を削除した場合、削除位置情報をプロジェクタ110に送信するので、プロジェクタ110において手書き情報の削除を反映した合成画面データを生成し、投影することができる。
(変形例3)
変形例3では、指定された入力時刻に入力された手書き情報を画面に合成して投影する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、その説明を省略する。
変形例3のプロジェクタ110について説明する。
受信部142は、タブレット160から手書き位置情報を受信し、受信した手書き位置情報と当該手書き位置情報の入力時刻を示す入力時刻情報とを対応付けて手書き位置情報記憶部132に記憶する。具体的には、受信部142は、タブレット160で手書き情報の入力が行われている間、タブレット160から座標のペアを順次受信し、座標のペアのうち最新の座標と当該座標の入力時刻を示す入力時刻情報とを対応付けて手書き位置情報記憶部132に記憶する。図18は、変形例3の手書き位置情報記憶部132に記憶されている手書き位置情報の一例を示す図である。図18に示す例では、手書き位置情報の座標に当該座標の入力時刻が対応付けられている。
なお変形例2では、手書き位置情報の入力時刻は、受信部142が当該手書き位置情報を受信した時刻とするが、これに限定されるものではない。例えば、手書き位置情報の入力時刻は、タブレット160に入力された時刻としてもよい。この場合、受信部142は、手書き位置情報の入力時刻をタブレット160から受信する。
また受信部142は、タブレット160から、手書き情報のうち再現する部分の入力時刻を指定する時刻指定情報を受信する。
生成部143は、手書き位置情報記憶部132から、手書き位置情報のうち受信部142により受信された時刻指定情報で指定された入力時刻に対応する部分の手書き位置情報を取得し、取得した手書き位置情報を用いて、手書き情報のうち再現する部分の手書き画像データを生成する。
例えば、受信部142により受信された時刻指定情報で指定された入力時刻が10:00〜10:05であるとする。この場合、生成部143は、手書き位置情報記憶部132から、図18に示す手書き位置情報のうち入力時刻が10:00に対応付けられた手書き位置情報を取得し、取得した手書き位置情報を用いて、図16に示す手書き画像データを生成する。
合成部144は、画面データと生成部143により生成された手書き画像データとを合成して合成画面データを生成する。合成部144は、例えば、図3に示す画面データと図16に示す手書き画像データとを合成することで、図17に示す合成画面データを生成する。
変形例3のタブレット160について説明する。
送信部185は、手書き情報のうち再現する部分の入力時刻を指定する時刻指定情報をプロジェクタ110に受信する。
図19は、変形例3の画像合成システム100で実行される投影処理の一例を示すシーケンス図である。
まず、タブレット160の制御部180は、プロジェクタ110に対して手書き位置情報の入力時刻情報を要求する(ステップS601)。
続いて、プロジェクタ110の制御部140は、タブレット160から入力時刻情報の要求を受け付け、手書き位置情報記憶部132から入力時刻情報を取得し(ステップS602)、取得した入力時刻情報(入力時刻の範囲)をタブレット160に送信する(ステップS603)。例えば、制御部140は、図18に示す手書き位置情報の場合、10:00〜10:10を示す入力時刻情報をタブレット160に送信する。
続いて、タブレット160の制御部180は、プロジェクタ110から入力時刻情報を受信し、受信した入力時刻情報を操作表示部172に表示させ、ユーザから時刻指定情報の入力を受け付ける。そして、タブレット160の送信部185は、入力された時刻指定情報をプロジェクタ110に送信する(ステップS604)。
続いて、プロジェクタ110の受信部142は、タブレット160から時刻指定情報を受信する。そして、プロジェクタ110の生成部143は、手書き位置情報記憶部132から、手書き位置情報のうち受信部142により受信された時刻指定情報で指定された入力時刻に対応する部分の手書き位置情報を取得し、取得した手書き位置情報を用いて、手書き情報のうち再現する部分の手書き画像データを生成し、画像データ記憶部131に記憶する(ステップS605)。
続いて、プロジェクタ110の合成部144は、画像データ記憶部131に記憶されている画面データと手書き画像データとを合成して合成画面データを生成し、画像データ記憶部131に記憶する(ステップS606)。
続いて、プロジェクタ110の投影部150は、制御部140により画像データ記憶部131に記憶されている合成画面データが転送されると、当該合成画面データに基づく画面を投影する(ステップS607)。
以上のように変形例3によれば、プロジェクタ110は、特定の時間帯に入力された手書き情報のみを反映した合成画面データを生成し、投影することができるので、会議や授業などに好適である。
(第2実施形態)
第2実施形態では、タブレットが複数存在する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図20は、第2実施形態の画像合成システム200の構成の一例を示すブロック図である。図20に示すように、画像合成システム200は、プロジェクタ210と、複数のタブレット260A〜260Bとを、備える。プロジェクタ210と複数のタブレット260A〜260Bは、ネットワーク101を介して接続されている。なお、タブレットの台数は、2台以上であれば何台であってもよい。
図21は、第2実施形態のタブレット260A、Bの構成の一例を示すブロック図である。タブレット260A、Bは、制御部280の送信部285が第1実施形態のタブレット160と相違する。
送信部285は、取得部183により取得された手書き位置情報とともに自身のタブレットを識別する端末識別情報をプロジェクタ110に送信する。例えば、タブレット160Aの送信部285であれば、タブレット160Aの端末識別情報を送信し、タブレット160Bの送信部285であれば、タブレット160Bの端末識別情報を送信する。これにより、プロジェクタ210において、いずれのタブレットの手書き位置情報か識別できる。
図22は、第2実施形態のプロジェクタ210の構成の一例を示すブロック図である。プロジェクタ210は、記憶部230の画像データ記憶部231及び手書き位置情報記憶部232、並びに制御部240の配信部241、受信部242、生成部243、及び合成部244が第1実施形態のプロジェクタ110と相違する。
配信部241は、画面データをタブレット260A、Bに配信する。
受信部242は、タブレット260A、Bから手書き位置情報を受信し、手書き位置情報記憶部232に記憶する。受信部242は、送信元のタブレットの端末識別情報とともに手書き位置情報を受信するので、タブレットの端末識別情報毎に手書き位置情報を手書き位置情報記憶部232に記憶する。
図23は、第2実施形態の手書き位置情報記憶部232に記憶されている手書き位置情報の一例を示す図である。図23に示す例では、“A”を示す端末識別情報、“B”を示す端末識別情報それぞれに、座標が対応付けられている。なお、“A”はタブレット260Aを表し、“B”はタブレット260Bを表す。これにより、手書き位置情報記憶部132に記憶されている座標が、タブレット260Aの座標であるかタブレット260Bの座標であるかを識別できる。
生成部243は、受信部242により受信されたタブレット260Aの手書き位置情報を用いてタブレット260Aの手書き画像データを生成するとともに、受信部242により受信されたタブレット260Bの手書き位置情報を用いてタブレット260Bの手書き画像データを生成する。
例えば、生成部243は、手書き位置情報記憶部232から、図23に示す手書き位置情報のうち“A”を示す端末識別情報に対応付けられている手書き位置情報を取得し、図16に示すタブレット260Aの手書き画像データを生成して、画像データ記憶部231に記憶する。また例えば、生成部243は、手書き位置情報記憶部232から、図23に示す手書き位置情報のうち“B”を示す端末識別情報に対応付けられている手書き位置情報を取得し、図24に示すタブレット260Bの手書き画像データを生成して、画像データ記憶部231に記憶する。
合成部244は、画面データ、生成部243により生成されたタブレット260Aの手書き画像データ、及びタブレット260Bの手書き画像データを合成して合成画面データを生成し、画像データ記憶部231に記憶する。合成部344は、例えば、図3に示す画面データと図16に示すタブレット260Aの手書き画像データと図24に示すタブレット260Bの手書き画像データとを合成することで、図7に示す合成画面データを生成する。
図25は、第2実施形態の画像合成システム200で実行される投影処理の一例を示すシーケンス図である。
まず、タブレット260Bの取得部183は、操作表示部172に表示されている画面に対するユーザからの手書き情報の入力を受け付け、当該手書き情報の位置を示す手書き位置情報を取得する(ステップS701)。
続いて、タブレット260Bの送信部285は、取得部183により取得された手書き位置情報をプロジェクタ210に送信する(ステップS702)。
続いて、タブレット260Aの取得部183は、操作表示部172に表示されている画面に対するユーザからの手書き情報の入力を受け付け、当該手書き情報の位置を示す手書き位置情報を取得する(ステップS703)。
続いて、タブレット260Aの送信部285は、取得部183により取得された手書き位置情報をプロジェクタ210に送信する(ステップS704)。
続いて、プロジェクタ210の受信部242は、タブレット260A、Bから手書き位置情報を受信し、タブレット毎に手書き位置情報を手書き位置情報記憶部232に記憶する。そして、プロジェクタ210の生成部243は、手書き位置情報記憶部232に記憶されているタブレット260Aの手書き位置情報を用いてタブレット260Aの手書き画像データを生成するとともに、タブレット260Bの手書き位置情報を用いてタブレット260Bの手書き画像データを生成し、画像データ記憶部231に記憶する(ステップS705)。
続いて、プロジェクタ210の合成部244は、画像データ記憶部231に記憶されている画面データとタブレット260Aの手書き画像データとタブレット260Bの手書き画像データを合成して合成画面データを生成し、画像データ記憶部231に記憶する(ステップS706)。
続いて、プロジェクタ210の投影部150は、制御部240により画像データ記憶部231に記憶されている合成画面データが転送されると、当該合成画面データに基づく画面を投影する(ステップS707)。
以上のように第2実施形態によれば、複数のタブレットから入力された手書き情報を反映した合成画面データを生成し、投影することができるので、会議や授業などに好適である。
(第3実施形態)
第3実施形態では、タブレットに応じて手書き画像データの合成色を変更する例について説明する。なお以下では、第2実施形態との相違点の説明を主に行い、第2実施形態と同様の機能を有する構成要素については、第2実施形態と同様の名称・符号を付し、その説明を省略する。
図26は、第3実施形態の画像合成システム300のプロジェクタ310の構成の一例を示すブロック図である。プロジェクタ310は、記憶部330が合成色テーブル記憶部333を含む点、及び制御部340の合成部344が第2実施形態のプロジェクタ210と相違する。
合成色テーブル記憶部333は、タブレットを識別する端末識別情報と手書き画像データの合成色を示す色情報とを対応付けた合成色テーブルを記憶する。図27は、第3実施形態の合成色テーブル記憶部333に記憶されている合成色テーブルの一例を示す図である。図27に示す例では、“A”を示す端末識別情報と赤を示す色情報とが対応付けられており、“B”を示す端末識別情報と青を示す色情報とが対応付けられている。
合成部344は、合成色テーブルを参照し、タブレット260Aの端末識別情報に対応付けられた色情報が示す色でタブレット260Aの手書き画像データを画面データに合成し、タブレット260Bの端末識別情報に対応付けられた色情報が示す色でタブレット260Bの手書き画像データを画面データに合成する。
例えば、合成部344は、図27に示す合成色テーブルを参照し、“A”を示す端末識別情報に対応付けられた色情報が示す赤色でタブレット260Aの手書き画像データを画面データに合成し、“B”を示す端末識別情報に対応付けられた色情報が示す青色でタブレット260Bの手書き画像データを画面データに合成する。
以上のように第3実施形態によれば、複数のタブレットから入力された手書き情報を反映した合成画面データを生成して投影する場合に、タブレットに応じて手書き情報を色分けすることができるので、視認性を高めることができ、会議や授業などに好適である。
(第4実施形態)
第4実施形態では、タブレットに応じて手書き画像データを合成するか否かを切り替える例について説明する。なお以下では、第2実施形態との相違点の説明を主に行い、第2実施形態と同様の機能を有する構成要素については、第2実施形態と同様の名称・符号を付し、その説明を省略する。
図28は、第4実施形態の画像合成システム400のプロジェクタ410の構成の一例を示すブロック図である。プロジェクタ410は、記憶部430が合成判別テーブル記憶部433を含む点、及び制御部440の合成部444が第2実施形態のプロジェクタ210と相違する。
合成判別テーブル記憶部433は、タブレットを識別する端末識別情報と手書き画像データを合成するか否かを示す合成有無情報とを対応付けた合成判別テーブルを記憶する。図29は、第4実施形態の合成判別テーブル記憶部433に記憶されている合成判別テーブルの一例を示す図である。図29に示す例では、“A”を示す端末識別情報と有を示す合成有無情報とが対応付けられており、“B”を示す端末識別情報と無を示す合成有無情報とが対応付けられている。
合成部444は、合成判別テーブルを参照し、タブレット260Aの端末識別情報に対応付けられた合成有無情報が合成有を示す場合、タブレット260Aの手書き画像データを画面データに合成し、タブレット260Bの端末識別情報に対応付けられた合成有無情報が合成無を示す場合、タブレット260Bの手書き画像データを画面データに合成する。
例えば、合成部444は、図29に示す合成判別テーブルを参照し、“A”を示す端末識別情報に対応付けられた合成有無情報が有を示すので、タブレット260Aの手書き画像データを画面データに合成する。一方、合成部444は、“B”を示す端末識別情報に対応付けられ合成有無情報が無を示すので、タブレット260Bの手書き画像データは画面データに合成しない。つまり、合成部444は、タブレット260Aの手書き画像データのみを画面データに合成して合成画面データを生成する。
図30は、第4実施形態の画像合成システム400で実行される合成判別テーブル更新処理の一例を示すシーケンス図である。
まず、タブレット260Aの制御部280は、プロジェクタ410に対して合成判別テーブルを要求する(ステップS801)。
続いて、プロジェクタ410の制御部440は、タブレット260Aから合成判別テーブルの要求を受け付け、合成判別テーブル記憶部433から合成判別テーブルを取得し(ステップS802)、取得した合成判別テーブルをタブレット260Aに送信する(ステップS803)。
続いて、タブレット260Aの制御部280は、プロジェクタ410から合成判別テーブルを受信し、受信した合成判別テーブルを操作表示部172に表示させ、ユーザから更新入力を受け付け、合成判別テーブルの内容(合成有無情報)を更新する(ステップS804)。そして、制御部280は、更新された合成判別テーブルをプロジェクタ410に送信する(ステップS805)。
続いて、プロジェクタ410の制御部440は、タブレット260Aから合成判別テーブルを受信し、受信した合成判別テーブルで合成判別テーブル記憶部433に記憶されている合成判別テーブルを更新する(ステップS806)。
なお、図30では、タブレット260Aが合成判別テーブルを更新する例について説明したが、いずれのタブレットからでも合成判別テーブルを更新できる。
以上のように第4実施形態によれば、複数のタブレットから入力された手書き情報のうち特定のタブレットから入力された手書き情報のみを反映した合成画面データを生成して投影するので、会議や授業などに好適である。また第4実施形態によれば、いずれのタブレットからでも手書き情報を反映させるタブレットを切り替えることができるので、会議や授業などに好適である。
(第5実施形態)
第5実施形態では、タブレットの表示画面をプロジェクタの投影画面と同期する例について説明する。なお以下では、第2実施形態との相違点の説明を主に行い、第2実施形態と同様の機能を有する構成要素については、第2実施形態と同様の名称・符号を付し、その説明を省略する。
図31は、第5実施形態の画像合成システム500のプロジェクタ510の構成の一例を示すブロック図である。プロジェクタ510は、記憶部530が同期判別テーブル記憶部533を含む点、記憶部530の画像データ記憶部531、並びに制御部540の配信部541及び合成部544が第2実施形態のプロジェクタ210と相違する。
同期判別テーブル記憶部533は、タブレットを識別する端末識別情報と、投影されている画面と同期するか否かを示す同期有無情報と、を対応付けた同期判別テーブルを記憶する。なお同期判別テーブルは、同期無を示す同期有無情報には、合成対象の手書き情報が生成された端末装置の端末識別情報である同期対象端末識別情報を対応付ける。
図32は、第5実施形態の同期判別テーブル記憶部533に記憶されている同期判別テーブルの一例を示す図である。図32に示す例では、“A”を示す端末識別情報と有を示す同期有無情報とが対応付けられており、“B”を示す端末識別情報と無を示す同期有無情報とが対応付けられている。なお、“B”を示す端末識別情報には、無を示す同期有無情報が対応付けられているため、“A”を示す同期対象端末識別情報が対応付けられている。
合成部544は、合成画面データを生成する。例えば、合成部444は、図7に示す合成画面データを生成する。
合成部544は、更に、同期判別テーブルを参照し、同期対象端末識別情報が示すタブレットの手書き情報から生成された手書き画像データと画面データとを合成して配信用合成画面データを生成し、画像データ記憶部531に記憶する。例えば、合成部544は、図32に示す同期判別テーブルを参照し、“B”を示す端末識別情報に対応付けられた同期対象端末識別情報が“A”を示すので、図16に示すタブレット260Aの手書き画像データを図3に示す画面データに合成して、図17に示す配信用合成画面データを生成する。
配信部541は、同期判別テーブルを参照し、タブレット560A、560Bのうち同期有を示す同期有無情報に対応付けられたタブレットに合成画面データを配信する。例えば、配信部541は、図32に示す同期判別テーブルを参照し、“A”を示す端末識別情報に対応付けられた同期有無情報が有を示すので、タブレット560Aに図7に示す合成画面データを配信する。
また配信部541は、同期判別テーブルを参照し、タブレット560A、560Bのうち同期対象端末識別情報が対応付けられた端末識別情報が示すタブレットに配信用合成画面データを配信する。例えば、配信部541は、図32に示す同期判別テーブルを参照し、“B”を示す端末識別情報に対応付けられた同期対象端末識別情報が“A”を示すので、タブレット560Bに図17に示す配信用合成画面データを配信する。
図33は、第5実施形態の画像合成システム500のタブレット560A、Bの構成の一例を示すブロック図である。タブレット560A、Bは、記憶部574、制御部580の受信部581、表示制御部582、及び合成部584が第2実施形態のプロジェクタ210と相違する。
受信部581は、プロジェクタ510から合成画面データ又は配信用合成画面データを受信する。例えば、タブレット560Aの受信部581であれば、プロジェクタ510から図7に示す合成画面データを受信し、タブレット560Bの受信部581であれば、プロジェクタ510から図17に示す配信用合成画面データを受信する。
表示制御部582は、受信部581により受信された合成画面データ又は配信用合成画面データに基づく画面を操作表示部172に表示させる。例えば、タブレット560Aの表示制御部582であれば、受信部581により受信された図7に示す合成画面データに基づく画面を操作表示部172に表示させ、タブレット560Bの表示制御部582であれば、受信部581により受信された図17に示す配信用合成画面データに基づく画面を操作表示部172に表示させる。
合成部584は、生成した手書き画像データと受信部581により受信された合成画面データ又は配信用合成画面データとを合成して合成画面データを生成する。
図34は、第5実施形態のプロジェクタ510で実行される配信処理の一例を示すフローチャート図である。
ステップS901〜S902までの処理は、図13のフローチャートのステップS404〜S405までの処理と同様である。
続いて、合成部544は、同期判別テーブルにおいて全てのタブレットの同期有無の確認を完了していなければ(ステップS903でYes)、未確認の端末識別情報に対応付けられた同期有無情報が有を示すか否かを確認する(ステップS904)。なお、同期判別テーブルにおいて全てのタブレットの同期有無の確認を完了している場合(ステップS903でNo)、処理は終了となる。
同期有無情報が有を示す場合(ステップS904でYes)、配信部541は、当該同期有無情報が対応付けられた端末識別情報が示すタブレットに合成画面データを配信し(ステップS905)、ステップS903に戻る。
一方、同期有無情報が無を示す場合(ステップS904でNo)、合成部544は、当該同期有無情報が対応付けられた同期対象端末識別情報が示すタブレットの手書き画像データを画面データに合成して配信用合成画面データを生成し(ステップS906)、当該同期有無情報が示すタブレットに当該配信用合成画面データを配信し(ステップS907)、ステップS903に戻る。
図35は、第5実施形態の画像合成システム500で実行される同期判別テーブル更新処理の一例を示すシーケンス図である。
まず、タブレット560Aの制御部580は、プロジェクタ510に対して同期判別テーブルの自身(タブレット560A)の情報を要求する(ステップS1001)。
続いて、プロジェクタ510の制御部540は、タブレット560Aからの要求を受け付け、同期判別テーブル記憶部533から同期判別テーブルのタブレット560Aの情報を取得し(ステップS1002)、取得した情報をタブレット560Aに送信する(ステップS1003)。
続いて、タブレット560Aの制御部580は、プロジェクタ510からタブレット560Aの情報を受信し、受信したタブレット560Aの情報を操作表示部172に表示させ、ユーザから更新入力を受け付け、タブレット560Aの情報の内容(同期有無情報、同期対象端末識別情報)を更新する(ステップS1004)。そして、制御部580は、更新されたタブレット560Aの情報をプロジェクタ510に送信する(ステップS1005)。
続いて、プロジェクタ510の制御部540は、タブレット560Aから更新後のタブレット560Aの情報を受信し、受信したタブレット560Aの情報で同期判別テーブルのタブレット560Aの情報を更新する(ステップS1006)。
なお、図35では、タブレット560Aが同期判別テーブルの自身の情報を更新する例について説明したが、いずれのタブレットからでも同期判別テーブルの自身の情報を更新できる。
以上のように第5実施形態によれば、タブレットの表示画面をプロジェクタの投影画面と同期できるので、会議や授業などに好適である。また第5実施形態によれば、タブレットの表示画面をいずれのタブレットの手書き情報を合成した画面とすることができるので、会議や授業などに好適である。
(変形例4)
なお、本発明は、上記各実施形態に限定されるものではなく、種々の変形が可能である。例えば、変形例1〜3、第2〜第5実施形態を適宜組み合わせたりするようにしてもよい。
(ハードウェア構成)
上記各実施形態及び変形例のプロジェクタは、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDDやリムーバブルドライブ装置などの外部記憶装置と、投影装置と、通信インタフェースなどの通信装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
上記各実施形態及び変形例のタブレットは、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDDやリムーバブルドライブ装置などの外部記憶装置と、ディスプレイなどの表示装置と、キーボードやマウスなどの入力装置と、通信インタフェースなどの通信装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
上記各実施形態及び変形例のプロジェクタやタブレットで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
また、上記各実施形態及び変形例のプロジェクタやタブレットで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態及び変形例のプロジェクタやタブレットで実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記各実施形態及び変形例のプロジェクタやタブレットで実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
上記各実施形態及び変形例のプロジェクタやタブレットで実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがHDDからプログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
100、200、300、400、500 画像合成システム
101 ネットワーク
110、210、310、410、510 プロジェクタ
120 通信部
130、230、330、430、530 記憶部
131、231、531 画像データ記憶部
132、232 手書き位置情報記憶部
140、240、340、440、540 制御部
141、241、541 配信部
142、242 受信部
143、243 生成部
144、244、344、444、544 合成部
150 投影部
160、260A、260B、560A、560B タブレット
170 通信部
172 操作表示部
174、574 記憶部
180、280、580 制御部
181、581 受信部
182、582 表示制御部
183 取得部
184、584 合成部
185、285 送信部
333 合成色テーブル記憶部
433 合成判別テーブル記憶部
533 同期判別テーブル記憶部
特開2005−79913号公報

Claims (10)

  1. 第1端末装置と、当該第1端末装置とネットワークを介して接続される画像合成装置とを、備える画像合成システムであって、
    前記第1端末装置は、
    前記画像合成装置から画面用の画像データである画面データを受信する受信部と、
    前記画面データに基づく画面を変倍操作で設定された変倍率で変倍して表示部に表示させる表示制御部と、
    前記変倍して表示された画面に対するタッチ入力を受け付ける毎に、当該タッチ入力が行われた位置を示す第1手書き位置情報を取得し、当該第1手書き位置情報を前記変倍率の逆数で変倍する取得部と、
    前記第1手書き位置情報が取得されて変倍される毎に、当該変倍された第1手書き位置情報を前記画像合成装置に送信する送信部と、を備え、
    前記画像合成装置は、
    前記画面データを前記第1端末装置に配信する配信部と、
    前記第1端末装置から前記変倍された第1手書き位置情報が送信される毎に、当該変倍された第1手書き位置情報を受信し、手書き位置情報記憶部に記憶する受信部と、
    前記変倍された第1手書き位置情報が前記手書き位置情報記憶部に記憶される毎に、当該手書き位置情報記憶部に記憶されている前記変倍された第1手書き位置情報を用いて、前記タッチ入力に基づいて描画された第1手書き情報の画像データである第1手書き画像データを生成する生成部と、
    前記第1手書き画像データが生成される毎に、前記画面データと当該第1手書き画像データとを合成して合成画面データを生成する合成部と、を備える画像合成システム。
  2. 前記受信部は、前記第1手書き情報のうち削除される部分の位置を示す第1削除位置情報を更に受信し、
    前記生成部は、前記第1削除位置情報を更に用いて前記第1手書き画像データを生成する請求項に記載の画像合成システム。
  3. 前記受信部は、前記変倍された第1手書き位置情報と前記第1手書き情報の入力時刻を示す入力時刻情報とを対応付けて前記手書き位置情報記憶部に記憶し
    前記受信部は、更に、前記第1手書き情報のうち再現する部分の入力時刻を指定する時刻指定情報を受信し、
    前記生成部は、前記手書き位置情報記憶部から、前記時刻指定情報で指定された入力時刻を示す入力時刻情報に対応付けられた第1手書き位置情報を取得し、当該第1手書き位置情報を用いて、前記第1手書き情報のうち再現する部分の手書き画像データを生成する請求項に記載の画像合成システム。
  4. 前記画像合成装置は、第2端末装置とネットワークを介して更に接続され、
    前記配信部は、前記画面データを前記第2端末装置に更に配信し、
    前記受信部は、前記第2端末装置上で前記画面データに基づく画面に対してタッチ入力が行われた位置を示す第2手書き位置情報を更に受信し前記手書き位置情報記憶部に記憶し、
    前記生成部は、前記第2手書き位置情報が前記手書き位置情報記憶部に記憶される毎に、当該手書き位置情報記憶部に記憶されている前記第2手書き位置情報を用いて、前記第2端末装置上でのタッチ入力に基づいて描画された第2手書き情報の画像データである第2手書き画像データを更に生成し、
    前記合成部は、前記第2手書き画像データを更に合成して前記合成画面データを生成する請求項2又は3に記載の画像合成システム。
  5. 前記画像合成装置は、
    端末装置を識別する端末識別情報と手書き画像データの合成色を示す色情報とを対応付けた合成色テーブルを記憶する合成色テーブル記憶部を更に備え、
    前記受信部は、前記第1手書き位置情報とともに前記第1端末装置の端末識別情報である第1端末識別情報を受信し、前記第2手書き位置情報とともに前記第2端末装置の端末識別情報である第2端末識別情報を受信し、
    前記合成部は、前記合成色テーブルを参照し、前記第1端末識別情報に対応付けられた色情報が示す合成色で前記第1手書き画像データを前記画面データに合成し、前記第2端末識別情報に対応付けられた色情報が示す合成色で前記第2手書き画像データを前記画面データに合成する請求項に記載の画像合成システム。
  6. 前記画像合成装置は、
    端末装置を識別する端末識別情報と手書き画像データを合成するか否かを示す合成有無情報とを対応付けた合成判別テーブルを記憶する合成判別テーブル記憶部を更に備え、
    前記受信部は、前記第1手書き位置情報とともに前記第1端末装置の端末識別情報である第1端末識別情報を受信し、前記第2手書き位置情報とともに前記第2端末装置の端末識別情報である第2端末識別情報を受信し、
    前記合成部は、前記合成判別テーブルを参照し、前記第1端末識別情報に対応付けられた合成有無情報が合成有を示す場合、前記画面データに前記第1手書き画像データを合成し、前記第2端末識別情報に対応付けられた合成有無情報が合成有を示す場合、前記画面データに前記第2手書き画像データを合成する請求項4又は5に記載の画像合成システム。
  7. 前記画像合成装置は、
    前記画面データに基づく画面を投影し、前記合成画面データが生成されると、当該合成画面データに基づく画面を投影する投影部を更に備える請求項1〜6のいずれか1つに記載の画像合成システム。
  8. 前記画像合成装置は、
    前記画面データに基づく画面を投影し、前記合成画面データが生成されると、当該合成画面データに基づく画面を投影する投影部と、
    端末装置を識別する端末識別情報と、投影されている画面と同期するか否かを示す同期有無情報と、を対応付けた同期判別テーブルを記憶する同期判別テーブル記憶部とを更に備え、
    前記配信部は、前記同期判別テーブルを参照し、前記第1端末装置及び前記第2端末装置のうち同期有を示す同期有無情報に対応付けられた端末装置に前記合成画面データを配信する請求項4〜6のいずれか1つに記載の画像合成システム。
  9. 前記同期判別テーブルは、同期無を示す同期有無情報に、合成対象の手書き情報が生成された端末装置の端末識別情報である同期対象端末識別情報を対応付け、
    前記合成部は、前記同期判別テーブルを参照し、前記同期対象端末識別情報が示す端末装置の手書き情報から生成された手書き画像データと前記画面データとを合成して配信用合成画面データを生成し、
    前記配信部は、前記同期判別テーブルを参照し、前記第1端末装置及び前記第2端末装置のうち前記同期対象端末識別情報が対応付けられた前記端末識別情報が示す端末装置に前記配信用合成画面データを配信する請求項に記載の画像合成システム。
  10. 画像合成装置と、当該画像合成装置とネットワークを介して接続されるコンピュータで実行されるプログラムとを、備える画像合成システムであって、
    前記プログラムは、
    前記画像合成装置から画面用の画像データである画面データを受信する受信部と、
    前記画面データに基づく画面を変倍操作で設定された変倍率で変倍して表示部に表示させる表示制御部と、
    前記変倍して表示された画面に対するタッチ入力を受け付ける毎に、当該タッチ入力が行われた位置を示す手書き位置情報を取得し、当該手書き位置情報を前記変倍率の逆数で変倍する取得部と、
    前記手書き位置情報が取得されて変倍される毎に、当該変倍された手書き位置情報を前記画像合成装置に送信する送信部として、前記コンピュータを機能させ、
    前記画像合成装置は、
    前記画面データを前記コンピュータに配信する配信部と、
    前記コンピュータから前記変倍された手書き位置情報が送信される毎に、当該変倍された手書き位置情報を受信し、手書き位置情報記憶部に記憶する受信部と、
    前記変倍された手書き位置情報が前記手書き位置情報記憶部に記憶される毎に、当該手書き位置情報記憶部に記憶されている前記変倍された手書き位置情報を用いて、前記タッチ入力に基づいて描画された手書き情報の画像データである手書き画像データを生成する生成部と、
    前記手書き画像データが生成される毎に、前記画面データと当該手書き画像データとを合成して合成画面データを生成する合成部と、を備える画像合成システム。
JP2011286230A 2011-12-27 2011-12-27 画像合成システム Expired - Fee Related JP6051521B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011286230A JP6051521B2 (ja) 2011-12-27 2011-12-27 画像合成システム
US13/724,158 US9875571B2 (en) 2011-12-27 2012-12-21 Image combining apparatus, terminal device, and image combining system including the image combining apparatus and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286230A JP6051521B2 (ja) 2011-12-27 2011-12-27 画像合成システム

Publications (2)

Publication Number Publication Date
JP2013135422A JP2013135422A (ja) 2013-07-08
JP6051521B2 true JP6051521B2 (ja) 2016-12-27

Family

ID=48654075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286230A Expired - Fee Related JP6051521B2 (ja) 2011-12-27 2011-12-27 画像合成システム

Country Status (2)

Country Link
US (1) US9875571B2 (ja)
JP (1) JP6051521B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464692B2 (ja) 2014-11-19 2019-02-06 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6623876B2 (ja) * 2016-03-24 2019-12-25 富士通株式会社 描画処理装置、方法、及びプログラム
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
JP7310252B2 (ja) 2019-04-19 2023-07-19 株式会社リコー 動画生成装置、動画生成方法、プログラム、記憶媒体
TWI737138B (zh) * 2020-01-22 2021-08-21 明基電通股份有限公司 投影機推薦方法及投影機推薦系統

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5886588A (ja) 1981-11-18 1983-05-24 株式会社東芝 付加表示機能を有する表示システム
JPH01125187A (ja) * 1987-11-10 1989-05-17 Mitsubishi Electric Corp 電子会議システム
JPH02188818A (ja) * 1989-01-18 1990-07-24 Hitachi Ltd 手書き入出力装置並びにこの手書き入出力装置を用いた手書き入力システム
JP3059228B2 (ja) * 1991-02-28 2000-07-04 株式会社日立製作所 情報処理装置
US6141000A (en) * 1991-10-21 2000-10-31 Smart Technologies Inc. Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing
JP3178871B2 (ja) 1991-12-18 2001-06-25 松下電器産業株式会社 画像通信装置
JP3526067B2 (ja) * 1993-03-15 2004-05-10 株式会社東芝 再生装置及び再生方法
US5818616A (en) * 1993-08-23 1998-10-06 Canon Kabushiki Kaisha Optical communication apparatus and conference system
JP3237339B2 (ja) * 1993-09-30 2001-12-10 日立ソフトウエアエンジニアリング株式会社 手書き入力会議システム
US5583980A (en) * 1993-12-22 1996-12-10 Knowledge Media Inc. Time-synchronized annotation method
US5730602A (en) * 1995-04-28 1998-03-24 Penmanship, Inc. Computerized method and apparatus for teaching handwriting
JP2827984B2 (ja) 1995-09-29 1998-11-25 日本電気株式会社 プレゼンテーション装置
US6084584A (en) * 1996-10-01 2000-07-04 Diamond Multimedia Systems, Inc. Computer system supporting portable interactive graphics display tablet and communications systems
US6388654B1 (en) * 1997-10-03 2002-05-14 Tegrity, Inc. Method and apparatus for processing, displaying and communicating images
JPH11237866A (ja) 1998-02-20 1999-08-31 Ricoh Co Ltd 画像表示装置
CA2267733A1 (en) * 1998-04-06 1999-10-06 Smart Technologies, Inc. Method for editing objects representing writing on an electronic writeboard
US6211863B1 (en) * 1998-05-14 2001-04-03 Virtual Ink. Corp. Method and software for enabling use of transcription system as a mouse
JP2000043484A (ja) * 1998-07-30 2000-02-15 Ricoh Co Ltd 電子黒板システム
US7330875B1 (en) * 1999-06-15 2008-02-12 Microsoft Corporation System and method for recording a presentation for on-demand viewing over a computer network
US6763373B2 (en) * 1999-10-13 2004-07-13 Datahouse Labs, Inc. Method and system for creating and sending handwritten or handdrawn messages
JP4348831B2 (ja) * 2000-04-28 2009-10-21 ブラザー工業株式会社 手書き入力データ表示システム,座標データ入力装置,表示装置及び手書き入力データ表示装置
MC200048A1 (fr) * 2000-07-31 2002-07-02 Gerard Popineau Dispositif de commande d'un systeme informatique
CA2425746C (en) * 2000-11-13 2010-01-12 Gtco Cal Comp Collaborative input system
US7346841B2 (en) * 2000-12-19 2008-03-18 Xerox Corporation Method and apparatus for collaborative annotation of a document
US7120320B2 (en) * 2001-09-21 2006-10-10 Anoto Ab Method and apparatus for displaying a handwritten message based on position and time data
US6983370B2 (en) * 2001-11-27 2006-01-03 Motorola, Inc. System for providing continuity between messaging clients and method therefor
TW532679U (en) * 2001-12-20 2003-05-11 Ace Cad Entpr Co Ltd Mobile phone pen-type input device
JP2003198870A (ja) * 2001-12-25 2003-07-11 Seiko Epson Corp プロジェクタのワイヤレス制御システム及びワイヤレス制御方法
US7018043B2 (en) * 2001-12-26 2006-03-28 Infocus Corporation Projector device user interface system
JP4147807B2 (ja) * 2002-04-15 2008-09-10 株式会社日立製作所 消去機能付電子ペン
CN1268122C (zh) * 2002-07-23 2006-08-02 精工爱普生株式会社 显示方法及投影机
JP4087203B2 (ja) * 2002-09-20 2008-05-21 株式会社リコー 画面データ管理装置、画面データ管理システム、画面データ管理方法、および画面データ管理プログラム
JP4244614B2 (ja) * 2002-10-31 2009-03-25 株式会社日立製作所 手書き入力装置、プログラムおよび手書き入力方法システム
US7129934B2 (en) * 2003-01-31 2006-10-31 Hewlett-Packard Development Company, L.P. Collaborative markup projection system
BRPI0406218A (pt) * 2003-03-31 2005-08-09 Samsung Electronics Co Ltd Aparelho de gravação e/ou reprodução que reproduz dados de áudio e/ou vìdeo (av) lidos de uma mìdia de armazenamento em um modo interativo, aparelho de gravação e/ou reprodução que reproduz primeiros dados e dados interativos lidos de uma mìdia de armazenamento em um modo interativo, método de gerenciamento de uma memória de armazenamento temporário ("buffer") de enav em um aparelho interativo para utilização em um modo interativo, método de gerenciamento de uma memória de armazenamento temporário ("buffer") para um serviço de "chat" em um dispositivo interativo possuindo uma memória de armazenamento temporário ("buffer") de enav, mìdia passìvel de leitura em computador, método de gerenciamento de uma memória de armazenamento temporário ("buffer") de um aparelho de gravação e/ou reprodução que reproduz primeiros dados e dados interativos lidos de uma mìdia de armazenamento em um modo interativo, e mìdia de armazenamento de informações
US20040228531A1 (en) * 2003-05-14 2004-11-18 Microsoft Corporation Instant messaging user interfaces
JP4565232B2 (ja) 2003-08-29 2010-10-20 学校法人慶應義塾 講義ビデオ作成システム
JP2005092158A (ja) 2003-09-19 2005-04-07 Ricoh Co Ltd 疑似電子白板装置、疑似電子白板投影方法、および疑似電子白板投影プログラム
US7692636B2 (en) * 2004-09-30 2010-04-06 Microsoft Corporation Systems and methods for handwriting to a screen
JP4235838B2 (ja) * 2006-09-04 2009-03-11 セイコーエプソン株式会社 プロジェクタ、プログラムおよび情報記憶媒体
KR100850313B1 (ko) * 2006-11-01 2008-08-04 이용직 필기형 유무선 복합 인스턴트 메신저 서비스 시스템 및 그서비스 방법
JP2008245005A (ja) * 2007-03-28 2008-10-09 Canon Inc 電子描画装置、その制御方法、及びコンピュータプログラム
US8707176B2 (en) * 2007-04-25 2014-04-22 Canon Kabushiki Kaisha Display control apparatus and display control method
TWI399970B (zh) * 2007-10-12 2013-06-21 Inventec Appliances Corp 行動通訊裝置即時互動方法
JP4865671B2 (ja) * 2007-10-17 2012-02-01 シャープ株式会社 情報表示装置及び情報表示システム
US8187005B1 (en) * 2007-11-13 2012-05-29 Einstruction Corporation Interactive chalkboard
US8275197B2 (en) * 2008-06-14 2012-09-25 Microsoft Corporation Techniques to manage a whiteboard for multimedia conference events
JP5049908B2 (ja) * 2008-07-30 2012-10-17 富士フイルム株式会社 コンテンツ文書再生データ作成装置、方法およびプログラム
JP2010146086A (ja) * 2008-12-16 2010-07-01 Konica Minolta Business Technologies Inc データ配信システム、データ配信装置、データ配信方法およびデータ配信プログラム
JP5170771B2 (ja) * 2009-01-05 2013-03-27 任天堂株式会社 描画処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法
US9134947B2 (en) * 2009-03-31 2015-09-15 Ricoh Company, Ltd. Annotating digital files of a host computer using a peripheral device
JP5487695B2 (ja) * 2009-04-13 2014-05-07 コニカミノルタ株式会社 中継装置、会議支援システム及びプログラム
JP5658547B2 (ja) * 2009-12-29 2015-01-28 シャープ株式会社 ネットワークシステム、通信方法、および通信端末
EP2348487A3 (en) * 2010-01-22 2017-09-13 Samsung Electronics Co., Ltd. Method and apparatus for creating animation message
EP2355472B1 (en) * 2010-01-22 2020-03-04 Samsung Electronics Co., Ltd. Apparatus and method for transmitting and receiving handwriting animation message
JP4957821B2 (ja) * 2010-03-18 2012-06-20 コニカミノルタビジネステクノロジーズ株式会社 会議システム、情報処理装置、表示方法および表示プログラム
KR101182090B1 (ko) * 2010-03-18 2012-09-13 삼성전자주식회사 필기 애니메이션 메시지를 전송하기 위한 장치 및 방법
JP5640468B2 (ja) * 2010-06-01 2014-12-17 大日本印刷株式会社 情報処理システム及びプログラム
US9086798B2 (en) * 2011-03-07 2015-07-21 Ricoh Company, Ltd. Associating information on a whiteboard with a user
US9075561B2 (en) * 2011-07-29 2015-07-07 Apple Inc. Systems, methods, and computer-readable media for managing collaboration on a virtual work of art
US9575712B2 (en) * 2012-11-28 2017-02-21 Microsoft Technology Licensing, Llc Interactive whiteboard sharing

Also Published As

Publication number Publication date
US20130162671A1 (en) 2013-06-27
JP2013135422A (ja) 2013-07-08
US9875571B2 (en) 2018-01-23

Similar Documents

Publication Publication Date Title
CN104221047B (zh) 用于共享演示数据和注释的方法和设备
JP6051521B2 (ja) 画像合成システム
US20130290421A1 (en) Visualization of complex data sets and simultaneous synchronization of such data sets
JP6303446B2 (ja) 情報処理装置、プログラム、情報処理システム、及び情報処理方法
CN106708452B (zh) 一种信息共享方法及终端
JP2015018296A (ja) 表示制御装置、プログラム及び記録媒体
CN102880823A (zh) 信息处理方法及信息处理系统
JP2015087982A (ja) 情報処理装置及び表示拡大方法、並びにコンピュータ・プログラム
JP6321959B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP5842392B2 (ja) コンテンツ共有システム、コンテンツ共有端末、サーバ、コンテンツ共有方法、および、コンピュータ・プログラム
JP2016038728A (ja) 画像表示装置、画像表示装置の制御方法、及びプログラム
JP2011151613A (ja) 情報共有装置、情報共有方法及びプログラム
JP5830055B2 (ja) 画像処理装置および画像処理システム
JP6267381B1 (ja) 看板設置データ生成送信プログラム、看板設置データ生成送信プログラムを実行する情報処理通信端末、情報処理通信サーバ
KR20190137939A (ko) 표시 제어 장치 및 표시 제어 방법
JP2004184576A (ja) プレゼンテーションシステム
JP5678753B2 (ja) 画面同期システムおよび情報処理装置
Chen et al. AR-Span: A Multi-Screen Adaptive Displaying System Using Smart Handheld Devices Based on Mobile Networks
JP2011198012A (ja) プロジェクターおよび投写方法
JP6784966B1 (ja) 画像表示方法、画像表示システム、及び画像表示プログラム
KR101849384B1 (ko) 3d 이미지 표시 시스템
JP2004054828A (ja) 画像処理装置
JP2017111251A (ja) 画像表示システムおよび画像表示方法
JP2017056607A (ja) データ処理装置、データ処理方法、プログラム
JP2014056367A (ja) 画像共有システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R151 Written notification of patent or utility model registration

Ref document number: 6051521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees