JP2015135544A - 表示装置、表示システムおよび表示方法 - Google Patents

表示装置、表示システムおよび表示方法 Download PDF

Info

Publication number
JP2015135544A
JP2015135544A JP2014005751A JP2014005751A JP2015135544A JP 2015135544 A JP2015135544 A JP 2015135544A JP 2014005751 A JP2014005751 A JP 2014005751A JP 2014005751 A JP2014005751 A JP 2014005751A JP 2015135544 A JP2015135544 A JP 2015135544A
Authority
JP
Japan
Prior art keywords
data
object data
display
script
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014005751A
Other languages
English (en)
Other versions
JP6307889B2 (ja
Inventor
太田 浩一郎
Koichiro Ota
浩一郎 太田
一良 北林
Kazuyoshi Kitabayashi
一良 北林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014005751A priority Critical patent/JP6307889B2/ja
Priority to US14/550,315 priority patent/US9489075B2/en
Priority to CN201410708521.2A priority patent/CN104796658B/zh
Priority to EP15150871.0A priority patent/EP2897043B1/en
Publication of JP2015135544A publication Critical patent/JP2015135544A/ja
Priority to US15/287,244 priority patent/US9939943B2/en
Application granted granted Critical
Publication of JP6307889B2 publication Critical patent/JP6307889B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】クライアントにおいて、オブジェクトの表示状態を過去に遡ることを可能にする。
【解決手段】プロジェクター1は、指示体3がスクリーンSC上で移動すると、移動軌跡を示す線のオブジェクトを描画する。プロジェクター1は、オブジェクトを示すオブジェクトデータを生成し、生成したオブジェクトデータをタブレット端末4A,4Bへ送信する。オブジェクトデータには、オブジェクトの生成順番を示す順番情報が含まれる。タブレット端末4A,4Bは、送信されたオブジェクトデータが示すオブジェクトをタッチパネルに表示する。タブレット端末4A,4Bは、表示を戻す操作が行われると、オブジェクトデータに含まれる順番情報に基づいて、オブジェクト単位で表示を戻す。
【選択図】図1

Description

本発明は、表示装置、表示システムおよび表示方法に関する。
特許文献1には、複数の遠隔会議クライアントで画面を共有するシステムが開示されている。このシステムにおいて表示される描画オブジェクトのデータは、遠隔会議サーバーから複数の遠隔会議クライアントへオブジェクト単位で送信される。各遠隔会議クライアントは、各種の属性情報(色、位置、太さなど)を含む描画オブジェクトのデータを保存し、保存したデータに基づいて描画オブジェクトをディスプレイに表示する。
特開2013−65125号公報
画面を共有しながら会議を進める場合、過去の時点まで表示を戻したい場合が生じるが、特許文献1のシステムにおいては、描画オブジェクトを過去の表示状態に戻す仕組みがなく、過去の表示状態を再現することができない。
本発明は、上述した事情に鑑みてなされたものであり、その目的の一つは、クライアントにおいて、オブジェクトの表示状態を過去に遡ることを可能とすることにある。
上記目的を達成するために、本発明に係る表示装置は、映像を表示する表示手段と、前記表示手段の表示領域上の座標を取得する取得手段と、前記取得手段が取得した座標の位置にオブジェクトを表示させるオブジェクト表示手段と、前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成手段と、前記生成手段が生成したオブジェクトデータをクライアントへ送信するデータ送信手段と、前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信手段とを有する。
本発明によれば、クライアントにおいてユーザーにより指定された順番までのオブジェクトが表示されるようにオブジェクトデータに基づいて表示を行うことにより、オブジェクトの表示状態を過去に遡ることができる。
本発明においては、前記クライアントが送信する順番情報を受信する受信手段を有し、前記データ送信手段は、前記生成手段が生成したオブジェクトデータのうち、最初に生成したオブジェクトデータから前記受信手段が受信した順番情報が示す順番までのオブジェクトデータを前記クライアントへ送信する構成としてもよい。
この構成によれば、指定された順番情報までのオブジェクトデータ以外はクライアントへ送信されないため、通信量を抑えることができる。
また、本発明においては、前記受信手段は、前記クライアントが表示する、スライダー形式のユーザーインターフェースにおいて指定された順番情報を受信する構成としてもよい。
この構成においても、指定された順番情報までのオブジェクトデータ以外はクライアントへ送信されないため、通信量を抑えることができる。
また、本発明においては、前記受信手段は、前記クライアントが表示する、前記データ送信手段が送信したオブジェクトデータのオブジェクトのうち、ユーザーにより指定されたオブジェクトに含まれる順番情報を受信する構成としてもよい。
この構成においても、指定された順番情報までのオブジェクトデータ以外はクライアントへ送信されないため、通信量を抑えることができる。
また、本発明においては、収音した音声を示す音声データを生成する音声データ生成手段を有し、前記データ送信手段は、前記音声データのうち、前記受信手段が取得した順番情報が示す順番のオブジェクトデータが生成された時間以降の音声データを前記クライアントへ送信する構成としてもよい。
この構成によれば、過去のオブジェクトの表示状態のときの音声を再生することができる。
また、本発明に係る表示システムは、映像を表示する表示手段と、前記表示手段の表示領域上の座標を取得する取得手段と、前記取得手段が取得した座標の位置にオブジェクトを表示させるオブジェクト表示手段と、前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成手段と、前記生成手段が生成したオブジェクトデータをクライアントへ送信するデータ送信手段と、前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信手段と、を有する表示装置と、前記スクリプトを受信するスクリプト受信手段と、前記スクリプトを実行するスクリプト実行手段と、前記オブジェクトデータを受信するデータ受信手段と、ユーザーにより指定された順番までのオブジェクトが表示されるように、クライアントが有する表示手段を前記オブジェクトデータに基づいて制御する表示制御手段と、を有する端末装置と、を備える。
本発明によれば、クライアントにおいてユーザーにより指定された順番までのオブジェクトが表示されるようにオブジェクトデータに基づいて表示を行い、オブジェクトの表示状態を過去に遡ることができる。
また、本発明に係る表示方法は、表示手段の表示領域にオブジェクトを表示させるオブジェクト表示ステップと、前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成ステップと、前記生成ステップで生成されたオブジェクトデータをクライアントへ送信するデータ送信ステップと、前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信ステップと、前記スクリプトを受信するスクリプト受信ステップと、前記スクリプトを実行するスクリプト実行ステップと、前記オブジェクトデータを受信するデータ受信ステップと、ユーザーにより指定された順番までのオブジェクトが表示されるように、自装置が有する表示手段を前記オブジェクトデータに基づいて制御する表示制御ステップと、を有する。
本発明によれば、クライアントにおいてユーザーにより指定された順番までのオブジェクトが表示されるようにオブジェクトデータに基づいて表示を行い、オブジェクトの表示状態を過去に遡ることができる。
表示システムPS1の全体構成を示した図。 指示体3のハードウェア構成を示した図。 タブレット端末4のハードウェア構成を示した図。 タブレット端末4において実現する機能の構成を示した図。 プロジェクター1のハードウェア構成を示した図。 プロジェクター1において実現する機能の構成を示した図。 実施形態の動作を説明するための図。 実施形態の動作を説明するための図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 スクリーンSCに投射される映像例を示した図。 第2実施形態に係るタブレット端末4のハードウェア構成を示した図。 第2実施形態に係るプロジェクター1のハードウェア構成を示した図。
[第1実施形態]
(全体構成)
図1は、本発明の一実施形態に係る表示システムPS1の全体構成を示す図である。表示システムPS1は、プロジェクター1、指示体3、タッチパネルを有するタブレット端末4A,4B、コントローラーRC、およびスクリーンSCを有する。プロジェクター1とタブレット端末4A,4Bは、無線LAN(Local Area Network)を介して接続される。なお、タブレット端末4Aとタブレット端末4Bの構成は同じであるため、以下、各々を区別する必要のない場合は、タブレット端末4と称する。
本発明に係る表示装置の一例であるプロジェクター1は、外部装置(例えばパーソナルコンピュータ)から供給される映像信号が表す映像を平面のスクリーンSCに投射する装置である。プロジェクター1は、短焦点のフロントプロジェクション型のプロジェクターであり、スクリーンSCに比較的近い位置に配置される。図1の例では、プロジェクター1は、スクリーンSCの上部に配置されている。本実施形態に係るプロジェクター1は、ホワイトボード機能を有しており、指示体3をスクリーンSCの表面で移動させると、指示体3の位置を検知し、指示体3の移動軌跡を表す映像をスクリーンSCに投射する。この機能により、ユーザーは、ホワイトボードにペンで書き込みを行うように、スクリーンSC上にオブジェクト(例えば、線や文字、図形など)を描画することができる。
指示体3は、スクリーンSC上にユーザーがオブジェクトを描画する際に筆記具として用いられるペン型または棒型のデバイスである。コントローラーRCは、無線通信(例えば赤外線通信)によりプロジェクター1を制御するためのリモートコントローラーである。
タブレット端末4は、スクリーンSCに投射されている映像を表示する端末装置の一例である。プロジェクター1のホワイトボード機能により、ユーザーが指示体3を用いてオブジェクトを描画すると、プロジェクター1とタブレット端末4とが無線LANを介して通信を行い、スクリーンSCに投射されている映像と同じ映像がタブレット端末4に表示される。タブレット端末4は、タッチパネル上でユーザーがスタイラスペンまたは指を移動させると、スタイラスペンまたは指の位置を検知し、スタイラスペンまたは指の移動軌跡を表す映像を表示する。これにより、タブレット端末4においては、表示している映像にオブジェクトを書き込むことができる。また、タブレット端末4において表示されている映像にスタイラスペンまたは指でオブジェクトを描画すると、タブレット端末4がプロジェクター1と通信を行い、タブレット端末4で描画されたオブジェクトの映像がスクリーンSCに投射される。
(指示体3の構成)
図2は、指示体3のハードウェア構成を示したブロック図である。指示体3は、制御部30と、圧力センサー31と、通信部32とを有する。圧力センサー31は、指示体3の先端に設けられ、指示体3の先端へ掛かる圧力を検出し、検出した圧力を示す信号を制御部30へ供給する。制御部30は、圧力センサー31から供給された信号に応じて通信部32を制御する。通信部32は、予め定められた波長の光を発するLED(Light Emitting Diode)を有している。制御部30は、圧力センサー31から供給される信号が示す圧力が予め定められた閾値を超えると、LEDが発光するように通信部32を制御する。また、制御部30は、圧力センサー31から供給される信号が示す圧力が予め定められた閾値以下となると、LEDが消灯するように通信部32を制御する。
(タブレット端末4の構成)
図3は、タブレット端末4のハードウェア構成を示したブロック図である。
制御部40は、CPU(Central Processing Unit)やRAM(Random Access Memory)、不揮発性メモリを備えており、CPUが不揮発性メモリに記憶されているプログラムを実行すると、タブレット端末4のオペレーティングシステムが動作し、その上でアプリケーションプログラムの実行が可能となる。
タッチパネル43は、表示装置(例えば液晶ディスプレイ)と、表示装置上でユーザーが触れた位置を検知する静電容量方式の位置入力装置とが一体化したタッチパネルである。操作部41は、タブレット端末4を操作するためのボタンを備えている。通信部45は、無線LANを介して無線通信を行う通信インターフェースである。
記憶部42は、不揮発性メモリを有しており、各種アプリケーションプログラムやアプリケーションプログラムが使用するデータを記憶する。記憶部42は、Webブラウザを実現するプログラムを記憶しており、このプログラムをCPUが実行すると、タブレット端末4においてWebブラウザが実現する。なお、タブレット端末4で実現するWebブラウザは、スクリプト言語を解釈可能であり、プロジェクター1から取得したスクリプトを実行することにより、スクリーンSCに投射されている映像を表示する機能や、Webブラウザで表示されている映像へオブジェクトを書き込む機能、Webブラウザで表示されているオブジェクトを編集する機能などが実現する。
図4は、タブレット端末4において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。座標取得部400は、タッチパネル43において指示体であるスタイラスペンまたは指が接触している位置(座標)を取得する取得手段として機能する。オブジェクト生成部401は、座標取得部400が取得した位置に表示するオブジェクトのオブジェクトデータを生成する生成手段として機能する。オブジェクト表示部402は、座標取得部400が取得した位置にオブジェクトが表示されるようにタッチパネル43を制御する表示制御手段として機能する。また、オブジェクト表示部402は、プロジェクター1から送信されたオブジェクトデータが示すオブジェクトが表示されるようにタッチパネル43を制御する。
データ送信部403は、各種データをプロジェクター1へ送信するデータ送信手段として機能する。スクリプト受信部404は、プロジェクター1から送信されるWebページを受信する。Webページにはスクリプトが含まれており、スクリプト受信部404は、スクリプト受信手段として機能する。データ受信部405は、プロジェクター1から送信されるオブジェクトデータを受信する受信手段として機能する。スクリプト実行部406は、スクリプト受信部404が受信したスクリプトを実行するスクリプト実行手段として機能する。
(プロジェクター1の構成)
図5は、プロジェクター1のハードウェア構成を示したブロック図である。イメージセンサー16は、スクリーンSCを撮像し画像データを生成する固体撮像素子であり、例えば、CMOSイメージセンサーまたはCCDイメージセンサーである。受光部17は、コントローラーRCから送信される赤外線信号を取得し、取得した赤外線信号を示す電気信号を制御部10へ供給する。通信部18は、無線LANを介して無線通信を行う通信インターフェースである。
操作部11は、プロジェクター1を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部10が各部を制御することにより、スクリーンSCに投射される映像の調整や、プロジェクター1が有する各種機能の設定などを行うことができる。
描画部15は、制御部10により制御され、プロジェクター1の各種機能の設定を行うためのメニュー画像や、プロジェクター1が表示する映像を調整するためのメニュー画像や、オブジェクトを表す画像などを生成し、生成した画像を表す信号を映像処理部13へ供給する。
映像処理部13は、外部装置から供給される映像信号や描画部15から供給される信号を取得する。映像処理部13は、複数の映像処理機能を備えており、供給された映像信号に対して各種処理を施す。例えば、映像処理部13は、制御部10により制御され、スクリーンSCに投射する映像の明るさやコントラスト、色の濃さ、色合い、色温度の調整など画質の調整処理を行う。また、映像処理部13は、映像信号に描画部15から供給される信号を重畳して得られた映像信号を表示部14へ供給する。
表示部14は、光源141、ライトバルブ142、駆動回路144及び投射レンズ143を有しており、映像を表示する表示手段の一例である。光源は、光を発するランプであり、光源が発した光は、図示省略した複数のダイクロイックミラーによって赤、緑、青の光に分光され、分光された赤、緑、青の光は図示省略したミラーによってライトバルブ142に導かれる。
駆動回路144は、映像処理部13から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する映像における赤の成分の階調を表す階調データ、投写する映像における緑の成分の階調を表す階調データ及び投写する映像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを取得し、取得した各色の階調データに基づいてライトバルブ142を駆動する。
ライトバルブ142は、赤の光が入射する液晶ライトバルブ、緑の光が入射する液晶ライトバルブ、及び青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した映像となる。液晶ライトバルブを透過した赤、緑、青の光の映像は、図示省略したダイクロイックプリズムにより合成されて投射レンズ143に入射する。投射レンズ143は、入射した映像を拡大するレンズであり、入射した映像を拡大してスクリーンSCに投写する。
制御部10は、CPU、RAMおよび不揮発性メモリを備えており、不揮発性メモリに記憶されているプログラムをCPUが実行すると、プロジェクター1においては、外部装置から入力された映像信号が表す映像をスクリーンに投射する機能や投射する映像のアスペクト比を調整する機能、投射する映像の画質を調整する機能、指示体3の操作に応じてオブジェクトの描画や編集を行う機能、タブレット端末4において描かれたオブジェクトを表示する機能などが実現する。また、不揮発性メモリに記憶されているプログラムを制御部10が実行すると、クライアントサーバーシステムのサーバーとして機能し、クライアントとなるタブレット端末4と通信を行う機能が実現する。なお、プロジェクター1においては、サーバーとして動作する際、クライアントからのリクエストを受け取ると、レスポンスを保留し、プロジェクター1においてイベントが発生すると、レスポンスの保留を解除し、リクエストを送信したクライアントへレスポンスを返す、所謂Cometと呼ばれる機能が実現する。
記憶部12は、不揮発性メモリを有している。記憶部12は、プロジェクター1のユーザーを認証するための情報として、ユーザーを一意に識別するユーザー識別子およびパスワードを記憶する。
また、記憶部12は、ホワイトボード機能で表示する映像に係るデータを記憶する。ホワイトボード機能で表示される映像のデータは、Webページとして記憶され、オブジェクトを書き込む機能やオブジェクトを編集する機能などを実現するスクリプト、表示される映像に含まれるオブジェクトを示すオブジェクトデータが含まれる。オブジェクトデータには、オブジェクトを描画するための情報が含まれており、例えば、オブジェクトが線である場合、線の色、線の太さ、線の座標などのデータが含まれる。また、オブジェクトデータには、オブジェクトが生成された順番を示す順番情報が含まれる。例えば、最初に指示体3で線が描画された後、次に指示体3で円が描画された場合、線のオブジェクトデータには、1番目に生成されたことを示す順番情報の「1」が含まれ、円のオブジェクトデータには、2番目に生成されたことを示す順番情報の「2」が含まれる。
また、オブジェクトデータは、編集に係るデータを含む場合がある。例えば、円の描画を行った後、3番目の操作として、1番目の操作で描画した線を消去する操作が行われた場合、オブジェクトの消去を示すオブジェクトデータが生成される。この消去に係るオブジェクトデータには、1番目に描画された線を消去する場合、消去するオブジェクトの順番情報として「1」が含まれ、オブジェクトデータが生成された順番として、3番目に生成されたオブジェクトデータであることを示す順番情報として「3」が含まれる。
図6は、プロジェクター1において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。座標取得部100は、イメージセンサー16から供給される画像データを解析して指示体3の位置(座標)を取得する取得手段として機能する。オブジェクト生成部101は、座標取得部100が取得した指示体3の位置に表示するオブジェクトのオブジェクトデータを生成する生成手段として機能する。オブジェクト表示部102は、座標取得部100が取得した位置にオブジェクトが表示されるように描画部15を制御するオブジェクト表示手段として機能する。データ送信部103は、オブジェクトデータをタブレット端末4へ送信するデータ送信手段として機能する。スクリプト送信部104は、Webページをタブレット端末4へ送信する。Webページにはスクリプトが含まれるため、スクリプト送信部104は、スクリプト送信手段として機能する。データ受信部105は、タブレット端末4から送信される各種情報を受信する受信手段として機能する。
(実施形態の動作例)
次に、本実施形態の動作例について、図7〜図16を用いて説明する。なお、図7,8は、本実施形態の動作を説明するためのシーケンス図であり、図9〜16は、表示される映像例を示した図である。
(プロジェクター1でオブジェクトを生成したときの動作例)
ユーザーがコントローラRCにおいてホワイトボード機能の開始を指示する操作を行うと、スクリーンSCには、プロジェクター1により図9に例示した映像が表示される。ここで、スクリーンSCにおいては、ホワイトボード機能において利用できる機能を示すツールバーTBが表示される。ツールバーTBにおいては、線を描画する機能を示すアイコンIC1、オブジェクトを消去する機能を示すアイコンIC2描画内容をページとして保存する機能を示すアイコンIC3、保存したページを表示する機能を示すアイコンIC4などがある。
また、スクリーンSCにおいては、スライダーSが表示される。スライダーSは、オブジェクトの表示を時間軸上で戻したり進めたりするためのツールである。スライダーSの左端は、最初のオブジェクトが生成された時点を表し、スライダーSの右端は、最新のオブジェクトが生成された時点を表している。スライダーSのつまみを左へ1ステップへずらす操作を行うと、一つ前の操作が行われた状態が表示され、スライダーSのつまみを右へ1ステップずらす操作を行うと、一つ後の操作が行われた状態が表示される。
図9に示した映像が表示されている状態において、ユーザーが指示体3でアイコンIC1の位置に触れると、プロジェクター1は、指示体3の移動軌跡の映像を表示する状態となる。ユーザーが指示体3をスクリーンSCに接触させながら移動させると、指示体3が発する光をイメージセンサー16が取得する。制御部10(座標取得部100)は、イメージセンサー16から供給される画像データを解析して指示体3が発する光の位置を取得し、スクリーンSC上における指示体3の移動軌跡を特定する。制御部10(オブジェクト表示部102)が、特定した移動軌跡に基づいて描画部15を制御すると、図10に例示したように、スクリーンSC上において指示体3が移動した位置に線L1が表示される。制御部10(オブジェクト生成部101)は、指示体3がスクリーンSCから離れたことを検知すると、表示した線L1を示すオブジェクトデータを生成する。ここで、線L1は、1番目に生成されたオブジェクトであるため、オブジェクトデータに含まれる順番情報は「1」となる。
また、ユーザーが指示体3をスクリーンSCに接触させながら円を描くように移動させると、図11に例示したように、スクリーンSC上において指示体3が移動した位置に線L2が表示される。ここで、線L2は、2番目に生成されたオブジェクトであるため、生成されるオブジェクトデータに含まれる順番情報は「2」となる。
(タブレット端末4Aがログインしたときの動作例)
次に、スクリーンSCに投射されている映像をタブレット端末4で表示するときの動作例について図7および図8を用いて説明する。Webブラウザのプログラムが実行されているタブレット端末4Aにおいて、ユーザーが、タッチパネル43でプロジェクター1へアクセスする操作を行うと、タブレット端末4Aとプロジェクター1が通信を行い、プロジェクター1へログインするためのページがタッチパネル43に表示される。表示されたページにユーザーがユーザー識別子とパスワードとを入力し、ユーザー識別子とパスワードとをプロジェクター1へ送信する操作を行うと、制御部40は、入力されたユーザー識別子とパスワードとを、通信部45を制御してプロジェクター1へ送信する(ステップS1)。送信された識別子とパスワードとを通信部18が受信すると、制御部10(スクリプト送信部104)は、受信したユーザー識別子とパスワードとの組が記憶部12に記憶されている場合、通信部18を制御し、投射している映像のWebページのデータをタブレット端末4Aへ送信する(ステップS2)。
タブレット端末4Aの制御部40(スクリプト受信部404、スクリプト実行部406)は、プロジェクター1が送信したWebページのデータを通信部45が受信すると、Webページに含まれているスクリプトを実行する。制御部40(データ送信部403)は、Webページに係る全てのオブジェクトのオブジェクトデータを要求するメッセージを、通信部45を制御してプロジェクター1へ送信する(ステップS3)。このメッセージを通信部18が受信すると、制御部10(データ送信部103)は、表示されている線L1のオブジェクトデータと線L2のオブジェクトデータとを、通信部18を制御してタブレット端末4Aへ送信する(ステップS4)。
タブレット端末4Aの制御部40(データ受信部405、オブジェクト表示部402)は、プロジェクター1が送信したオブジェクトデータを通信部45が受信すると、受信したオブジェクトデータに基づいて、線L1と線L2とが表示されるようにタッチパネル43を制御する。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する(ステップS5)。制御部40は、オブジェクトの表示が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS6)。タブレット端末4Aからのリクエストを通信部18が受信すると、制御部10は、受信したリクエストに対するレスポンスを保留する(ステップS7)。
(タブレット端末4Aがログインしている状態でプロジェクター1においてオブジェクトを生成したときの動作例)
次に、ユーザーが指示体3をスクリーンSCに接触させながら移動させ、制御部10が、指示体3の移動軌跡に基づいて描画部15を制御すると、指示体3が移動した位置に線L3が表示され(図12)、線L3を示すオブジェクトデータが生成される(ステップS8)。ここで、線L3は、3番目に生成されたオブジェクトであるため、オブジェクトデータに含まれる順番情報は「3」となる。
制御部10は、オブジェクトデータを生成すると、ステップS7で行っていたレスポンスの保留を解除し、ステップS6のリクエストへのレスポンスとして、生成した線L3のオブジェクトデータを通信部18を制御してタブレット端末4Aへ送信する(ステップS9)。タブレット端末4Aの制御部40は、プロジェクター1が送信した線L3のオブジェクトデータを通信部45が受信すると、線L3が表示されるようにタッチパネル43を制御する。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する(ステップS10)。制御部40は、オブジェクトの表示が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS11)。リクエストを送信した制御部40は、プロジェクター1からのレスポンスを待つ。また、タブレット端末4Aから送信されたリクエストを通信部18が受信すると、制御部10は、受信したリクエストに対するレスポンスを保留する(ステップS12)。
(タブレット端末4Aにおいてオブジェクトを生成したときの動作例)
次に、タブレット端末4Aのユーザーが、タッチパネル43に表示されている映像にあるアイコンIC1の位置にスタイラスペンで触れた後、スタイラスペンをタッチパネル43に接触させながら移動させると、タブレット端末4Aの制御部40(座標取得部400)は、タッチパネル43上におけるスタイラスペンの移動軌跡を特定する。制御部40(オブジェクト表示部402)が、特定した移動軌跡に基づいてタッチパネル43を制御すると、タッチパネル43は、スタイラスペンが移動した位置に線L4を描画する(ステップS13)。制御部40(オブジェクト生成部401)は、線L4の描画を終了すると、線L4のオブジェクトデータを生成し(ステップS14)、生成したオブジェクトデータを通信部45を制御してプロジェクター1へ送信する(ステップS15)。なお、制御部40が生成するオブジェクトデータには順番情報が含まれない。
制御部10は、タブレット端末4Aから送信されたオブジェクトデータを通信部18が受信すると、受信したオブジェクトデータに基づいて描画部15を制御する。ここで、スクリーンSCには、タブレット端末4Aに表示されている映像と同じ映像(図13)が表示される(ステップS16)。制御部10は、オブジェクトの描画が終了すると、線L4のオブジェクトに順番情報を付加する(ステップS17)。ここで、線L4は、4番目に生成されたオブジェクトであるため、オブジェクトデータに含まれる順番情報は「4」となる。
制御部10は、受信したオブジェクデータへ順番情報を付加すると、ステップS12で行っていたレスポンスの保留を解除し、ステップS11のリクエストへのレスポンスとして、順番情報が付加された線L4のオブジェクトデータをタブレット端末4Aへ送信する(ステップS18)。タブレット端末4Aの制御部40は、プロジェクター1が送信したオブジェクトデータを通信部45が受信すると、線L4が表示されるようにタッチパネル43を制御する。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する(ステップS19)。制御部40は、オブジェクトの表示が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS20)。タブレット端末4Aから送信されたリクエストを通信部18が受信すると、制御部10は、受信したリクエストに対するレスポンスを保留する(ステップS21)。
(タブレット端末4Bがログインしたときの動作例)
次に、Webブラウザのプログラムが実行されているタブレット端末4Bにおいて、ユーザーが、タッチパネル43でプロジェクター1へアクセスする操作を行うと、タブレット端末4Bとプロジェクター1が通信を行い、プロジェクター1へログインするためのページがタッチパネル43に表示される。表示されたページにユーザーがユーザー識別子とパスワードとを入力し、ユーザー識別子とパスワードとをプロジェクター1へ送信する操作を行うと、制御部40は、入力されたユーザー識別子とパスワードとを、通信部45を制御してプロジェクター1へ送信する(ステップS22)。送信された識別子とパスワードとを通信部18が受信すると、制御部10は、受信したユーザー識別子とパスワードとの組が記憶部12に記憶されている場合、通信部18を制御し、投射している映像のWebページのデータをタブレット端末4Bへ送信する(ステップS23)。
タブレット端末4Bの制御部40は、プロジェクター1が送信したWebページのデータを通信部45が受信すると、Webページに係る全てのオブジェクトのオブジェクトデータを要求するメッセージを、通信部45を制御してプロジェクター1へ送信する(ステップS3)。このメッセージを通信部18が受信すると、制御部10は、表示されている線L1〜線L4のオブジェクトデータを、通信部18を制御してタブレット端末4Bへ送信する(ステップS25)。
タブレット端末4Bの制御部40は、プロジェクター1が送信したオブジェクトデータを通信部45が受信すると、受信したオブジェクトデータに基づいて、線L1〜線L4が表示されるようにタッチパネル43を制御する。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する(ステップS26)。制御部40は、オブジェクトの表示が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS27)。
タブレット端末4Bからのリクエストを通信部18が受信すると、制御部10は、受信したリクエストへのレスポンスを保留する(ステップS28)。
(タブレット端末4Bにおいてオブジェクトを生成したときの動作例)
次に、タブレット端末4Bのユーザーが、タッチパネル43に表示されている映像にあるアイコンIC1の位置にスタイラスペンで触れた後、スタイラスペンをタッチパネル43に接触させながら移動させると、タブレット端末4Bの制御部40(座標取得部400)は、タッチパネル43上におけるスタイラスペンの移動軌跡を特定する。制御部40が、特定した移動軌跡に基づいてタッチパネル43を制御すると、タッチパネル43は、スタイラスペンが移動した位置に線L5を描画する(ステップS29)。制御部40は、線L5の描画を終了すると、線L5のオブジェクトデータを生成し(ステップS30)、生成したオブジェクトデータを通信部45を制御してプロジェクター1へ送信する(ステップS31)。なお、制御部40が生成するオブジェクトデータには順番情報が含まれない。
制御部10は、タブレット端末4Bから送信されたオブジェクトデータを通信部18が受信すると、受信したオブジェクトデータに基づいて描画部15を制御する。ここで、スクリーンSCには、タブレット端末4Bに表示されている映像と同じ映像(図14)が表示される(ステップS32)。制御部10は、オブジェクトの描画が終了すると、線L5のオブジェクトに順番情報を付加する(ステップS33)。ここで、線L5は、5番目に生成されたオブジェクトであるため、オブジェクトデータに含まれる順番情報は「5」となる。
制御部10は、受信したオブジェクデータへ順番情報を付加すると、ステップS21とステップS28で行なっていたレスポンスの保留を解除する。制御部10は、ステップS20のリクエストへのレスポンスとして、順番情報が付加された線L5のオブジェクトデータをタブレット端末4Aへ送信し(ステップS34)、ステップS27のリクエストへのレスポンスとして、順番情報が付加された線L5のオブジェクトデータをタブレット端末4Bへ送信する(ステップS35)。
タブレット端末4Aとタブレット端末4Bの制御部40は、プロジェクター1が送信したオブジェクトデータを通信部18が受信すると、線L5が表示されるようにタッチパネル43を制御する。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する(ステップS36、ステップS37)。タブレット端末4Aとタブレット端末4Bの制御部40は、オブジェクトの表示が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS38、ステップS39)。タブレット端末4A,4Bからのリクエストを通信部18が受信すると、制御部10は、受信したリクエストへのレスポンスを保留する(ステップS40)。
(オブジェクトを消去したときの動作例)
次に、表示されているオブジェクトを消去したときの動作例について説明する。図14に示した映像が表示されている状態において、ユーザーが指示体3でアイコンIC2の位置に触れると、プロジェクター1は、指示体3でオブジェクトを消去可能な状態となる。ユーザーが指示体3をスクリーンSCに接触させると、指示体3が発している光をイメージセンサー16が取得する。制御部10(座標取得部100)は、イメージセンサー16から供給される画像データを解析して指示体3が発する光の位置を特定し、スクリーンSC上における指示体3の位置を取得する。制御部10は、特定した位置にオブジェクトがある場合、描画部15を制御し、指示体3の位置に表示されているオブジェクトを消去し(ステップS41)、オブジェクトデータを生成する(ステップS42)。
例えば、ユーザーが指示体3を線L3の位置へ移動させた場合、線L3が消去され、図15に示したように、スクリーンSCには、線L1、線L2、線L4及び線L5が表示されている状態となる。なお、線L3を消去するオブジェクトデータには、消去した線L3のオブジェクトデータの順番情報である「3」が含まれる。また、線L3を消去するオブジェクトデータは、6番目に生成されるオブジェクトデータであるため、オブジェクトデータに含まれる順番情報は「6」となる。
制御部10は、オブジェクトデータを生成すると、ステップS40で行っていたレスポンスの保留を解除し、ステップS38とステップS39のリクエストへのレスポンスとして、線L3を消去するオブジェクトデータを、通信部18を制御してタブレット端末4Aとタブレット端末4Bへ送信する(ステップS43、ステップS44)。タブレット端末4Aとタブレット端末4Bの制御部40は、プロジェクター1が送信したオブジェクトデータを通信部45が受信すると、線L3が消去されるようにタッチパネル43を制御する(ステップS45、ステップS46)。ここで、タッチパネル43は、スクリーンSCに表示されている映像と同じ映像を表示する。タブレット端末4Aとタブレット端末4Bの制御部40は、オブジェクトの消去が終了すると、受信したオブジェクデータの中から最大の値の順番情報を取得し、取得した値より大きな値である順番情報を含むオブジェクトデータを要求するリクエストを、通信部45を制御してプロジェクター1へ送信する(ステップS47、ステップS48)。
(スライダーSを操作したときの動作例)
次にユーザーがスライダーSを操作したときの動作について説明する。例えば、スライダーSのつまみが右端にある状態において、ユーザーが指示体3をスライダーSのつまみの位置に位置させた後、指示体3をスライダーSの軸方向に沿って、左へスライダーSの目盛りの1ステップ分移動させると、制御部10は、スライダーSのつまみを、左へ1ステップ分移動した位置に表示する。また、制御部10は、オブジェクトデータの中から最大の値の順番情報を取得し、取得した値から、スライダーSのつまみの移動したステップの値を減算する。例えば、上述したように、線L3が消去された状態からスライダーSのつまみを1ステップ左へ移動させた場合、順番情報の最大値は、線L3を消去するオブジェクトデータの「6」であるため、6−1=5となる。
制御部10は、順番情報が1のオブジェクトデータから、順番情報が上記の計算で得た値のオブジェクトデータまでに基づいて、描画部15を制御し、スクリーンSCに投射する映像の再描画を行う。ここで、上述したように計算で得られた値が5である場合、順番情報が1から5までのオブジェクトデータに基づいて、スクリーンSCに投射する映像の再描画が行われる。順番情報が1から5までのオブジェクトデータは、線L1から線L5のオブジェクトデータであるため、図16に示したように、スクリーンSCに投射される映像は、線L3が消去される前の映像となる。
なお、スライダーSのつまみを右端から移動させた後にツールバーTBのアイコンに触れる操作が行われた場合、制御部10は、スライダーSのつまみを右端に戻し、スライダーSが操作される前の状態に映像を戻す。また、タブレット端末4においてスライダーSのつまみを移動させる操作が行われた場合、タブレット端末4は、プロジェクター1と同様に、タッチパネル43に表示する映像の再描画を行う。
以上説明したように本実施形態によれば、オブジェクトの追記が行われた場合、追記されたオブジェクトのオブジェクトデータがタブレット端末4へ送信され、タブレット端末4の画像が更新される。本実施形態によれば、表示される映像に係る全てのデータを送信しなくても映像を更新できるため、通信する情報量を抑えることができる。
また、本実施形態によれば、オブジェクトデータに基づいてオブジェクトの表示を行うため、オブジェクト単位でユーザーの望むところまでオブジェクトの表示を戻したり進めたりすることができる。また、オブジェクト単位で表示を行うため、複数のタブレット端末4で描画されたオブジェクトを統合し、共通の映像を複数の装置で共有することができる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。本発明の第2実施形態に係る表示システムPS1は、第1実施形態と同じ装置で構成される。本実施形態においては、プロジェクター1とタブレット端末4の構成が第1実施形態と異なる。以下の説明においては、第1実施形態と同じ構成については説明を省略し、以下では第1実施形態との相違点について説明する。
図17は、第2実施形態に係るタブレット端末4のハードウェア構成を示した図である。本実施形態に係るタブレット端末4は、音声処理部46を有する。音声処理部46は、マイクロホンとスピーカを有している。音声処理部46は、音声を表す音声データをアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからはアナログ信号に応じて音声が放音される。また、音声処理部46は、マイクロホンが収音した音声をデジタル信号に変換し、収音した音声を表す音声データを生成する機能を有する。つまり、音声処理部46は、音声データを生成する音声データ生成手段の一例である。
図18は、第2実施形態に係るプロジェクター1のハードウェア構成を示した図である。本実施形態に係るプロジェクター1は、音声処理部19を有する。音声処理部19は、マイクロホンとスピーカを有している。音声処理部19は、音声を表す音声データをアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからはアナログ信号に応じて音声が放音される。また、音声処理部19は、マイクロホンが収音した音声をデジタル信号に変換し、収音した音声を表す音声データを生成する機能を有する。音声データは記憶部12に記憶される。
本実施形態においては、ユーザーがコントローラRCにおいてホワイトボード機能の開始を指示する操作を行うと、制御部10は、マイクロホンが収音した音声を表す音声データを記憶部12に記憶させる。また、制御部10は、音声データの記憶を開始してからの経過時間を計時し、オブジェクトデータを生成する際、オブジェクトデータを生成したときに計時している経過時間をオブジェクトデータに含める。なお、後に生成されるオブジェクトデータほど経過時間の値は大きくなるため、各オブジェクトデータの経過時間からオブジェクトデータが生成された順番を得ることができるため、経過時間は順番情報の一例ということができる。
プロジェクター1において、スライダーSのつまみを移動させる操作が行われた場合、制御部10は、記憶されている音声データをつまみの位置に応じて再生する。例えば、第1実施形態で説明したように、図15の状態でスライダーSのつまみを左へ1ステップ分移動した場合、制御部10は、オブジェクトデータの中から最大の値の順番情報を取得し、取得した値から、スライダーSのつまみの移動したステップの値を減算する。ここで、順番情報の最大値は、線L3を消去するオブジェクトデータの「6」であるため、計算結果は、6−1=5となる。制御部10は、計算結果の5を順番情報として含むオブジェクトデータを特定し、特定したオブジェクトデータに含まれている経過時間を取得する。制御部10は、経過時間を取得すると、取得した経過時間以降の音声データを記憶部12から取得して音声処理部19へ転送する。音声処理部19は、転送された音声データが示す音声をスピーカから放音する。この構成によれば、過去にオブジェクトを追記したときの音声が再生されるため、オブジェクトを追記したときの会話の内容を容易に得ることができる。
また、タブレット端末4において、スライダーSのつまみを移動させる操作が行われた場合、制御部40は、プロジェクター1に記憶されている音声データを再生する。例えば、タブレット端末4Aにおいて、図15の状態でスライダーSのつまみを左へ1ステップ分移動した場合、制御部40は、オブジェクトデータの中から最大の値の順番情報を取得し、取得した値から、スライダーSのつまみの移動したステップの値を減算する。ここで、順番情報の最大値は、線L3を消去するオブジェクトデータの「6」であるため、計算結果は、6−1=5となる。制御部40は、計算結果の5を順番情報として含むオブジェクトデータを特定し、特定したオブジェクトデータに含まれている経過時間を取得する。制御部40は、経過時間と、取得した経過時間以降の音声データを要求するメッセージを、通信部45を制御してプロジェクター1へ送信する。このメッセージを取得したプロジェクター1は、取得したメッセージに含まれている経過時間以降の音声データを記憶部12から取得し、取得した音声データを通信部18を制御してタブレット端末4へ送信する。タブレット端末4の制御部40は、送信された音声データを音声処理部46へ転送する。音声処理部46は、転送された音声データが示す音声をスピーカから放音する。この構成によれば、過去にオブジェクトを追記したときの音声がタブレット端末4で再生されるため、オブジェクトを追記したときの会話の内容を容易に得ることができる。
なお、音声データを記憶する構成の場合、タブレット端末で収音した音声から生成される音声データをプロジェクター1へ送信し、プロジェクター1が生成した音声データとタブレット端末が生成した音声データとを合成してもよい。
また、上述した構成においては、オブジェクトデータに経過時間を含める構成となっているが、オブジェクトデータが生成された日時を含めるようにしてもよい。この構成の場合、プロジェクター1やタブレット端末4は、オブジェクトデータに含まれる日時を取得し、取得した経過時間以降の音声データを再生する。ここで、各オブジェクトデータに含まれる日時からオブジェクトデータが生成された順番を得ることができるため、日時は順番情報の一例ということができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
上述した実施形態においては、プロジェクター1、タブレット端末4Aまたはタブレット端末4BのいずれかでスライダーSのつまみを移動させる操作が行われた場合、つまみを移動させた装置以外の装置においても、移動したつまみの位置に応じた映像を表示するようにしてもよい。
例えば、プロジェクター1において、スライダーSのつまみを移動させる操作が行われた場合、プロジェクター1は、順番情報が1のオブジェクトデータからつまみの位置に対応したオブジェクトデータまでをタブレット端末4A,4Bへ送信する。これらのオブジェクトデータを送信されたタブレット端末4A,4Bは、送信されたオブジェクトデータに基づいて、タッチパネル43に表示するオブジェクトの更新を行う。
また、タブレット端末4において、スライダーSのつまみを移動させる操作が行われた場合、つまみを移動させる操作が行われたタブレット端末4は、順番情報が1のオブジェクトデータからつまみの位置に対応したオブジェクトデータまでをプロジェクター1へ要求する。プロジェクター1は、要求されたオブジェクトデータを、タブレット端末4A,4Bへ送信する。これらのオブジェクトデータを送信されたタブレット端末4A,4Bは、送信されたオブジェクトデータに基づいて、タッチパネル43に表示するオブジェクトの更新を行う。また、プロジェクター1は、要求されたオブジェクトデータに基づいて、投射する映像を更新する。
本変形例によれば、プロジェクター1とタブレット端末4とで表示する映像を同じものにすることができる。
上述した第2実施形態においては、スライダーSの操作に応じて音声データが再生されるが、音声データを再生する構成は、第2実施形態の構成に限定されるものではない。例えば、指示体3またはスタイラスペンでツールバーTBのアイコンに触れる操作が行われた後、指示体3またはスタイラスペンでオブジェクトに触れる操作が行われた場合、指示体3またはスタイラスペンが触れたオブジェクトのオブジェクトデータからオブジェクトデータに含まれている経過時間を取得し、取得した経過時間以降の音声データに基づいて音声を放音するようにしてもよい。また、この構成においては、指示体3またはスタイラスペンが触れたオブジェクトのオブジェクトデータからオブジェクトデータに含まれている経過時間を取得し、取得した経過時間以前の経過時間を含むオブジェクトデータを特定し、特定したオブジェクトデータに基づいて、表示する映像を更新するようにしてもよい。また、この操作がタブレット端末4で行われた場合、取得した経過時間以前の経過時間を含むオブジェクトデータをプロジェクター1へ要求し、プロジェクター1は、要求されたオブジェクトデータをタブレット端末4へ送信し、タブレット端末4は、送信されたオブジェクトデータに基づいてタッチパネル43の表示を更新するようにしてもよい。
上述した実施形態においては、スライダーSの操作に応じてオブジェクトを生成したときの状態を表示する場合、以下の構成としてもよい。本変形例においては、スライダーSの左端は、最初のオブジェクトが生成された時点を表し、スライダーSの右端は、最新のオブジェクトが生成された時点を表している。
プロジェクター1において、スライダーSのつまみを移動させる操作が行われると、制御部10は、最初のオブジェクトが生成された時点からつまみの位置に対応する時点までの経過時間を求める。制御部10は、求めた経過時間以前の経過時間を含むオブジェクトデータを特定し、特定したオブジェクトデータに基づいて、投射する映像を更新する。
また、タブレット端末4において、スライダーSのつまみを移動させる操作が行われると、制御部40は、最初のオブジェクトが生成された時点からつまみの位置に対応する時点までの経過時間を求める。制御部40は、求めた経過時間以前の経過時間を含むオブジェクトデータを特定し、特定したオブジェクトデータに基づいて、タッチパネル43に表示する映像を更新する。なお、タブレット端末4は、求めた経過時間以前の経過時間を含むオブジェクトデータをプロジェクター1へ要求してもよい。この構成の場合、プロジェクター1は、要求されたオブジェクトデータをタブレット端末4へ送信し、タブレット端末4は、送信されたオブジェクトデータに基づいてタッチパネル43の表示を更新する。
本変形例でもオブジェクトの表示を戻したり進めたりすることができる。
上述した実施形態においては、表示装置の一例としてフロントプロジェクション型のプロジェクター1を説明したが、背面投射型のプロジェクターであってもよい。また、プロジェクター1においては、ライトバルブは液晶を用いるものに限定されず、例えば、デジタルミラーデバイスを用いる構成であってもよい。また、本発明に係る表示装置は、映像を表示する装置であればプロジェクター1に限定されるものではなく、直視型のディスプレイ装置であってもよい。なお、直視型のディスプレイ装置としては、液晶ディスプレイ装置、CRT(Cathode Ray Tube)を用いたディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置などであってもよい。また、タブレット端末の代わりにスマートフォンやパーソナルコンピュータを使用しても良いし、ホワイトボード機能を搭載したプロジェクターであってもよい。また、プロジェクターとタブレット端末間で表示データを共有する技術として、WebページとWebブラウザの技術を使用して発明の説明をしてきたが、表示データを共有する技術はこれに限らず、他のさまざまな方法にて実現可能である。また、スクリーンSC上にオブジェクトを描画する手段として指示体3を使用する例により発明の説明をしてきたが、スクリーンSC上の座標を入力する手段はこれに限らず、ユーザーの指を利用する方法を採用しても良いし、コントローラRCを利用する方法でも良い。また、レーザーポインターの光を利用する方法でもよい。つまり、ユーザーの指やコントローラーRC、レーザーポインターの光も指示体の一例となる。
1…プロジェクター、3…指示体、4,4A,4B…タブレット端末、10…制御部、11…操作部、12…記憶部、13…映像処理部、14…表示部、15…描画部、16…イメージセンサー、17…受光部、18…通信部、19…音声処理部、40…制御部、41…操作部、42…記憶部、43…タッチパネル、45…通信部、46…音声処理部、100…座標取得部、101…オブジェクト生成部、102…オブジェクト表示部、103…データ送信部、104…スクリプト送信部、105…データ受信部、400…座標取得部、401…オブジェクト生成部、402…オブジェクト表示部、403…データ送信部、404…スクリプト受信部、405…データ受信部、PS1…表示システム、RC…コントローラー、SC…スクリーン

Claims (7)

  1. 映像を表示する表示手段と、
    前記表示手段の表示領域上の座標を取得する取得手段と、
    前記取得手段が取得した座標の位置にオブジェクトを表示させるオブジェクト表示手段と、
    前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成手段と、
    前記生成手段が生成したオブジェクトデータをクライアントへ送信するデータ送信手段と、
    前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信手段と
    を有する表示装置。
  2. 前記クライアントが送信する順番情報を受信する受信手段を有し、
    前記データ送信手段は、前記生成手段が生成したオブジェクトデータのうち、最初に生成したオブジェクトデータから前記受信手段が受信した順番情報が示す順番までのオブジェクトデータを前記クライアントへ送信する
    請求項1に記載の表示装置。
  3. 前記受信手段は、前記クライアントが表示する、スライダー形式のユーザーインターフェースにおいて指定された順番情報を受信する
    請求項2に記載の表示装置。
  4. 前記受信手段は、前記クライアントが表示する、前記データ送信手段が送信したオブジェクトデータのオブジェクトのうち、ユーザーにより指定されたオブジェクトに含まれる順番情報を受信する
    請求項2または請求項3に記載の表示装置。
  5. 収音した音声を示す音声データを生成する音声データ生成手段を有し、
    前記データ送信手段は、前記音声データのうち、前記受信手段が取得した順番情報が示す順番のオブジェクトデータが生成された時間以降の音声データを前記クライアントへ送信する
    請求項2乃至請求項4のいずれか一項に記載の表示装置。
  6. 映像を表示する表示手段と、
    前記表示手段の表示領域上の座標を取得する取得手段と、
    前記取得手段が取得した座標の位置にオブジェクトを表示させるオブジェクト表示手段と、
    前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成手段と、
    前記生成手段が生成したオブジェクトデータをクライアントへ送信するデータ送信手段と、
    前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信手段と、
    を有する表示装置と、
    前記スクリプトを受信するスクリプト受信手段と、
    前記スクリプトを実行するスクリプト実行手段と、
    前記オブジェクトデータを受信するデータ受信手段と、
    ユーザーにより指定された順番までのオブジェクトが表示されるように、クライアントが有する表示手段を前記オブジェクトデータに基づいて制御する表示制御手段と、
    を有するクライアントと、
    を備える表示システム。
  7. 表示手段の表示領域にオブジェクトを表示させるオブジェクト表示ステップと、
    前記オブジェクトを示すデータであって、前記オブジェクトが生成された順番を示す順番情報を含むオブジェクトデータを生成する生成ステップと、
    前記生成ステップで生成されたオブジェクトデータをクライアントへ送信するデータ送信ステップと、
    前記オブジェクトデータを取得するスクリプトを前記クライアントへ送信するスクリプト送信ステップと、
    前記スクリプトを受信するスクリプト受信ステップと、
    前記スクリプトを実行するスクリプト実行ステップと、
    前記オブジェクトデータを受信するデータ受信ステップと、
    ユーザーにより指定された順番までのオブジェクトが表示されるように、クライアントが有する表示手段を前記オブジェクトデータに基づいて制御する表示制御ステップと、
    を有する表示方法。
JP2014005751A 2014-01-16 2014-01-16 表示装置、表示システムおよび表示方法 Expired - Fee Related JP6307889B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014005751A JP6307889B2 (ja) 2014-01-16 2014-01-16 表示装置、表示システムおよび表示方法
US14/550,315 US9489075B2 (en) 2014-01-16 2014-11-21 Display apparatus, display system, and display method
CN201410708521.2A CN104796658B (zh) 2014-01-16 2014-11-28 显示装置、显示系统以及显示方法
EP15150871.0A EP2897043B1 (en) 2014-01-16 2015-01-13 Display apparatus, display system, and display method
US15/287,244 US9939943B2 (en) 2014-01-16 2016-10-06 Display apparatus, display system, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014005751A JP6307889B2 (ja) 2014-01-16 2014-01-16 表示装置、表示システムおよび表示方法

Publications (2)

Publication Number Publication Date
JP2015135544A true JP2015135544A (ja) 2015-07-27
JP6307889B2 JP6307889B2 (ja) 2018-04-11

Family

ID=52396441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014005751A Expired - Fee Related JP6307889B2 (ja) 2014-01-16 2014-01-16 表示装置、表示システムおよび表示方法

Country Status (4)

Country Link
US (2) US9489075B2 (ja)
EP (1) EP2897043B1 (ja)
JP (1) JP6307889B2 (ja)
CN (1) CN104796658B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033576A (ja) * 2016-09-07 2017-02-09 株式会社ワコム 手書きデータ描画方法、手書きデータ描画装置、及びプログラム
CN106990650A (zh) * 2016-01-20 2017-07-28 中兴通讯股份有限公司 投影画面的调节方法及装置
JP2019012499A (ja) * 2017-07-03 2019-01-24 Necネッツエスアイ株式会社 電子筆記板システム
JP2020024756A (ja) * 2019-11-14 2020-02-13 株式会社ワコム 方法、プログラム、及びコンピュータ
US10769349B2 (en) 2015-08-04 2020-09-08 Wacom Co., Ltd. Handwritten data capture method and handwritten data capture device
JP2020190619A (ja) * 2019-05-21 2020-11-26 セイコーエプソン株式会社 表示システムの制御方法、及び表示システム
JP2021086576A (ja) * 2019-11-29 2021-06-03 株式会社リコー 表示装置、表示方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6307889B2 (ja) * 2014-01-16 2018-04-11 セイコーエプソン株式会社 表示装置、表示システムおよび表示方法
CN104932700B (zh) * 2015-07-17 2017-01-25 焦点教育科技有限公司 一种利用智能终端实现实物投影的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06343146A (ja) * 1993-03-15 1994-12-13 Toshiba Corp 再生装置及び再生方法
US20090094534A1 (en) * 2007-10-03 2009-04-09 Shinya Murai Server apparatus and control method of server apparatus
JP2010165152A (ja) * 2009-01-15 2010-07-29 Mitsubishi Electric Corp 端末装置及び画面伝送システム及び端末プログラム及び画面伝送方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764893A (ja) * 1993-08-31 1995-03-10 Canon Inc ネットワーク・システム
US6728784B1 (en) 1996-08-21 2004-04-27 Netspeak Corporation Collaborative multimedia architecture for packet-switched data networks
US6144991A (en) 1998-02-19 2000-11-07 Telcordia Technologies, Inc. System and method for managing interactions between users in a browser-based telecommunications network
US7043529B1 (en) 1999-04-23 2006-05-09 The United States Of America As Represented By The Secretary Of The Navy Collaborative development network for widely dispersed users and methods therefor
US20020133611A1 (en) * 2001-03-16 2002-09-19 Eddy Gorsuch System and method for facilitating real-time, multi-point communications over an electronic network
DE102006001607B4 (de) * 2005-01-14 2013-02-28 Mediatek Inc. Verfahren und Systeme zur Übertragung von Ton- und Bilddaten
US7978054B2 (en) * 2005-06-25 2011-07-12 Intel Corporation Apparatus, systems, and methods to support service calls
JP4916428B2 (ja) * 2007-12-20 2012-04-11 パナソニック株式会社 接続装置、その接続方法、及びプログラム
JP4676014B2 (ja) * 2009-06-30 2011-04-27 株式会社東芝 情報処理装置およびキャプチャ画像の転送処理方法
US20110066971A1 (en) * 2009-09-14 2011-03-17 Babak Forutanpour Method and apparatus for providing application interface portions on peripheral computing devices
US20120154511A1 (en) * 2010-12-20 2012-06-21 Shi-Ping Hsu Systems and methods for providing geographically distributed creative design
JP5741821B2 (ja) * 2011-03-24 2015-07-01 コニカミノルタ株式会社 データ加工送信装置およびデータ加工送信プログラム、方法
JP2012238218A (ja) * 2011-05-12 2012-12-06 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
CN102685174B (zh) * 2011-05-18 2014-12-31 上海华博信息服务有限公司 基于大型显示系统的人机互动信息处理方法
JP5810779B2 (ja) 2011-09-16 2015-11-11 株式会社リコー 画面共有システム、画面共有端末、電子黒板システムおよびプログラム
JP6171319B2 (ja) * 2012-12-10 2017-08-02 株式会社リコー 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR20140090297A (ko) * 2012-12-20 2014-07-17 삼성전자주식회사 근거리 무선 통신(nfc)을 이용하는 화상 형성 방법 및 장치
US20140267077A1 (en) * 2013-03-15 2014-09-18 Amazon Technologies, Inc. User Device with a Primary Display and a Substantially Transparent Secondary Display
JP5871876B2 (ja) * 2013-09-30 2016-03-01 シャープ株式会社 情報処理装置及び電子会議システム
JP6307889B2 (ja) * 2014-01-16 2018-04-11 セイコーエプソン株式会社 表示装置、表示システムおよび表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06343146A (ja) * 1993-03-15 1994-12-13 Toshiba Corp 再生装置及び再生方法
US5818436A (en) * 1993-03-15 1998-10-06 Kabushiki Kaisha Toshiba Apparatus and method for playing back continuous data
US20090094534A1 (en) * 2007-10-03 2009-04-09 Shinya Murai Server apparatus and control method of server apparatus
JP2009093219A (ja) * 2007-10-03 2009-04-30 Toshiba Corp サーバ装置、サーバ装置の制御方法、およびサーバ装置の制御プログラム
JP2010165152A (ja) * 2009-01-15 2010-07-29 Mitsubishi Electric Corp 端末装置及び画面伝送システム及び端末プログラム及び画面伝送方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11175771B2 (en) 2015-08-04 2021-11-16 Wacom Co., Ltd. Handwritten data capture method and handwritten data capture device
US10769349B2 (en) 2015-08-04 2020-09-08 Wacom Co., Ltd. Handwritten data capture method and handwritten data capture device
US11586320B2 (en) 2015-08-04 2023-02-21 Wacom Co., Ltd. Handwritten data capture method and handwritten data capture device
CN106990650A (zh) * 2016-01-20 2017-07-28 中兴通讯股份有限公司 投影画面的调节方法及装置
US11934086B2 (en) 2016-01-20 2024-03-19 Zte Corporation Method and device for adjusting projected image
CN106990650B (zh) * 2016-01-20 2020-05-22 中兴通讯股份有限公司 投影画面的调节方法及装置
JP2017033576A (ja) * 2016-09-07 2017-02-09 株式会社ワコム 手書きデータ描画方法、手書きデータ描画装置、及びプログラム
JP2019012499A (ja) * 2017-07-03 2019-01-24 Necネッツエスアイ株式会社 電子筆記板システム
JP2020190619A (ja) * 2019-05-21 2020-11-26 セイコーエプソン株式会社 表示システムの制御方法、及び表示システム
JP7238594B2 (ja) 2019-05-21 2023-03-14 セイコーエプソン株式会社 表示システムの制御方法、及び表示システム
JP2021103533A (ja) * 2019-11-14 2021-07-15 株式会社ワコム 方法、コンピュータ、及びプログラム
JP7036966B2 (ja) 2019-11-14 2022-03-15 株式会社ワコム 方法、コンピュータ、及びプログラム
JP2020024756A (ja) * 2019-11-14 2020-02-13 株式会社ワコム 方法、プログラム、及びコンピュータ
JP2021086576A (ja) * 2019-11-29 2021-06-03 株式会社リコー 表示装置、表示方法
JP7388159B2 (ja) 2019-11-29 2023-11-29 株式会社リコー 表示装置、表示方法

Also Published As

Publication number Publication date
CN104796658B (zh) 2018-04-10
US9489075B2 (en) 2016-11-08
US20150199059A1 (en) 2015-07-16
JP6307889B2 (ja) 2018-04-11
US9939943B2 (en) 2018-04-10
CN104796658A (zh) 2015-07-22
US20170052621A1 (en) 2017-02-23
EP2897043B1 (en) 2017-03-22
EP2897043A1 (en) 2015-07-22

Similar Documents

Publication Publication Date Title
JP6307889B2 (ja) 表示装置、表示システムおよび表示方法
JP6798288B2 (ja) 通信端末、通信システム、映像出力方法、及びプログラム
CN107977083B (zh) 基于vr系统的操作执行方法及装置
JP6583432B2 (ja) 画像処理装置、画像表示方法、プログラム
JP6343897B2 (ja) 伝送端末、伝送方法、及びプログラム
JP2015084211A (ja) 情報処理装置、情報処理システム、プログラム
JP6720513B2 (ja) 通信端末、通信システム、通信制御方法、及びプログラム
JP6464692B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US9509733B2 (en) Program, communication apparatus and control method
JP6885416B2 (ja) 電子黒板、電子黒板の画像処理方法、及びプログラム
JP6379521B2 (ja) 伝送端末、伝送システム、伝送方法及びプログラム
CN107037939B (zh) 电子黑板和图像处理方法
JP2016208394A (ja) 情報処理装置、画像表示方法
JP6540367B2 (ja) 表示制御装置、通信端末、通信システム、表示制御方法、及びプログラム
JP6260201B2 (ja) 伝送端末、伝送方法、及びプログラム
JP6361728B2 (ja) 伝送制御システム、伝送システム、伝送制御方法、及び記録媒体
JP6314539B2 (ja) 伝送端末、伝送システム、伝送方法及びプログラム
WO2018109876A1 (ja) 表示装置、電子黒板システム及びユーザーインターフェース設定方法
TW202016904A (zh) 實物教學投影系統及方法
JP2019219965A (ja) 共有端末、筆記方法、プログラム
JP2022087633A (ja) 表示装置、消去方法切替方法、プログラム
JP2017118200A (ja) 表示装置、カメラ位置制御方法、およびプログラム
JP7331578B2 (ja) 表示装置、画像表示方法、プログラム
JP2022021017A (ja) 通信端末、情報通信システム、通信方法及びプログラム
JP2021086576A (ja) 表示装置、表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6307889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees