JP2020008750A - 表示装置および表示処理方法 - Google Patents

表示装置および表示処理方法 Download PDF

Info

Publication number
JP2020008750A
JP2020008750A JP2018130464A JP2018130464A JP2020008750A JP 2020008750 A JP2020008750 A JP 2020008750A JP 2018130464 A JP2018130464 A JP 2018130464A JP 2018130464 A JP2018130464 A JP 2018130464A JP 2020008750 A JP2020008750 A JP 2020008750A
Authority
JP
Japan
Prior art keywords
unit
display
image
terminal
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018130464A
Other languages
English (en)
Other versions
JP2020008750A5 (ja
Inventor
康太郎 加藤
Kotaro Kato
康太郎 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018130464A priority Critical patent/JP2020008750A/ja
Priority to US16/505,824 priority patent/US11243674B2/en
Publication of JP2020008750A publication Critical patent/JP2020008750A/ja
Publication of JP2020008750A5 publication Critical patent/JP2020008750A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示面に表示されるオブジェクトのうち所望のオブジェクトを携帯端末において取得する。【解決手段】表示装置は、表示画像データに基づく一または複数のオブジェクトを含む画像を表示面101に表示する表示部と、表示面101に接触する携帯端末4の位置を示す情報を、画像内における端末位置P8を示す端末位置情報として生成する位置生成部と、表示画像データおよび端末位置情報に基づいて、端末位置P8に対応するオブジェクトに関するオブジェクトデータを特定するオブジェクト特定部と、オブジェクトデータを前記携帯端末に送信する送信部と、を備える。【選択図】図1

Description

本発明は、表示装置および表示処理方法に関する。
デジタルカメラまたは携帯端末に保存されている画像を、テレビ等の表示装置へ表示させる技術が知られている。特許文献1には、表示装置の表示面に携帯端末が接触しているか否かを検知し、接触している箇所に、携帯端末から表示装置に対して送信した貼付画像を貼り付ける画像表示方法が開示されている。
特開2007−316925号公報
しかし、従来の技術では、携帯端末が記憶する画像を表示装置に表示させることができても、表示装置に一または複数のオブジェクトが表示されている場合に、所望のオブジェクトを携帯端末において取得できないといった課題がある。
本発明の表示装置の一態様は、表示画像データに基づく一または複数のオブジェクトを含む画像を表示面に表示する表示部と、前記表示面に接触する携帯端末の位置を示す情報を、前記画像内における端末位置を示す端末位置情報として生成する位置生成部と、前記表示画像データおよび前記端末位置情報に基づいて、前記端末位置に対応するオブジェクトに関するオブジェクトデータを特定するオブジェクト特定部と、前記オブジェクトデータを前記携帯端末に送信する送信部と、を備える。
本発明の画像処理方法の一態様は、表示画像データに基づく一または複数のオブジェクトを含む画像を表示面に表示し、前記表示面に接触する携帯端末の位置を示す情報を、前記画像内における端末位置を示す端末位置情報として生成し、前記表示画像データおよび前記端末位置情報に基づいて、前記端末位置に対応するオブジェクトに関するオブジェクトデータを特定し、前記オブジェクトデータを前記携帯端末に送信する。
第1実施形態におけるプロジェクターシステムを示す概略図である。 第1実施形態におけるプロジェクターシステムを示すブロック図である。 第1実施形態におけるスクリーンが有する検出部を説明するための図である。 第1実施形態における画像処理方法の切取処理を説明するためのフローチャートである。 ステップS11における投射画像を示す図である。 ステップS12において表示面に携帯端末が接近または接触する状態を示す図である。 ステップS12における携帯端末の表示面での接触位置を示す図である。 ステップS13における携帯端末の投射画像での端末位置を示す図である。 ステップS14におけるオブジェクト特定範囲を示す図である。 ステップS18における切取処理後画像を示す図である。 第1実施形態における画像処理方法の貼付処理を説明するためのフローチャートである。 ステップS22において表示面に携帯端末が接近または接触する状態を示す図である。 ステップS22における携帯端末の表示面での接触位置を示す図である。 ステップS23における携帯端末の投射画像での端末位置を示す図である。 ステップS26における貼付処理後画像を示す図である。 第2実施形態における切取処理のステップS12において表示面に携帯端末が接触する状態を示す図である。 第2実施形態における切取処理のステップS13において端末位置およびオブジェクト特定範囲を示す図である。 第2実施形態における切取処理のステップS17における切取処理後画像を示す図である。 第3実施形態におけるプロジェクターシステムを示すブロック図である。 第3実施形態における携帯端末が表示面に接触する状態を説明するための図である。
以下、添付図面を参照しながら本発明にかかる好適な実施形態を説明する。なお、図面において各部の寸法や縮尺は実際のものと適宜異なり、理解を容易にするために模式的に示す部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。
1.第1実施形態
本発明の表示装置を含む表示システムの一例として、プロジェクターシステム100を例に説明する。
1−1.プロジェクターシステムの構成
図1は、第1実施形態におけるプロジェクターシステム100を示す概略図である。まず、プロジェクターシステム100の全体構成について簡単に説明する。
図1に示すプロジェクターシステム100は、壁等に設置されるスクリーン1と、スクリーン1の上方に設置されるプロジェクター3と、電子ペン2と、携帯端末4とを備える。スクリーン1とプロジェクター3とは、画像を表示する表示装置の一例である。携帯端末4は、例えばスマートフォンまたはタブレット端末等の可搬型の情報端末である。また、スクリーン1、プロジェクター3、および携帯端末4は、それぞれ通信機能を有し、相互に通信可能である。また、プロジェクター3は、パーソナルコンピューター等の外部装置5と通信可能である。
かかるプロジェクターシステム100において、プロジェクター3は、スクリーン1の表示面101に投射光LLを拡大投影することにより「画像」の一例である投射画像80を表示する。なお、投射画像80は、例えば文字または図形で構成される複数のオブジェクト801を有する。
また、プロジェクター3は、いわゆるインタラクティブ機能を有しており、電子ペン2のペン先の軌跡を投射画像80に描くことができる。つまり、プロジェクター3は、外部装置5から受信するデータに基づく第1画像81と電子ペン2の軌跡に基づく第2画像82とを表示面101に重畳して表示可能である。
さらに、プロジェクターシステム100では、ユーザーがスクリーン1に携帯端末4を接触または接近させることで、投射画像80に含まれる複数のオブジェクト801のうち所望のオブジェクト801に関するオブジェクトデータを携帯端末4に転送できる。また、ユーザーがスクリーン1に携帯端末4を接触または接近させることで、携帯端末4に記憶されるオブジェクト801を投射画像80の一部として表示できる。つまり、ユーザーは、スクリーン1に携帯端末4を接触または接近させることで、あたかも紙の付箋のように、投射画像80の一部のオブジェクト801を貼ったり剥がしたりすることができる。
なお、上述の説明では、スクリーン1の設置箇所は、壁であるが、この設置箇所は壁に限定されず、例えば、床およびテーブル等の任意の設置箇所であってもよい。また、プロジェクター3は、表示面101に投射画像80を投射可能であればよく、その設置箇所は、天井に限定されず、例えば、スクリーン1、壁、床およびテーブル等の任意の設置箇所であってもよい。
次に、図1および図2を参照しつつ、プロジェクターシステム100の各部の構成について詳細に説明する。図2は、第1実施形態におけるプロジェクターシステム100の電気的構成を示すブロック図である。
1−1a.電子ペン
図2に示す電子ペン2は、センサー部21と、発光部22と、駆動回路23と、を有する。センサー部21は、例えば静電容量方式の感圧センサーである。発光部22は、例えば赤外線発光ダイオード等の発光素子である。センサー部21および発光部22は、電子ペン2のペン先に設けられる。また、駆動回路23は、発光部22を駆動する。なお、図示はしないが、電子ペン2は、1次電池または2次電池を有する。かかる電子ペン2は、センサー部21が表示面101に対する電子ペン2の接触を検出すると、駆動回路23は発光部22を発光させる。
1−1b.プロジェクター
図2に示すように、プロジェクター3は、撮像部31と、投射部32と、光源駆動部331と、ライトバルブ駆動部332と、レンズ駆動部333と、操作部34と、通信部35と、記憶部36と、画像処理部37と、制御部38と、を有する。投射部32は表示面101に一または複数のオブジェクトを含む画像を表示する表示部として機能する。また、通信部35はオブジェクトデータを携帯端末4に送信する送信部として機能する。
撮像部31は、表示面101を撮像するカメラである。撮像部31は、例えば、表示面101に電子ペン2の光で描かれる文字および図形等を撮像する。撮像部31は、レンズ等を有する撮像光学部311と、撮像光学部311により集光される光を電気信号に変換する撮像素子312と、を有する。撮像素子312は、赤外線および可視光の波長域に感度を有する。撮像素子312は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーである。また、撮像部31は、赤外線の波長域の光を通過させ、可視光の波長域の光を通過させない赤外線フィルターと、赤外線フィルターを制御信号に応じて可動させる可動機構を備える。可動機構は、赤外線フィルターを撮像素子312の入射光の光路中に移動させること、および入射光の光路に入らないように赤外線フィルターを移動させることができる。制御部38は、電子ペン2の軌跡を検出する場合、赤外線フィルターを光路に移動させるように移動機構を制御する。赤外線フィルターを介して撮像することによって、電子ペン2の軌跡を高いSN比で検出することが可能となる。また、制御部38は、後述するキャリブレーションを実行する場合、赤外線フィルターが光路中に入らないように移動機構を制御する。また、撮像部31の撮像画像の座標系として、互いに直交するU軸およびV軸で定められる撮像座標系が設定される。
投射部32は、スクリーン1に投射光LLを出射して表示面101上に投射画像80を表示させる。投射部32は、光源321と、複数のライトバルブ322と、投射光学部323と、を有する。光源321としては、例えば、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、およびレーザー光源等が挙げられる。ライトバルブ322は、例えば一対の透明基板間に液晶層が配置された液晶パネルで構成される。投射光学部323は、例えば焦点の調整を行うズームレンズ等を有する。
投射部32では、光源321が出射する光をライトバルブ322が変調して投射光LLを形成し、この投射光LLを投射光学部323が拡大投射する。そして、拡大投射される投射光LLが表示面101で結像することにより投射画像80が表示面101に表示される。ここで、投射画像80の座標系として、互いに直交するX軸およびY軸で定められる投射座標系が設定される。投射画像80は、ライトバルブ322を通過する光によって形成される。したがって、投射座標系は画像処理部37から投射部32に供給される画像信号によって表現される画像の座標系である。また、表示面101の座標系として、互いに直交するW軸およびZ軸で定められる表示座標系が設定される。
撮像部31によって撮像された撮像画像に基づいて電子ペン2の軌跡は検出されるので、電子ペン2の軌跡は撮像座標系で与えられる。一方、プロジェクター3の投射画像80に含まれるオブジェクトは投射座標系で規定される。電子ペン2の軌跡を投射画像80のオブジェクトに含ませるためには、撮像座標系から投射座標系への変換が必要となる。
また、上述したようにプロジェクターシステム100では、投射画像80に含まれる複数のオブジェクト801のうち、携帯端末4が表示面101に近接または接触した箇所に位置するオブジェクトのオブジェクトデータをプロジェクター3から携帯端末4に転送する。そのために、携帯端末4の表示面101の位置を表示座標系で検出し、検出された位置を投射座標系に変換し、変換された座標に位置するオブジェクトを特定する必要がある。
プロジェクター3は、撮像座標系を投射座標系に変換する座標変換機能と、表示座標系を投射座標系に変換する座標変換機能とを有する。
光源駆動部331は、光源321を駆動する駆動回路である。また、ライトバルブ駆動部332は、ライトバルブ322を駆動する回路である。レンズ駆動部333は、投射光学部323の拡大率等を変更する回路である。
操作部34は、プロジェクター3の外装に設けられ、ユーザーの指示を受けるボタンまたはタッチパネルを有する。例えば、ユーザーによる操作部34の操作を受けると、上述の光源駆動部331は光源321を発光させる。なお、操作部34は、例えばリモートコントローラーであってもよい。
通信部35は、スクリーン1、携帯端末4、および外部装置5のそれぞれと、インターネットまたは無線LAN等のネットワークを介してデータの送受信を行う。通信部35は、ネットワークインターフェースを含んで構成される。
記憶部36は、後述する制御部38が読取可能な記録媒体であり、複数のプログラムおよびデータを記憶する。記憶部36は、例えば、ROM(Read Only Memory)、およびRAM(Random Access Memory)等の記憶回路の1種類以上で構成される。記憶部36は、後述する画像処理に関する画像処理プログラム361を記憶する。また、記憶部36は、通信部35によって受信される画像データを記憶する。また、記憶部36は、撮像部31が出力する撮像座標系における座標(u,v)と投射部32が表示する投射画像80の投射座標系における座標(x,y)の間の座標変換式、およびスクリーン1の表示面101の表示座標系における座標(w、z)と投射画像80の投射座標系における座標(x,y)との間の座標変換式等を記憶する。
画像処理部37は、例えばCPU(Central Processing Unit)等のプロセッサーであり、記憶部36に記憶される画像データに基づいて画像信号を生成する。画像処理部37が生成する画像信号に基づいて、上述のライトバルブ駆動部332がライトバルブ322を駆動する。
制御部38は、例えばCPU(Central Processing Unit)等のプロセッサーである。制御部38は、記憶部36に記憶される画像処理プログラム361を実行することにより、撮像制御部381、投射制御部382、ペン位置生成部383、「位置生成部」としての端末位置生成部384、オブジェクト特定部385、および画像データ生成部386として機能する。
撮像制御部381は、上述の撮像部31による撮像を制御する。撮像制御部381の制御により、上述の撮像部31が表示面101を繰り返し撮像して撮像画像を時系列で生成する。
投射制御部382は、上述の光源駆動部331、ライトバルブ駆動部332、およびレンズ駆動部334のそれぞれの駆動を制御する。投射制御部382の制御の下、光源駆動部331およびレンズ駆動部334のそれぞれが駆動するとともに、画像処理部37が生成する画像信号に基づいてライトバルブ駆動部332が駆動することで、投射部32は、投射画像80を表示面101に表示させる。
ペン位置生成部383は、撮像座標系と投射座標系との間の座標変換式を用いて、撮像座標系でのペン先の位置を投射画像80の投射座標系のペン先の位置に変換する。
端末位置生成部384は、表示座標系と投射座標系との間の座標変換式を用いて、表示座標系で与えられる携帯端末4の位置である接触位置P1を投射座標系での携帯端末4の位置である端末位置P8に変換する。また、端末位置生成部384は、端末位置P8を示す端末位置情報を生成する。接触位置P1は表示面101における携帯端末4の位置であり、端末位置P8は投射画像80内における携帯端末4の位置である。この変換により、表示面101に近接または接触する携帯端末4が投射画像80内のどこに対応しているかが分かる。
オブジェクト特定部385は、端末位置生成部384により求められる端末位置P8と表示画像データとに基づいて、投射画像80に含まれる複数のオブジェクト801のうち端末位置P8に対応するオブジェクト801のオブジェクトデータを特定する。また、オブジェクト特定部385は、オブジェクトデータを特定するために、端末位置P8に対応するオブジェクト特定範囲A8を決定する。なお、オブジェクト特定範囲A8は、後述する画像処理で説明する。
画像データ生成部386は、ペン位置生成部383により求められる投射座標系での電子ペン2の位置と記憶部36に記憶される画像データとに基づいて、電子ペン2の軌跡を含む投射画像80の表示画像データを生成する。表示画像データは、一または複数のオブジェクトデータから構成される。各オブジェクトデータは、オブジェクトの内容と投射画像80のどの位置に表示すべきかを規定する。第1のオブジェクトが写真である場合、第1のオブジェクトを示す第1のオブジェクトデータは、例えば、JPEG形式のデータであり、且つ、第1のオブジェクトの表示範囲を投射座標系で表した位置を有する。また、第2のオブジェクトがテキストである場合、第2のオブジェクトを示す第2のオブジェクトデータは、テキストを示すテキストデータであり、且つ第2のオブジェクトの表示範囲を投射座標系で表した位置を有する。したがって、投射座標系の座標を特定すれば、表示画像データに基づいて、特定された座標を表示範囲に含むオブジェクトデータを特定できる。
また、画像データ生成部386は、オブジェクト特定部385により特定されるオブジェクトデータと表示画像データとに基づいて、投射画像80の表示画像データから特定されるオブジェクトデータを除く切取処理後画像データを生成する。さらに、画像データ生成部386は、通信部35が受信する携帯端末4からのオブジェクトデータと表示画像データとに基づいて、当該オブジェクトデータが追加される貼付処理後画像データを生成する。なお、画像データ生成部386が生成する表示画像データ、切取処理後画像データ、および貼付処理後画像データは、記憶部36に記憶される。
1−1c.携帯端末
携帯端末4は、上述のように、例えばスマートフォンまたはタブレット端末等の可搬型の情報端末であり、ユーザーが所持する情報端末である。また、携帯端末4は、ネットワーク通信部41と、近距離無線通信部42と、記憶部43と、制御部44と、を有する。
ネットワーク通信部41は、ネットワークインターフェースを含んで構成され、プロジェクター3とインターネットまたは無線LAN等のネットワークを介してデータの送受信を行う。近距離無線通信部42は、近距離無線タグで構成され、後述するスクリーン1の検出部11と近距離無線を介して通信を行う。近距離無線タグは、数cm程度の通信可能範囲を有し、例えば、NFC(Near Field Communication)またはISO/IEC14443等に対応した非接触の電子タグである。
記憶部43は、制御部44が読取可能な記録媒体である。記憶部43は、後述する画像処理に関する画像処理アプリケーション431を記憶する。制御部38は、例えばCPU(Central Processing Unit)等のプロセッサーであり、画像処理アプリケーション431を実行することにより、プロジェクター3に対して画像処理に関する指示ができる。
1−1d.スクリーン
スクリーン1は、検出部11を有する。検出部11は、表示面101に接近または接触する携帯端末4の位置を検出して、表示座標系における携帯端末4の接触位置P1の情報を出力する。
図3は、図1に示すスクリーン1が有する検出部11を説明するための図である。図3に示すように、スクリーン1に設けられる検出部11は、複数の読取器111を有する。読取器111は、例えば、アンテナを備えるLSI(Large Scale Integration)で構成され、携帯端末4の近距離無線通信部42と通信可能な電子タグリーダーである。したがって、読取器111は、数cm程度の通信可能範囲の電子タグと通信可能である。携帯端末4が読取器111に通信可能範囲内に近づくことにより、検出部11は、携帯端末4の接近または接触を検出する。
複数の読取器111は、表示面101に沿って行列状に並び、表示面101のほぼ全域に配置される。図3に示す点線の外枠は、行列状に配列される複数の読取器111の範囲を示している。なお、これら複数の読取器111は、1つのカバーで覆われており、当該カバーの外表面が表示面101を構成する。表示面101には、表示座標系が定められており、行列状に分割される座標(w,z)が設定される。そして、複数の読取器111は、表示面101の座標(w,z)に対応して配置される。
また、投射画像80は点線の外枠に対応するように表示される。そのために、キャリブレーションが実行される。キャリブレーションは、例えば、以下のように実行される。まず、表示面101には、外枠の四隅にマーカーM1〜M4が設けられている。画像処理部37は投射画像80として予め定められた基準画像を表示面101に表示させる。基準画像は、例えば、格子の画像である。撮像部31は表示面101に表示される基準画像を撮像する。撮像部31によって撮像された画像にはマーカーM1〜M4が含まれている。制御部38は撮像された画像のどの箇所にマーカーM1〜M4が位置するかを特定する。制御部38は、特定結果に基づいて、表示座標系と撮像座標系との関係を示す座標変換式を生成する。
また、制御部38は、撮像された基準画像に基づいて、投射座標系と撮像座標系との関係を示す座標変換式を生成する。具体的には、撮像された基準画像の格子点の位置に基づいて投射座標系と撮像座標系との関係を示す座標変換式を生成する。
さらに、画像処理部37は、撮像された基準画像の四隅がマーカーM1〜M4の位置に近づくように画像処理を施してもよい。
複数の読取器111のうち携帯端末4が近接する読取器111は、携帯端末4と通信接続される。読取器111と携帯端末4との通信接続とは、いわゆるペアリングを意味し、情報の送信および受信が可能になる状態を指す。読取器111は携帯端末4と通信接続されると、携帯端末4が近接したこと示す検出信号を出力する。検出部11は、各読取器111から出力される検出信号に基づいて、複数の読取器111のうち、どの読取器111が検出信号を出力したかを特定することで、検出部11は、携帯端末4の表示面101の座標(w,z)を求めることができる。具体的には、検出部11は、読取器111を一意に識別する識別情報と読取器111の座標とを対応付けて記憶するテーブルを備えており、検出信号を出力する読取器111の識別情報に対応する座標をテーブルから読み出すことによって携帯端末4の端末位置P8を取得する。
また、読取器111は、近距離無線を用いて携帯端末4と通信接続すると、携帯端末4から端末情報を受信する。端末情報は、携帯端末4のサイズ、特に携帯端末4の表示画面のサイズに関する情報、携帯端末4からの後述する画像処理の指示に関する通知、および携帯端末4のネットワーク情報を含む。ネットワーク情報は、携帯端末4とプロジェクター3との間でオブジェクトデータ等の大容量のデータを通信する場合に、Wi-FiまたはBluetoothなどを用いて携帯端末4とプロジェクター3とをペアリングして通信接続を確立するために必要な情報である。なお、「Wi-Fi」および「Bluetooth」は、各々登録商標である。
また、検出部11は、ネットワークを介して端末情報をプロジェクター3に送信可能に構成される。なお、検出部11とプロジェクター3とは有線接続であってもよい。また、上述の複数の読取器111の配置は行列状でなくてもよい。また、複数の読取器111は、表示面101の全域でなく、一部のみに配置されてもよい。複数の読取器111が配置される範囲は、表示面101に表示される投射画像80と一部または全部が重なる。
1−2.プロジェクターによる画像処理方法
次に、プロジェクター3による画像処理方法の一例について説明する。以下で説明する画像処理は、オブジェクト801を投射画像80から切り取る切取処理と、オブジェクト801を投射画像80に貼り付けるような貼付処理と、を有する。また、画像処理は、ユーザーによる操作部34の操作を受けて、制御部38が記憶部36に記憶される画像処理プログラム361を読み出して実行することにより実現される。
1−2A.切取処理
まず、表示処理方法のうち切取処理を説明する。図4は、第1実施形態における画像処理方法の切取処理を説明するためのフローチャートである。また、以下では、図2のブロック図、図4のフローチャート、および、図5〜図10を参照しつつ説明する。
図4に示すステップS11において、投射部32は、表示面101に投射画像80を表示させる。
図5は、ステップS11における投射画像80の一例を示す図である。投射制御部382の制御の下、光源駆動部331およびレンズ駆動部334のそれぞれが駆動するとともに、画像処理部37が生成する画像信号に基づいてライトバルブ駆動部332が駆動することで、投射部32は投射画像80を表示面101に表示させる。また、撮像制御部381の制御の下で、撮像部31が、表示面101に電子ペン2の光を撮像し、ペン位置生成部383が、撮像座標系でのペン先の位置から投射座標系でのペン先の位置を生成する。そして、画像データ生成部386が、電子ペン2の軌跡を含む投射画像80の表示画像データを生成し、上述と同様にして投射部32が、電子ペン2の軌跡を含む投射画像80を表示面101に表示させる。
図4に示すステップS12において、制御部38は通信部35がスクリーン1の検出部11から携帯端末4の接触位置P1の情報および端末情報を受信したかを判定する。
図6は、ステップS12において表示面に携帯端末が接近または接触する状態を示す図である。図6に示すように表示面101に携帯端末4が接近または接触すると、複数の読取器111のうち携帯端末4が接近する読取器111は、携帯端末4と通信接続する。図7は、ステップS12における表示面101における携帯端末4の表示面101での接触位置P1を示す図である。検出部11は、携帯端末4と通信接続される読取器111を特定して、表示座標系における携帯端末4の接触位置P1の位置を求める。具体的には、接触位置P1の座標(w,z)を求める。そして、検出部11は、接触位置P1の情報と、携帯端末4から近距離無線を介して受信される端末情報とをプロジェクター3に送信する。端末情報は、携帯端末4の位置に対応するオブジェクト801のオブジェクトデータの送信を要求する送信要求を含む。
図4に示すステップS13において、端末位置生成部384は、ステップS12で受信される携帯端末4の接触位置P1の情報に基づいて端末位置P8の端末位置情報を生成する。
図8は、ステップS13における携帯端末4の投射画像80での端末位置P8を示す図である。端末位置生成部384は、図7に示す表示座標系における接触位置P1から図8に示す投射座標系における端末位置P8を生成する。具体的には、表示面101の座標系における座標(w,z)と投射画像80の座標系における座標(x,y)との間の座標変換式を用いて、接触位置P1の座標(w,z)を、端末位置P8の座標(x,y)に変換する。
図4に示すステップS14において、オブジェクト特定部385は、ステップS13で生成される端末位置P8に対応するオブジェクト特定範囲A8を決定する。
図9は、ステップS14におけるオブジェクト特定範囲A8を示す図である。オブジェクト特定部315は、ステップS12で受信する携帯端末4のサイズと、ステップS13で生成される投射座標系における端末位置P8とを基にして、オブジェクト特定範囲A8を決定する。オブジェクト特定範囲A8は、例えば、端末位置P8を中心として携帯端末4のサイズと同等のサイズで設定される。なお、オブジェクト特定範囲A8のサイズはこれに限定されず、任意である。
図4に示すステップS15において、オブジェクト特定部385は、ステップS14で求められるオブジェクト特定範囲A8に位置するオブジェクト801のオブジェクトデータを特定する。オブジェクト特定部385は、オブジェクト特定範囲A8と一部または全部が重なるオブジェクトデータを、表示画像データに基づいて特定する。
ステップS16において、通信部35は、ステップS15で特定されるオブジェクトデータを携帯端末4に送信する。通信部35は、端末情報に含まれるネットワーク情報を用いて、携帯端末4のネットワーク通信部41との間でWi-FiまたはBluetoothなどのデータ通信を確立した後、オブジェクトデータを携帯端末4に送信する。なお、通信部35はステップS16で携帯端末4とデータ通信を確立するが、データ通信の確立はステップS16より前であればステップS13、S14およびS15と並列して行ってもよい。
ステップS17において、画像データ生成部386は、ステップS15で特定されるオブジェクトデータと表示画像データとに基づいて、投射画像80の表示画像データからオブジェクトデータを除く切取処理後画像データを生成する。
ステップS18において、投射部32は、投射制御部382の制御の下、ステップS16で生成される切取処理後画像データに基づく切取処理後画像80aを表示面101に表示させる。
図10は、ステップS18における切取処理後画像80aを示す図である。投射部32は、切取処理後画像80aを表示面101に表示させ、携帯端末4には、オブジェクト801が表示される。切取処理後画像80aでは、携帯端末4に送信させるオブジェクトデータに対応するオブジェクト801が除かれる。以上によりオブジェクト切取処理が終了する。
1−2B.貼付処理
次に、画像処理方法のうち貼付処理を説明する。図11は、第1実施形態における画像処理方法の貼付処理を説明するためのフローチャートである。また、以下では、図2のブロック図、図11のフローチャート、および、図12〜図15を参照しつつ説明する。また、以下では、上述の切取処理と同様の内容については簡単に説明する。
図11に示すステップS21において、投射部32は、投射光LLを投射して表示面101に投射画像80bを表示させる。
ステップS22において、通信部35がスクリーン1の検出部11から携帯端末4の接触位置P1の情報および端末情報を受信したかを判定する。端末情報には、携帯端末4からのオブジェクト801を貼り付けることを要求する貼付要求が含まれる。
図12は、ステップS22において表示面101に携帯端末4が接近または接触する状態を示す図である。図12に示すように表示面101に携帯端末4が接近または接触すると、複数の読取器111のうち携帯端末4が接近または接触する読取器111は、携帯端末4との通信を確立する。図13は、ステップS22における携帯端末4の表示面101での接触位置P1を示す図である。検出部11は、携帯端末4との通信する読取器111を特定して、表示座標系における携帯端末4の接触位置P1の位置を求める。
図11に示すステップS23において、端末位置生成部384は、ステップS22で受信される携帯端末4の接触位置P1の情報に基づいて端末位置P8の端末位置情報を生成する。
図14は、ステップS23における携帯端末4の投射画像80bでの端末位置を示す図である。端末位置生成部384は、図12に示す表示座標系における接触位置P1から図13に示す投射座標系における端末位置P8を生成する。
図11に示すステップS24において、通信部35は、ステップS23で特定されるオブジェクトデータを携帯端末4から受信する。通信部35は、端末情報に含まれるネットワーク情報を用いて、Wi-FiまたはBluetoothなどのデータ通信を携帯端末4のネットワーク通信部41との間で確立した後、オブジェクトデータを携帯端末4から受信する。なお、通信部35はステップS25で携帯端末4とデータ通信を確立するが、データ通信の確立はステップS25より前であればステップS23およびS24と並列して行ってもよい。
ステップS25において、画像データ生成部386は、投射画像80の画像データにオブジェクトデータが追加される貼付処理後画像データを生成する。画像データ生成部386は、ステップS23で生成される端末位置P8とステップS24で受信されるオブジェクトデータと表示画像データとに基づいて、貼付処理後画像データを生成する。
ステップS26において、投射部32は、投射制御部382の制御の下、ステップS25で生成される貼付処理後画像データに基づく貼付処理後画像80cを表示面101に表示させる。
図15は、ステップS26における貼付処理後画像80cを示す図である。投射部32は、貼付処理後画像80cを表示面101に表示させ、携帯端末4の表示画面においてオブジェクト801が非表示となる。貼付処理後画像80cでは、携帯端末4から受信されるオブジェクトデータに対応するオブジェクト801が追加される。以上によりオブジェクト貼付処理が終了する。
以上がプロジェクターシステム100の構成およびプロジェクターシステム100による画像処理の一例である。上述のように、「表示装置」の一例であるスクリーン1とプロジェクター3とはプロジェクターシステム100の一部である。プロジェクター3は、「表示部」としての投射部32と、「位置生成部」としての端末位置生成部314と、オブジェクト特定部315と、「送信部」の機能を有する通信部35と、を有する。投射部32は、表示画像データに基づく一または複数のオブジェクト801を含む「画像」として投射画像80を表示面101に表示する。端末位置生成部314は、表示面101に近接または接触する携帯端末4の位置を示す情報を、投射画像80内における端末位置P8を示す端末位置情報として生成する。オブジェクト特定部315は、表示画像データおよび端末位置情報に基づいて、端末位置P8に対応するオブジェクト801に関するオブジェクトデータを特定する。通信部35は、オブジェクトデータを携帯端末4に送信する。
かかるプロジェクター3によれば、投射画像80における端末位置P8に対応するオブジェクト801を特定し、当該オブジェクト801に関するオブジェクトデータを携帯端末4に送信できる。したがって、表示装置に一または複数のオブジェクトが表示されている場合に、所望のオブジェクトを携帯端末4において取得できる。すなわち、本実施形態によれば、ユーザーは、表示面101において携帯端末4を所望のオブジェクト801に近づけるような動作をするだけで、投射画像80中の所望のオブジェクト801についてオブジェクトデータを取得できる。くわえて、紙の付箋を剥がす動作と同様の動作を電子環境で実現でき、ユーザーのオブジェクトデータの取り扱いに関する利便性を高めることができる。
さらに、本実施形態では、投射画像80bにおける携帯端末4の接触位置P1を投射画像80bにおける端末位置P8に変換して、携帯端末4から受信するオブジェクトデータを投射画像80bにおける端末位置P8に表示できる。そのため、ユーザーは、携帯端末4を表示面101の所望の箇所に近づけるような動作をするだけで、携帯端末4に記憶されるオブジェクト801を投射画像80b上に表示させることができる。つまり、紙の付箋を貼り付ける動作と同様の動作を電子環境で実現できる。それゆえ、かかるプロジェクター3によれば、紙の付箋を剥がしたり貼ったりするという紙の付箋の持つ利便性を電子環境で実現でき、ユーザーのオブジェクトデータの取り扱いに関する利便性を高めることができる。
また、上述のように表示装置は、スクリーン1を有する。スクリーン1は、表示面101における携帯端末4の位置である接触位置P1を検出する検出部11を有する。そして、上述の端末位置生成部314は、表示面101と表示面101に表示される投射画像80との位置関係に基づいて、検出部11から出力される表示面101に接触する携帯端末4の位置を示す情報を、端末位置P8の端末位置情報に変換する。
プロジェクターシステム100が検出部11および端末位置生成部314を有することで、表示面101における携帯端末4の接触位置P1を投射画像80における携帯端末4の端末位置P8に変換できるので、表示座標系における座標を投射座標系における座標に変換することができる。表示画像データは投射座標系で規定されるので、オブジェクト特定部315は表示画像データに基づいてオブジェクトデータを特定できる。
また、検出部11は携帯端末4と近距離無線通信することにより表示面101における携帯端末4の接触位置P1を検出する。つまり、上述のように検出部11は、複数の読取器111を有し、読取器111が近距離無線による通信接続することにより携帯端末4の表示面101への近接または接触を検出する。読取器111を用いることで、携帯端末4の近接または接触を簡単に検知できる。また、読取器111を用いることで、携帯端末4の近接または接触を検出することに加え、携帯端末4の端末情報を受信することができる。そのため、別途端末情報を受信する手間を省くことができる。
また、本実施形態では、検出部11は、読取器111を用いる方法以外の方法で携帯端末4の接触を検出してもよい。例えば、検出部11は、表示面101と携帯端末4との接触を検知することにより表示面101における携帯端末4の位置を検出する静電容量方式の感圧センサーを用いることができる。感圧センサーを用いることで携帯端末4の接触を簡単に検出できる。なお、感圧センサーを用いる場合、スクリーン1と携帯端末4とは、近距離無線を介して通信可能となっていなくてよい。
また、上述のように、画像データ生成部316は、表示画像データからオブジェクトデータを除く「第2表示画像データ」としての切取処理後画像データを生成する。「表示部」としての投射部32は、処理後画像データに基づいて、投射画像80から端末位置P8に対応するオブジェクト801を除く「第2画像」としての切取処理後画像80aを表示する。
オブジェクト801を除く切取処理後画像80aが表示されることで、ユーザーは直観的にオブジェクト801のオブジェクトデータの切取処理を実行されることが解る。これにより、ユーザーは所望のオブジェクトに関するオブジェクトデータが携帯端末4に転送されることを認識できる。
また、オブジェクト特定部315は、携帯端末4のサイズに応じて端末位置P8に対応するオブジェクト特定範囲A8を決定し、オブジェクト特定範囲A8と一部または全部が重なるオブジェクトを特定する。
オブジェクト特定範囲A8を特定することで、オブジェクト特定範囲A8を特定しない場合に比べ、より広範な範囲でオブジェクト801を特定できるので、ユーザーが適当にオブジェクト801に携帯端末4を接触させてもオブジェクト801の切取処理を高精度に行うことができる。
以上が本実施形態におけるプロジェクターシステム100および画像処理である。なお、本実施形態では、1つの読取器111が携帯端末4と接近するが、複数の読取器111が携帯端末4と接触または接近してもよい。すなわち、検出部11は、複数の読取器111との近接を検出してもよい。
2.第2実施形態
次に、本発明の第2実施形態について説明する。図16は、第2実施形態における切取処理のステップS12において表示面に携帯端末が接触する状態を示す図である。図17は、第2実施形態における切取処理のステップS13において端末位置およびオブジェクト特定範囲を示す図である。図18は、第2実施形態における切取処理のステップS17における処理後画像を示す図である。
本実施形態は、主に、画像処理において複数のオブジェクトデータが特定されること以外は、第1実施形態と同様である。なお、以下の説明では、第2実施形態に関し、第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図16、図17および図18において、第1実施形態と同様の構成については、同一符号を付す。
図16に示すように、ユーザーが複数のオブジェクト801に対して携帯端末4を接近または接触させる場合、プロジェクター3は、当該複数のオブジェクト801のオブジェクトデータを携帯端末4に送信する。
切取処理のステップS15において、図17に示すようにオブジェクト特定範囲A8内に、第1のオブジェクト801dと第2のオブジェクト801eとが有る場合、オブジェクト特定部385は、第1のオブジェクト801dおよび第2のオブジェクト801eを含む1つのオブジェクトデータを特定する。より具体的には、オブジェクト特定部385は、第1のオブジェクト801dに関する第1のオブジェクトデータと第2のオブジェクト801eに関する第2のオブジェクトデータとを含む第3のオブジェクトデータを生成し、第3のオブジェクトデータをオブジェクトデータとして特定する。例えば、第1のオブジェクト801dが写真であり、第2のオブジェクト801eがテキストである場合、写真とテキストを含む第3のオブジェクトデータが生成される。
また、ステップS16において、通信部35は、第3のオブジェクトデータを携帯端末4に送信し、ステップS17において、画像データ生成部386は、第3のオブジェクトデータを除く切取処理後画像データを生成する。そして、ステップS18において、投射部32は、図18に示すように、当該切取処理後画像データに基づく切取処理後画像80dを表示面101に表示させる。
第1のオブジェクト801dおよび第2のオブジェクト801eを1つのオブジェクトデータとして携帯端末4に送信することで、ユーザーは、第1のオブジェクト801dおよび第2のオブジェクト801eを表示画面で一括して視認できる。また、1つのオブジェクトデータとして取り扱うことができて利便性にも優れる。
また、切取処理のステップS15において、オブジェクト特定部315は、第1のオブジェクト801dに関する第1のオブジェクトデータと第2のオブジェクト801eに関する第2のオブジェクトデータとをそれぞれ個別に特定することも可能である。そして、ステップS16において、通信部35は、第1のオブジェクトデータと第2のオブジェクトデータとを携帯端末4に送信する。
第1のオブジェクト801dおよび第2のオブジェクト801eをそれぞれ個別のオブジェクトデータとして携帯端末4に送信することで、ユーザーは、第1のオブジェクト801dおよび第2のオブジェクト801eを個別に使用できる。
さらに、オブジェクト特定部315は、第1のオブジェクト801dおよび第2のオブジェクト801eを1つのオブジェクトデータとして特定することと、それぞれ個別のオブジェクトデータとして特定することを選択できる。また、オブジェクト特定部315は、この選択をユーザーの携帯端末4を用いた指示を受けて行う。そのため、ユーザーにとってオブジェクトデータの使い勝手を高めることができる。
なお、貼付処理についても上述の切取処理と同様のことが言える。
本実施形態によっても、第1実施形態と同様に、紙の付箋を剥がす動作と同様の動作を電子環境で実現でき、ユーザーの利便性を高めることができる。
3.第3実施形態
次に、本発明の第3実施形態について説明する。図19は、第3実施形態におけるプロジェクターシステムを示すブロック図である。図20は、第3実施形態における携帯端末が表示面に接触する状態を説明するための図である。
本実施形態は、主に、プロジェクター3Aが撮像部31で撮像された撮像画像に基づいて端末位置P8を生成こと以外は、第1実施形態と同様である。なお、以下の説明では、第3実施形態に関し、第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図19および図20において、第1実施形態と同様の構成については、同一符号を付す。
図19に示すプロジェクターシステム100Aでは、プロジェクター3Aの撮像部31は、表示面101に接近または接触する携帯端末4Aを撮像する。撮像部31は、携帯端末4Aの撮像において、可視光の波長領域において感度を有する。
端末位置生成部384Aは、撮像部31で撮像された撮像画像に基づいて端末位置P8を生成する。具体的には、端末位置生成部384Aはスクリーン1Aに近接または接触する携帯端末4Aを画像認識し、撮像座標系と投射座標系との間の座標変換式を用いて、撮像画像における携帯端末4の位置を投射画像80の座標系での端末位置P8に変換する。
携帯端末4Aの制御部44が画像処理アプリケーション431Aを実行することにより、図20に示すような携帯端末4Aの表示画面に端末情報を示す指示画像40が表示される。指示画像40は、例えば、QRコード等の2次元コードの画像である。QRコードは登録商標である。プロジェクター3Aの制御部38は、撮像部31によって撮像された指示画像40を解析して端末情報を取得する。例えば、QRコードから端末情報が生成される。なお、携帯端末4Aは、第1実施形態における近距離無線通信部42を有さない。
図19に示すスクリーン1Aは、第1実施形態における検出部11を有しておらず、例えば、表示面101を有する垂幕またはホワイトボード等で構成される。
本実施形態では、撮像部31で撮像された撮像画像に基づいて端末位置P8が生成されるので、携帯端末4Aが近距離無線通信部42を有さず、さらにスクリーン1が検出部11を備えなくても、携帯端末4の端末位置P8を生成できる。加えて、端末位置P8を生成するためにキャリブレーションに用いる撮像部31を兼用できる。よって、本実施形態によれば、簡易な構成で、投射部32とスクリーン1を備える表示装置に一または複数のオブジェクトが表示されている場合、所望のオブジェクトを携帯端末4Aにおいて取得できる。そして、本実施形態によっても、第1実施形態と同様に、紙の付箋を剥がす動作と同様の動作を電子環境で実現でき、ユーザーの利便性を高めることができる。
4.変形例
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
4−1.変形例1
上述した実施形態では、表示装置として投射部32とスクリーン1とを例示したが、表示装置はこれに限定されない。例えば、タッチ機能を有する表示パネルを用いてよい。表示パネルとしては、液晶パネルまたは有機ELパネルを用いることができる。この場合、表示パネルの表示面101に携帯端末4が接触すると、表示パネルは携帯端末4の表示面101における接触位置P1を出力する。また、接触位置P1は表示される画像における位置を示しているので、接触位置P1は端末位置P8と一致する。
4−2.変形例2
オブジェクト特定部315は、携帯端末4のサイズと端末位置P8とを基にして、オブジェクト特定範囲A8を決定したが、オブジェクト特定範囲A8は端末位置P8そのものであってもよい。この場合、オブジェクト特定部315は、表示範囲に端末位置P8を含むオブジェクトデータを特定する。
4−3.変形例3
上述した実施形態では、撮像座標系から投射座標系への座標変換および表示座標系から投射座標系への座標変換には、座標変換式を用いたが、座標変換できるのであればどのような方法を採用してもよい。例えば、撮像座標系の座標と投射座標系の座標とを対応付けて記憶する第1のテーブルと、表示座標系の座標と投射座標系の座標とを対応付けて記憶する第2のテーブルとを用いて、座標変換してもよい。要は、端末位置生成部384は、表示面101と表示面101に表示される投射画像80との位置関係に基づいて、検出部11から出力される表示面101における携帯端末4の位置を、投射画像80内における端末位置P8に変換すればよい。
1…スクリーン、2…電子ペン、3…プロジェクター、4…携帯端末、5…外部装置、11…検出部、31…撮像部、32…投射部、35…通信部、38…制御部、41…ネットワーク通信部、42…近距離無線通信部、80…投射画像、80a…切取処理後画像、100…プロジェクターシステム、101…表示面、111…読取器、314…端末位置生成部、315…オブジェクト特定部、384…端末位置生成部、801…オブジェクト、801d…第1のオブジェクト、801e…第2のオブジェクト、A8…オブジェクト特定範囲、P8…端末位置。

Claims (10)

  1. 表示画像データに基づく一または複数のオブジェクトを含む画像を表示面に表示する表示部と、
    前記表示面に接触する携帯端末の位置を示す情報を、前記画像内における端末位置を示す端末位置情報として生成する位置生成部と、
    前記表示画像データおよび前記端末位置情報に基づいて、前記端末位置に対応するオブジェクトに関するオブジェクトデータを特定するオブジェクト特定部と、
    前記オブジェクトデータを前記携帯端末に送信する送信部と、
    を備える表示装置。
  2. 前記表示面における前記携帯端末の位置を検出する検出部をさらに有し、
    前記位置生成部は、前記表示面と前記表示面に表示される前記画像との位置関係に基づいて、前記検出部から出力される前記表示面に接触する前記携帯端末の位置を示す情報を、前記端末位置情報に変換する請求項1に記載の表示装置。
  3. 前記検出部は、前記携帯端末と近距離無線通信することにより前記表示面における前記携帯端末の位置を検出する請求項2に記載の表示装置。
  4. 前記検出部は、前記表示面と前記携帯端末との接触を検知することにより前記表示面における前記携帯端末の位置を検出する請求項2に記載の表示装置。
  5. 前記携帯端末を撮像する撮像部を有し、
    前記位置生成部は、前記撮像部で撮像された撮像画像に基づいて、前記端末位置を生成する、
    請求項1に記載の表示装置。
  6. 前記表示画像データから前記オブジェクトデータを除く第2表示画像データを生成する画像データ生成部をさらに有し、
    前記表示部は、前記第2表示画像データに基づいて、前記画像から前記端末位置に対応するオブジェクトを除く第2画像を表示する請求項1ないし5のいずれか1項に記載の表示装置。
  7. 前記オブジェクト特定部は、前記携帯端末のサイズに応じて前記端末位置に対応するオブジェクト特定範囲を決定し、前記オブジェクト特定範囲と一部または全部が重なる前記オブジェクトを特定する請求項1ないし6のいずれか1項に記載の表示装置。
  8. 前記オブジェクト特定部は、前記端末位置に対応して第1のオブジェクトと第2のオブジェクトとが有る場合、前記第1のオブジェクトに関する第1のオブジェクトデータと前記第2のオブジェクトに関する第2のオブジェクトデータとを含む第3のオブジェクトデータを生成し、前記第3のオブジェクトデータを前記オブジェクトデータとして特定する、請求項1ないし7に記載の表示装置。
  9. 前記オブジェクト特定部は、前記端末位置に対応して第1のオブジェクトと第2のオブジェクトとが有る場合、前記第1のオブジェクトを示す第1のオブジェクトデータと、前記第2のオブジェクトを示す第2のオブジェクトデータとを特定し、
    前記送信部は、前記第1のオブジェクトデータと前記第2のオブジェクトデータとを送信する請求項1ないし7に記載の表示装置。
  10. 表示画像データに基づく一または複数のオブジェクトを含む画像を表示面に表示し、
    前記表示面に接触する携帯端末の位置を示す情報を、前記画像内における端末位置を示す端末位置情報として生成し、
    前記表示画像データおよび前記端末位置情報に基づいて、前記端末位置に対応するオブジェクトに関するオブジェクトデータを特定し、
    前記オブジェクトデータを前記携帯端末に送信する、
    ことを特徴とする表示処理方法。
JP2018130464A 2018-07-10 2018-07-10 表示装置および表示処理方法 Pending JP2020008750A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018130464A JP2020008750A (ja) 2018-07-10 2018-07-10 表示装置および表示処理方法
US16/505,824 US11243674B2 (en) 2018-07-10 2019-07-09 Display apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018130464A JP2020008750A (ja) 2018-07-10 2018-07-10 表示装置および表示処理方法

Publications (2)

Publication Number Publication Date
JP2020008750A true JP2020008750A (ja) 2020-01-16
JP2020008750A5 JP2020008750A5 (ja) 2021-05-06

Family

ID=69139395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018130464A Pending JP2020008750A (ja) 2018-07-10 2018-07-10 表示装置および表示処理方法

Country Status (2)

Country Link
US (1) US11243674B2 (ja)
JP (1) JP2020008750A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114860178A (zh) * 2021-01-18 2022-08-05 华为技术有限公司 一种投屏的方法和电子设备
CN113687760A (zh) * 2021-08-18 2021-11-23 华东师范大学 基于层叠式感知交互模块的可交互屏幕、及其方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248766A (ja) * 2010-05-28 2011-12-08 Sony Corp 電子ペン、情報処理システム及びプログラム
JP2013097177A (ja) * 2011-11-01 2013-05-20 Seiko Epson Corp 表示装置、表示装置の制御方法、及び、プログラム
JP2016021228A (ja) * 2014-06-17 2016-02-04 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282254A (ja) 1992-03-31 1993-10-29 Toshiba Corp 情報処理装置及び付せん制御方法
US7973773B2 (en) * 1995-06-29 2011-07-05 Pryor Timothy R Multipoint, virtual control, and force based touch screen applications
JPH10275134A (ja) 1997-03-31 1998-10-13 Nri & Ncc Co Ltd データ移管用バッファ装置、入力デバイス、コンピュータ本体およびデータ移管方法
US8184128B2 (en) * 2004-10-27 2012-05-22 Hewlett-Packard Development Company, L. P. Data distribution system and method therefor
JP4805022B2 (ja) 2006-05-25 2011-11-02 シャープ株式会社 表示装置、端末装置、画像貼付システムおよびそれらの方法
GB2448310A (en) * 2007-01-31 2008-10-15 Wilico Wireless Networking Sol Interactive information method and system
US8358268B2 (en) * 2008-07-23 2013-01-22 Cisco Technology, Inc. Multi-touch detection
US8591039B2 (en) * 2008-10-28 2013-11-26 Smart Technologies Ulc Image projection methods and interactive input/projection systems employing the same
JP5832069B2 (ja) * 2009-02-25 2015-12-16 京セラ株式会社 携帯電子機器
GB0916806D0 (en) * 2009-09-24 2009-11-04 Plastic Logic Ltd Touch screen displays
JP5421762B2 (ja) * 2009-12-22 2014-02-19 キヤノン株式会社 表示装置、その制御方法、表示システム
US9110495B2 (en) * 2010-02-03 2015-08-18 Microsoft Technology Licensing, Llc Combined surface user interface
JP2011248769A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8836640B2 (en) * 2010-12-30 2014-09-16 Screenovate Technologies Ltd. System and method for generating a representative computerized display of a user's interactions with a touchscreen based hand held device on a gazed-at screen
US20130110974A1 (en) * 2011-10-31 2013-05-02 Nokia Corporation Method and apparatus for controlled selection and copying of files to a target device
EP2648096A1 (en) * 2012-04-07 2013-10-09 Samsung Electronics Co., Ltd Method and system for controlling display device and computer-readable recording medium
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
CN104364746B (zh) * 2012-06-29 2017-08-18 日立麦克赛尔株式会社 显示系统、显示装置、显示终端、显示终端的显示方法
US20150070323A1 (en) * 2013-09-10 2015-03-12 Qualcomm Incorporated Display-to-display data transmission
US20150071648A1 (en) * 2013-09-10 2015-03-12 Qualcomm Incorporated Display-to-display data transmission
KR101918829B1 (ko) * 2014-02-17 2018-11-14 애플 인크. 제1 물체와 제2 물체 사이의 터치를 검출하기 위한 방법 및 디바이스
TWI530861B (zh) * 2014-10-16 2016-04-21 宏碁股份有限公司 行動裝置、電子裝置及其啓動應用之方法
SG10201501720UA (en) * 2015-03-06 2016-10-28 Collaboration Platform Services Pte Ltd Multi user information sharing platform
US20160335242A1 (en) * 2015-05-14 2016-11-17 Smart Technologies Ulc System and Method of Communicating between Interactive Systems
JP2017076207A (ja) 2015-10-14 2017-04-20 株式会社リコー 画像処理装置及び画像処理システム
US10198177B2 (en) * 2016-07-14 2019-02-05 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium
JP6953692B2 (ja) * 2016-09-01 2021-10-27 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9977510B1 (en) * 2016-09-23 2018-05-22 Wayne A. Moffett Gesture-driven introduction system
US20190102135A1 (en) * 2017-10-03 2019-04-04 Summit Technology Laboratory Scalable interaction with multi-displays
CN108848359B (zh) * 2018-06-19 2021-09-10 明基智能科技(上海)有限公司 影像显示系统及影像显示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248766A (ja) * 2010-05-28 2011-12-08 Sony Corp 電子ペン、情報処理システム及びプログラム
JP2013097177A (ja) * 2011-11-01 2013-05-20 Seiko Epson Corp 表示装置、表示装置の制御方法、及び、プログラム
JP2016021228A (ja) * 2014-06-17 2016-02-04 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム

Also Published As

Publication number Publication date
US11243674B2 (en) 2022-02-08
US20200019297A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP5764387B2 (ja) 遠隔操作装置、遠隔制御システムおよび制御プログラム
US8872805B2 (en) Handwriting data generating system, handwriting data generating method, and computer program product
US20200275069A1 (en) Display method and display system
JP5796733B2 (ja) 光信号出力装置、信号処理装置、信号処理方法、信号処理システム、撮像装置、プロジェクタ、およびプログラム
JP4710734B2 (ja) ポインティング装置、ポインティング位置検出方法及びプログラム
JP5942900B2 (ja) 表示装置及びプログラム
JP2012173447A (ja) インタラクティブシステム、位置情報変換方法、およびプロジェクター
JP2020008750A (ja) 表示装置および表示処理方法
US20140292636A1 (en) Head-Worn Infrared-Based Mobile User-Interface
JP2003233460A (ja) 座標入力装置
CN105706436A (zh) 信息处理装置、成像装置、成像系统、信息处理装置的控制方法、成像装置的控制方法和程序
JP2020008750A5 (ja) 表示装置および画像処理方法
EP2528409A1 (en) Device, equipment and method for data transmission by touch mode
US20190295499A1 (en) Display device, display system, and method of controlling display device
JP2009296239A (ja) 情報処理システムおよび情報処理方法
JP6137247B2 (ja) プロジェクタ装置及びプロジェクタシステム
TW201435656A (zh) 資訊科技裝置輸入系統及相關方法
TW202300082A (zh) 清掃區域指定方法、移動終端及掃地機器人
KR102499576B1 (ko) 전자 장치 및 그 제어 방법
JP2004309659A (ja) プロジェクタシステム、プロジェクタ装置、画像投射方法
US20100182229A1 (en) Terminal, display apparatus, and method for transmitting and receiving data thereof
JP2004310296A (ja) 機器制御システム、機器制御方法、情報端末
JP2022133582A (ja) 表示装置の制御方法、表示装置、および表示システム
US20230098782A1 (en) Display method, display system, and a non-transitory computer-readable storage medium storing a program
JP6300053B2 (ja) プロジェクタ装置及びプロジェクタシステム

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181121

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210917

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220719