JP2017182110A - 表示システム、表示装置、情報処理装置及び情報処理方法 - Google Patents
表示システム、表示装置、情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP2017182110A JP2017182110A JP2016063108A JP2016063108A JP2017182110A JP 2017182110 A JP2017182110 A JP 2017182110A JP 2016063108 A JP2016063108 A JP 2016063108A JP 2016063108 A JP2016063108 A JP 2016063108A JP 2017182110 A JP2017182110 A JP 2017182110A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- unit
- coordinate
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims description 103
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000006243 chemical reaction Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 abstract description 22
- 238000003384 imaging method Methods 0.000 description 84
- 230000006870 function Effects 0.000 description 30
- 239000004973 liquid crystal related substance Substances 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 241001422033 Thestylus Species 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000002834 transmittance Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
- G09G2370/042—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/315—Modulator illumination systems
- H04N9/3155—Modulator illumination systems for controlling the light source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3197—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using light modulating optical valves
Abstract
【課題】異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行えるようにする。
【解決手段】プロジェクター10Aは、自装置が表示した画像において指示体により指示された位置の座標を特定し、特定した座標を表す第1座標情報と、自装置が表示する画像の表示位置を識別する第1識別情報を出力する。プロジェクター10Bは、自装置が表示した画像において指示体により指示された位置の座標を特定し、特定した座標を表す第2座標情報と、自装置が表示する画像の表示位置を識別する第2識別情報を出力する。情報処理装置30は、第1座標情報を第1識別情報に基づいて、情報処理装置30の座標系における座標を表す第3座標情報に変換し、第2座標情報を第2識別情報に基づいて、情報処理装置30の座標系における座標を表す第4座標情報に変換する変換部を有する。
【選択図】図1
【解決手段】プロジェクター10Aは、自装置が表示した画像において指示体により指示された位置の座標を特定し、特定した座標を表す第1座標情報と、自装置が表示する画像の表示位置を識別する第1識別情報を出力する。プロジェクター10Bは、自装置が表示した画像において指示体により指示された位置の座標を特定し、特定した座標を表す第2座標情報と、自装置が表示する画像の表示位置を識別する第2識別情報を出力する。情報処理装置30は、第1座標情報を第1識別情報に基づいて、情報処理装置30の座標系における座標を表す第3座標情報に変換し、第2座標情報を第2識別情報に基づいて、情報処理装置30の座標系における座標を表す第4座標情報に変換する変換部を有する。
【選択図】図1
Description
本発明は、表示システム、表示装置、情報処理装置及び情報処理方法に関する。
タッチパネルを備える2つのディスプレイ装置で手書き入力を行う発明として、例えば特許文献1に開示されたディスプレイ装置がある。このディスプレイ装置は、一方のディスプレイ装置のベゼル付近でスタイラスペンが離れてペンアップのイベントが発生した後、他方のディスプレイ装置のベゼル付近でスタイラスペンが接してペンダウンのイベントが発生した場合、このペンアップからペンダウンまでの経過時間が所定時間内であると、他方のディスプレイ装置で表示する線の補正処理を行う。
特許文献1の発明においては、一方のディスプレイ装置から他方のディスプレイ装置へスタイラスペンを移動させると、一方のディスプレイ装置側ではスタイラスペン検出されなくなることによりペンアップのイベントが検出され、他方のディスプレイ装置側ではスタイラスペンが検出されることによりペンダウンのイベントが検出される。ユーザーは、一方のディスプレイ装置から他方のディスプレイ装置へスタイラスペンを移動させているが、装置としてはスタイラスペンが離れたものと認識してしまい、ユーザーの意図した操作を行えない場合が生じ得る。
本発明は、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行えるようにする技術を提供する。
本発明は、情報処理装置と、前記情報処理装置から供給される第1画像データに基づいて第1画像を表示する第1表示装置と、前記情報処理装置から供給される第2画像データに基づいて第2画像を表示する第2表示装置とを有し、前記第1画像及び前記第2画像を並べて表示する表示システムであって、前記第1画像において指示体により指示された位置の座標を特定する第1特定部と、前記第1特定部が特定した座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を出力する第1出力部と、前記第2画像において指示体により指示された位置の座標を特定する第2特定部と、前記第2特定部が特定した座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を出力する第2出力部と、前記第1出力部が出力した前記第1座標情報を、前記第1出力部が出力した前記第1識別情報に基づいて、前記情報処理装置の座標系における座標を表す第3座標情報に変換し、前記第2出力部が出力した前記第2座標情報を、前記第2出力部が出力した前記第2識別情報に基づいて、前記情報処理装置の座標系における座標を表す第4座標情報に変換する変換部とを備える表示システムを提供する。
本発明によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
本発明によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
本発明においては、前記第1識別情報は、前記第2画像に対する前記第1画像の相対位置を表し、前記第2識別情報は、前記第1画像に対する前記第2画像の相対位置を表す構成としてもよい。
この構成によれば、表示する画像の位置に応じて座標を変換することができる。
この構成によれば、表示する画像の位置に応じて座標を変換することができる。
また、本発明においては、前記第1識別情報は、前記第1表示装置の識別子であり、前記第2識別情報は、前記第2表示装置の識別子であり、前記第1識別情報と前記第1画像の表示位置とを対応付けて記憶し、前記第2識別情報と前記第2画像の表示位置とを対応付けて記憶する記憶部を有し、前記変換部は、前記第1座標情報を前記第1識別情報に対応付けて記憶された表示位置に応じて変換し、前記第2座標情報を前記第2識別情報に対応付けて記憶された表示位置に応じて変換する構成としてもよい。
この構成によれば、表示する画像の位置に応じて座標を変換することができる。
この構成によれば、表示する画像の位置に応じて座標を変換することができる。
また、本発明においては、前記第1特定部は、前記第1画像を指示した指示体を識別し、前記第2特定部は、前記第2画像を指示した指示体を識別し、前記第1出力部は、前記第1特定部が識別した前記指示体を表す指示体識別子を出力し、前記第2出力部は、前記第2特定部が識別した前記指示体を表す指示体識別子を出力し、前記変換部は、前記指示体識別子と共に出力された前記第1座標情報又は前記第2座標情報を変換した座標を、前記指示体識別子で識別される指示体の座標とする構成としてもよい。
この構成によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に、複数の指示体毎に指示体の移動に応じた処理を行うことができる。
この構成によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に、複数の指示体毎に指示体の移動に応じた処理を行うことができる。
また、本発明においては、複数の指示体毎に当該指示体に係る前記第1座標情報又は前記第2座標情報を取得する取得部を有し、前記変換部は、前記取得部が取得した前記第1座標情報又は前記第2座標情報を変換する構成としてもよい。
この構成によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に、複数の指示体毎に指示体の移動に応じた処理を行うことができる。
この構成によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に、複数の指示体毎に指示体の移動に応じた処理を行うことができる。
また、本発明においては、前記情報処理装置が一の表示装置へ画像を供給する第1モードと、前記情報処理装置が複数の表示装置へ画像を供給する第2モードとを有し、前記第1表示装置は、前記第2モードの場合、前記第1座標情報と前記第1識別情報を出力し、前記第2表示装置は、前記第2モードの場合、前記第2座標情報と前記第2識別情報を出力する構成としてもよい。
この構成によれば、第1表示装置と第2表示装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
この構成によれば、第1表示装置と第2表示装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
また、本発明は、情報処理装置から供給される画像を表示する表示部と、前記表示部が表示した画像において指示体により指示された位置の座標を特定する特定部と、前記特定部が特定した座標を表す座標情報と、前記表示部が表示する画像の表示位置を識別する識別情報を出力する出力部とを備える表示装置を提供する。
また、本発明は、自装置から供給された第1画像データに基づいて第1表示装置が表示した第1画像において指示体により指示された位置の座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を取得する第1取得部と、自装置から供給された第2画像データに基づいて第2表示装置が表示した第2画像において指示体により指示された位置の座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を取得する第2取得部と、前記第1取得部が取得した前記第1座標情報を、前記第1取得部が取得した前記第1識別情報に基づいて、自装置の座標系における座標を表す第3座標情報に変換し、前記第2取得部が取得した前記第2座標情報を、前記第2取得部が取得した前記第2識別情報に基づいて、自装置の座標系における座標を表す第4座標情報に変換する変換部とを備える情報処理装置を提供する。
この表示装置と情報処理装置によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
また、本発明は、自装置から供給された第1画像データに基づいて第1表示装置が表示した第1画像において指示体により指示された位置の座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を取得する第1取得部と、自装置から供給された第2画像データに基づいて第2表示装置が表示した第2画像において指示体により指示された位置の座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を取得する第2取得部と、前記第1取得部が取得した前記第1座標情報を、前記第1取得部が取得した前記第1識別情報に基づいて、自装置の座標系における座標を表す第3座標情報に変換し、前記第2取得部が取得した前記第2座標情報を、前記第2取得部が取得した前記第2識別情報に基づいて、自装置の座標系における座標を表す第4座標情報に変換する変換部とを備える情報処理装置を提供する。
この表示装置と情報処理装置によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
また、本発明は、情報処理装置から第1表示装置と第2表示装置へ第1画像データと第2画像データを供給し、前記第1画像データに基づいて前記第1表示装置が表示した第1画像と前記第2画像データに基づいて前記第2表示装置が表示した第2画像とを並べて表示し、前記第1画像において指示体により指示された位置の座標を特定する第1特定ステップと、前記第1特定ステップで特定した座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を出力する第1出力ステップと、前記第2画像において指示体により指示された位置の座標を特定する第2特定ステップと、前記第2特定ステップで特定した座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を出力する第2出力ステップと、前記第1出力ステップで出力された前記第1座標情報を、前記第1出力ステップで出力した前記第1識別情報に基づいて、前記情報処理装置の座標系における座標を表す第3座標情報に変換し、前記第2出力ステップで出力された前記第2座標情報を、前記第2出力ステップで出力された前記第2識別情報に基づいて、前記情報処理装置の座標系における座標を表す第4座標情報に変換する変換ステップとを備える情報処理方法を提供する。
本発明によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
本発明によれば、異なる装置により表示された隣り合う画像上の一方から他方へ指示体が移動した場合に指示体の移動に応じた処理を行うことができる。
図1は、本発明の一実施形態である表示システム1に係る装置を示した図である。表示システム1は、情報処理装置30、表示面となるスクリーンSCに画像を投写するプロジェクター10A(第1プロジェクター)、プロジェクター10B(第2プロジェクター)を含む。
情報処理装置30は、本実施形態においては、パーソナルコンピューターである。情報処理装置30は、複数のディスプレイ装置を使用してデスクトップを拡張するマルチディスプレイ機能を備える。
指示体の一例であるペン20は、プロジェクター10A、10B又は情報処理装置30を操作するためのポインティングデバイスとして機能する。また、本実施形態においては、ユーザーの指も情報処理装置30を操作するための指示体として機能し得る。
指示体の一例であるペン20は、プロジェクター10A、10B又は情報処理装置30を操作するためのポインティングデバイスとして機能する。また、本実施形態においては、ユーザーの指も情報処理装置30を操作するための指示体として機能し得る。
表示装置の一例であるプロジェクター10A、10Bは、情報処理装置30から供給される映像信号が表す画像をスクリーンSCへ投写する。本実施形態においては、プロジェクター10A、10Bは、情報処理装置30がマルチディスプレイ機能を使用するときのディスプレイ装置となる。また、プロジェクター10A、10Bは、ペン20を情報処理装置30のポインティングデバイスとして使用するためのPC操作機能を備えている。プロジェクター10A、10Bは、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて映像を投写する。なお、本実施形態においては、プロジェクター10A、10Bは、スクリーンSCへ映像を投写するが、スクリーンSCの替わりに壁面(表示面)に映像を投写してもよい。また、本実施形態においては、プロジェクター10A、10Bは、金具によって壁面に設置される構成となっているが、天井に設置してもよい。天井に設置した場合、スクリーンSCの替わりに机上に映像を投写してもよい。
発光装置40A、40Bは、スクリーンSC上にある指に光を照射する発光部を有する。発光装置40A、40BはスクリーンSCの上端より上に設置され、下向きに角度θの範囲に赤外光を拡散させて出射する。発光装置40A、40Bから出射された光は、スクリーンSCに沿う光の層を形成する。本実施形態では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置40により形成される光の層とは近接していることが好ましい。スクリーンSCの表面から離れた位置にある指も照射できるように光の層は厚みを持っている。また、発光部を積層することにより離れた位置にある指を照射してもよい。発光装置40Aからの光の出射は、プロジェクター10Aにより制御され、発光装置40Bからの光の出射は、プロジェクター10Bにより制御される。
(プロジェクター10A、10B、ペン20の構成)
図2は、プロジェクター10A、10B及びペン20のハードウェア構成を示した図である。ペン20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、通信部220、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、ペン20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、ペン20の先端から球面上に広がる。通信部220は、赤外光を受光する受光素子を備えている。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。
図2は、プロジェクター10A、10B及びペン20のハードウェア構成を示した図である。ペン20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、通信部220、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、ペン20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、ペン20の先端から球面上に広がる。通信部220は、赤外光を受光する受光素子を備えている。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。
プロジェクター10A、10Bは、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10A、10Bは、映像処理部150、インターフェース160、撮像部171及び撮像部172を備える。本実施形態においては、プロジェクター10A、10Bのハードウェア構成は同じであるため、以下の説明においてプロジェクター10A、10Bの各部を区別する必要がある場合、説明の便宜上、プロジェクター10Aの各部の符号の末尾には「A」を付し、プロジェクター10Bの各部の符号の末尾には「B」を付し、各部を区別する必要がない場合、符号の末尾への「A」、「B」の付加を省略して説明を行う。
インターフェース160は、RCA、D−Sub、HDMI(登録商標)など、映像信号が供給されるコネクターを複数有し、他の装置からコネクターに供給された映像信号を映像処理部150へ供給する。また、インターフェース160は、無線LAN(Local Area Network)やBluetooth(登録商標)などの無線通信のインターフェースや、USB(Universal Serial Bus)や有線のLANなどの有線通信のインターフェースを有し、これらのインターフェースにより情報処理装置30と通信を行う。また、インターフェース160は、赤外光を発する発光ダイオードを備えている。インターフェース160は、制御部110により、発光ダイオードの点灯及び消灯が制御され、ペン20が備える発光部230の点灯及び消灯を制御するための赤外光の信号を送信する。
記憶部120は、投写する映像の画質に係る設定値や、各種機能の設定に係る情報を記憶する。操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される映像の調整や、プロジェクター10が有する各種機能の設定などが行われる。
映像処理部150は、インターフェース160から供給される映像信号を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIなどのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
映像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザー光を発する半導体レーザー装置であってもよい。
駆動回路144は、映像処理部150から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する画像における赤の成分の階調を表す階調データ、投写する画像における緑の成分の階調を表す階調データ及び投写する画像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。
ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した画像となる。液晶ライトバルブを透過した赤、緑、青の光の画像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した画像を拡大する光学系であり、入射した画像をレンズやミラーによって拡大してスクリーンSCに投写する。スクリーンSCに画像が投写されると、表示面であるスクリーンSCに画像が表示される。なお、透過型の液晶パネルの替わりに反射型の液晶パネルを採用してもよいし、デジタルミラーデバイスなどを用いてもよい。
プロジェクター10A、10Bは、ペン20の位置及びペン20からスクリーンSCまでの距離をステレオ方式で特定するために、2つの撮像部171及び撮像部172を有している。撮像部171及び撮像部172は、発光部230が発する赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。撮像部171及び撮像部172は、投写部140の投写範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を制御部110へ供給する。なお、本実施形態においては、プロジェクター10A、10BがスクリーンSCの斜め上方に設置されるため、撮像部171及び撮像部172は、投写範囲を斜め上方から撮像することになる。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、制御部110が各部を制御し、映像をスクリーンSCに投写する機能や上述のPC操作機能などが実現する。
図3は、ROMのプログラムを実行することにより制御部110において実現する機能の機能ブロック図である。特定部113は、撮像部171及び撮像部172から供給される画像を解析し、指示体であるペン20又は指により発生するイベントを特定する。また、特定部113は、撮像部171及び撮像部172から供給される画像を解析し、投写部140が投写する画像の表示領域における指示体の位置の座標と、指示体から画像の表示面であるスクリーンSCまでの距離を特定する。
特定部113は、画像の投写領域においてペン20の発光部230の位置や指示体の一例である指の位置を、例えば図4に示したタイムチャートで周期的に特定する。指の位置や発光部230の位置を特定する期間は、図4に示したようにフェーズP11からフェーズP14までの4つのフェーズを有する。指の位置や発光部230の位置を検出する際には、フェーズP11からフェーズP14までが繰り返される。フェーズP11は、プロジェクター10が撮像部171及び撮像部172で撮像を行うタイミングと、ペン20が発光するタイミング及び発光装置40が赤外光を出射するタイミングを同期させるためのフェーズである。フェーズP11においては、特定部113は、所定期間te1で赤外光の同期信号が出力されるように通信部180を制御する。
ペン20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、予め設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。また、特定部113は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置40が赤外光を出射するように、発光装置40を制御する。
特定部113は、フェーズP12〜フェーズP14において、撮像部171及び撮像部172を制御し、設定されているシャッタースピードでスクリーンSCを含む所定範囲を撮像する。撮像部171及び撮像部172において電子シャッター機能により露光が行われる露光期間は、フェーズP12、フェーズP13、フェーズP14の各フェーズの開始時点から始まる。露光が終了する時点は、設定されているシャッタースピードにより定まり、各フェーズの期間内である。撮像部171及び撮像部172がフェーズP12〜フェーズP14の露光期間で撮像した画像は、特定部113へ供給される。
特定部113は、撮像部171及び撮像部172から供給された画像を用いて、投写された画像上にある指や発光部230の位置、スクリーンSCから発光部230までの距離を特定する。具体的には、フェーズP12とフェーズP14において、発光装置40が発した赤外光が指に照射されている場合には、撮像部171及び撮像部172で得られた画像に発光装置40から出射されて指で反射した赤外光が映る。また、フェーズP12とフェーズP14において、発光部230が撮像部171及び撮像部172の撮像範囲内にあると、撮像部171及び撮像部172で得られた画像に発光部230が発した赤外光も映る。フェーズP13においては、発光装置40は光を出射しないため、撮像部171及び撮像部172で得られた画像には、発光部230が発した赤外光が映る。
特定部113は、フェーズP12〜フェーズP14において、撮像部171及び撮像部172で得られた画像に映る赤外光の位置及びスクリーンSCまでの距離をステレオ法により特定する。特定部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を発光部230の位置とする。また、特定部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光から遠い赤外光の位置を指の位置とする。なお、特定部113は、フェーズP13において赤外光が撮像範囲内にない場合には、フェーズP12とフェーズP14において特定した位置を指の位置とする。これらの特定した位置は、描画機能やGUIの操作を行うときに使用される。
出力部112は、特定部113が位置を特定した指示体の種別を表す指示体識別子の一例である指示体ID、特定部113が特定した指示体のイベントを表すイベント情報、特定部1113が特定した位置の座標を表す座標情報、自装置が投写する画像がマルチディスプレイ機能の2つの画面のいずれに対応しているかを表す識別情報などを、インターフェース160からUSBケーブルを介して情報処理装置30へ送信する。
(情報処理装置30の構成)
次に情報処理装置30の構成について説明する。情報処理装置30には、プロジェクター10A、10Bから供給される情報を取得し、プロジェクター10A、10Bをポインティングデバイスとして利用するデバイスドライバがインストールされている。
次に情報処理装置30の構成について説明する。情報処理装置30には、プロジェクター10A、10Bから供給される情報を取得し、プロジェクター10A、10Bをポインティングデバイスとして利用するデバイスドライバがインストールされている。
図5は、このデバイスドライバを実行することにより情報処理装置30において実現する機能の機能ブロック図である。第1取得部301は、プロジェクター10Aから供給される各種情報を取得する。第2取得部302は、プロジェクター10Bから供給される各種情報を取得する。
変換部303は、第1取得部301が取得したイベント情報と、第2取得部302が取得したイベント情報とが予め定められた条件を満たした場合、第1取得部301が取得したイベント情報と第2取得部302が取得したイベント情報の組を予め定められたイベント情報に変換する。また、変換部303は、第1取得部301が取得した座標情報と第2取得部302が取得した座標情報を、マルチディスプレイ機能で拡張されている画面の座標に変換する。例えば、図6に示した画面例は、マルチディスプレイ機能を利用したときにプロジェクター10A、10Bにより投写される画像の一例を示した図であり、領域A1の部分は、プロジェクター10Aが投写した画像であり、領域A2の部分はプロジェクター10Bが投写した画像である。
特定部113Aは、撮像部171A及び撮像部172Aで得られた画像において、領域A1の左上の頂点を原点とし、右方向にX軸をとり、下方向にY軸をとる座標系を設定しており、ペン20の座標を特定する。また、特定部113Bは、撮像部171B及び撮像部172Bで得られた画像において、領域A2の左上の頂点を原点とし、右方向にX軸をとり、下方向にY軸をとる座標系を設定しており、ペン20の座標を特定する。また、情報処理装置30は、領域A1+領域A2の領域において、領域A1の左上の頂点を原点とし、右方向にX軸をとり、下方向にY軸をとる座標系を設定している。
本実施形態においては、特定部113Aが特定する座標は正規化されており、原点が(0,0)、X軸方向の座標範囲が0〜100、Y軸方向の座標範囲が0〜100となっている。特定部113Aは、特定したペン20の座標が領域A1の左端である場合、X軸方向の座標を0とし、特定したペン20の座標が領域A1の右端である場合、X軸方向の座標を100とする。
また、特定部113Bが特定する座標も正規化されており、原点が(0,0)、X軸方向の座標範囲が0〜100、Y軸方向の座標範囲が0〜100となっている。特定部113Bは、特定したペン20の座標が領域A2の左端である場合、X軸方向の座標を0とし、特定したペン20の座標が領域A2の右端である場合、X軸方向の座標を100とする。
また、情報処理装置30が扱う座標も正規化されており、原点が(0,0)、X軸方向の座標範囲が0〜100、Y軸方向の座標範囲が0〜100となっている。つまり、領域A1の左端はX軸方向の座標が0となり、領域A2の右端はX軸方向の座標が100となる。
また、特定部113Bが特定する座標も正規化されており、原点が(0,0)、X軸方向の座標範囲が0〜100、Y軸方向の座標範囲が0〜100となっている。特定部113Bは、特定したペン20の座標が領域A2の左端である場合、X軸方向の座標を0とし、特定したペン20の座標が領域A2の右端である場合、X軸方向の座標を100とする。
また、情報処理装置30が扱う座標も正規化されており、原点が(0,0)、X軸方向の座標範囲が0〜100、Y軸方向の座標範囲が0〜100となっている。つまり、領域A1の左端はX軸方向の座標が0となり、領域A2の右端はX軸方向の座標が100となる。
領域A1内において、領域A1の右上の頂点にあるペン20の位置をプロジェクター10Aが特定した場合、ペン20の座標情報は、プロジェクター10Aに設定されている座標系で表された座標となり、この座標情報(第1座標情報)を第1取得部301が取得する。変換部303は、この第1取得部301が取得した座標情報を、情報処理装置30が領域A1に設定している座標系に対応した座標情報に変換する。例えば、プロジェクター10Aで特定された座標が(50,50)である場合、変換部303は、この座標を表す座標情報を、(25,50)の座標を表す座標情報(第3座標情報)に変換する。
また、図6に示した領域A2内において、領域A2の右上の頂点にあるペン20の位置をプロジェクター10Bが特定した場合、ペン20の座標情報は、プロジェクター10Bに設定されている座標系で表された座標となり、この座標情報(第2座標情報)を第2取得部302が取得する。変換部303は、この第2取得部302が取得した座標情報を、情報処理装置30が領域A2に設定している座標系に対応した座標情報に変換する。例えば、プロジェクター10Bで特定された座標が(50,50)である場合、変換部303は、この座標を表す座標情報を(75,50)の座標を表す座標情報(第4座標情報)に変換する。変換部303は、イベント情報や座標情報をオペレーティングシステムOSへ供給する。
また、図6に示した領域A2内において、領域A2の右上の頂点にあるペン20の位置をプロジェクター10Bが特定した場合、ペン20の座標情報は、プロジェクター10Bに設定されている座標系で表された座標となり、この座標情報(第2座標情報)を第2取得部302が取得する。変換部303は、この第2取得部302が取得した座標情報を、情報処理装置30が領域A2に設定している座標系に対応した座標情報に変換する。例えば、プロジェクター10Bで特定された座標が(50,50)である場合、変換部303は、この座標を表す座標情報を(75,50)の座標を表す座標情報(第4座標情報)に変換する。変換部303は、イベント情報や座標情報をオペレーティングシステムOSへ供給する。
(実施形態の動作例)
次に本実施形態の動作例について説明する。本実施形態においては、情報処理装置30とプロジェクター10A、10Bは、USBケーブルにより接続され、USBケーブルを介して通信を行う。また、情報処理装置30とプロジェクター10A、10Bは、映像ケーブルにより接続され、プロジェクター10A、10Bは、情報処理装置30から供給される映像信号を取得する。
次に本実施形態の動作例について説明する。本実施形態においては、情報処理装置30とプロジェクター10A、10Bは、USBケーブルにより接続され、USBケーブルを介して通信を行う。また、情報処理装置30とプロジェクター10A、10Bは、映像ケーブルにより接続され、プロジェクター10A、10Bは、情報処理装置30から供給される映像信号を取得する。
情報処理装置30においては、マルチディスプレイ機能について2つの画面を左右に並べてデスクトップを拡張する設定が行われており、情報処理装置30は、左側の画面の映像信号(第1画像データ)をプロジェクター10Aへ供給し、右側の画面の映像信号(第2画像データ)をプロジェクター10Bへ供給する。また、プロジェクター10A、10Bにおいては、マルチディスプレイ機能の2つの画面のいずれに対応しているかの設定が行われており、プロジェクター10Aにおいては「左」の画面に対応している旨の設定が行われ、プロジェクター10Bにおいては「右」の画面に対応している旨の設定が行われている。
図6は、プロジェクター10A、10BによりスクリーンSCに投写された画像の一例である。図6の領域A1の部分は、プロジェクター10Aが投写した画像(第1画像)であり、領域A2の部分はプロジェクター10Bが投写した画像(第2画像)である。マルチディスプレイ機能で直視型のディスプレイ装置を用いる場合には、ディスプレイ装置は表示画面を囲む枠(ベゼル)を備えるため、左側の画面と右側の画面は間が開いてしまうが、本実施形態においては、プロジェクター10Aが投写する画像とプロジェクター10Bが投写する画像を左右に並べて表示(所謂タイリング表示)することが可能であるため、間を開けずに2つの画面を並べて表示することができる。
撮像部171A及び撮像部172Aは、領域A1を撮影する。制御部110Aは、撮像部171A及び撮像部172Aから供給される画像において、領域A1の左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としてxy座標を設定する。また、撮像部171B及び撮像部172Bは、領域A2を撮影する。制御部110Bは、撮像部171B及び撮像部172Bから供給される画像において、領域A2の左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としてxy座標を設定する。
赤外光を発しているペン20が撮像部171A及び撮像部172Aの撮影範囲内に入ると、撮像部171A及び撮像部172Aが生成した画像においては、発光部230が発した赤外光が写る。制御部110A(特定部113:第1特定部)は、撮像部171A及び撮像部172Aから供給される画像を解析し、領域A1のxy座標における赤外光の位置の座標と、赤外光からスクリーンSCまでの距離(即ち、ペン20の先端からスクリーンSCまでの距離)を特定する。
例えばユーザーが、図7に示した位置P1にペン20の発光部230を接触させた場合、制御部110Aは、撮像部171A及び撮像部172Aから供給された画像を解析して赤外光からスクリーンSCまでの距離を0と特定し、ペン20がスクリーンSCに接したことを検知する。また、制御部110Aは、撮像部171A及び撮像部172Aから供給された画像から位置P1の座標を特定する。
制御部110A(出力部112:第1出力部)は、検知した指示体の種別を表す指示体ID、指示体のイベントを表すイベント情報、特定した指示体の座標を表す座標情報(第1座標情報)、プロジェクター10Aが投写する画像がマルチディスプレイ機能の2つの画面のいずれに対応しているかを表す識別情報を、インターフェース160AからUSBケーブルを介して情報処理装置30へ送信する。プロジェクター10Aが送信する識別情報は、プロジェクター10Aが投写する画像が、他のプロジェクターが表示する画像に対して相対的に右と左のどの表示位置に対応しているかを表す第1識別情報の一例である。ここで、制御部110Aは、ペン20を検知したため、指示体IDの内容を、ペンを表す「ペン」とし、イベント情報はペン20が投写面に接したことを表す「ペンダウン」とし、識別情報については、プロジェクター10Aの画面は左側に対応している旨の設定が行われているため「左」とする。
情報処理装置30(第1取得部301)は、プロジェクター10Aから送信された情報を取得し、取得した情報に応じた処理を行う。まず、情報処理装置30(変換部303)は、取得した情報に含まれる座標情報を、マルチディスプレイ機能で拡張されている画面の座標に変換する。具体的には、情報処理装置30は、拡張された矩形の画面において、左上の頂点を原点とし、原点から右方向をx軸の正方向とし、原点から下方向をy軸の正方向としてxy座標を設定している。情報処理装置30は、イベント情報が「ペンダウン」であり、取得した識別情報が「左」である場合、取得した座標情報を、プロジェクター10Aで表示されている左側の領域内の座標に変換する。情報処理装置30は、変換後の座標がアイコン上の位置P1である場合、位置P1にあるアイコンをドラッグする。
制御部110Aは、赤外光からスクリーンSCまでの距離と赤外光の位置を撮像部171A及び撮像部172Aから供給される画像を用いて周期的に特定する。ユーザーがペン20を位置P1から図7に示した矢印の方向へ移動させると、制御部110Aは、撮像部171A及び撮像部172Aから供給された画像を解析して赤外光からスクリーンSCまでの距離を0と特定する。制御部110Aは、新たに特定した距離が0であり、前回特定した距離も0である場合、指示体(ペン20)のイベントについて、指示体が移動中であることを表す「ムーブ」とする。また、制御部110Aは、撮像部171A及び撮像部172Aから供給された画像から、赤外光の移動後の位置の座標を特定する。
制御部110Aは、指示体ID、イベント情報、座標情報及び識別情報を、インターフェース160AからUSBケーブルを介して情報処理装置30へ送信する。ここで、制御部110Aは、指示体IDの内容を、検知したペン20を表す「ペン」とし、イベント情報はペン20が動いたことを表す「ムーブ」とし、識別情報については、プロジェクター10Aの画面は左側に対応している旨の設定が行われているため「左」とする。
情報処理装置30は、イベント情報が「ムーブ」であり、取得した識別情報が「左」である場合、取得した座標情報を、プロジェクター10Aで表示されている左側の領域内の座標に変換する。情報処理装置30は、イベント情報が「ムーブ」である場合、位置P1にあったアイコンを変換後の座標に応じて移動させる。
次にユーザーがペン20をスクリーンSCに接触させたまま移動させ、ペン20が発する赤外光の位置が、図8に示したように領域A1の右端の位置P1となった場合、制御部110Aは、「ペン」を表す指示体ID、「ムーブ」を表すイベント情報、位置P11の座標を表す座標情報、「左」を表す識別情報を、インターフェース160AからUSBケーブルを介して情報処理装置30へ送信する。情報処理装置30は、プロジェクター10Aから送信された情報を取得すると、ドラッグされた状態であるアイコンを、取得した座標情報が表す座標に応じて移動させる。
次にユーザーがペン20をスクリーンSCに接触させたまま移動させ、赤外光の位置が領域A1から領域A2に移動し、図9に示したように領域A2の左端の位置P2となった場合、撮像部171A及び撮像部172Aが生成する画像においては、ペン20が発した赤外光が写らず、撮像部171B及び撮像部172Bが生成する画像においては、ペン20が発した赤外光が写る。
制御部110Aは、撮像部171A及び撮像部172Aが生成した画像において赤外光が写っていない場合、指示体のイベントについて、指示体が投写面から離れたことを表す「ペンアップ」とする。
一方、撮像部171B及び撮像部172Bが生成した画像においては、発光部230が発した赤外光が写る。制御部110B(特定部113:第2特定部)は、撮像部171B及び撮像部172Bから供給される画像を取得する。制御部110Bは、撮像部171B及び撮像部172Bから供給された画像を解析して赤外光からスクリーンSCまでの距離を0と特定し、ペン20がスクリーンSCに接したことを検知する。また、制御部110Bは、撮像部171B及び撮像部172Bから供給された画像から位置P2の座標を特定する。
制御部110Aは、指示体ID,イベント情報、座標情報及び識別情報を、インターフェース160AからUSBケーブルを介して情報処理装置30へ送信する。ここで、制御部110Aは、指示体IDの内容を、ペンを表す「ペン」とし、イベント情報はペン20が投写面から離れたことを表す「ペンアップ」とし、識別情報については、「左」とする。
また、制御部110B(出力部112:第2出力部)は、指示体ID,イベント情報、座標情報(第2座標情報)及び識別情報を、インターフェース160BからUSBケーブルを介して情報処理装置30へ送信する。ここで、制御部110Bは、指示体IDの内容を、検知したペンを表す「ペン」とし、イベント情報はペン20が投写面に接したことを表す「ペンダウン」とし、識別情報については、プロジェクター10Bの画面は右側に投写されるため「右」とする。プロジェクター10Bが送信する識別情報は、プロジェクター10Bが投写する画像が、他のプロジェクターが表示する画像に対して相対的に右と左のどの表示位置に対応しているかを表す第2識別情報の一例である。
情報処理装置30は、プロジェクター10Aから供給される情報を取得する。また、情報処理装置30(第2取得部302)は、プロジェクター10Bから供給される情報を取得する。情報処理装置30(変換部303)は、取得した情報に含まれる座標情報を、マルチディスプレイ機能で拡張されている画面の座標に変換する。情報処理装置30は、イベント情報が「ペンダウン」であり、取得した識別情報が「右」である場合、取得した座標情報を、プロジェクター10Bで表示されている右側の領域内の座標に変換する。
情報処理装置30は、一方のプロジェクターから供給されたイベント情報が「ムーブ」から「ペンアップ」に変化し、他方のプロジェクターから供給されたイベント情報が「ペンダウン」となった場合、イベント情報を置き換える処理を行う。
図10は、イベント情報を置き換える処理の流れを示したフローチャートである。情報処理装置30は、一方のプロジェクターから「ムーブ」のイベント情報が供給され、次にこの一方のプロジェクターから「ペンアップ」のイベント情報を供給されたか否かを判断する(ステップS1)。一方のプロジェクターから「ムーブ」のイベント情報が供給され、次にこの一方のプロジェクターから「ペンアップ」のイベント情報を供給された場合(ステップS1でYES)、情報処理装置30は、この「ペンアップ」のイベント情報が供給されてから予め定められた時間内に「ペンダウン」のイベント情報を他方のプロジェクターから供給されたか判断する(ステップS2)。情報処理装置30は、予め定められた時間内に「ペンダウン」のイベント情報が他方のプロジェクターから供給された場合(ステップS2でYES)、一方のプロジェクターから供給された「ペンアップ」のイベント情報と、他方のプロジェクターから供給された「ペンダウン」のイベント情報の組を、「ムーブ」のイベント情報に置き換える(ステップS3)。なお、情報処理装置30は、ステップS2でNOと判断した場合、図10の処理を終了する。
例えば、情報処理装置30は、プロジェクター10Aから「ムーブ」のイベント情報の次に「ペンアップ」のイベント情報が供給され、この「ペンアップ」のイベント情報が供給されてから予め定められた時間内にプロジェクター10Bから「ペンダウン」のイベント情報が供給されると、プロジェクター10Aから供給された「ペンアップ」のイベント情報と、プロジェクター10Bから供給された「ペンダウン」のイベント情報の組を「ムーブ」のイベント情報に置き換える。
また、ステップS1においてNOと判断した場合、情報処理装置30は、「ムーブ」のイベント情報が一方のプロジェクターから供給され、次に他方のプロジェクターから「ペンダウン」のイベント情報が供給されたか否かを判断する(ステップS4)。「ムーブ」のイベント情報が一方のプロジェクターから供給され、次に他方のプロジェクターから「ペンダウン」のイベント情報が供給された場合(ステップS4でYES)、情報処理装置30は、この「ペンダウン」のイベント情報が供給されてから予め定められた時間内に「ペンアップ」のイベント情報を一方のプロジェクターから取得したか判断する(ステップS5)。情報処理装置30は、予め定められた時間内に「ペンアップ」のイベント情報を一方のプロジェクターから取得された場合(ステップS5でYES)、他方のプロジェクターから供給された「ペンダウン」のイベント情報と、一方のプロジェクターから取得された「ペンアップ」のイベント情報の組を、「ムーブ」のイベント情報に置き換える(ステップS3)。なお、情報処理装置30は、ステップS4でNOと判断した場合やステップS5でNOと判断した場合、図10の処理を終了する。
例えば、情報処理装置30は、プロジェクター10Aから「ムーブ」のイベント情報が供給され、次にプロジェクター10Bから「ペンダウン」のイベント情報が供給され、この「ペンダウン」のイベント情報供給されてから予め定められた時間内にプロジェクター10Aから「ペンアップ」のイベント情報が供給されると、プロジェクター10Bから供給された「ペンダウン」のイベント情報と、プロジェクター10Aから供給された「ペンアップ」のイベント情報の組を「ムーブ」のイベント情報に置き換える。
情報処理装置30は、イベント情報の組を「ムーブ」のイベント情報に置き換えると、ドラッグされた状態であるアイコンを、「ペンダウン」のイベント情報と共に供給されて変換された座標に応じて移動させる。これにより、ドラッグされたアイコンの表示位置は、領域A2内の位置P2の位置となる。
なお、情報処理装置30は、ペン20を領域A2から領域A1へ移動させた場合にも、領域A1から領域A2へペン20を移動させた場合と同様に「ペンアップ」のイベント情報と「ペンダウン」のイベント情報の組を「ムーブ」のイベント情報に置き換える。
以上説明したように本実施形態によれば、「ペンアップ」のイベント情報と「ペンダウン」のイベント情報の組を「ムーブ」のイベント情報に置き換えることにより、隣り合う2つの画像の一方の画像の領域から他方の画像の領域へペン20が移動しても、画像の境界付近でアイコンをスムーズに移動させることができる。また、本実施形態によれば、プロジェクター10A、10Bから供給される座標情報を情報処理装置30が変換するため、複数のプロジェクターをポインティングデバイスとして利用することができる。
なお、上述の説明においては、ペン20を検知した場合を例に動作例の説明を行ったが、指で反射した発光装置40の赤外光を検知することにより、指示体の一例である指を検知してもよい。制御部110は、指を検知した場合には指示体IDを「指」とする。制御部110は、複数の指を検知した場合には、検知した指毎に座標を特定し、特定した複数の座標を情報処理装置30へ送信する。この場合、プロジェクター10A、10Bをポインティングデバイスの一例であるタッチパネルとして利用することができ、ピンチインやピンチアウトの処理を行うことができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
上述した実施形態においては、プロジェクター10A、10Bは、識別情報として「右」や「左」などの情報を情報処理装置30へ供給しているが、識別情報の内容は実施形態の内容に限定されるものではない。例えば、マルチディスプレイ機能で3台のプロジェクターを使用する場合、ユーザーは、3台のプロジェクターの各々において、左の画面を投写するプロジェクターを「1」、中央の画面を投写するプロジェクターを「2」、右の画面を投写するプロジェクターを「3」と設定する。この識別情報は、プロジェクターが投写する画像がマルチディスプレイ機能の複数画面のいずれに対応しているかを表す情報であると共に、プロジェクターを識別する識別子にもなる。情報処理装置30においては、「1」を左の画面、「2」を中央の画面、「3」を右の画面として設定する。情報処理装置30は、取得した座標情報を、取得した識別情報に対応付けられている画面の位置に応じて変換する。例えば、プロジェクターから識別情報として「2」を取得した場合、取得した座標情報を、中央のプロジェクターで表示されている真ん中の画像の領域内の座標に変換する。
上述した実施形態においては、プロジェクター10A、10Bは、撮像部171及び撮像部172から供給された画像からペン20と指の両方を検知した場合、ペン20と指毎に、指示体ID、イベント情報、座標情報及び識別情報を情報処理装置30へ供給する構成としてもよい。この変形例においては、情報処理装置30は、ペン20と指のそれぞれについて、取得した座標情報を、マルチディスプレイ機能で拡張されている画面の座標に変換する。この変形例によれば、ペン20と指の両方をポインティングデバイスとして使用することができる。
本発明においては、情報処理装置30は、第1取得部301と第2取得部302を備えているが、プロジェクター10Aからの情報を取得する第1取得部301については、指示体IDが「ペン」である場合に、指示体ID、イベント情報、座標情報及び識別情報を取得するブロックと、指示体IDが「指」である場合に、指示体ID、イベント情報、座標情報及び識別情報を取得するブロックとに分ける構成としてもよい。また、プロジェクター10Bからの情報を取得する第2取得部302についても、指示体IDが「ペン」である場合に、指示体ID、イベント情報、座標情報及び識別情報を取得するブロックと、指示体IDが「指」である場合に、指示体ID、イベント情報、座標情報及び識別情報を取得するブロックとに分ける構成としてもよい。
本発明においては、情報処理装置30がマルチディスプレイ機能を使用せずに一台のプロジェクターへ画像を供給する第1モードの場合には、プロジェクター10A、10Bは、識別情報を出力せず、情報処理装置30がマルチディスプレイ機能を使用する第2モードの場合には、プロジェクター10A、10Bは、識別情報を出力する構成としてもよい。
上述した実施形態においては、情報処理装置30は、プロジェクター10A、10Bから供給されるイベント情報と座標情報に応じてドラッグの処理を行うが、プロジェクター10A、10Bから供給されるイベント情報と座標情報に応じて行う処理はドラッグの処理に限定されるものではない。例えば、情報処理装置30は、イベント情報と座標情報に応じて描画の処理を行ってもよい。本変形例によれば、情報処理装置30が描画ソフトを実行した場合、ペン20の移動に応じて描画を行うことができる。また、情報処理装置30が、描画ソフトの画面をデスクトップの全面に広げた場合、ペン20を投写面に接触させたまま領域A1から領域A2又は領域A2から領域A1にペン20を移動させると、領域A1と領域A2との境界で途切れることなく線の描画を行うことができる。
1…表示システム、10A、10B…プロジェクター、20…ペン、30…情報処理装置、40A、40B…発光装置、110、110A、110B…制御部、112…出力部、113…特定部、120…記憶部、130…操作部、140…投写部、141…光源、142…ライトバルブ、143…投写光学系、144…駆動回路、150…映像処理部、160、160A、160B…インターフェース、171、172、171A、172A、171B、172B…撮像部、210…制御部、220…通信部、230…発光部、240…操作部、250…電源、301…第1取得部、302…第2取得部、303…変換部。
Claims (9)
- 情報処理装置と、前記情報処理装置から供給される第1画像データに基づいて第1画像を表示する第1表示装置と、前記情報処理装置から供給される第2画像データに基づいて第2画像を表示する第2表示装置とを有し、前記第1画像及び前記第2画像を並べて表示する表示システムであって、
前記第1画像において指示体により指示された位置の座標を特定する第1特定部と、
前記第1特定部が特定した座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を出力する第1出力部と、
前記第2画像において指示体により指示された位置の座標を特定する第2特定部と、
前記第2特定部が特定した座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を出力する第2出力部と、
前記第1出力部が出力した前記第1座標情報を、前記第1出力部が出力した前記第1識別情報に基づいて、前記情報処理装置の座標系における座標を表す第3座標情報に変換し、前記第2出力部が出力した前記第2座標情報を、前記第2出力部が出力した前記第2識別情報に基づいて、前記情報処理装置の座標系における座標を表す第4座標情報に変換する変換部と
を備える表示システム。 - 前記第1識別情報は、前記第2画像に対する前記第1画像の相対位置を表し、
前記第2識別情報は、前記第1画像に対する前記第2画像の相対位置を表す
請求項1に記載の表示システム。 - 前記第1識別情報は、前記第1表示装置の識別子であり、
前記第2識別情報は、前記第2表示装置の識別子であり、
前記第1識別情報と前記第1画像の表示位置とを対応付けて記憶し、前記第2識別情報と前記第2画像の表示位置とを対応付けて記憶する記憶部を有し、
前記変換部は、前記第1座標情報を前記第1識別情報に対応付けて記憶された表示位置に応じて変換し、前記第2座標情報を前記第2識別情報に対応付けて記憶された表示位置に応じて変換する
請求項1に記載の表示システム。 - 前記第1特定部は、前記第1画像を指示した指示体を識別し、
前記第2特定部は、前記第2画像を指示した指示体を識別し、
前記第1出力部は、前記第1特定部が識別した前記指示体を表す指示体識別子を出力し、
前記第2出力部は、前記第2特定部が識別した前記指示体を表す指示体識別子を出力し、
前記変換部は、前記指示体識別子と共に出力された前記第1座標情報又は前記第2座標情報を変換した座標を、前記指示体識別子で識別される指示体の座標とする
請求項1から請求項3のいずれか一項に記載の表示システム。 - 複数の指示体毎に当該指示体に係る前記第1座標情報又は前記第2座標情報を取得する取得部を有し、
前記変換部は、前記取得部が取得した前記第1座標情報又は前記第2座標情報を変換する
請求項4に記載の表示システム。 - 前記情報処理装置が一の表示装置へ画像を供給する第1モードと、前記情報処理装置が複数の表示装置へ画像を供給する第2モードとを有し、
前記第1表示装置は、前記第2モードの場合、前記第1座標情報と前記第1識別情報を出力し、
前記第2表示装置は、前記第2モードの場合、前記第2座標情報と前記第2識別情報を出力する
請求項1から請求項5のいずれか一項に記載の表示システム。 - 情報処理装置から供給される画像を表示する表示部と、
前記表示部が表示した画像において指示体により指示された位置の座標を特定する特定部と、
前記特定部が特定した座標を表す座標情報と、前記表示部が表示する画像の表示位置を識別する識別情報を出力する出力部と
を備える表示装置。 - 自装置から供給された第1画像データに基づいて第1表示装置が表示した第1画像において指示体により指示された位置の座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を取得する第1取得部と、
自装置から供給された第2画像データに基づいて第2表示装置が表示した第2画像において指示体により指示された位置の座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を取得する第2取得部と、
前記第1取得部が取得した前記第1座標情報を、前記第1取得部が取得した前記第1識別情報に基づいて、自装置の座標系における座標を表す第3座標情報に変換し、前記第2取得部が取得した前記第2座標情報を、前記第2取得部が取得した前記第2識別情報に基づいて、自装置の座標系における座標を表す第4座標情報に変換する変換部と
を備える情報処理装置。 - 情報処理装置から第1表示装置と第2表示装置へ第1画像データと第2画像データを供給し、前記第1画像データに基づいて前記第1表示装置が表示した第1画像と前記第2画像データに基づいて前記第2表示装置が表示した第2画像とを並べて表示し、
前記第1画像において指示体により指示された位置の座標を特定する第1特定ステップと、
前記第1特定ステップで特定した座標を表す第1座標情報と、前記第1画像の表示位置を識別する第1識別情報を出力する第1出力ステップと、
前記第2画像において指示体により指示された位置の座標を特定する第2特定ステップと、
前記第2特定ステップで特定した座標を表す第2座標情報と、前記第2画像の表示位置を識別する第2識別情報を出力する第2出力ステップと、
前記第1出力ステップで出力された前記第1座標情報を、前記第1出力ステップで出力した前記第1識別情報に基づいて、前記情報処理装置の座標系における座標を表す第3座標情報に変換し、前記第2出力ステップで出力された前記第2座標情報を、前記第2出力ステップで出力された前記第2識別情報に基づいて、前記情報処理装置の座標系における座標を表す第4座標情報に変換する変換ステップと
を備える情報処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016063108A JP2017182110A (ja) | 2016-03-28 | 2016-03-28 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
US15/467,263 US10416813B2 (en) | 2016-03-28 | 2017-03-23 | Display system, display device, information processing device, and information processing method |
CN201710186040.3A CN107239177A (zh) | 2016-03-28 | 2017-03-24 | 显示系统、显示装置、信息处理装置以及信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016063108A JP2017182110A (ja) | 2016-03-28 | 2016-03-28 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017182110A true JP2017182110A (ja) | 2017-10-05 |
Family
ID=59898719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016063108A Withdrawn JP2017182110A (ja) | 2016-03-28 | 2016-03-28 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10416813B2 (ja) |
JP (1) | JP2017182110A (ja) |
CN (1) | CN107239177A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6569449B2 (ja) * | 2015-10-08 | 2019-09-04 | セイコーエプソン株式会社 | 表示システム、プロジェクター及び表示システムの制御方法 |
KR20200078932A (ko) * | 2018-12-24 | 2020-07-02 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
US11023729B1 (en) | 2019-11-08 | 2021-06-01 | Msg Entertainment Group, Llc | Providing visual guidance for presenting visual content in a venue |
CN110798670A (zh) * | 2019-11-11 | 2020-02-14 | 成都极米科技股份有限公司 | 超短焦画幕对齐方法、装置和超短焦投影设备及介质 |
JP7393955B2 (ja) * | 2020-01-20 | 2023-12-07 | 株式会社ワコム | センサシステム |
JP2022099487A (ja) * | 2020-12-23 | 2022-07-05 | セイコーエプソン株式会社 | 画像表示システム、画像表示システムの制御方法、及び、表示装置の制御方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09311757A (ja) * | 1996-05-21 | 1997-12-02 | Sony Corp | 座標入力装置 |
JP2009086048A (ja) * | 2007-09-27 | 2009-04-23 | Brother Ind Ltd | プロジェクタシステム及びその駆動方法 |
JP2013134661A (ja) * | 2011-12-27 | 2013-07-08 | Seiko Epson Corp | 表示装置、プロジェクター及び表示システム |
JP2014123316A (ja) * | 2012-12-21 | 2014-07-03 | Canon Inc | 情報処理システム、情報処理装置、検出装置、情報処理方法、検出方法、及び、コンピュータプログラム |
JP2015125614A (ja) * | 2013-12-26 | 2015-07-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20150244998A1 (en) * | 2014-02-27 | 2015-08-27 | Shinsuke Yanazume | Image projection system and image projection apparatus |
JP2015191484A (ja) * | 2014-03-28 | 2015-11-02 | セイコーエプソン株式会社 | 情報処理装置、プロジェクター、情報処理方法及びプログラム |
JP2015232697A (ja) * | 2014-05-12 | 2015-12-24 | Sky株式会社 | 表示システム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6695451B1 (en) * | 1997-12-12 | 2004-02-24 | Hitachi, Ltd. | Multi-projection image display device |
US6456339B1 (en) * | 1998-07-31 | 2002-09-24 | Massachusetts Institute Of Technology | Super-resolution display |
US7079157B2 (en) * | 2000-03-17 | 2006-07-18 | Sun Microsystems, Inc. | Matching the edges of multiple overlapping screen images |
US6733138B2 (en) * | 2001-08-15 | 2004-05-11 | Mitsubishi Electric Research Laboratories, Inc. | Multi-projector mosaic with automatic registration |
JP2005346583A (ja) * | 2004-06-04 | 2005-12-15 | Canon Inc | 画像表示装置、マルチディスプレイ・システム、座標情報出力方法及びその制御プログラム |
JP4026649B2 (ja) * | 2005-02-16 | 2007-12-26 | セイコーエプソン株式会社 | プロジェクタ、プロジェクタの制御方法、プロジェクタの制御プログラム、およびこのプログラムを記憶した記憶媒体 |
JP2007079028A (ja) * | 2005-09-13 | 2007-03-29 | Canon Inc | 投射型画像表示装置およびマルチプロジェクションシステム |
JP4696979B2 (ja) * | 2006-03-09 | 2011-06-08 | ソニー株式会社 | 画像提示装置および画像提示方法 |
US20080007700A1 (en) * | 2006-07-10 | 2008-01-10 | Vanbaar Jeroen | Method and system for aligning an array of rear-projectors |
JP4211815B2 (ja) * | 2006-08-08 | 2009-01-21 | セイコーエプソン株式会社 | 表示装置、マルチディスプレイシステム、画像情報生成方法、画像情報生成プログラム、および記録媒体 |
JP2008116874A (ja) | 2006-11-08 | 2008-05-22 | Seiko Epson Corp | マルチディスプレイシステム、及びこのシステム上で実行されるプログラム |
JP5444963B2 (ja) * | 2008-11-26 | 2014-03-19 | セイコーエプソン株式会社 | プロジェクタ |
US8730183B2 (en) * | 2009-09-03 | 2014-05-20 | Obscura Digital | Large scale multi-user, multi-touch system |
US8262229B2 (en) * | 2010-03-22 | 2012-09-11 | Seiko Epson Corporation | Multi-projector display system calibration |
CN101930325B (zh) * | 2010-07-22 | 2012-05-30 | 明基电通有限公司 | 定位方法及显示系统 |
CN102323868B (zh) * | 2011-10-26 | 2013-07-31 | 中国人民解放军国防科学技术大学 | 基于红外图像的人机多点交互方法及装置 |
JP5927845B2 (ja) * | 2011-11-01 | 2016-06-01 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、及び、プログラム |
JP2013171553A (ja) | 2012-02-23 | 2013-09-02 | Sharp Corp | ディスプレイ装置 |
US9563113B2 (en) * | 2012-10-29 | 2017-02-07 | Young Optics Inc. | Multi-projection system using a single illumination source and a single imaging device |
AR105643A1 (es) * | 2015-08-10 | 2017-10-25 | Merck Sharp & Dohme | COMPUESTOS ANTIVIRALES DE FOSFODIAMIDA DE ÉSTER DE b-AMINOÁCIDO |
-
2016
- 2016-03-28 JP JP2016063108A patent/JP2017182110A/ja not_active Withdrawn
-
2017
- 2017-03-23 US US15/467,263 patent/US10416813B2/en active Active
- 2017-03-24 CN CN201710186040.3A patent/CN107239177A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09311757A (ja) * | 1996-05-21 | 1997-12-02 | Sony Corp | 座標入力装置 |
JP2009086048A (ja) * | 2007-09-27 | 2009-04-23 | Brother Ind Ltd | プロジェクタシステム及びその駆動方法 |
JP2013134661A (ja) * | 2011-12-27 | 2013-07-08 | Seiko Epson Corp | 表示装置、プロジェクター及び表示システム |
JP2014123316A (ja) * | 2012-12-21 | 2014-07-03 | Canon Inc | 情報処理システム、情報処理装置、検出装置、情報処理方法、検出方法、及び、コンピュータプログラム |
JP2015125614A (ja) * | 2013-12-26 | 2015-07-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20150244998A1 (en) * | 2014-02-27 | 2015-08-27 | Shinsuke Yanazume | Image projection system and image projection apparatus |
JP2015161830A (ja) * | 2014-02-27 | 2015-09-07 | 株式会社リコー | 画像投影システムおよび画像投影装置 |
JP2015191484A (ja) * | 2014-03-28 | 2015-11-02 | セイコーエプソン株式会社 | 情報処理装置、プロジェクター、情報処理方法及びプログラム |
JP2015232697A (ja) * | 2014-05-12 | 2015-12-24 | Sky株式会社 | 表示システム |
Also Published As
Publication number | Publication date |
---|---|
US10416813B2 (en) | 2019-09-17 |
US20170277358A1 (en) | 2017-09-28 |
CN107239177A (zh) | 2017-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US9324295B2 (en) | Display device and method of controlling display device | |
JP5874401B2 (ja) | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 | |
JP2017182110A (ja) | 表示システム、表示装置、情報処理装置及び情報処理方法 | |
JP5849560B2 (ja) | 表示装置、プロジェクター、及び、表示方法 | |
US9830023B2 (en) | Image display apparatus and method of controlling image display apparatus | |
JP2013134661A (ja) | 表示装置、プロジェクター及び表示システム | |
US10303307B2 (en) | Display system, information processing device, projector, and information processing method | |
JP6770502B2 (ja) | 通信装置、表示装置、それらの制御方法、プログラムならびに表示システム | |
JP6051828B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2011013396A (ja) | プロジェクター、画像投写システムおよび画像投写方法 | |
US10055065B2 (en) | Display system, projector, and control method for display system | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
JP2014142684A (ja) | 入力装置、表示システム、及び入力方法 | |
US11276372B2 (en) | Method of operation of display device and display device | |
JP2017068001A (ja) | 表示装置及び表示装置の制御方法 | |
JP6642032B2 (ja) | プロジェクター及びプロジェクターの制御方法 | |
JP6586891B2 (ja) | プロジェクター及びプロジェクターの制御方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP7287156B2 (ja) | 表示装置、表示方法、プログラム | |
JP2016161869A (ja) | 表示装置及び表示制御方法 | |
JP2017092849A (ja) | 画像表示システム | |
JP2019003450A (ja) | 投射型表示装置 | |
JP2019078901A (ja) | 投影装置及びその制御方法、並びにプログラム | |
JP2016186525A (ja) | 表示装置及び表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200203 |