WO2014002241A1 - 表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム - Google Patents

表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム Download PDF

Info

Publication number
WO2014002241A1
WO2014002241A1 PCT/JP2012/066639 JP2012066639W WO2014002241A1 WO 2014002241 A1 WO2014002241 A1 WO 2014002241A1 JP 2012066639 W JP2012066639 W JP 2012066639W WO 2014002241 A1 WO2014002241 A1 WO 2014002241A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
pointer
image
terminal
displayed
Prior art date
Application number
PCT/JP2012/066639
Other languages
English (en)
French (fr)
Inventor
益岡 信夫
清水 宏
▲吉▼澤 和彦
西島 英男
Original Assignee
日立コンシューマエレクトロニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立コンシューマエレクトロニクス株式会社 filed Critical 日立コンシューマエレクトロニクス株式会社
Priority to US14/406,897 priority Critical patent/US9652824B2/en
Priority to JP2014522316A priority patent/JP6014137B2/ja
Priority to CN201280073862.6A priority patent/CN104364746B/zh
Priority to PCT/JP2012/066639 priority patent/WO2014002241A1/ja
Priority to CN201710594886.0A priority patent/CN107256405B/zh
Publication of WO2014002241A1 publication Critical patent/WO2014002241A1/ja
Priority to US15/497,298 priority patent/US10295896B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits

Definitions

  • the present invention relates to a display system that performs video display in cooperation between a plurality of display terminals / display devices.
  • Patent Document 1 is one of the technologies of this video system.
  • a pointer graphic is displayed on a lecture material on a lecturer terminal and can be moved, and the same operation as a pointer graphic on a lecture material on a lecturer terminal is reproduced in real time on a lecture material on a student terminal. Is disclosed.
  • the display terminal is equipped with an enlarged display function, when it is enlarged, only a part is displayed. Therefore, when the enlarged display is performed, the part intended by the user is not always displayed, and there is a problem that searching for the intended part in the enlarged display state is troublesome and inconvenient.
  • a display system of the present invention includes a display terminal that displays first image data and a display device that displays second image data in conjunction with the display terminal.
  • the display content of the image data has the contents of a partial area of the display content of the second image data, and the pointer mark of the display terminal is the second image data of the pointer mark displayed on the display device.
  • the first image data is displayed at the same image position as the image position.
  • the first image data displayed on the display terminal is changed when the image position of the pointer mark displayed on the display device is moved.
  • the present invention is to provide an easy-to-use display system.
  • 10 is a flowchart illustrating an operation in a pointer display mode according to the second embodiment. It is the figure which showed the example of the display image of the display terminal in Example 2, and a display apparatus. 12 is a flowchart illustrating an operation in a pointer display mode according to the third embodiment. It is the figure which showed the example of the display image of the display terminal in Example 3, and a display apparatus. 12 is a flowchart illustrating the operation of the display device according to the fourth embodiment. 10 is a flowchart relating to a main operation of the display terminal according to the fourth embodiment. 14 is a flowchart illustrating an operation in a pointer transmission mode according to the fourth embodiment. It is the figure which showed the example of the display image of the display terminal in Example 4, and a display apparatus.
  • FIG. 1 is an example of a configuration diagram of the entire display system according to the present invention.
  • the display system 400 includes display terminals 100 ⁇ / b> A, 100 ⁇ / b> B, and 100 ⁇ / b> C connected to the network 300 and the display device 200.
  • the display system 400 shown in FIG. 1 the case where there are three display terminals 100 and one display device 200 is shown, but the present invention is not limited to this.
  • the display system 400 is used, for example, for meetings, lectures, and presentations.
  • the display device 200 is a projection display device such as a projector, and projects and displays a display image 251 on a large screen on a screen 252. Thereby, a participant can browse simultaneously.
  • the display terminal 100 includes a display unit 102 and displays a display image 151 on the display unit 102. Thereby, the user browses the display image 151 individually.
  • the display terminal 100 and the display device 200 are wirelessly connected to the network 300, respectively.
  • the network 300 is, for example, a LAN (Local Area Network), and communication with the network 300 is a wireless LAN such as IEEE802.11a / b / n.
  • the display terminal 100A is used as a host of the display system 400, and the other display terminals 100B and 100C are used as clients.
  • the display terminal 100 ⁇ / b> A that is the host converts the selected display data into image data, displays it as a display image 151 ⁇ / b> A on its own display unit 102 ⁇ / b> A, and transmits the image data to the display device 200 via the network 300.
  • the display device 200 displays the image data received from the display terminal 100A via the network 300 as the display image 251.
  • the pointer 260 is, for example, a laser pointer, which irradiates a laser beam on the screen and optically points to an arbitrary position of the display image 251.
  • the presenter uses the pointer 260 when explaining the contents of the display image 251.
  • the display device 200 includes a sensor unit (not shown) and has a function of detecting a position (coordinates) indicated by the pointer 260.
  • the coordinates detected here are hereinafter referred to as pointer coordinates.
  • the display device 200 displays the pointer mark 250 at a position corresponding to the pointer coordinates so as to be superimposed on the display image 251 so that the position indicated by the pointer 260 can be highlighted. Further, the pointer coordinates are transmitted to the display terminals 100A, 100B, and 100C via the network 300.
  • the display device 200 may have a pointer marker generation function to display the pointer marker on the display image 251 and to transmit the pointer coordinates to the display terminals 100A, 100B, and 100C.
  • the display terminal 100A transmits display data to the display terminals 100B and 100C which are clients.
  • the received display data is converted into image data and displayed on the display units 102B and 102C as display images 151B and 151C.
  • the content of the display image 251 projected on the screen 252 by the display device 200 can be confirmed on the display units 102B and 102C at the hand of the display terminal.
  • the display terminal 100 receives the data of the point coordinates from the display device 200, the pointer mark 150 is displayed on the display image 151 at a position corresponding to the pointer coordinates. As a result, the position indicated by the pointer 260 on the display image 251 can be confirmed on the display unit 102 at hand.
  • the display terminal 100 includes a reduced display button 152, an entire display button 153, and an enlarged display button 154.
  • the display image 151 is obtained by enlarging the image data.
  • the enlargement display button 154 is selected in the state where the image data is enlarged, the enlargement ratio of the display image 151 is increased every time the enlargement display button 154 is selected so that the enlargement is performed. Good.
  • the entire display button 153 with the image data enlarged the entire image data can be displayed at any time.
  • the reduction display button 152 is selected, the display image 151 is obtained by reducing the image data.
  • the enlargement ratio of the display image 151 may be decreased each time the reduced display button 152 is selected so that the reduced display button 152 is further reduced.
  • the display image 251 is a large screen such as 200 inches, for example, whereas the screen size of the display unit 102 of the display terminal 100 is a small screen such as 10 inches. Therefore, when the entire image data is displayed on the display unit 102, there are cases where the details are too small to be understood. At this time, the detailed contents can be confirmed by selecting and displaying the enlarged display button 154 in an enlarged manner. However, in the case of an enlarged display, what is displayed on the display unit 102 is a part of the image data. Therefore, when the enlarged display is performed, the part intended by the user is not always selected and displayed. Therefore, in the display system of the present invention, the enlarged display is performed so that the pointer mark 150 is substantially centered. Details of the configuration and operation of each device will be described below.
  • FIG. 2 is a configuration diagram of the display device 200.
  • the display device 200 includes a control unit 201, a display unit 202, a sensor unit 203, a memory 204, an operation unit 205, a communication unit 206, a connection unit 207, a voice input unit 208, and a voice output unit 209, each of which includes a system bus 220.
  • a control unit 201 controls the display device 200.
  • the control unit 201 is, for example, a microprocessor unit that controls the entire display device 200.
  • the system bus 220 is a data communication path for performing data transmission / reception between the control unit 201 and each unit in the display device 200.
  • the display unit 202 is a liquid crystal projector, for example, and projects and displays an image on the screen 252.
  • the sensor unit 203 is, for example, a camera or the like, captures a display image 251, and performs image processing on the captured image by the control unit 203, thereby detecting pointer coordinates that are positions (coordinates) pointed to by the pointer 260. Is.
  • the memory 204 is a rewritable memory such as a flash memory.
  • the memory 204 stores a basic operation program of the display device 200 of the embodiment, such as an operating system and a predetermined application program. It is assumed that the basic operation program can be upgraded and the functions can be expanded by updating the program stored in the memory 204. Data and the like can also be recorded.
  • the operation unit 205 receives various operations from the user, and includes various operation buttons such as a power button.
  • the communication unit 206 is an interface that is wirelessly connected to the network 300, and is a wireless LAN as described above.
  • the connection unit 207 is an interface for connecting to other devices such as the display terminal 100, and transmits / receives data to / from other connected devices.
  • the voice input unit 208 is a microphone, for example, and inputs a voice signal.
  • the audio output unit 209 is a speaker, for example, and outputs an audio signal.
  • the image data received from the other device from the communication unit 107 is stored in the memory 204, the image data is subjected to image processing in the control unit 201, and then projected and displayed from the display unit 202, whereby the display image 251 is displayed on the screen 252. Is displayed. At this time, when an audio signal is received, the audio is processed by the control unit 201 and output from the audio output unit 209.
  • FIG. 3 is a configuration diagram of the display terminal 100.
  • the display terminal 100 includes a control unit 101, a display unit 102, a memory 103, an operation unit 104, a storage 105, a camera 106, a communication unit 107, a connection unit 108, an audio input unit 109, and an audio output unit 110. Interconnected by a bus 120.
  • the control unit 101 is, for example, a microprocessor unit that controls the entire display terminal 100.
  • the system bus 120 is a data communication path for performing data transmission / reception between the control unit 101 and each unit in the display terminal 100.
  • the display unit 102 is a display device such as a liquid crystal or an organic EL.
  • the memory 103 is a rewritable memory such as a flash memory.
  • the memory 204 stores a basic operation program of the display device 200 of the embodiment, such as an operating system and a predetermined application program. It is assumed that the basic operation program can be upgraded and the functions can be expanded by updating the program stored in the memory 204. Data and the like can also be recorded.
  • the display surface of the display unit 102 has an operation unit 104 that is a touch panel.
  • the operation unit 104 detects the position by touching with a fingertip, a touch pen, or the like, and sends it to the control unit 101.
  • a menu such as a list of operation commands is displayed on the display unit 102, and when an operation command portion selected by the user is touched, various operation commands are input by detecting the position.
  • the reduced display button 152, the entire display button 153, and the enlarged display button 154 are selected by displaying button shapes on the display unit 102 and touching the button positions.
  • the storage 105 is an information storage medium such as a memory card.
  • the camera 106 captures still images and moving images, and the captured image data is stored in the memory 103 or the storage 105.
  • the communication unit 107 is an interface that is wirelessly connected to the network 300.
  • the connection unit 108 is an interface for connecting to other devices, and transmits / receives data to / from other connected devices.
  • the voice input unit 109 is, for example, a microphone and inputs a voice signal.
  • the audio output unit 110 is a speaker, for example, and outputs an audio signal.
  • the display terminal 100A serving as a host transmits display data selected from data stored in the memory 103A or the storage 105A to the display terminals 100B and 100C serving as clients via the network 300 from the communication unit 107A. Further, the display data is subjected to image processing by the control unit 101A, converted into image data, and displayed as a display image 151A on its own display unit 102A. Further, image data is transmitted from the communication unit 107A to the display device 200 via the network 300. At this time, display data and image data are stored in the memory 103A.
  • the image data received by the communication unit 206 is stored in the memory 204, the image processing is performed by the control unit 201, and then projected on the screen 252 to display the display image 251.
  • the display terminal 100B serving as a client the display data received by the communication unit 107B is subjected to image processing by the control unit 101 and converted into image data, and displayed as a display image 151B on the display unit 102B. At this time, display data and image data are stored in the memory 103B.
  • the display terminal 100C also performs the same operation as the display terminal 100B.
  • the pointer mark 150 is displayed in an overlapping manner at the corresponding position.
  • the display is performed while changing the enlargement ratio with the position of the pointer mark 150 being substantially the center.
  • the pointer mark 150 may be displayed, and at the same time, the pointer mark 150 may be automatically enlarged and displayed at substantially the center.
  • Such a mode for automatically enlarging and displaying is hereinafter referred to as an automatic enlarging mode. Whether the display terminal 100 is set to the automatic enlargement mode is previously set by the user by displaying a menu on the display unit 102 or the like.
  • FIG. 4 shows a display example in which a display image 152 and a pointer mark 150 are displayed on the display unit 102 in the display terminal 100.
  • FIG. 4B shows a display example in which the image data is enlarged and displayed with the position of the pointer mark 150 approximately at the center.
  • the control unit 101 enlarges the display data, and creates image data that has been subjected to image processing with a size that can be displayed on the display unit 102 and with the pointer coordinates cut out to substantially the center.
  • the display terminal 100 displays the image data as a display image 151 on the display unit 102. Further, the pointer mark 150 is displayed in a superimposed manner at a position corresponding to the pointer coordinates.
  • the enlargement display button 154 is selected in the entire display state of FIG. 4A, the pointer mark 150 operates to enlarge and display at substantially the center as shown in FIG. 4B.
  • the display terminal 100 is set to the automatic enlargement mode, when the pointer coordinates are received, an enlarged display image 152 with the pointer mark 150 substantially at the center as shown in FIG. Become.
  • FIG. 4C is a diagram in which the image is scrolled in the horizontal direction while maintaining the enlargement ratio in the enlarged display state of FIG. 4B.
  • FIG. 5 is a flowchart showing the operation of the display device 200. This process starts when the power is turned on. It is determined whether the communication unit 206 has received image data from another device (here, the display terminal 100A) via the network 300 (step S501). If the image data could not be received, the process proceeds to step S504 described later. If image data can be received in step S501, the image data is stored in the memory 204 (step S502).
  • the display unit 202 projects and displays the image data as a display image 251 on the screen 251 (step S503).
  • the sensor unit 203 detects the position (pointer coordinates) pointed on the display image 252 by the pointer 260 irradiating a laser or the like (step S504).
  • the display image 252 is captured by a camera or the like.
  • the captured image data is temporarily stored in the memory 204, and by extracting only a specific wavelength such as a laser output from the pointer 260 from the image data, the position indicated by the pointer 260 can be detected.
  • step S505 When the pointer position is detected, the pointer coordinates are transmitted from the communication unit 206 to each display terminal 100 via the network 300 (step S505). Then, the pointer mark 250 is displayed on the display image 252 at a position corresponding to the pointer coordinates (step S506). After the display, the process returns to step S501 to repeat this process. If the position indicated by the pointer 260 cannot be detected in step S504, the process returns to step S501 to repeat this process.
  • FIG. 6 is a flowchart regarding the main operation of the display terminal 100. It shall be started from power ON. First, it is determined whether or not the mode is the data selection mode (step S601). This is a mode executed in the display terminal 100A as a host, and the data selected here (display data) becomes the data of the display image 251 displayed on the display device 200. If it is the data selection mode, the flow of the data selection mode is performed (step S602). Details of the data selection mode will be described later. If it is determined in step S601 that the mode is not the data selection mode, the flow proceeds to step S603 without performing the data selection mode flow.
  • the mode is the data selection mode (step S601). This is a mode executed in the display terminal 100A as a host, and the data selected here (display data) becomes the data of the display image 251 displayed on the display device 200. If it is the data selection mode, the flow of the data selection mode is performed (step S602). Details of the data selection mode will be described later. If it is determined in step
  • step S603 it is determined whether or not the communication unit 107 has received display data from another device.
  • step S604 the flow of data display mode is performed. Details of the data display mode will be described later. If it is determined in step S603 that display data has not been received, the flow proceeds to step S605 without performing the flow of the data display mode.
  • step S605 it is determined whether or not the communication unit 107 has received pointer coordinate data from the display device (step S605).
  • the pointer display mode flow is performed (step S606), and the process returns to the first step S601. Details of the pointer display mode will be described later. If it is determined in step S605 that pointer coordinate data has not been received, the flow returns to step S601 without performing the pointer display mode flow.
  • step S602 the data selection mode (step S602), the data display mode (step S604), and the pointer display mode (step S606) will be described.
  • FIG. 7 is a flowchart showing the operation of the data selection mode. This process is an operation executed on the display terminal 100A as a host as described above.
  • step S601 data for performing projection display by the display device 200 is selected (step S601).
  • a list of data stored in the memory 103 or the storage 105 is displayed on the display unit 102 (step S701), and desired data (display data) is selected from the list (step S702).
  • the selected display data is stored in the memory 103 (step S703). Further, the display data is transmitted from the communication unit 107 to another display terminal 100 via the network 300 (step S704).
  • the display data is subjected to image processing by the control unit 101 and converted into image data (step S705), and the image data is also stored in the memory 103 (step S706).
  • the image data is displayed on the display unit 102 (step S707), and is transmitted from the communication unit 107 to the display device 200 via the network 300 (step S708), and the flow returns to the main operation flow of FIG.
  • the display terminal 100 that has received the display data transmitted in step S704 proceeds from step S603 to step S604 as shown in FIG. Further, the display device 200 that has received the image data transmitted in step S708 stores the image data in the memory 204 (step S502) and projects and displays it as a display image 251 (step S503), as shown in FIG. .
  • FIG. 8 is a flowchart showing the operation of the data display mode. This process is a process executed by the other display terminals 100B and 100C that have received the display data when the display terminal 100A serving as the host transmits the display data (FIG. 7, step S704).
  • the display terminal 100 that has received the display data by the communication unit 107 via the network 300 performs image processing by the control unit 101 and converts it into image data (step S801).
  • the converted image data is stored in the memory 103 (step S802), displayed as the display image 151 on the display unit 102 (step S803), and the process returns to the main operation flow of FIG.
  • FIG. 9 is a flowchart showing the operation of the pointer display mode. This process is an operation executed when the pointer coordinate data transmitted from the display device 200 is received as described above.
  • the pointer coordinate data is received by the communication unit 107 via the network 300, the pointer coordinate data is stored in the memory 103 (step S901). Then, it is determined whether or not the display terminal 100 is set to the automatic enlargement mode (step S902). If the automatic enlargement mode is set, it is determined whether or not the display image 151 currently displayed on the display unit 102 is in an enlarged display state (step S903).
  • step S902 When it is determined in step S902 that the display is not enlarged (for example, in the case of normal display), the control unit 101 performs image processing on the display data to create enlarged image data, and displays the enlarged display image 151 on the display unit 102. It is displayed (step S904). At this time, the enlargement process is performed so that the pointer coordinates are substantially at the center. Then, the pointer mark 150 is displayed superimposed on the pointer coordinate position (step S905), and the flow returns to the main operation flow of FIG.
  • step S902 If it is determined in step S902 that the display terminal 100 is not set to the automatic enlargement mode, the process advances from step S902 to step S905, where the pointer mark 150 is displayed at the position of the pointer coordinate, and the main terminal of FIG. Return to the flow of operation.
  • step S903 If it is determined in step S903 that the image is displayed in the enlarged table, the control unit 101 uses the display data to maintain the current enlargement ratio and display image data such that the pointer coordinates are substantially centered. It is created and displayed on the display unit 102 (step S906). Then, the pointer mark 150 is displayed superimposed on the pointer coordinate position (step S905), and the flow returns to the main operation flow of FIG.
  • the display device 200 projects and displays the display image 251 (FIG. 5, step S503), detects the position pointed by the pointer 260 (FIG. 5, step S504), and points to it.
  • the pointer mark 250 is displayed at the position so as to overlap the display image 251 (FIG. 5, step S506).
  • Display examples of the display terminal 100 at this time are shown in FIGS.
  • FIG. 10B is a display example when the display terminal 100 is set to the automatic enlargement mode
  • FIG. 10C is a display example when the automatic enlargement mode is not set.
  • a display image 151 enlarged and displayed with the position of the pointer coordinates approximately at the center is displayed (FIG. 9, step S904).
  • a pointer mark 150 is superimposed and displayed at the position of the pointer coordinates (FIG. 9, step S905).
  • the display terminal 100 When the display terminal 100 is not set to the automatic enlargement mode, as shown in FIG. 10C, the display data received from the display terminal 100A serving as the host is converted (FIG. 8, step S801), and the conversion is performed.
  • the image data is displayed as a display image 151 (FIG. 8, step S803), and the pointer mark 150 is superimposed on the position of the pointer coordinate (FIG. 9, step S905).
  • FIG. 10D shows a display example when the position indicated by the pointer 260 is changed from FIG. As shown in FIG. 10D, a pointer mark 250 is displayed on the display image 251 at the position indicated by the changed pointer 260. Display examples of the display terminal 100 at this time are shown in FIGS.
  • FIG. 10E is a display example when the display terminal 100 is set to the automatic enlargement mode
  • FIG. 10F is a display example when the automatic enlargement mode is not set.
  • the display terminal 100 is set to the automatic enlargement mode
  • the display is already enlarged, and as shown in FIG. 10E, the position of the pointer coordinate is substantially centered while maintaining the enlargement ratio.
  • image data is created and displayed (FIG. 9, step S906).
  • the pointer mark 150 is displayed over the pointer coordinate position (FIG. 9, step S905).
  • the pointer mark 150 is changed to the position of the pointer coordinate and displayed as shown in FIG. 10 (f) (step S905 in FIG. 9).
  • the entire display button 153 When the entire display button 153 is selected in a state where the display image 151 as shown in FIGS. 10B and 10E is enlarged, the entire display data is displayed as shown in FIGS. 10C and 10F. Can be displayed. Further, when the enlarged display button 154 is selected in a state where the display image 151 as shown in FIGS. 10C and 10F displays the entire display data, as shown in FIGS. 10B and 10E. In addition, it can be enlarged with the pointer coordinates as the center.
  • the pointer mark 250 is displayed on the display image 251 projected and displayed by the display device 200, so that the position pointed by the pointer 260 can be highlighted. Further, the position (pointer coordinates) is transmitted to the display terminal 100, and the pointer mark 150 is also displayed on the display screen 151 of the display terminal 100. Therefore, also on the display terminal 100, the position indicated by the pointer 260 is confirmed. be able to.
  • the display data can be partially enlarged and displayed, so that it is possible to check even a fine part of the display content. Furthermore, since the pointer coordinate position is enlarged and displayed substantially at the center, the portion intended by the user of the display terminal 100 is always displayed on the display unit 102, so that the detailed portion of the display content can be confirmed without troublesome operations. It becomes possible to do.
  • the display system 400 according to the second embodiment of the present invention will be described. Since the hardware configuration of the display terminal 100, the display device 200, and the like is the same as that of the first embodiment, the description thereof is omitted. In addition, the operation of the display terminal 100 and the display device 200 is different from the first embodiment in the operation of the display terminal 100 in the pointer display mode. Therefore, in the present embodiment, the pointer display mode of the display terminal 100 will be described.
  • FIG. 11 is a flowchart showing the operation in the pointer display mode. This process is an operation executed when the pointer coordinate data transmitted from the display device 200 is received.
  • the pointer coordinate data is received by the communication unit 107 via the network 300, the pointer coordinate data is stored in the memory 103 (step S1101). Then, it is determined whether or not the display terminal 100 is set to the automatic enlargement mode (step S1102). If the automatic enlargement mode is set, it is determined whether or not the display image 151 currently displayed on the display unit 102 is being enlarged (step S1103).
  • step S1103 When it is determined in step S1103 that the display is enlarged (for example, in the case of normal display), the control unit 101 performs image processing on the display data, creates enlarged image data, and displays the enlarged display image 151 on the display unit 102. (Step S1104). At this time, the enlargement process is performed so that the pointer coordinates are substantially at the center. Then, the pointer mark 150 is superimposed and displayed at the position of the pointer coordinate (step S1105), and the flow returns to the main operation flow.
  • step S1102 If it is determined in step S1102 that the automatic enlargement mode is not set, the pointer mark 150 is displayed over the pointer coordinate position (step S1105), and the flow returns to the main operation flow.
  • step S1103 If it is determined in step S1103 that the display is enlarged, it is determined whether or not the received pointer coordinates are within the display area of the currently displayed display image 151 (step 1106). If it is determined that the pointer coordinates are in the display area, the display image 151 is not changed, and the pointer mark 150 is superimposed on the position of the pointer coordinates (step S1105), and the flow returns to the main operation flow.
  • step S1106 If it is determined in step S1106 that the pointer coordinates are not within the display area, the control unit 101 maintains the current enlargement ratio based on the display data, and the image data such that the pointer coordinates are substantially centered. Is recreated and displayed on the display unit 102 (step S1107). Then, the pointer mark 150 is superimposed and displayed at the position of the pointer coordinate (step S1105), and the flow returns to the main operation flow.
  • FIG. 12 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200.
  • FIG. 12A shows a display example of the display device 200, which is the same as that of FIG.
  • a display example of the display terminal 100 at this time is shown in FIG.
  • FIG. 12B displays a display image 151 that is enlarged and displayed with the position of the pointer coordinates approximately at the center as in the display terminal 100 of the first embodiment (FIG. 11, step S1104), and a pointer mark 150 is displayed at the position of the pointer coordinates. They are displayed in an overlapping manner (FIG. 11, step S1105).
  • FIG. 12 (c) is a display example when the position indicated by the pointer 260 is changed from FIG. 12 (a).
  • a pointer mark 250 is displayed on the display image 251 at the position indicated by the changed pointer 260.
  • the display image 151 is not changed, and the pointer mark 150 is superimposed and displayed at the position of the changed pointer coordinates (FIG. 11, Steps S1106 to S1105).
  • FIG. 12 (e) shows a display example when the position indicated by the pointer 260 is further changed from FIG. 12 (c).
  • a pointer mark 250 is displayed on the display image 251 at the position indicated by the changed pointer 260.
  • image data having the pointer coordinates substantially at the center is re-created to obtain a display image 151 (FIG. 11, step S1107), and the pointer mark 150 is superimposed on the position of the pointer coordinates (FIG. 11, step S1107). S1105).
  • Example 2 the same effect as Example 1 can be acquired. Further, in the display terminal, when the pointer coordinates are within the display area at the time of enlarged display, the display image 151 does not change, so the frequency of change of the display image 151 can be reduced. An effect of improving ease can be obtained.
  • the display system 400 according to the third embodiment of the present invention will be described. Since the hardware configuration of the display terminal 100, the display device 200, and the like is the same as that of the first and second embodiments, the description thereof is omitted. Further, the operation of the display terminal 100 and the display device 200 is different from the first and second embodiments in the operation of the pointer display mode of the display terminal 100. Therefore, in the present embodiment, the pointer display mode of the display terminal 100 will be described.
  • FIG. 13 is a flowchart showing the operation of the pointer display mode. This process is an operation executed when the pointer coordinate data transmitted from the display device 200 is received.
  • the pointer coordinate data is received by the communication unit 107 via the network 300, the pointer coordinate data is stored in the memory 103 (step S1301). Then, it is determined whether or not the display terminal 100 is set to the automatic enlargement mode (step S1302). If the automatic enlargement mode is set, it is determined whether or not the display image 151 currently displayed on the display unit 102 is being enlarged (step S1303).
  • step S1303 If it is determined in step S1303 that the display is enlarged (for example, in the case of normal display), the control unit 101 performs image processing on the display data to create enlarged image data, and displays the enlarged display image 151 on the display unit 102. (Step S1304). At this time, the enlargement process is performed so that the pointer coordinates are substantially at the center. Then, the pointer mark 150 is displayed superimposed on the position of the pointer coordinate (step S1305), and the flow returns to the main operation flow.
  • step S1302 If it is determined in step S1302 that the automatic enlargement mode has not been set, the pointer mark 150 is displayed over the pointer coordinate position (step S1305), and the flow returns to the main operation flow.
  • step S1303 If it is determined in step S1303 that the display is enlarged, it is determined whether the received pointer coordinates are within the display area of the currently displayed display image 151 (step 1306). If it is determined that the pointer coordinates are within the display area, the display image 151 is not changed, and the pointer mark 150 is displayed superimposed on the position of the pointer coordinates (step S1305), and the flow returns to the main operation flow.
  • step S1306 If it is determined in step S1306 that the pointer coordinates are not in the display area, an out-of-area mark indicating that the pointer is out of the area is superimposed on the display image (step S1307). Next, it is determined whether or not an out-of-area mark has been selected (step S1308). If it is determined that an out-of-area mark has been selected, the control unit 101 recreates image data from the display data so that the current enlargement ratio is maintained and the pointer coordinates are substantially at the center, and the display unit 102 (Step S1309). Then, the pointer mark 150 is displayed superimposed on the position of the pointer coordinate (step S1305), and the flow returns to the main operation flow.
  • step 1308 If no out-of-area mark is selected in step 1308, the pointer mark 150 is deleted (step S1310), and the flow returns to the main operation flow.
  • FIG. 14 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200.
  • FIG. 14A shows a display example of the display device 200, which is the same as that of FIG.
  • a display example of the display terminal 100 at this time is shown in FIG.
  • FIG. 14B displays a display image 151 that is enlarged and displayed with the position of the pointer coordinates approximately at the center as in the display terminal 100 of the first embodiment (FIG. 13, step S1304), and a pointer mark 150 is displayed at the position of the pointer coordinates. They are displayed in an overlapping manner (FIG. 13, step S1305).
  • FIG. 14C is a display example when the position indicated by the pointer 260 is changed from FIG. 14A. As shown in FIG. 14C, the description is omitted because it is the same as FIG. 12C of the second embodiment.
  • the change amount of the pointer coordinates is small and the changed pointer coordinates are in the display area of the currently displayed display image 151 (FIG. 14B), as shown in FIG.
  • the display image 151 is not changed, and the pointer mark 150 is superimposed and displayed at the position of the changed pointer coordinates (FIG. 13, Steps S1306 to S1305).
  • Fig. 14 (e) is a display example when the position indicated by the pointer 260 is further changed from Fig. 14 (c). As shown in FIG. 14E, the description is omitted because it is the same as FIG. 12E of the second embodiment.
  • the change amount of the pointer coordinates is large and the pointer coordinates after the change are not in the display area of the currently displayed display image 151 (FIG. 14B), as shown in FIG.
  • the display image 151 is not changed and the out-of-area mark 155 is displayed (FIG. 13, step 1307), and the pointer mark 150 is deleted (FIG. 13, step S1309).
  • Example 3 the same effects as in Example 1 and Example 2 can be obtained. Further, on the display terminal, the display image 151 does not change if the pointer coordinates are within the display area during the enlarged display.
  • the display image 151 is not changed unless the user selects the out-of-area mark 155. Therefore, since the display image 151 is changed at a timing intended by the user, it is possible to obtain an effect of improving the ease of confirming the contents of the display data.
  • the usability is not inferior to the first and second embodiments.
  • the display system 400 according to the fourth embodiment of the present invention will be described. Since the hardware configuration of the display terminal 100, the display device 200, and the like is the same as that of the first to third embodiments, the description thereof is omitted.
  • FIG. 15 is a flowchart showing the operation of the display device 200. This process starts when the power is turned on. It is determined whether the communication unit 206 has received image data from another device (here, the display terminal 100A) via the network 300 (step S1501). If the image data could not be received, the process proceeds to step S1504 described later. If image data can be received in step S1501, the image data is stored in the memory 204 (step S1502). After the image data is subjected to image processing by the control unit 201, the display unit 202 projects and displays it as a display image 251 on the screen 251 (step S1503).
  • the sensor unit 203 detects the position (pointer coordinates) pointed on the display image 252 by the pointer 260 irradiating a laser or the like (step S1504).
  • the pointer coordinates are transmitted from the communication unit 206 to each display terminal 100 via the network 300 (step S1505).
  • the pointer mark 250 is displayed on the display image 252 at a position corresponding to the pointer coordinates (step S1506).
  • the process returns to step S1501 to repeat this process. Up to this point, the operation is the same as that of the first embodiment.
  • step S1504 if the position indicated by the pointer 260 cannot be detected, it is determined whether pointer coordinate data is received from the display terminal 100.
  • the pointer mark 250 is displayed on the display image 252 at a position corresponding to the pointer coordinates (step S1506), and the process returns to step S1501 to repeat this process. If it is determined in step S1507 that the pointer coordinates cannot be received, the process returns to step S1501 to repeat this process.
  • FIG. 16 is a flowchart regarding the main operation of the display terminal 100. It shall be started from power ON. First, it is determined whether or not the mode is the data selection mode (step S1601). If it is the data selection mode, the flow of the data selection mode is performed (step S1602). If it is determined in step S1601 that the mode is not the data selection mode, the process proceeds to step S1603.
  • step S1603 it is determined whether or not the communication unit 107 has received display data from another device.
  • step S1604 the flow of the data display mode is performed (step S1604). If it is determined in step S1603 that display data has not been received, the process advances to step S1605.
  • step S1605 it is determined whether or not the communication unit 107 has received pointer coordinate data from another device.
  • step S1606 a pointer display mode flow is performed (step S1606). If it is determined in step S1605 that pointer coordinate data has not been received, the process advances to step S16071. Since operations in the data selection mode, data display mode, and pointer display mode are the same as those in the first, second, or third embodiment, detailed description thereof is omitted.
  • step S1607 it is determined whether or not the display terminal 100 is in the pointer transmission mode. This displays a pointer transmission mode button 156 on the display unit 102, and when it is selected, the pointer transmission mode is set. If it is determined that the pointer transmission mode is selected, the flow of the pointer transmission mode is performed (step S1608), and the process returns to the first step S1601.
  • FIG. 17 is a flowchart showing the operation in the pointer transmission mode.
  • step S1701 it is determined whether selection by the touch pen 160 has been detected from the operation unit 104 (step S1701). If not detected, step S1701 is repeated. If selection of the touch pen 160 is detected, the control unit 101 calculates the position coordinates selected by the touch pen 160 (step S1702). Pointer coordinates, which are position coordinates on the image data, are calculated from the position coordinates selected by the touch pen 160, the enlargement ratio of the display image 151, the display area, and the like (step S1703) and stored in the memory 103 (step S1704).
  • step S1705 pointer mark 150 is superimposed and displayed at the position of the pointer coordinate on the display image 151.
  • pointer coordinate data is transmitted from the communication unit 107 to another device (step S1706), and the flow returns to the main operation flow of FIG.
  • FIG. 18 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200. As shown in FIG. 18A, when the pointer transmission mode button 156 is displayed at a predetermined position on the display unit 102 and the pointer transmission mode button 156 is selected, the display terminal 100 operates in the pointer transmission mode of FIG. Do. Details will be described below.
  • step S1701 when an arbitrary position on the display unit 102 is selected with the touch pen 160 (FIG. 17, step S1701), the operation unit 104 detects the position, and the position coordinates on the display screen 151 are obtained. Calculate (step S1702). At this time, if the display screen 151 is displayed in an enlarged manner, the pointer coordinates, which are the position coordinates on the display data, are calculated from the enlargement factor and the display position of the display screen 151 (FIG. 17, step S1703). A pointer mark 150 is displayed at the pointer coordinate position (FIG. 17, step S1705).
  • FIG. 18B is a display example of the display image 251 projected and displayed by the display device 200.
  • a pointer mark 250 is displayed on the display image 251 at the pointer coordinate position received from the display terminal 100 (FIG. 15, S1506).
  • 18C and 18D are display examples of display terminals 100 other than the display terminal 100 selected with the touch pen 160 in FIG.
  • FIG. 18C shows an example in which the pointer mark 150 is displayed when the display image 151 is the entire display
  • FIG. 18D shows an example in which the pointer mark 150 is displayed when the display image 151 is the enlarged display.
  • the displayed pointer marks 150 and 250 are also based on the pointer coordinates transmitted from the display device 200.
  • the pointer coordinates transmitted from the display device 100 can be distinguished.
  • the shape of the pointer marks 150 and 250 may be different for each display terminal 100. At this time, it is possible to distinguish which display terminal 100 is the pointer coordinate transmitted.
  • Example 4 the same effects as in Examples 1 to 3 can be obtained. Furthermore, in one display terminal 100, since the position pointed by the touch pen 160 can be confirmed on the display device 200 or another display terminal 100, a display system that is more convenient to use can be realized.
  • the display system 400 according to the fifth embodiment of the present invention will be described. Since the hardware configuration of the display terminal 100, the display device 200, and the like is the same as that of the first to fourth embodiments, the description thereof is omitted.
  • FIG. 19 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200.
  • the pointer mark 250 is displayed and the pointer mark locus 257 is also displayed. It is displayed.
  • the pointer mark locus 257 can be displayed by connecting the current pointer coordinate and the previous pointer coordinate with a line segment.
  • FIG. 19A and 19B show display examples of the display image 151 on the display terminal 100 at this time.
  • FIG. 19B shows a case where the display image 151 is a whole display
  • FIG. 19C shows a case where the display image 151 is an enlarged display.
  • the pointer mark 150 is displayed and the pointer mark locus 157 is also displayed.
  • the pointer mark locus 157 is displayed by connecting the current pointer coordinates and the previous pointer coordinates with a line segment.
  • the display terminal 100 When the display terminal 100 is set to the automatic enlargement mode, as shown in FIG. 19C, the display terminal 100 is controlled to be enlarged and displayed so that the approximate center of the pointer mark locus 157 becomes the center of the display image.
  • the pointer mark 150 may be enlarged and displayed so that the position of the pointer mark 150 is substantially at the center.
  • the pointer mark locus 157 is created on the display terminal 100.
  • the present invention is not limited to this, and the display device 200 creates the pointer mark locus 257 and stores the data.
  • the pointer mark trajectory 157 may be displayed by transmitting to the display terminal 100 and using the pointer mark trajectory data.
  • Example 5 the same effects as in Examples 1 to 4 can be obtained. Furthermore, since the locus of the position indicated by the pointer 260 can be confirmed on the display device and all display terminals, a display system that is more convenient to use can be realized.
  • FIG. 20 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200. As shown in FIG. 20A, when the display image 151 of the display terminal 100 is moved while being selected with the touch pen 160, the pointer mark 150 is displayed and the pointer mark locus 157 is also displayed. It is.
  • the pointer mark locus 157 can be displayed by connecting the current pointer coordinates and the previous pointer coordinates with a line segment.
  • a display example of the display image 251 on the display device 200 at this time is shown in FIG.
  • the pointer mark 250 is displayed on the display image 251 projected and displayed by the display device 200, and the pointer mark locus 257 is also displayed. Similarly, the pointer mark locus 257 can be displayed by connecting the current pointer coordinates and the previous pointer coordinates with a line segment.
  • FIGS. 20C shows a case where the display image 151 is displayed as a whole
  • FIGS. 20D and 20E show a case where the display image 151 is displayed in an enlarged manner.
  • the display is performed in the same display area as the display terminal 100 operated with the touch pen 160 (FIG. 20A).
  • the display device 100 that has received the data may determine the display image 151 based on the received enlargement factor and display position data.
  • the display may be enlarged so that the approximate center of the pointer mark locus 157 is the center of the display image.
  • the pointer mark 150 may be enlarged and displayed so that the position of the pointer mark 150 is substantially at the center.
  • the pointer mark locus 257 is created on the display device 200.
  • the present invention is not limited to this, and the pointer mark locus 157 data is displayed on the display terminal 100 operated with the touch pen 160. May be generated, the data may be transmitted to the display device 200, and the pointer mark locus 257 may be displayed by the pointer mark locus data.
  • the pointer mark locus data may be received and displayed on the display terminal 100 other than the display terminal 100 operated by the touch pen 160 to display the pointer mark locus 157.
  • the displayed pointer marks 150 and 250 are displayed as pointers transmitted from the display device 200. It is possible to distinguish between the coordinates and the pointer coordinates transmitted from the display device 100.
  • the shape of the pointer marks 150 and 250 may be different for each display terminal 100. At this time, it is possible to distinguish which display terminal 100 is the pointer coordinate transmitted.
  • the same effects as in the first to fifth embodiments can be obtained. Furthermore, since the locus operated by the touch pen 160 can be confirmed on the display device and all display terminals, a display system that is easy to use can be realized.
  • the display system 400 according to the seventh embodiment of the present invention will be described. Since the hardware configuration of the display terminal 100, the display device 200, and the like is the same as that of the first to fifth embodiments, the description thereof is omitted.
  • FIG. 21 is a diagram illustrating an example of display images 151 and 251 of the display terminal 100 and the display device 200. As shown in FIG. 21A, the display image 251 of the display device 200 is enlarged. In this case, the user operates the operation unit 205 of the display device 200, the control unit 201 enlarges the image data, and projects and displays it from the display unit 202.
  • the display device 200 transmits data of an enlargement ratio and a display position from the communication unit 206 to the display terminal 100.
  • the display terminal 100 displays a display image 151 enlarged and displayed in the same manner as the display image 251.
  • the control unit 101 uses the display data and the magnification rate and display position data received from the display device 200 to create image data that has been enlarged so that the display image 151 is substantially the same as the display image 251. Then, it is displayed as a display image 151 on the display unit 102.
  • the pointer mark 250 is displayed in the same manner.
  • the pointer mark 150 is displayed on the display terminal 100 as shown in FIG.
  • the display terminal 100 and the display device 200 can transmit and share the data of the enlargement ratio and the display position, so that even when the display image 251 is enlarged and displayed on the display device 200, it is possible to cope with it.
  • the display image 251 is enlarged and displayed by operating the operation unit 205 of the display device 200.
  • the present invention is not limited to this.
  • an enlarged display command may be transmitted from the display terminal 100 to the display device 200 to display the display image 251 in an enlarged manner.
  • Example 7 the same effects as in Examples 1 to 6 can be obtained. Furthermore, when the display image 251 is enlarged and displayed on the display device 200, it is enlarged and displayed on the display terminal 100 as well, so that a display system that is more convenient to use can be realized.
  • the communication with the network 300 has been described in the case of a wireless LAN, but the present invention is not limited to this.
  • communication using a communication system such as W-CDAM (Wideband Code Division Multiple Access) or GSM (registered trademark) (Global System for Mobile Communications) may be performed via a base station (not shown).
  • an audio signal input from the audio input unit 208 of the display device 200 may be transmitted to each display terminal 100 and output from the audio output unit 110 of the display terminal 100.
  • communication by Bluetooth (registered trademark) or wired LAN may be used.
  • the display terminal 100A and the display device 200 serving as the host transmit and receive image data via the network 300, but the present invention is not limited to this.
  • the connection unit 108A of the display terminal 100A and the connection unit 207 of the display device 200 may be connected by a connection cable (not shown), and image data may be transmitted / received via the connection cable.
  • the communication unit 206 may not be provided when priority connection is performed using the connection cable.
  • the pointer coordinate data may be transmitted to the display terminal 100A via the connection cable, and the display terminal 100A may transmit the pointer coordinate data to the other display terminals 100B and 100C.
  • the display device 200 includes the sensor unit that detects the position indicated by the pointer 260, but the present invention is not limited to this, and may be provided separately from the display device 200.
  • the display unit 202 of the display device 200 is a projector, but is not limited to this, and may be a liquid crystal panel, a plasma display panel, an organic EL, or the like.
  • the pointer 260 optically irradiates from a distant position and points to an arbitrary position like a laser pointer.
  • the present invention is not limited to this.
  • the sensor unit 203 captures a display image like a camera and detects pointer coordinates, but is not limited thereto.
  • the position indicated by the pointer 260 may be detected by outputting a signal such as an ultrasonic wave or an infrared signal from the pointer 260, receiving the signal at a plurality of locations, and calculating the distance between the sensor unit and the pointer 260.
  • the sensor unit 203 may detect a direct contact on the display image 251 such as a touch panel.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the microprocessor unit.
  • a program for realizing each function may be stored in advance in a memory, a storage, or the like, or may be stored later in the memory, the storage, or the like by downloading from an external application server.
  • DESCRIPTION OF SYMBOLS 100 ... Display terminal, 102 ... Display part, 150 ... Pointer mark, 151 ... Display image, 157 ... pointer mark locus, 160 ... touch pen, 200 ... display device, 250 ... pointer mark, 251 ... display image, 257 ... pointer mark locus, 260 ... pointer, 300 ... network, 400 ... display system

Abstract

 表示装置は、比較的大きな部屋で使用されるため、大画面で表示されることが多い。一方、表示端末は小画面での表示となることが多い。よって、表示装置と表示端末で同一画像を表示した場合、表示端末では表示画像が小さくて細かい部分が判別できず、使い勝手が悪いという問題があった。 表示端末と表示装置による表示システムであって、前記表示装置はポインタによって表示した画像上に光学的に指し示した位置座標を検出し、前記表示装置は前記検出した位置座標に所定のポインタマークを表示し、前記表示端末は受信した位置座標を略中心に拡大表示し、前記位置座標に所定のポインタマークを表示することを特徴とする。

Description

表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム
 本発明は、複数の表示端末・表示装置の間で、映像表示を連携しておこなう表示システムに関する。
 近年、複数の表示装置や表示端末を連携して映像表示をおこなうシステム・装置が映像教育やプレゼンテーションの分野で普及している。この映像システムの技術のひとつに特許文献1がある。特許文献1では、講師端末上の講義資料上にポインタ図形を表示させ移動を可能にし、受講生端末上の講義資料上に、リアルタイムに講師端末の講義資料上のポインタ図形と同様な動作を再現することが開示されている。
特開2004-32582号公報
 ひとつのプロジェクタ等の大画面の表示装置と個々の視聴者に表示端末を配布して商品説明等をおこなうプレゼンテーションシステムがある。このようなプレゼンテーションシステムでは、表示装置と表示端末で同一画像を表示した場合、表示端末では表示画像が小さくて細かい部分が判別できない、という問題があった。
 また、表示端末に拡大表示機能が備えられていた場合でも、拡大すると、表示されるのは一部分となる。よって、拡大表示したときに、ユーザーが意図する部分が表示されるとは限らず、拡大表示した状態で意図する部分を探すのは手間がかかり、使い勝手が悪いという問題があった。
 上記の課題を解決するために、本発明の表示システムは、第1の画像データを表示する表示端末と前記表示端末に連動して第2の画像データを表示する表示装置を含み、前記第1の画像データの表示内容は、前記第2の画像データの表示内容の一部領域の内容をもち、前記表示端末のポインタマークが、前記表示装置に表示されるポインタマークの第2の画像データの画像位置と同一の前記第1の画像データの画像位置に表示されるようにした。
 さらに、本発明の表示システムは、前記表示装置に表示されるポインタマークの画像位置が移動したときに、前記表示端末の表示する第1の画像データが変わるようにした。
 本発明は、使い勝手のよい表示システムを提供することである。
表示システム全体の構成図の例である。 表示装置の構成図である。 表示端末の構成図である。 表示端末において、表示画像とポインタマークを表示した例を示す。 表示装置の動作を示すフローチャートである。 表示端末のメイン動作に関するフローチャートである。 データ選択モードの動作を示すフローチャートである。 データ表示モードの動作を示すフローチャートである。 ポインタ表示モードの動作を示すフローチャートである。 表示端末と表示装置の表示画像の例を示した図である。 実施例2におけるポインタ表示モードの動作をフローチャートである。 実施例2における表示端末と表示装置の表示画像の例を示した図である。 実施例3におけるポインタ表示モードの動作をフローチャートである。 実施例3における表示端末と表示装置の表示画像の例を示した図である。 実施例4における表示装置の動作を示すフローチャートである。 実施例4における表示端末のメイン動作に関するフローチャートである。 実施例4におけるポインタ送信モードの動作を示すフローチャートである。 実施例4における表示端末と表示装置の表示画像の例を示した図である。 実施例5における表示端末と表示装置の表示画像の例を示した図である。 実施例6における表示端末と表示装置の表示画像の例を示した図である。 実施例7における表示端末と表示装置の表示画像の例を示した図である。
 以下、本発明の実施例を図面を用いて説明する。
 以下、本発明による表示システムの具体的な実施例を、図を用いて説明する。
  図1は、本発明による表示システム全体の構成図の例である。表示システム400は、ネットワーク300に接続された表示端末100A・100B・100C、及び表示装置200からなる。図1に示す表示システム400においては、表示端末100が3台、表示装置200が1台の場合を示しているが、これに限定されるものではなく、それぞれは1台以上であればよい。
 本表示システム400は、例えば会議や講義、発表会などに用いられるものである。表示装置200は、例えばプロジェクタなどの投射型表示装置であり、スクリーン252に大画面で表示画像251を投射表示するものである。これにより、参加者が同時に閲覧することができる。また、表示端末100は、表示部102を備えたものであり、該表示部102に表示画像151を表示する。これにより、使用者が個別に表示画像151を閲覧するものである。
 表示端末100、表示装置200は、それぞれネットワーク300に無線接続されている。ネットワーク300は、例えばLAN(Local Area Network)であり、ネットワーク300との通信は、IEEE802.11a/b/nなどの無線LANとなる。
 表示端末100Aは、表示システム400のホストとして使用され、その他の表示端末100B、100Cはクライアントとして使用される。ホストである表示端末100Aは、選択した表示データを画像データに変換し、自身の表示部102Aに表示画像151Aとして表示するとともに、ネットワーク300を介して表示装置200に画像データを送信する。
 表示装置200は、表示端末100Aよりネットワーク300を介して受信した画像データを表示画像251として表示する。ポインタ260は、例えばレーザーポインタであって、レーザー光線をスクリーン上に照射し、表示画像251の任意の位置を光学的に指し示すものである。発表者は、表示画像251に内容を説明する際に、ポインタ260を使用する。表示装置200はセンサ部(図示せず)を備えており、ポインタ260が指し示す位置(座標)を検出する機能を有する。ここで検出した座標を、以降ポインタ座標という。表示装置200は、表示画像251に重ねて、ポインタ座標に対応する位置にポインタマーク250を表示することにより、ポインタ260が指し示す位置を強調して表示することができる。さらに、ネットワーク300を介してポインタ座標を各表示端末100A・100B・100Cに送信する。
 上記の代わりに、表示装置200がポインタマーカの生成機能をもち、表示画像251にポインタマーカの表示をおこなうとともに、各表示端末100A・100B・100Cにポインタ座標を送信するようにしてもよい。
 また、表示端末100Aは、クライアントである表示端末100B、100Cに表示データを送信する。表示端末100B、100Cにおいては、受信した表示データを画像データに変換し、自身の表示部102B、102Cに表示画像151B、151Cとして表示する。これにより、表示装置200がスクリーン252に投射する表示画像251の内容を、表示端末の手元の表示部102B・102Cにて確認することができる。
 さらに、表示端末100においては、表示装置200よりポイント座標のデータを受信した場合、そのポインタ座標に対応する位置にポインタマーク150を表示画像151に重ねて表示する。これにより、ポインタ260が表示画像251上で指し示した位置を、手元の表示部102にて確認することができる。
 また、表示端末100は、縮小表示ボタン152、全体表示ボタン153、拡大表示ボタン154を備えている。拡大表示ボタン154を選択すると、表示画像151は画像データを拡大したものとなる。画像データを拡大した状態で、拡大表示ボタン154を選択すると、さらに拡大したものとなるように、拡大表示ボタン154を選択する度に、表示画像151の拡大率が大きくなっていくようにしてもよい。画像データを拡大した状態で、全体表示ボタン153を選択することで、いつでも画像データ全体を表示することができる。また、縮小表示ボタン152を選択すると、表示画像151は画像データを縮小したものとなる。縮小表示ボタン152を選択すると、さらに縮小したものとなるように、縮小表示ボタン152を選択する度に、表示画像151の拡大率が小さくなっていくようにしてもよい。
 表示画像251は、例えば200インチなどの大画面であるのに対して、表示端末100の表示部102の画面サイズは10インチなどの小画面である。よって、表示部102に画像データ全体を表示すると、小さくて詳細内容が分からない場合がある。このときは、拡大表示ボタン154を選択し拡大表示させることで詳細内容を確認することができる。しかし、拡大表示する場合は、表示部102に表示されるのは、画像データの一部となる。よって、拡大表示する際に、ユーザーの意図する部分が選択されて表示されるとは限らない。そこで、本発明の表示システムにおいては、ポインタマーク150が略中心なるように拡大表示するものである。以下に、各機器の構成、動作の詳細を説明する。
 図2は、表示装置200の構成図である。表示装置200は、制御部201、表示部202、センサ部203、メモリ204、操作部205、通信部206、接続部207、音声入力部208、音声出力部209からなり、それぞれは、システムバス220により相互接続されている。
 制御部201は、表示装置200全体を制御する、例えばマイクロプロセッサユニットである。システムバス220は制御部201と表示装置200内の各部との間でデータ送受信を行うためのデータ通信路である。表示部202は、例えば液晶プロジェクタなどであり、画像をスクリーン252に投射表示するものである。センサ部203は、例えばカメラなどであり、表示画像251を撮影し、制御部203にて、撮影した画像を画像処理することにより、ポインタ260が指し示した位置(座標)であるポインタ座標を検出するものである。
 メモリ204は、例えばフラッシュメモリのような書き換え可能なメモリである。メモリ204には、オペレーティングシステムや所定のアプリケーションプログラムなど、実施例の表示装置200の基本動作プログラムなどが格納されている。メモリ204に格納されたプログラムを更新することにより、基本動作プログラムのバージョンアップや機能拡張が可能であるものとする。また、データなどを記録することもできる。
 操作部205は、ユーザーからの各種操作を受け付けるものであり、電源ボタンなどの各種操作ボタンからなる。通信部206は、ネットワーク300と無線で接続するインターフェイスであり、上記したように無線LANである。接続部207は、例えば表示端末100など、他の機器と接続するインターフェイスであり、接続された他の機器とデータを送受信するものである。音声入力部208は、例えばマイクなどであり、音声信号を入力するものである。
 音声出力部209は、例えばスピーカなどであり、音声信号を出力するものである。通信部107より他の機器より受信した画像データをメモリ204に保存し、その画像データを制御部201において画像処理した後、表示部202より投射表示することにより、スクリーン252上に表示画像251が表示される。また、この時、音声信号を受信した場合は、制御部201にて音声処理され、音声出力部209より出力される。
 図3は表示端末100の構成図である。表示端末100は、制御部101、表示部102、メモリ103、操作部104、ストレージ105、カメラ106、通信部107、接続部108、音声入力部109、音声出力部110からなり、それぞれは、システムバス120により相互接続されている。
 制御部101は、表示端末100全体を制御する、例えばマイクロプロセッサユニットである。システムバス120は制御部101と表示端末100内の各部との間でデータ送受信を行うためのデータ通信路である。表示部102は、液晶や有機ELなどの表示デバイスである。メモリ103は、例えばフラッシュメモリのような書き換え可能なメモリである。メモリ204には、オペレーティングシステムや所定のアプリケーションプログラムなど、実施例の表示装置200の基本動作プログラムなどが格納されている。メモリ204に格納されたプログラムを更新することにより、基本動作プログラムのバージョンアップや機能拡張が可能であるものとする。また、データなどを記録することもできる。
 表示部102の表示面にはタッチパネルである操作部104を有する。操作部104は、指先、タッチペンなどでタッチすることで、その位置を検出し、制御部101に送るものである。例えば、操作コマンド一覧などのメニューを表示部102に表示させて、そこから、ユーザーが選択した操作コマンド部分を、タッチすると、その位置を検出することで、各種の操作コマンドを入力する。上記縮小表示ボタン152、全体表示ボタン153、拡大表示ボタン154は、表示部102にボタン形状を表示させ、そのボタン位置をタッチすることで、選択されるものである。
 ストレージ105は、メモリーカードなどの情報記憶媒体である。カメラ106は、静止画像、動画像を撮影するものであり、撮影した撮影データは、メモリ103あるいはストレージ105に保存される。通信部107は、ネットワーク300と無線で接続するインターフェイスである。接続部108は、他の機器と接続するインターフェイスであり、接続された他の機器とデータを送受信するものである。音声入力部109は、例えばマイクなどであり、音声信号を入力するものである。音声出力部110は、例えばスピーカなどであり、音声信号を出力するものである。
 ホストとなる表示端末100Aは、メモリ103Aあるいはストレージ105Aに保存されているデータより選択した表示データを、通信部107Aよりネットワーク300を介して、クライアントとなる表示端末100B、100Cに送信する。また、表示データを制御部101Aにて画像処理して画像データに変換し、自身の表示部102Aに表示画像151Aとして表示する。さらに、通信部107Aよりネットワーク300を介して表示装置200に画像データ送信する。このとき、表示データ、画像データをメモリ103Aに保存する。
 表示装置200においては、通信部206にて受信した画像データをメモリ204に保存し、制御部201にて画像処理した後、スクリーン252に投射して表示画像251を表示する。また、クライアントとなる表示端末100Bにおいては、通信部107Bにて受信した表示データを制御部101にて画像処理して画像データに変換し、表示部102Bに表示画像151Bとして表示する。このとき、表示データ、画像データはメモリ103Bに保存する。表示端末100Cにおいても、表示端末100Bと同様の動作をする。
 また、通信部107にて表示装置200からポインタ座標を受信した場合は、その対応する位置にポインタマーク150を重ねて表示する。この状態で、縮小表示ボタン152、拡大表示ボタン154が選択された場合は、ポインタマーク150の位置を略中心に拡大率を変化させて表示する。なお、ポインタ座標を受信した時に、ポインタマーク150を表示すると同時に、自動でポインタマーク150を略中心に拡大して表示させるようにしてもよい。このように、自動で拡大表示するモードを以降自動拡大モードという。表示端末100を自動拡大モードにするかは、表示部102にメニュー表示などしてユーザーがあらかじめ設定しておく。
 図4は表示端末100において、表示部102に表示画像152とポインタマーク150を表示した表示例を示す。図4(a)は、画像データ全体(拡大率=1)を表示した表示例、図4(b)は、画像データをポインタマーク150の位置を略中心に拡大表示した表示例である。これは、制御部101にて、表示データを拡大処理し、そのうち表示部102に表示可能な大きさで、ポインタ座標が略中心に切り出す画像処理を行った画像データを作成する。
 表示端末100は、その画像データを表示画像151として、表示部102に表示する。さらに、ポインタ座標に対応する位置にポインタマーク150を重ねて表示する。図4(a)の全体表示の状態で拡大表示ボタン154を選択すると、図4(b)のように、ポインタマーク150を略中心に拡大表示するように動作する。また、表示端末100が、自動拡大モードに設定されていた場合は、ポインタ座標を受信した時に、自動で図4(b)のように、ポインタマーク150を略中心とした拡大した表示画像152となる。
 また、図4(c)は、図4(b)の拡大表示した状態で、拡大率を維持したまま水平方向にスクロールしたものである。もちろん、さらに水平方向、あるいは垂直方向、斜め方向にスクロールすることもできる。図4(b)や図4(c)の拡大表示した状態で全体表示ボタン153を選択すると、図4(a)の全体表示状態になる。
 図5は、表示装置200の動作を示すフローチャートである。本処理は、電源ONより開始するものとする。他の機器(ここでは、表示端末100A)より、ネットワーク300を介して通信部206が画像データを受信したかを判定する(ステップS501)。画像データを受信できなかった場合は、後述するステップS504に進む。ステップS501にて画像データを受信できた場合は、その画像データをメモリ204に保存する(ステップS502)。
 その画像データを制御部201にて画像処理を行った後、表示部202にて表示画像251としてスクリーン251に投射表示する(ステップS503)。次に、センサ部203にて、ポインタ260がレーザーなどを照射して表示画像252上に指し示した位置(ポインタ座標)を検出する(ステップS504)。これは、例えばカメラなどで表示画像252を撮影する。その撮影した画像データをメモリ204に一時的に保存し、その画像データからポインタ260が出力するレーザーなどの特定の波長のみを抽出することで、ポインタ260が指し示した位置を検出できる。
 ポインタ位置を検出した場合は、そのポインタ座標を通信部206よりネットワーク300を介して、各表示端末100に送信する(ステップS505)。そして、ポインタ座標に対応する位置にポインタマーク250を表示画像252に重ねて表示する(ステップS506)。表示後は、ステップS501に戻り、本処理を繰り返す。また、ステップS504にて、ポインタ260の指し示す位置を検出できなかった場合も、ステップS501に戻り、本処理を繰り返す。
 図6は、表示端末100のメイン動作に関するフローチャートである。電源ONより開始するものとする。まず、データ選択モードかどうかを判定する(ステップS601)。これは、ホストとなる表示端末100Aにおいて、実行されるモードであり、ここで選択されたデータ(表示データという)が表示装置200にて表示される表示画像251のデータとなる。データ選択モードである場合は、データ選択モードのフローを行う(ステップS602)。データ選択モードの詳細については、後述する。なお、ステップS601にて、データ選択モードでないと判定された場合は、データ選択モードのフローを行わずに、ステップS603に進む。
 次に、通信部107が他の機器から表示データを受信したかどうかを判定する(ステップS603)。表示データを受信した場合は、データ表示モードのフローを行う(ステップS604)。データ表示モードの詳細については、後述する。なお、ステップS603にて、表示データを受信していないと判定された場合は、データ表示モードのフローを行わずに、ステップS605に進む。
 次に、通信部107が表示装置からポインタ座標のデータを受信したかどうかを判定する(ステップS605)。ポインタ座標のデータを受信した場合は、ポインタ表示モードのフローを行い(ステップS606)、最初のステップS601に戻る。ポインタ表示モードの詳細については、後述する。なお、ステップS605にて、ポインタ座標のデータを受信していないと判定された場合は、ポインタ表示モードのフローを行わずに、ステップS601に戻る。
 以下、データ選択モード(ステップS602)、データ表示モード(ステップS604)、ポインタ表示モード(ステップS606)の詳細な動作について説明する。
 図7は、データ選択モードの動作を示すフローチャートである。本処理は、上記したようにホストとなる表示端末100Aにて実行される動作である。
 最初に、表示装置200により投射表示を行うデータを選択する(ステップS601)。これは、メモリ103あるいはストレージ105に保存されているデータの一覧を表示部102に表示し(ステップS701)、そこから所望のデータ(表示データ)を選択する(ステップS702)。選択された表示データをメモリ103に保存する(ステップS703)。さらに、表示データを通信部107よりネットワーク300を介して、他の表示端末100に送信する(ステップS704)。
 次に、表示データを制御部101により画像処理し画像データに変換し(ステップS705)、画像データもメモリ103に保存する(ステップS706)。そして画像データを表示部102に表示するとともに(ステップS707)、通信部107よりネットワーク300を介して表示装置200に送信し(ステップS708)、図6のメイン動作のフローに戻る。
 上記ステップS704にて送信した表示データを受信した表示端末100は、図6に示すように、ステップS603からステップS604に進み、後述するデータ表示モードになる。また、上記ステップS708にて送信した画像データを受信した表示装置200は、図5に示すように、画像データをメモリ204に保存し(ステップS502)、表示画像251として投射表示する(ステップS503)。
 図8は、データ表示モードの動作を示すフローチャートである。本処理は、ホストとなる表示端末100Aが表示データを送信し(図7、ステップS704)、その表示データを受信したその他の表示端末100B、100Cが実行する処理である。
 ネットワーク300を介して通信部107にて表示データを受信した表示端末100は、制御部101にて画像処理し画像データに変換する(ステップS801)。変換した画像データはメモリ103に保存し(ステップS802)、表示部102に表示画像151として表示し(ステップS803)、図6のメイン動作のフローに戻る。
 図9は、ポインタ表示モードの動作を示すフローチャートである。本処理は、上記したように表示装置200より送信されたポインタ座標のデータを受信したときに実行される動作である。
 ネットワーク300を介してポインタ座標のデータを通信部107にて受信した場合は、そのポインタ座標のデータをメモリ103に保存する(ステップS901)。そして、表示端末100が自動拡大モードに設定されているか判別する(ステップS902)。自動拡大モードに設定されている場合は、現在表示部102に表示されている表示画像151が拡大表示されている状態かを判別する(ステップS903)。
 ステップS902において拡大表示でないと判別された場合(例えば通常表示の場合)、制御部101にて表示データを画像処理して、拡大した画像データを作成し、表示部102に拡大した表示画像151を表示する(ステップS904)。このとき、ポインタ座標が略中心になるように拡大処理を行う。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS905)、図6のメイン動作のフローに戻る。
 ステップS902にて、表示端末100が自動拡大モードに設定されていないと判別された場合は、ステップS902からステップS905に進み、ポインタ座標の位置にポインタマーク150を重ねて表示し、図6のメイン動作のフローに戻る。
 ステップS903にて拡大表中されている状態であると判定された場合は、制御部101にて表示データより、現在の拡大率を維持して、ポインタ座標が略中心になるような画像データを作成し、表示部102に表示する(ステップS906)。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS905)、図6のメイン動作のフローに戻る。
 図10(a)に示すように、表示装置200が表示画像251を投射表示し(図5、ステップS503)、ポインタ260で指し示した位置を検出して(図5、ステップS504)、その指し示した位置にポインタマーク250を表示画像251に重ねて表示する(図5、ステップS506)。この時の表示端末100の表示例を図10(b)、(c)に示す。図10(b)は表示端末100が自動拡大モードに設定されている場合、図10(c)は自動拡大モードに設定されていない場合の表示例である。
 表示端末100が自動拡大モードに設定されている場合は、図10(b)に示すように、ポインタ座標の位置を略中心に拡大表示した表示画像151を表示し(図9、ステップS904)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図9、ステップS905)。
 表示端末100が自動拡大モードに設定されていない場合は、図10(c)に示すように、ホストとなる表示端末100Aより受信した表示データを変換し(図8、ステップS801)、その変換した画像データを表示画像151として表示し(図8、ステップS803)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図9、ステップS905)。
 図10(d)は、図10(a)から、ポインタ260の指し示す位置が変更された場合の表示例である。図10(d)に示すように、変更後のポインタ260で指し示した位置にポインタマーク250を表示画像251に重ねて表示している。この時の表示端末100の表示例を図10(e)、(f)に示す。
 図10(e)は表示端末100が自動拡大モードに設定されている場合、図10(f)は自動拡大モードに設定されていない場合の表示例である。表示端末100が自動拡大モードに設定されている場合は、既に拡大表示されているので、図10(e)に示すように、拡大率を維持した状態で、ポインタ座標の位置を略中心になるように画像データを作成し表示する(図9、ステップS906)。さらに、ポインタ座標の位置にポインタマーク150を重ねて表示する(図9、ステップS905)。
 表示端末100が自動拡大モードに設定されていない場合は、図10(f)に示すように、ポインタマーク150をポインタ座標の位置に変更して表示する(図9、ステップS905)。
 図10(b)、(e)に示すような表示画像151が拡大表示されている状態で、全体表示ボタン153を選択すると、図10(c)、(f)に示すように表示データの全体が表示された状態にすることができる。また、図10(c)、(f)に示すような表示画像151が表示データの全体が表示された状態で、拡大表示ボタン154を選択すると、図10(b)、(e)に示すように、ポインタ座標を中心に拡大された状態にすることができる。
 以上により、表示装置200が投射表示する表示画像251にポインタマーク250を重ねて表示することで、ポインタ260で指し示した位置を強調して示すことがでる。さらに、その位置(ポインタ座標)を表示端末100に送信し、表示端末100の表示画面151上においてもポインタマーク150を表示するので、表示端末100においても、ポインタ260が指し示している位置を確認することができる。
 また、表示画像251に比べて小さな画面の表示端末100においては、表示データを部分的に拡大処理して表示することができるため、表示内容の細かい部分まで確認することが可能となる。さらには、ポインタ座標位置を略中心に拡大表示するため、表示端末100のユーザーが意図する部分が常に表示部102に表示されるため、面倒な操作をすることなく、表示内容の細かい部分を確認することが可能となる。
 次に、本発明の実施例2における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1と同じであるため説明は省略する。また、表示端末100、表示装置200の動作において、実施例1との相違する点は、表示端末100のポインタ表示モードの動作である。したがって、本実施例においては、表示端末100のポインタ表示モードについて説明する。
 図11は、ポインタ表示モードの動作をフローチャートである。本処理は、表示装置200より送信されたポインタ座標のデータを受信したときに実行される動作である。
 ネットワーク300を介してポインタ座標のデータを通信部107にて受信した場合は、そのポインタ座標のデータをメモリ103に保存する(ステップS1101)。そして、表示端末100が自動拡大モードに設定されているか判別する(ステップS1102)。自動拡大モードに設定されている場合は、現在表示部102に表示されている表示画像151が拡大表示されている状態かを判別する(ステップS1103)。
 ステップS1103において拡大表示と判別された場合(例えば通常表示の場合)、制御部101にて表示データを画像処理して、拡大した画像データを作成し、表示部102に拡大した表示画像151を表示する(ステップS1104)。このとき、ポインタ座標が略中心になるように拡大処理を行う。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1105)、メイン動作のフローに戻る。
 ステップS1102にて、自動拡大モードに設定されていないと判別されたときは、ポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1105)、メイン動作のフローに戻る。
 ステップS1103にて、拡大表示されている状態であると判別された場合は、受信したポインタ座標が現在表示している表示画像151の表示領域に入っているかを判別する(ステップ1106)。ポインタ座標が表示領域に入っていると判別された場合は、表示画像151は変更せずに、ポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1105)、メイン動作のフローに戻る。
 ステップS1106にて、ポインタ座標が表示領域に入っていないと判別された場合は、制御部101にて表示データより、現在の拡大率を維持して、ポインタ座標が略中心になるような画像データを再作成し、表示部102に表示する(ステップS1107)。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1105)、メイン動作のフローに戻る。
 図12は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図12(a)は表示装置200の表示例であり、実施例1の図10(a)と同様であるため説明は省略する。この時の表示端末100の表示例を図12(b)に示す。図12(b)は実施例1の表示端末100と同様にポインタ座標の位置を略中心に拡大表示した表示画像151を表示し(図11、ステップS1104)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図11、ステップS1105)。
 図12(c)は、図12(a)から、ポインタ260の指し示す位置が変更された場合の表示例である。図12(c)に示すように、変更後のポインタ260で指し示した位置にポインタマーク250を表示画像251に重ねて表示している。このように、ポインタ座標の変更量が小さく、変更後のポインタ座標が現在表示中の表示画像151(図12(b))の表示領域に入っている場合は、図12(d)に示すように、表示画像151は変更せずに、変更後のポインタ座標の位置にポインタマーク150を重ねて表示している(図11、ステップS1106-ステップS1105)。
 図12(e)は、図12(c)から、さらにポインタ260の指し示す位置が変更された場合の表示例である。図12(e)に示すように、変更後のポインタ260で指し示した位置にポインタマーク250を表示画像251に重ねて表示している。このように、ポインタ座標の変更量が大きく、変更後のポインタ座標が現在表示中の表示画像151(図12(b))の表示領域に入っていない場合は、図12(f)に示すように、ポインタ座標が略中心になるような画像データを再作成して表示画像151とし(図11、ステップS1107)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図11、ステップS1105)。
 以上、実施例2においては、実施例1と同等の効果を得ることができる。さらに、表示端末においては、拡大表示時にポインタ座標が表示領域内の場合は、表示画像151が変わらないため、表示画像151が変化する頻度を低くすることができるため、表示データの内容の確認しやすさが向上する効果を得ることができる。
 次に、本発明の実施例3における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1、2と同じであるため説明は省略する。また、表示端末100、表示装置200の動作において、実施例1、2との相違する点は、表示端末100のポインタ表示モードの動作である。したがって、本実施例においては、表示端末100のポインタ表示モードについて説明する。
 図13は、ポインタ表示モードの動作をフローチャートである。本処理は、表示装置200より送信されたポインタ座標のデータを受信したときに実行される動作である。
 ネットワーク300を介してポインタ座標のデータを通信部107にて受信した場合は、そのポインタ座標のデータをメモリ103に保存する(ステップS1301)。そして、表示端末100が自動拡大モードに設定されているか判別する(ステップS1302)。自動拡大モードに設定されている場合は、現在表示部102に表示されている表示画像151が拡大表示されている状態かを判別する(ステップS1303)。
 ステップS1303において拡大表示と判別された場合(例えば通常表示の場合)、制御部101にて表示データを画像処理して、拡大した画像データを作成し、表示部102に拡大した表示画像151を表示する(ステップS1304)。このとき、ポインタ座標が略中心になるように拡大処理を行う。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1305)、メイン動作のフローに戻る。
 ステップS1302にて、自動拡大モードに設定されていないと判別されたときは、ポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1305)、メイン動作のフローに戻る。
 ステップS1303にて、拡大表示されている状態であると判別された場合は、受信したポインタ座標が現在表示している表示画像151の表示領域に入っているかを判別する(ステップ1306)。ポインタ座標が表示領域に入っていると判別された場合は、表示画像151は変更せずに、ポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1305)、メイン動作のフローに戻る。
 ステップS1306にて、ポインタ座標が表示領域に入っていないと判別された場合は、領域外であることを示す領域外マークを表示画像に重ねて表示する(ステップS1307)。次に領域外マークが選択されたかを判別する(ステップS1308)。領域外マークが選択されたと判別された場合は、制御部101にて表示データより、現在の拡大率を維持して、ポインタ座標が略中心になるような画像データを再作成し、表示部102に表示する(ステップS1309)。そしてポインタ座標の位置にポインタマーク150を重ねて表示し(ステップS1305)、メイン動作のフローに戻る。
 ステップ1308にて、領域外マークが選択されなかった場合は、ポインタマーク150を消去し(ステップS1310)、メイン動作のフローに戻る。
 図14は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図14(a)は表示装置200の表示例であり、実施例1の図10(a)と同様であるため説明は省略する。この時の表示端末100の表示例を図14(b)に示す。図14(b)は実施例1の表示端末100と同様にポインタ座標の位置を略中心に拡大表示した表示画像151を表示し(図13、ステップS1304)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図13、ステップS1305)。
 図14(c)は、図14(a)から、ポインタ260の指し示す位置が変更された場合の表示例である。図14(c)に示すように、実施例2の図12(c)と同様であるため説明は省略する。このように、ポインタ座標の変更量が小さく、変更後のポインタ座標が現在表示中の表示画像151(図14(b))の表示領域に入っている場合は、図14(d)に示すように、表示画像151は変更せずに、変更後のポインタ座標の位置にポインタマーク150を重ねて表示している(図13、ステップS1306-ステップS1305)。
 図14(e)は、図14(c)から、さらにポインタ260の指し示す位置が変更された場合の表示例である。図14(e)に示すように、実施例2の図12(e)と同様であるため説明は省略する。このように、ポインタ座標の変更量が大きく、変更後のポインタ座標が現在表示中の表示画像151(図14(b))の表示領域に入っていない場合は、図14(f)に示すように、表示画像151は変更せずに、領域外マーク155を表示し(図13、ステップ1307)、ポインタマーク150を消去する(図13、ステップS1309)。
 この状態で、領域外マーク155を選択すると、ポインタ座標が略中心になるような画像データを再作成して表示画像151とし(図13、ステップS1310)、ポインタ座標の位置にポインタマーク150を重ねて表示している(図13、ステップS1305)。
 以上、実施例3においては、実施例1、実施例2と同等の効果を得ることができる。さらに、表示端末においては、拡大表示時にポインタ座標が表示領域内の場合は、表示画像151が変わらない。
 また、ポインタ座標が表示領域外になっても、ユーザーが領域外マーク155を選択しない限り、表示画像151が変更されない。よって、表示画像151が変更されるのは、ユーザーの意図するタイミングであるため、表示データの内容の確認しやすさが向上する効果を得ることができる。
 また、領域外マーク155を選択するだけで、ポインタ座標150を略中心とした表示画像151に変更されるため、使い勝手が実施例1や実施例に2に対して劣ることはない。
 次に、本発明の実施例4における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1乃至実施例3と同じであるため説明は省略する。
 図15は、表示装置200の動作を示すフローチャートである。本処理は、電源ONより開始するものとする。他の機器(ここでは、表示端末100A)より、ネットワーク300を介して通信部206が画像データを受信したかを判定する(ステップS1501)。画像データを受信できなかった場合は、後述するステップS1504に進む。ステップS1501にて画像データを受信できた場合は、その画像データをメモリ204に保存する(ステップS1502)。その画像データを制御部201にて画像処理を行った後、表示部202にて表示画像251としてスクリーン251に投射表示する(ステップS1503)。
 次に、センサ部203にて、ポインタ260がレーザーなどを照射して表示画像252上に指し示した位置(ポインタ座標)を検出する(ステップS1504)。ポインタ位置を検出した場合は、そのポインタ座標を通信部206よりネットワーク300を介して、各表示端末100に送信する(ステップS1505)。そして、ポインタ座標に対応する位置にポインタマーク250を表示画像252に重ねて表示する(ステップS1506)。表示後は、ステップS1501に戻り、本処理を繰り返す。ここまでは、実施例1と同じ動作である。
 ステップS1504にて、ポインタ260の指し示す位置を検出できなかった場合は、ポインタ座標のデータが表示端末100より受信したかを判別する。ポインタ座標を受信した場合は、ポインタ座標に対応する位置にポインタマーク250を表示画像252に重ねて表示し、(ステップS1506)、ステップS1501に戻り、本処理を繰り返す。また、ステップS1507にてポインタ座標を受信できなかったと判別された場合は、ステップS1501に戻り、本処理を繰り返す。
 図16は、表示端末100のメイン動作に関するフローチャートである。電源ONより開始するものとする。まず、データ選択モードかどうかを判定する(ステップS1601)。データ選択モードである場合は、データ選択モードのフローを行う(ステップS1602)。ステップS1601にて、データ選択モードでないと判定された場合は、ステップS1603に進む。
 次に、通信部107が他の機器から表示データを受信したかどうかを判定する(ステップS1603)。表示データを受信した場合は、データ表示モードのフローを行う(ステップS1604)。ステップS1603にて、表示データを受信していないと判定された場合は、ステップS1605に進む。
 次に、通信部107が他の機器からポインタ座標のデータを受信したかどうかを判定する(ステップS1605)。ポインタ座標のデータを受信した場合は、ポインタ表示モードのフローを行う(ステップS1606)。ステップS1605にて、ポインタ座標のデータを受信していないと判定された場合は、ステップS16071に進む。上記データ選択モード、データ表示モード、ポインタ表示モードの動作については、実施例1、実施例2、あるいは実施例3と同じであるため、詳細な説明は省略する。
 次に、表示端末100が、ポインタ送信モードになっているかを判別する(ステップS1607)。これは、表示部102にポインタ送信モードボタン156を表示し、それを選択するとポインタ送信モードになる。ポインタ送信モードであると判別された場合は、ポインタ送信モードののフローを行い(ステップS1608)、最初のステップS1601に戻る。
 以下、ポインタ送信モード(ステップS1608)の詳細な動作について説明する。
  図17は、ポインタ送信モードの動作を示すフローチャートである。
 最初に、操作部104よりタッチペン160による選択が検出できたかを判別する(ステップS1701)。検出できなかった場合は、ステップS1701を繰り返す。タッチペン160の選択が検出できた場合は、制御部101にて、タッチペン160が選択した位置座標を算出する(ステップS1702)。タッチペン160が選択した位置座標と、表示画像151の拡大率、表示領域等から、画像データ上での位置座標であるポインタ座標を算出し(ステップS1703)、メモリ103に保存する(ステップS1704)。
 そして、表示画像151上のポインタ座標の位置にポインタマーク150を重ねて表示する(ステップS1705)。次に、ポインタ座標のデータを通信部107より他の機器に送信し(ステップS1706)、図16のメイン動作のフローに戻る。
 図18は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図18(a)に示すように、表示部102の所定位置にポインタ送信モードボタン156を表示し、ポインタ送信モードボタン156を選択したときに、表示端末100は図17のポインタ送信モードの動作を行う。以下に詳細を説明する。
 図18(a)に示すように、表示部102の任意の位置をタッチペン160で選択すると(図17、ステップS1701)、その位置を操作部104が検出し、表示画面151上での位置座標を算出する(ステップS1702)。このとき、表示画面151が拡大表示されている場合は、その表示画面151の拡大率、表示位置より、表示データ上での位置座標であるポインタ座標を算出し(図17、ステップS1703)、そのポインタ座標位置にポインタマーク150を表示している(図17、ステップS1705)。
 図18(b)は表示装置200が投射表示している表示画像251の表示例である。表示端末100より受信したポインタ座標位置に、ポインタマーク250を表示画像251に重ねて表示している(図15、S1506)。図18(c)(d)は、図18(a)のタッチペン160で選択した表示端末100以外の表示端末100の表示例である。図18(c)は表示画像151が全体表示の場合にポインタマーク150を表示した例、図18(d)は表示画像151が拡大表示の場合にポインタマーク150を表示した例である。
 図に示すように、表示装置200より送信されたポインタ座標によるポインタマーク150、250と形状を異ならせると、表示されているポインタマーク150、250が、表示装置200より送信されたポインタ座標によるものか表示装置100より送信されたポインタ座標によるものかを区別することができる。また、表示端末100ごとにポインタマーク150、250の形状を異ならせてもよい。このときは、どの表示端末100よ送信されたポインタ座標であるかを区別できる。
 以上、実施例4においては、実施例1乃至実施例3と同等の効果を得ることができる。さらに、1台の表示端末100においては、タッチペン160で指し示した位置が、表示装置200や他の表示端末100において確認できるため、さらに使い勝手の良い表示システムが実現できる。
 次に、本発明の実施例5における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1乃至実施例4と同じであるため説明は省略する。
 図19は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図19(a)に示すように、表示装置200が投射表示している表示画像251上を、ポインタ260で指し示しながら移動させた場合、ポインタマーク250を表示するとともに、ポインタマーク軌跡257を合わせて表示させたものである。これは、現在のポインタ座標と前回のポインタ座標を線分で結ぶことでポインタマーク軌跡257を表示することができる。
 この時の表示端末100における表示画像151の表示例を図19(b)(c)に示す。図19(b)は表示画像151が全体表示の場合であり、図19(c)は表示画像151が拡大表示の場合である。表示端末100においても表示装置200と同様に、ポインタマーク150を表示するとともに、ポインタマーク軌跡157を合わせて表示させている。ポインタマーク軌跡157は、現在のポインタ座標と前回のポインタ座標を線分で結ぶことで表示している。
 表示端末100が自動拡大モードに設定されている場合は、図19(c)に示すように、ポインタマーク軌跡157の略中心が表示画像の中心になるように拡大表示するように制御する。なお、図示していないがポインタマーク150の位置を略中心になるように拡大表示させてもよい。
 また、上記の説明においては、ポインタマーク軌跡157を表示端末100において作成しているが、これに限定されるものではなく、表示装置200において、ポインタマーク軌跡257のデータを作成し、そのデータを表示端末100に送信し、そのポインタマーク軌跡データによって、ポインタマーク軌跡157を表示させてもよい。
 以上、実施例5においては、実施例1乃至実施例4と同等の効果を得ることができる。さらに、ポインタ260の指し示した位置の軌跡が表示装置や全ての表示端末にて確認できるため、さらに使い勝手の良い表示システムが実現できる。
 次に、本発明の実施例6における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1乃至実施例5と同じであるため説明は省略する。
 図20は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図20(a)に示すように、表示端末100の表示画像151上を、タッチペン160で選択しながら移動させた場合、ポインタマーク150を表示するとともに、ポインタマーク軌跡157を合わせて表示させたものである。
 これは、実施例5と同様に、現在のポインタ座標と前回のポインタ座標を線分で結ぶことでポインタマーク軌跡157を表示することができる。この時の表示装置200における表示画像251の表示例を図20(b)に示す。
 図に示すように、表示装置200が投射表示している表示画像251上においても、ポインタマーク250を表示するとともに、ポインタマーク軌跡257を合わせて表示させたものである。ポインタマーク軌跡257も同様に、現在のポインタ座標と前回のポインタ座標を線分で結ぶことで表示することができる。
 他の表示端末100における表示画像151の表示例を図20(c)(d)(e)に示す。全ても表示端末100において、ポインタマーク150を表示するとともに、ポインタマーク軌跡157を合わせて表示させている。図20(c)は、表示画像151が全体表示の場合であり、図20(d)(e)は、表示画像151が拡大表示の場合である。図20(d)に示すように、タッチペン160で操作した表示端末100(図20(a))と同じ表示領域で表示させている。
 これは、表示端末100において、ポインタ座標のデータを送信する際に、拡大率や表示位置のデータも合わせて他の機器に送信することで実現できる。前記データを受信した表示装置100は、受信した拡大率や表示位置のデータにより表示画像151を決定すればよい。
 また、図20(e)に示すように、ポインタマーク軌跡157の略中心が表示画像の中心になるように拡大表示するようにしてもよい。なお、図示していないがポインタマーク150の位置を略中心になるように拡大表示させてもよい。
 また、上記の説明においては、ポインタマーク軌跡257を表示装置200において作成しているが、これに限定されるものではなく、タッチペン160で操作している表示端末100において、ポインタマーク軌跡157のデータを作成し、そのデータを表示装置200に送信し、そのポインタマーク軌跡データによって、ポインタマーク軌跡257を表示させてもよい。
 同様に、タッチペン160で操作している表示端末100以外の表示端末100においても、ポインタマーク軌跡データを受信して、ポインタマーク軌跡157を表示させてもよい。
 また、実施例4と同様に、表示装置200より送信されたポインタ座標によるポインタマーク150、250と形状を異ならせると、表示されているポインタマーク150、250が、表示装置200より送信されたポインタ座標によるものか表示装置100より送信されたポインタ座標によるものかを区別することができる。
 さらに、実施例4と同様に、表示端末100ごとにポインタマーク150、250の形状を異ならせてもよい。このときは、どの表示端末100よ送信されたポインタ座標であるかを区別できる。
 以上、実施例6においては、実施例1乃至実施例5と同等の効果を得ることができる。さらに、タッチペン160の操作した軌跡が表示装置や全ての表示端末にて確認できるため、さたに使い勝手の良い表示システムが実現できる。
 次に、本発明の実施例7における表示システム400について説明する。表示端末100、表示装置200などのハードウェア構成については、実施例1乃至実施例5と同じであるため説明は省略する。
 図21は、表示端末100と表示装置200の表示画像151、251の例を示した図である。図21(a)に示すように、表示装置200の表示画像251が拡大表示されている。これは、表示装置200の操作部205によりユーザーが操作し、制御部201が画像データを拡大処理し、表示部202より投射表示したものである。
 このとき、表示装置200は、表示端末100に拡大率や表示位置のデータを通信部206より送信する。この時の表示端末100は、図21(b)に示すように、表示画像251と同じように拡大表示された表示画像151が表示されている。これは、制御部101において、表示データおよび前記表示装置200より受信した拡大率や表示位置のデータを用いて、表示画像251とほぼ同じ表示画像151となるように、拡大処理した画像データを作成し、表示部102に表示画像151として表示させている。
 また、図21(c)に示すように、拡大表示している表示画像251上にポインタ260で指し示した場合においても、同様にポインタマーク250を表示するようにしている。このとき、表示端末100においての、図21(d)に示すように、ポインタマーク150が表示される。
 以上のように、表示端末100、表示装置200において、拡大率や表示位置のデータを送受信して共有することで、表示装置200において表示画像251を拡大表示した場合においても対応が可能となる。
 なお、上記の説明においては、表示装置200の操作部205にて操作することにより、表示画像251が拡大表示されているが、これに限定されるものではない。例えば、表示端末100から拡大表示命令を表示装置200に送信して、表示画像251を拡大表示してもよい。
 以上、実施例7においては、実施例1乃至実施例6と同等の効果を得ることができる。さらに、表示装置200において、表示画像251を拡大表示した場合、表示端末100でも同様に拡大表示されるため、さらに使い勝手の良い表示システムが実現できる。
 なお、上記実施例1乃至実施例7の表示システム400においては、ネットワーク300との通信を無線LANの場合で説明したが、これに限定されるものではない。例えば、図示しない基地局を介して、W-CDAM(Wideband Code Division Multiple Access)やGSM(登録商標)(Global System for Mobile Communications)などの通信方式によるの通信を行ってもよい。
 この場合は、基地局との通信可能範囲であれば、遠隔地においても、表示装置200が使用されている会議などに参加することができる。このときは、表示装置200の音声入力部208から入力される音声信号を、各表示端末100に送信し、表示端末100の音声出力部110から出力するとよい。もちろん、Bluetooth(登録商標)や、有線LANによる通信でもよい。
 また、ホストとなる表示端末100Aと表示装置200は、ネットワーク300を介して画像データを送受信しているが、これに限定されるものではない。例えば、表示端末100Aの接続部108Aと、表示装置200の接続部207を接続ケーブル(図示せず)で接続し、接続ケーブルを介して画像データを送受信してもよい。
 また、上記接続ケーブルで優先接続する場合は、通信部206がなくてもよい。このときは、接続ケーブルを介してポインタ座標のデータを表示端末100Aに送信し、表示端末100Aが、他の表示端末100B、100Cにポインタ座標のデータを送信すればよい。
 また、上記説明においては、ポインタ260の指し示している位置を検出するセンサ部を表示装置200に備えているが、これに限定されるものではなく、表示装置200とは別に設けてもよい。
 また、上記説明においては、表示装置200の表示部202はプロジェクタであるが、これに限定されるものではなく、例えば、液晶パネルやプラズマディスプレイパネル、有機ELなどでもよい。
 また、上記説明においては、ポインタ260はレーザーポインタのように、離れた位置から光学的に照射して任意の位置を指し示しているが、これに限定されるものではなく、例えば指し棒やタッチペンなどでもよい。
 また、上記説明においては、センサ部203は、カメラなどのように表示画像を撮影し、ポインタ座標を検出しているが、これに限定されるものではない。例えばポインタ260が超音波や赤外線などの信号を出力し、それを複数個所で受信し、センサ部とポインタ260の距離を算出することによって、ポインタ260が指し示した位置を検出してもよい。
 また、センサ部203は、タッチパネルなど表示画像251上への直接の接触を検出するものでもよい。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、上記の各構成、機能等は、マイクロプロセッサユニットがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラムは、予めメモリやストレージ等に格納されていても良いし、外部アプリケーションサーバからダウンロードすることによりメモリやストレージ等に後から格納しても良い。
 100…表示端末、102…表示部、150…ポインタマーク、151…表示画像、
 157…ポインタマーク軌跡、160…タッチペン、200…表示装置、
 250…ポインタマーク、251…表示画像、257…ポインタマーク軌跡、
 260…ポインタ、300…ネットワーク、400…表示システム

Claims (19)

  1. 第1の画像データを表示する表示端末と前記表示端末に連動して第2の画像データを表示する表示装置を含む表示システムであって、
    前記第1の画像データの表示内容は、前記第2の画像データの表示内容の一部領域の内容をもち、
    前記表示端末のポインタマークが、前記表示装置に表示されるポインタマークの第2の画像データの画像位置と同一の前記第1の画像データの画像位置に表示されることを特徴とする表示システム。
  2. 請求項1に記載の表示システムであって、
    前記表示装置に表示されるポインタマークの画像位置が移動したときに、前記表示端末の表示する第1の画像データが変わることを特徴とする表示システム。
  3.  表示端末と表示装置による表示システムであって、
     前記表示端末は、所定の画像データを表示し、
     前記表示端末は、前記画像データを前記表示装置に送信し、
     前記表示装置は、受信した画像データを表示し、
     前記表示装置は、ポインタによって表示した画像上に指し示した位置座標を検出し、
     前記表示装置は、前記検出した位置座標に対応する位置に所定のポインタマークを表示し、
     前記表示装置は、前記検出した位置座標を前記表示端末に送信し、
     前記表示端末は、前記位置座標に対応する位置に所定のポインタマークを表示する
    ことを特徴とする表示システム。
  4.  請求項3に記載の表示システムであって、
     前記表示端末は、拡大表示することを特徴とする表示システム。
  5.  請求項3または請求項4に記載の表示システムであって、
     前記表示端末は、受信した位置座標を略中心に拡大表示することを特徴とする表示システム。
  6.  請求項3乃至請求項5に記載の表示システムであって、
     前記表示端末は、常に受信した位置座標が略中心になるように拡大表示することを特徴とする表示システム。
  7.  請求項3乃至請求項5に記載の表示システムてあって、
     前記表示端末は、受信した位置座標が、表示部で表示されている表示画像の領域外の場合、受信した位置座標が略中心になるように拡大表示することを特徴とする表示システム。
  8.  請求項3乃至請求項5に記載の表示システムであって、
     前記表示端末は、受信した位置座標が、表示部で表示されている表示画像の領域外の場合、所定のマークを表示することを特徴とする表示システム。
  9.  請求項8に記載の表示システムにおいて、
     前記表示端末は、所定の操作を行うことにより、受信した位置座標が略中心になるように拡大表示することを特徴とする表示システム。
  10.  制御部と表示部と通信部を備えた表示端末であって、
     表示部に表示画像を表示し、
     受信した位置座標に対応する位置に所定のポインタマークを表示することを特徴とする表示端末。
  11.  請求項10に記載の表示端末であって、
     表示画像を拡大表示することを特徴とする表示端末。
  12.  請求項10または請求項11に記載の表示端末であって、
     受信した位置座標を略中心に拡大表示することを特徴とする表示端末。
  13.  請求項10乃至請求項11に記載の表示端末であって、
     常に受信した位置座標が略中心になるように拡大表示することを特徴とする表示端末。
  14.  請求項10乃至請求項12に記載の表示端末であって、
     受信した位置座標が、表示部で表示されている表示画像の領域外の場合、受信した位置座標が略中心になるように拡大表示することを特徴とする表示端末。
  15.  請求項10乃至請求項12に記載の表示端末であって、
     受信した位置座標が、表示部で表示されている表示画像の領域外の場合、所定のマークを表示する表示端末。
  16.  請求項15に記載の表示端末であって、
     所定の操作を行うことにより、受信した位置座標が略中心になるように拡大表示することを特徴とする表示端末。
  17.  制御部と表示部と通信部とセンサ部を備えた表示装置であって、
     表示部は、画像データを表示し、
     センサ部は、ポインタによって表示した画像上に指し示した位置座標を検出し、
     検出した位置座標を通信部より送信し、
     上記位置座標に所定のポインタマークを表示することを特徴とする表示装置。
  18.  表示端末の表示方法であって、
     表示部に表示画像を表示する工程と、
     受信した位置座標に対応する位置に所定のポインタマークを表示する工程と、
     受信した位置座標を略中心に拡大表示する工程を含むことを特徴とする表示端末の表示方法。
  19.  表示端末で実行可能な制御プログラムであって、
     表示部に表示画像を表示し、
     受信した位置座標に対応する位置に所定のポインタマークを表示し、
     受信した位置座標を略中心に拡大表示することを特徴とする表示端末の制御プログラム。
PCT/JP2012/066639 2012-06-29 2012-06-29 表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム WO2014002241A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US14/406,897 US9652824B2 (en) 2012-06-29 2012-06-29 Display system, display device, display terminal, display method of display terminal, and control program
JP2014522316A JP6014137B2 (ja) 2012-06-29 2012-06-29 表示システムおよび表示端末
CN201280073862.6A CN104364746B (zh) 2012-06-29 2012-06-29 显示系统、显示装置、显示终端、显示终端的显示方法
PCT/JP2012/066639 WO2014002241A1 (ja) 2012-06-29 2012-06-29 表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム
CN201710594886.0A CN107256405B (zh) 2012-06-29 2012-06-29 显示系统和显示终端
US15/497,298 US10295896B2 (en) 2012-06-29 2017-04-26 Display system, display device, display terminal, display method of display terminal, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/066639 WO2014002241A1 (ja) 2012-06-29 2012-06-29 表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/406,897 A-371-Of-International US9652824B2 (en) 2012-06-29 2012-06-29 Display system, display device, display terminal, display method of display terminal, and control program
US15/497,298 Continuation US10295896B2 (en) 2012-06-29 2017-04-26 Display system, display device, display terminal, display method of display terminal, and control program

Publications (1)

Publication Number Publication Date
WO2014002241A1 true WO2014002241A1 (ja) 2014-01-03

Family

ID=49782470

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066639 WO2014002241A1 (ja) 2012-06-29 2012-06-29 表示システム、表示装置、表示端末、表示端末の表示方法及び制御プログラム

Country Status (4)

Country Link
US (2) US9652824B2 (ja)
JP (1) JP6014137B2 (ja)
CN (2) CN104364746B (ja)
WO (1) WO2014002241A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9851817B2 (en) * 2014-06-23 2017-12-26 Lg Display Co., Ltd. Optical touch display device and driving method thereof
JP6721951B2 (ja) 2015-07-03 2020-07-15 シャープ株式会社 画像表示装置、画像表示制御方法、および、画像表示システム
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
TWI672057B (zh) * 2017-05-02 2019-09-11 比利時商巴可公司 簡報伺服器、資料中繼方法以及產生虛擬指標之方法
JP6275312B1 (ja) * 2017-06-02 2018-02-07 キヤノン株式会社 投写装置およびその制御方法、プログラム
JP7069922B2 (ja) * 2018-03-26 2022-05-18 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2020008750A (ja) * 2018-07-10 2020-01-16 セイコーエプソン株式会社 表示装置および表示処理方法
CN109171637A (zh) * 2018-09-30 2019-01-11 苏州安视沛清科技有限公司 视力检测方法、装置、计算机存储介质及计算机设备
CN111203862B (zh) * 2020-01-07 2021-03-23 上海高仙自动化科技发展有限公司 数据的显示方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196739A (ja) * 2000-12-27 2002-07-12 Fuji Xerox Co Ltd 画像表示システム
JP2007193403A (ja) * 2006-01-17 2007-08-02 Hitachi Ltd ポインティングデバイス、ポインタ指示位置制御方法およびディスプレイシステム
JP2009163142A (ja) * 2008-01-09 2009-07-23 Fujitsu Ltd 情報処理装置、情報処理システム、コンピュータプログラム、及び情報処理方法
JP2011133541A (ja) * 2009-12-22 2011-07-07 Nec Casio Mobile Communications Ltd 表示制御装置及び表示制御システム並びにプログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58223016A (ja) * 1982-06-19 1983-12-24 Mitsubishi Electric Corp 走行軌跡表示装置
JPH0262596A (ja) * 1988-08-29 1990-03-02 Nippon Telegr & Teleph Corp <Ntt> 遠隔カーソル検出合成装置
US6417866B1 (en) * 1997-02-26 2002-07-09 Ati Technologies, Inc. Method and apparatus for image display processing that reduces CPU image scaling processing
JP4054487B2 (ja) * 1998-07-28 2008-02-27 キヤノン株式会社 ポインタマーク表示制御装置、表示制御方法、表示制御システム、及び記憶媒体
JP4132002B2 (ja) * 1999-03-16 2008-08-13 クラリオン株式会社 ナビゲーション装置
CN100405286C (zh) * 2000-01-12 2008-07-23 索尼公司 图象显示装置及方法
JP3606447B2 (ja) * 2000-07-07 2005-01-05 株式会社ケンウッド ナビゲーション装置
JP2002259036A (ja) * 2001-02-28 2002-09-13 Sony Corp 情報処理装置及び情報処理方法、記録媒体並びにプログラム
JP2003337952A (ja) * 2002-05-21 2003-11-28 Fuji Photo Film Co Ltd マウスによる画像表示制御装置
JP2004032582A (ja) * 2002-06-28 2004-01-29 Hitachi Ltd 情報処理装置及び情報処理方法
CN1268122C (zh) * 2002-07-23 2006-08-02 精工爱普生株式会社 显示方法及投影机
JP2004078682A (ja) * 2002-08-20 2004-03-11 Casio Comput Co Ltd 表示制御装置、情報端末装置、表示制御プログラム
JP2004118807A (ja) * 2002-09-20 2004-04-15 M Soft:Kk プレゼンテーションのポインタ位置認識と再投影の方法
US7106342B2 (en) * 2002-09-27 2006-09-12 Lg Electronics Inc. Method of controlling brightness of user-selected area for image display device
JP2005208823A (ja) * 2004-01-21 2005-08-04 Seiko Epson Corp プロジェクタのネットワークシステム
JP2005234368A (ja) * 2004-02-20 2005-09-02 Earnet Co Ltd 遠隔講義システム
JP4564767B2 (ja) * 2004-03-22 2010-10-20 キヤノン株式会社 表示装置及びその制御方法、並びに制御プログラム
JP4529775B2 (ja) * 2005-04-15 2010-08-25 ソニー株式会社 再生装置、その表示方法および表示プログラム、表示装置および表示方法、ならびに記録再生装置およびその表示方法
US7762672B2 (en) * 2005-07-19 2010-07-27 Fujinon Corporation Data presentation apparatus and operation method of terminal
US8106884B2 (en) * 2006-03-20 2012-01-31 Samsung Electronics Co., Ltd. Pointing input device, method, and system using image pattern
CN101118738B (zh) * 2006-07-31 2011-02-02 夏普株式会社 显示装置及显示方法
US20080118237A1 (en) * 2006-11-22 2008-05-22 Rainer Wegenkittl Auto-Zoom Mark-Up Display System and Method
JP4692529B2 (ja) * 2007-08-07 2011-06-01 セイコーエプソン株式会社 グラフィカルユーザインタフェース装置
JP4448179B2 (ja) * 2008-01-31 2010-04-07 キヤノン株式会社 投射装置
JP2009192670A (ja) * 2008-02-13 2009-08-27 Seiko Epson Corp 情報処理装置、画像表示方法、及びプログラム
JP4530058B2 (ja) * 2008-02-18 2010-08-25 セイコーエプソン株式会社 プロジェクタ、強調表示方法
JP2009229834A (ja) * 2008-03-24 2009-10-08 Nikon Corp プロジェクションシステム
KR101542380B1 (ko) * 2008-10-24 2015-08-07 엘지전자 주식회사 이동단말기 및 그 제어 방법
WO2011004612A1 (ja) * 2009-07-10 2011-01-13 パナソニック株式会社 マーカ表示制御装置、集積回路、及び、マーカ表示制御方法
JP5658451B2 (ja) * 2009-11-30 2015-01-28 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
KR20110069958A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
JP5522381B2 (ja) * 2010-03-15 2014-06-18 セイコーエプソン株式会社 表示装置、端末装置、表示システム、プログラム、情報記憶媒体、表示方法および画像変更方法
CN101876870A (zh) * 2010-06-30 2010-11-03 中兴通讯股份有限公司 显示终端和操作显示画面的方法
JP5408175B2 (ja) * 2011-03-31 2014-02-05 カシオ計算機株式会社 投影装置、投影方法及びプログラム
JP6217058B2 (ja) * 2012-05-09 2017-10-25 セイコーエプソン株式会社 画像表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196739A (ja) * 2000-12-27 2002-07-12 Fuji Xerox Co Ltd 画像表示システム
JP2007193403A (ja) * 2006-01-17 2007-08-02 Hitachi Ltd ポインティングデバイス、ポインタ指示位置制御方法およびディスプレイシステム
JP2009163142A (ja) * 2008-01-09 2009-07-23 Fujitsu Ltd 情報処理装置、情報処理システム、コンピュータプログラム、及び情報処理方法
JP2011133541A (ja) * 2009-12-22 2011-07-07 Nec Casio Mobile Communications Ltd 表示制御装置及び表示制御システム並びにプログラム

Also Published As

Publication number Publication date
US9652824B2 (en) 2017-05-16
CN104364746A (zh) 2015-02-18
US20170293214A1 (en) 2017-10-12
CN107256405B (zh) 2020-10-13
US20150130847A1 (en) 2015-05-14
CN107256405A (zh) 2017-10-17
JPWO2014002241A1 (ja) 2016-05-26
CN104364746B (zh) 2017-08-18
JP6014137B2 (ja) 2016-10-25
US10295896B2 (en) 2019-05-21

Similar Documents

Publication Publication Date Title
JP6014137B2 (ja) 表示システムおよび表示端末
US10175847B2 (en) Method and system for controlling display device and computer-readable recording medium
TWI474186B (zh) 可協同複數個行動裝置進行協同編輯的電子裝置與方法
KR101850821B1 (ko) 이동 단말기 및 이동 단말기의 메시지 표시 방법
KR20130081068A (ko) 복수의 휴대 단말들을 이용하여 멀티 비전 시스템을 구축하는 방법 및 이를 위한 장치
JP6544069B2 (ja) パラメータ制御装置およびパラメータ制御プログラム
CN102638774A (zh) 一种移动终端数据同步分享的方法和系统
US20160092152A1 (en) Extended screen experience
KR102037415B1 (ko) 디스플레이 디바이스 제어 방법 및 시스템과 기록 매체
KR102131645B1 (ko) 휴대장치 및 그 컨텐츠 공유 방법
TWM410273U (en) Control transfer apparatus and control transfer system
KR20150094448A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20170007963A (ko) 디스플레이 시스템
US20150189357A1 (en) Multimedia device and remote control device for synchronizing screen, and method for same
JP2016134851A (ja) 遠隔コミュニケーションで用いられるコミュニケーションシステム
JP2014016967A (ja) 情報表示プログラム及び情報表示装置
KR20150001891A (ko) 질문 메시지를 공유하는 전자 장치 및 그 제어 방법
KR20160134043A (ko) 디스플레이 장치 및 그의 동작 방법
KR101666922B1 (ko) 멀티디스플레이 장치 및 이를 이용한 정보 제공 방법
CN111522519A (zh) 一种投屏方法、装置、设备、系统及存储介质
EP2827238B1 (en) Actionable user input on displayed items
CN109739373B (zh) 一种基于运动轨迹的演示设备控制方法及系统
JP6289038B2 (ja) 表示制御装置、方法及びプログラム
KR20180001366A (ko) 디스플레이 장치 및 그를 포함하는 디스플레이 시스템
KR20110047587A (ko) 디스플레이 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12879659

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014522316

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14406897

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12879659

Country of ref document: EP

Kind code of ref document: A1