WO2001092953A1 - Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement - Google Patents

Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement Download PDF

Info

Publication number
WO2001092953A1
WO2001092953A1 PCT/JP2001/004629 JP0104629W WO0192953A1 WO 2001092953 A1 WO2001092953 A1 WO 2001092953A1 JP 0104629 W JP0104629 W JP 0104629W WO 0192953 A1 WO0192953 A1 WO 0192953A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
unit
display
projector
Prior art date
Application number
PCT/JP2001/004629
Other languages
English (en)
French (fr)
Inventor
Shoichi Akaiwa
Tomohiro Nomizo
Miki Nagano
Masaru Kono
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to EP01934476A priority Critical patent/EP1286207A4/en
Priority to JP2002501101A priority patent/JP4039242B2/ja
Priority to US10/048,055 priority patent/US7397476B2/en
Publication of WO2001092953A1 publication Critical patent/WO2001092953A1/ja
Priority to US12/068,333 priority patent/US7782330B2/en
Priority to US12/155,076 priority patent/US8155768B2/en
Priority to US12/805,092 priority patent/US7965284B2/en
Priority to US13/067,068 priority patent/US20110210977A1/en
Priority to US13/762,481 priority patent/US8654109B2/en
Priority to US14/144,993 priority patent/US9270729B2/en
Priority to US14/993,654 priority patent/US9888221B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • H04N9/3135Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3138Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using arrays of modulated light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3197Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using light modulating optical valves

Definitions

  • the present invention relates to a projection display device connectable to a network, that is, a projector, a method for displaying an image via a network, and an operation state control of the projector via the network.
  • a projection display device that is, a projector
  • an image generation device such as a personal computer via a video cable.
  • the analog RGB signal generated by the personal computer was input to the projector via a video cable, and was projected as an image on a screen or the like.
  • the personal computer merely performs the function of outputting a video signal to the projector, but every time the personal computer is used, the work of connecting the personal computer to the projector using a video cable must be performed. There was a problem that it was complicated.
  • the data for presentation can be stored in the projector.
  • the display image data can be delivered to the projector via the network.
  • the presentation data is stored on the projector side, it is desirable to protect the stored data from being displayed by a third party.
  • a projector that projects and displays images can display a large screen.
  • the computer is used as an image supply device for a projector and also as a control device for controlling an operation state of the projector by forming a display system.
  • a computer as a control device and a projector are connected via an interface such as RS-232C, and various controls of the projector are performed by the computer.
  • remote control when a user controls the operation state of a projector, it is performed by executing dedicated software on a computer. Alternatively, the operating state of the projector was controlled by a remote controller attached to the projector (hereinafter referred to as “remote control”).
  • the change instruction may not be transmitted well between the participant who wants to change and the operator.
  • the participant who wants to change to operate the control device directly he or she must move to the position where the control device is installed. From the above points, the display system using the conventional projector has a problem that operability is poor.
  • the user can operate the remote controller RM to execute various processes on the projector PJZ.
  • the projector PJZ projects and displays an image on the screen SC based on the analog image signal AV1 supplied from the image supply device 190.
  • the user can superimpose a decorative image such as a pointer image PPJ on the original image ORG projected and displayed on the screen SC by operating the remote controller RM. In this way, if the decoration image can be superimposed on the original image ORG, the presentation will be more effective Can be done.
  • the present invention has been made to solve the above problems and needs, and has as its object to store data in a projector while maintaining the confidentiality of the data. It is another object of the present invention to project and display stored data while maintaining confidentiality of the data.
  • a first aspect of the present invention provides an image display system in which an image display device having a storage device and a computer are connected via a network.
  • the image display system according to the first aspect of the present invention
  • An input unit for inputting at least one of data and a command; a data storage unit for storing display data to be displayed by the image display device; and transferring desired data from the data storage unit to a storage device of the image display device.
  • a password setting request unit that prompts the user to set a password when
  • a computer having a data transfer unit for associating the set password with the desired data and transferring the set password to the storage device of the image display device when the password is set via the input unit;
  • a data receiving unit that stores the transferred password and desired data in the storage device;
  • An input unit for inputting at least one of a data input command and, when display data desired to be displayed is selected from data stored in the storage device, a request for input of a password is requested;
  • An authentication unit that determines whether or not the password and the password input via the input unit match with each other;
  • the image display device includes a projection display unit that projects and displays the selected display data.
  • the image display system when data is transferred from the computer to the storage device of the image display device, a password setting is requested, and when the password is set, The data associated with the password is transferred to the storage device of the image display device. Further, in the image display device, when display data is selected from data stored in the storage device, the input of a password is requested, and when the set password matches the input password, the display data is input. Projection is displayed. Therefore, confidentiality of data can be maintained even when data is stored in the storage device of the image display device. Also, when displaying data stored in a storage device in an image display device that stores data in the storage device of the image display device, data display can be performed while maintaining data confidentiality. .
  • the data transfer unit of the computer transmits only the desired data to the image display device. It may be transferred to a storage device. With such a configuration, it is possible to allow the transfer of data for which a password is not set. Further, when it is determined that the passwords do not match, the projection display unit of the image display device may project and display a projection display non-permission screen indicating that authentication has failed. When such a configuration is provided, erroneous input, selection error, and the like can be reported.
  • the computer further includes a list of data stored in the data storage unit, and a display screen that displays an icon of the image display device
  • the password setting request unit prompts the user to set a password when the desired data is dragged and dropped from the list of stored data on the display screen to the icon of the image display device. Is also good. When such a configuration is provided, data can be visually transferred from the computer to the storage device of the image display device, and the operation can be facilitated.
  • the image display system further includes a file server connected to the network, wherein the data transfer unit of the computer is configured to set a password when the password is set via the input unit. May associate the set password with the desired data and transfer it to the file server.
  • a file server connected to the network, wherein the data transfer unit of the computer is configured to set a password when the password is set via the input unit. May associate the set password with the desired data and transfer it to the file server.
  • a second aspect of the present invention provides a method for storing data to be displayed using a projector via a computer.
  • the data storage method determines the data to be displayed, determines whether or not a request to store the determined data in a storage device has occurred, and When it is determined that the password has occurred, a password setting is requested, the data is associated with the set password, and the data associated with the password is transferred to the storage device.
  • a password setting is requested, the data is associated with the set password is transferred to the storage device.
  • the determined data icon is dragged to an icon of the storage device on a display screen of the computer. If 'and.drop' has occurred, it may be determined that a request to store the data in the storage device has occurred.
  • the general operation of dragging and dropping the data icon onto the storage device icon on the display screen can be associated with the password setting request. Can be prompted to set a password without requiring a password.
  • the storage device may be arranged in the projector.
  • the storage device may be provided in a file server connected to the projector and the computer via a network.
  • the storage device is arranged in the projection display device, the stored data can be displayed using the projection display device alone.
  • the storage device is located in a file server, a large amount of data can be stored.
  • a third aspect of the present invention provides a method for displaying display data including data associated with a password on an image display device.
  • the display data to be displayed is specified from the display data, and it is determined whether or not the specified display data is associated with a password. If it is determined that the specified display data is associated with a password, requesting input of a password associated with the display data, the input password and the password associated with the display data And determining whether the input password matches the password associated with the display data, displaying the display data.
  • the display of the display data associated with the password when the display of the display data associated with the password is requested, the input of the associated password is requested, and the input password and the associated password match. If you want to display data. Therefore, the password entered does not match the associated password. As long as the display data is not displayed on the image display device, the display data can be displayed while ensuring the confidentiality of the display data.
  • the display of the display data when it is determined that the input password and the password associated with the display data do not match, the display of the display data is not permitted. It may be displayed. When such a configuration is provided, erroneous input, selection error, and the like can be notified.
  • a fourth aspect of the present invention provides an image display device having a data protection function.
  • An image display device includes: an input unit for inputting at least one of data and a command; and a display data storage unit for storing display data including display data associated with a password.
  • a password requesting unit for requesting input of a password when display of display data associated with the password is requested; a password associated with the password input via the input unit and the display data;
  • a projection display unit for projecting and displaying the display data requested to be displayed when it is determined that both passwords match.
  • the display data associated with the password stored in the display data storage unit when the display of the display data associated with the password stored in the display data storage unit is requested, the input of the associated password is requested, and the association with the input password is requested.
  • the display data is projected and displayed when the password matches the password. Therefore, the display data is not displayed on the image display device unless the input password and the associated password match, and even if the display data is stored in the display data storage unit of the image display device, the display data is not displayed. Confidentiality can be ensured.
  • a fifth aspect of the present invention provides an image display device having a storage device for storing display data.
  • An image display device includes: an input unit for inputting at least one of data and a command; and a data list display unit for displaying a list of data stored in the storage device. Select data from the data list
  • a password input screen display unit that displays an input screen for a password associated with the selected data, and a password input via the input unit is associated with the selected data in advance.
  • An authentication unit for determining whether the password matches a set password, and a projection display unit for projecting and displaying selected data when the input password matches the set password.
  • a password input screen is displayed, and when the input password matches the set password, the data is projected and displayed. . Therefore, data is not projected and displayed on the image display device unless the input password and the set password match, and data confidentiality is ensured even when data is stored in the storage device of the image display device. be able to.
  • the image display device further includes a non-permission screen display unit that displays a projection display non-permission screen indicating that the authentication has failed when the input password does not match the set password. May be provided.
  • a computer-readable medium storing a program executed on a computer for storing data to be displayed using a projector.
  • the program determines a data to be displayed, and determines whether a request to store the determined data in a storage device has occurred. And if it is determined that the storage request has occurred, a step of requesting a password setting; a step of associating the data with the set password; and a step of associating the data associated with the password with the password. Transferring to a storage device.
  • a request for setting a passcode is requested, and data associated with the set passcode is transferred to the storage device. Send and store. Therefore, data confidentiality can be maintained even when data is stored in the storage device.
  • a seventh aspect of the present invention provides a computer-readable medium storing a program for displaying display data associated with a password on an image display device.
  • the program includes a step of specifying display data desired to be displayed from a plurality of display data, and associating the specified display data with a password. Determining whether or not the specified display data is associated with a password; and requesting an input of a password associated with the display data, when determining that the specified display data is associated with the password.
  • the seventh aspect of the present invention when the display data specified from the plurality of display data is associated with the password, the input of the associated password is requested, and the input password is input. If the password associated with the password matches, the display data is displayed. Therefore, even when there are a plurality of display data, each data is protected by the password, and the display data is not displayed unless the entered password and the associated password match.
  • Another object of the present invention is to solve the above-mentioned problems in the prior art, and an object of the present invention is to provide a technique for improving operability for controlling an operation state of a projector.
  • an eighth aspect of the present invention provides a projector that can be connected to a network.
  • a projector according to an eighth aspect of the present invention includes a projection display unit that projects and displays an image, and an operation state that indicates an operation state of the projection display unit.
  • a web server unit capable of delivering web page information including status information, wherein the web server unit is configured to perform the projection and display according to control information input on a web page distributed and displayed on a web client.
  • a control signal supply unit for supplying a control signal for controlling an operation state of the unit to the projection display unit; and a web page including operation state information indicating an operation state of the projection display unit in response to a request from the web client. While delivering information to the web client, acquiring new operating state information indicating an operating state of the projection display unit controlled by the control signal, and obtaining the web page information delivered to the web client. And a web page control unit for updating.
  • the operation state of the projection display unit is controlled in accordance with control information input on a web page distributed to a web client (sometimes called a browser). Can be. Therefore, the operation state of the projector can be easily controlled via the network, and the operability for controlling the operation state of the projector can be improved as compared with the related art.
  • the web page includes a button for changing an operation state of the projector, and the control information is transmitted to the projector by pressing the button.
  • the operation state can be easily changed by the user pressing a button on the web page displayed on the web client.
  • the eighth aspect of the present invention can be realized in various aspects.
  • the present invention can be realized in the form of a recording medium on which a program is recorded, a data signal including the computer program and embodied in a carrier wave, and the like.
  • the present invention has been made to solve the above-mentioned problems in the prior art. It is an object of the present invention to provide a technology that allows a user to easily execute a process on the content of an image to be projected and displayed on a projector.
  • a ninth aspect of the present invention provides a projector connected to an external input device including an input unit via a network.
  • the projector according to the ninth aspect of the present invention includes:
  • a network interface unit for connecting to the network; and operation information supplied to the network interface unit via the network, wherein the operation information is generated by operating the input unit of the external input device.
  • An image data generation unit that executes a predetermined process related to the content of the image to be projected and displayed based on the operation information, and generates image data representing the image to be projected and displayed;
  • An electro-optical device that forms image light according to the image data
  • a projection optical system that projects image light obtained by the electro-optical device
  • the projector it is possible to execute processing relating to the content of an image to be projected and displayed and generate image data based on operation information supplied via the network interface unit.
  • the user can easily cause the projector to execute the process regarding the content of the image to be projected and displayed.
  • the image to be displayed is formed of an original image and a decorative image superimposed on the original image
  • the decoration image data representing the decoration image is not supplied from the external input device. Prepared by the image data generation unit,
  • the image data generating unit generates the image data by combining the original image data representing the original image and the decoration image data based on the operation information supplied from the external input device, Preferably, the decoration image is superimposed on a predetermined position in the original image.
  • the decoration image can be easily superimposed on the projected and displayed original image by operating the input unit provided in the external input device by the user.
  • the operation information includes at least position information generated by operating a pointing device as the input unit of the external input device, and the image data generation unit, based on the position information, It is preferable to superimpose a pointer image as the decoration image at a predetermined position in the image.
  • the position information is coordinate value information indicated by the pointing device.
  • the operation information further includes switch information generated by operating a switch provided on the pointing device,
  • the image data generation unit includes:
  • the operation information includes the position information and the switch information
  • a range can be specified in the original image. Therefore, in the specified range, a decoration image different from the pointer image is superimposed. Becomes possible.
  • the operation information further includes key information generated by operating a keyboard as the input unit of the external input device,
  • the image data generation unit superimpose a code image as the decorative image on the original image based on the key information.
  • a tenth aspect of the present invention provides a projection display system including an external input device and a projector connected via a network.
  • the projection display system according to the tenth aspect of the present invention comprises:
  • the external input device is not limited to the external input device
  • An operation information generation unit that detects an operation of the input unit by a user and generates operation information based on the detection result
  • a first network interface unit connected to the network, for supplying the operation information to the projector via the network,
  • the projector is a first projector
  • a second network interface unit for connecting to the network; and a second network interface unit supplied to the second network interface unit via the network.
  • a projection optical system that projects image light obtained by the electro-optical device
  • the projection display system according to the tenth aspect of the present invention includes the projector according to the ninth aspect of the present invention, the same operation as in the case of using the projector according to the ninth aspect of the present invention.
  • the user can easily cause the projector to execute the process regarding the content of the projected and displayed image by operating the input unit provided in the external input device.
  • the external input device further includes a display unit,
  • the operation information generation unit causes the display unit to display an operation information generation area that is an area for generating the operation information in accordance with the operation of the pointing device, and the pointing is included in the operation information generation area.
  • the operation of the pointing device may be detected only when a pointer image corresponding to the device is displayed.
  • the operation information is generated only when the pointer image is displayed in the operation information generation area. Therefore, the user can display the pointer image in an area other than the operation information generation area to thereby change the pointing device. It can be used to perform other operations.
  • the operation information generation area is associated with an image area to be projected and displayed.
  • the positional relationship between the pointer image in the operation information generation area and the projection display It is possible to make the positional relationship of the pointer image in the image area to be substantially matched.
  • An eleventh aspect of the present invention is directed to an external input device including an input unit, for generating operation information associated with an operation of the input unit supplied to a projector connected to the external input device via a network. And a method for generating operation information.
  • the operation information generation method according to the eleventh aspect of the present invention is directed to an external input device including an input unit, for generating operation information associated with an operation of the input unit supplied to a projector connected to the external input device via a network. And a method for generating operation information.
  • a display unit provided in the external input device includes:
  • (a-1) displaying an operation information generation area that is an area for generating the operation information associated with the operation of the pointing device as the input unit;
  • the operation information is generated only when the pointer image is displayed in the operation information generation area. Therefore, the user can display the pointer image in an area other than the operation information generation area to thereby change the pointing device. It can be used to perform other operations.
  • the external input device including an input unit
  • the external input device A computer-readable recording medium on which a computer program for generating operation information associated with an operation of the input unit supplied to a projector connected to a power device via a network is provided.
  • the computer readable medium according to the first and second aspects of the present invention,
  • the user When the computer program recorded on the recording medium is executed by the external input device, the user operates the input unit provided in the external input device to generate the operation information as in the method of the present invention. Can be. Further, if this operation information is supplied to the projector, it is possible to easily cause the projector to execute a predetermined process regarding the content of the image to be projected and displayed.
  • the ninth to twelfth aspects of the present invention are directed to a computer program for realizing the functions of the projector and the projection display system, a recording medium storing the computer program, and embodied in a carrier wave including the computer program. It can be realized in various modes such as a converted data signal.
  • FIG. 1 is an explanatory diagram showing a configuration example of an image display system in which the projector according to the first embodiment is connected to a network.
  • FIG. 2 is a block diagram illustrating an internal circuit configuration of the projector according to the first embodiment.
  • FIG. 3 is a flowchart showing a processing routine executed when display data is transferred from the personal computer PC to the projector 10.
  • FIG. 4 shows a display on the display display 54 of the personal computer PC for transferring display data from the personal computer PC to the projector 10.
  • FIG. 7 is an explanatory diagram illustrating processing executed by the CPU.
  • FIG. 5 is an explanatory diagram showing an example of a password setting screen appearing on the display 54 after the processing shown in FIG. 4 is completed.
  • FIG. 6 is a flowchart showing a processing routine executed when the projector 10 reproduces a data file stored in the external storage device 41.
  • FIG. 7 is an explanatory diagram schematically showing the remote controller 40 used in the first embodiment.
  • FIG. 8 is an explanatory diagram showing an example of a menu screen of the projection display screen SR of the projector 10.
  • FIG. 9 is an explanatory diagram showing an example of the file selection screen of the projection display screen SR of the projector 10.
  • FIG. 10 is an explanatory diagram showing an example of the display of the password input password PB1 on the projection display screen SR of the projector 10.
  • FIG. 11 is an explanatory diagram showing an example of a display of the authentication failure display box PB2 in the projection display screen SR of the projector 10.
  • FIG. 12 is an explanatory diagram showing an example of the display of the reproduction non-permission display box PB3 in the projection display screen SR of the projector 10.
  • FIG. 13 is an explanatory diagram showing an example of the arrangement of projectors according to the second embodiment of the present invention.
  • FIG. 14 is a functional block diagram showing a configuration in a case where the ASP terminal 20 functions as a web server unit.
  • FIG. 15 is an explanatory diagram showing a home page distributed from the web server unit 20 and displayed on the web browser CC.
  • FIG. 16 is an explanatory diagram showing an operation state setting menu screen displayed on the web browser C C as a web page.
  • Figure 17 shows the video setting screen displayed on the web browser CC as a web page.
  • FIG. 18 is an explanatory diagram showing an audio setting screen displayed on the web browser C C as a web page.
  • FIG. 19 is an explanatory diagram showing the image setting screen after the brightness is increased by one stage.
  • FIG. 20 is an explanatory diagram showing a projection display system as a third embodiment of the present invention.
  • FIG. 21 is an explanatory diagram showing a schematic configuration of the projector PJ1 of FIG.
  • FIG. 22 is an explanatory diagram showing a schematic configuration of the computer PC1 in FIG.
  • FIG. 23 is an explanatory diagram showing an example of a use form of the projection display system of FIG.
  • FIG. 24 is a flowchart showing a processing procedure between the projector PJ1 and the computer PC1.
  • FIG. 25 is an explanatory diagram showing an operation detection window DW displayed on the display unit 135 of the computer PC1.
  • FIG. 26 is an explanatory diagram showing a process when the box image PB is superimposed on the original image ORG using the pointer image PPJ in the original image ORG.
  • FIG. 27 is an explanatory diagram showing an image projected and displayed by the user operating the keyboard KB as the input unit 1360.
  • FIG. 28 is an explanatory diagram illustrating a projection display system according to the fourth embodiment.
  • FIG. 29 is an explanatory diagram showing processing when directly editing the contents of the original image ORG projected and displayed on the screen SC.
  • FIG. 30 is an explanatory diagram showing a conventional projector. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is an explanatory diagram showing a configuration example of an image display system configured by connecting the projector according to the first embodiment to a network.
  • FIG. 2 is a block diagram showing an internal circuit configuration of the projector according to the first embodiment.
  • the projector 10 is connected to a file server FS and a personal computer (computer) PC via a network line NL.
  • the personal computer PC has a CPU 50 that executes the application program, a ROM 51 that stores the application program, and a RAM 52 that temporarily stores the processing contents during the execution of the application program. .
  • the personal computer PC also has a built-in hard disk drive (HDD) 53 that stores data (display data and files) generated by the application program when the application program ends, and a display 5 that displays the user interface of the application program 5 It has four.
  • the display data stored in the HDD 53 of the personal computer PC is transferred to the projector 10 or the file server FS according to a procedure described later. Commands and data are input to the personal computer P C. through, for example, a wireless external input device 55 such as a keyboard 55 1 and a mouse 55 2.
  • the projector 10 includes, for example, an external storage device 41 such as a memory card conforming to the PCMCIA standard, and stores display data transferred from a personal computer PC. Commands and data are input to the projector 10 via an external input device 40 such as a remote controller.
  • the file server FS is a server that stores display data in place of the projector 10. Display data When playing back (projecting) data, the projector .10 requests the file server FS to transfer the corresponding display data, and the requested display data is transferred from the file server FS to the projector via the network line NL. Transferred to 10
  • the internal configuration of the projector 10 according to the first embodiment will be described with reference to FIG.
  • the projector 10 includes an ASP terminal section 20 that mainly functions as an ASP terminal and a projector section 30 that mainly performs a conventional projector function. That is, the projector 10 according to the first embodiment can function as an ASP terminal corresponding to the ASP.
  • the ASP terminal unit 20 is connected to a first central processing unit (CPU) 200 and a first CPU 200 that execute various arithmetic processing such as execution of a view application and a client application corresponding to the ASP.
  • the first read-only memory (ROM) 202 which stores various applications such as view applications and client applications to be executed on the fly, and the operation results and data of the first CPU 200 are temporarily stored.
  • a first random access memory (RAM) 204 for storing is provided.
  • the first ROM 202 further stores an authentication program to be executed when the display data is reproduced (projection display).
  • the first CPU 200 and the first ROM 202 are connected to enable unidirectional or bidirectional communication, and the first CPU 200 and the first RAM 204 are connected to enable bidirectional communication.
  • the ASP terminal unit 20 is connected to the first CPU 200 so as to be capable of bidirectional communication, and includes a graphics controller 210 that generates image data based on a drawing command from the first CPU 200.
  • the graphics controller 210 includes an LSI chip (not shown) for generating an image and a video memory for storing the generated image (display image), that is, a first frame memory (VRAM) 212 have.
  • the ASP terminal unit 20 includes a network interface as an interface for transmitting and receiving commands and data between the projector 10 and an external device.
  • the network interface controller 220 is, for example, a controller that conforms to the Ethernet standard, and converts commands and data transmitted from the ASP terminal unit 20 to the network line NL into an appropriate format according to the network communication protocol. Conversion or conversion of the signal received from the network line NL into a format suitable for processing in the ASP terminal unit 20.
  • the IZO port 230 is a general input / output port, which is connected to the wireless input device 234 via the identification circuit 232, and is connected to the external input device 40 and the Connected to 2 CPU 300.
  • the wireless input device 244 is an input device for receiving input data wirelessly transmitted from a wireless input device, and the identification device 232 transmits the input data received by the wireless input device 234 to itself. Identify whether the input data is transmitted.
  • the PCMCIA 'interface' controller 240 is a controller that transfers data from the ASP terminal unit 20 to an external device according to the PCMCIA standard and transfers data from the external device to the ASP terminal unit 20.
  • a PC card memory is connected as the external storage device 41, and the display data transferred from the personal computer PC is stored in the external storage device 41.
  • the USB controller 250 is a controller that transfers data between the ASP terminal unit 20 and an external device according to the USB standard.For example, the USB controller 250 is connected to the external input device 40 via the US BHUB 250. Is done.
  • the ASP terminal unit 20 further includes a real-time clock 260 that supplies the absolute time in the ASP terminal unit 20 and a sound source 26 that generates sound data based on a command from the first CPU 200. Connected with 2.
  • the first CPU 200 and each controller 210 in the ASP terminal unit 20 are connected to each other via a bus for transmitting a data command.
  • the projector section 30 A second central processing unit (CPU) 300 that controls a circuit of the projector section 30 by executing a predetermined program, and stores a program to be executed by the second CPU 300.
  • Second read-only. A second random access memory (RAM) 304 for temporarily storing the operation results, data, and the like of the memory (ROM) 302 and the second CPU 300 is provided.
  • the second CPU 300 and the second ROM 302 are connected so that unidirectional or bidirectional communication is possible, and the second CPU 300 and the second RAM 304 are connected so that bidirectional communication is possible.
  • the second CPU 300 and the first CPU 200 are connected to each other via the I0 port 230 so as to be capable of bidirectional communication, and the first CPU 200 and the second CPU 300 are connected to each other. Data and commands can be transmitted / received to / from 0.
  • the projector section 30 further includes a video signal conversion circuit 310, an audio control circuit 320, a liquid crystal (LCD) drive circuit 330, a light source drive circuit 340, a cooling fan control circuit 350, and projection optics.
  • System 360 is also provided.
  • the video signal conversion circuit 310 realizes functions such as an analog-to-digital conversion function, a decoding function, a synchronization signal separation function, and an image processing function. That is, the video signal conversion circuit 310 converts the analog video signal input from the external video signal input terminal 312 into digital image data, and synchronizes the converted digital image data with the synchronization signal to generate a video signal.
  • the digital image data written in the frame memory (not shown) in the signal conversion circuit 310 or the digital image data written in the frame memory is read from the frame memory.
  • the analog video signal for example, an RGB signal output from a personal computer, a composite video signal output from a video tape recorder or the like is input.
  • the video signal conversion circuit 310 demodulates the composite video signal and separates it into a component video signal composed of three color signals of RGB and a synchronization signal. And converts the component video signal into digital image data.
  • the analog video signal is an RGB signal output from a personal computer, it is originally input as a component video signal and the sync signal is also input separately, so it is separated. No processing is required, and the video signal conversion circuit 310 converts the component video signal into digital image data.
  • the digital video signal transmitted from the graphics controller 210 of the ASP terminal unit 20 is also input to the video signal conversion circuit 310.
  • the analog-to-digital conversion process and the separation process are unnecessary since the synchronization signal is supplied separately while the digital video signal is originally input.
  • the audio control circuit 320 is connected to the external audio signal input terminal 322, the speed 324, the second CPU 300, and the sound source 262 of the ASP terminal unit 20.
  • the audio control circuit 320 is connected to the second CPU 300, and is transmitted from the external audio signal input terminal 322 or the sound source 2622 according to a command from the second CPU 300.
  • the loudspeaker 324 is driven by a drive signal generated based on the sound signal or the sound data.
  • the LCD drive circuit 330 receives the image data processed by the video signal conversion circuit 310, drives the LCD 332 according to the received image data, and emits light from the light source 342. Modulates the illumination light.
  • the illumination light modulated by the LCD 332 is projected onto a projection surface, for example, a projection screen via a projection optical system 360 including a lens.
  • a light source control circuit 340 is connected to the light source 342, and the light source control circuit 340 controls on / off of the light source 342 in accordance with a command from the second CPU 300.
  • a cooling fan 352 for sending cooling air to the light source 342 is arranged.
  • the cooling fan control circuit 350 is connected to the cooling fan 352, and the cooling fan control circuit 350 controls the rotation speed of the cooling fan 352 in accordance with an instruction from the second CPU 300. Control.
  • the ASP terminal unit 20 has, for example, a form mounted on a single printed circuit board and is configured to be arbitrarily detachable from the projector. As can be understood from the configuration in FIG. 2, this projector projects an image according to a video signal supplied from the outside even when the ASP terminal unit 20 is not mounted. It can be displayed as a photo. As described above, if the ASP terminal unit 20 can be arbitrarily attached to and detached from the projector, a projector having the functions of the ASP terminal unit 20 (ASP terminal function and a drawing function described later) and a function of the ASP terminal unit 20 It is possible to easily configure a projector that does not have a projector.
  • the signal input to the projector 10 via the network line NL is converted into a format suitable for the ASP terminal unit 20 by the network interface controller 220 of the ASP terminal unit 20, and the data and the data are sent to the first CPU 200. Transferred as a command.
  • the first CPU 200 temporarily stores the transferred data in the first RAM 204 and determines whether the transferred command is a command for the ASP terminal unit 20 or a command for the projector unit 30. . If the transferred command is a command for the projector unit 30, the first CPU 200 transfers the command to the second CPU 300 of the projector unit 30 via the IZO port 230.
  • the first CPU 200 executes an arithmetic process based on the transferred command.
  • the first CPU 200 stores the data stored in the first RAM 204 in the external storage device 41, for example.
  • the first CPU 200 executes an authentication program described later.
  • the first CPU 200 reads out (reproduces) the data stored in the external storage device 41 or the first RAM 204 by reading out and starting an appropriate view application from the first ROM 202 and storing the read out application. It generates user interface data of the existing data and transfers it to the graphics controller 210 together with the drawing command.
  • the first CPU 200 activates the corresponding client application to convert the received display image data having the dedicated format into a user format.
  • the graphics controller 210 generates user interface image data (hereinafter referred to as “image data”) to be displayed based on the user interface data or the display screen data according to the received drawing command. Then, it is stored in the VRAM2 12 in the graphics controller 210.
  • the graphics controller 210 reads out the image data stored in the VRAM 212 of the graphics controller 210 at a predetermined timing in accordance with a command from the first CPU 200, and converts the video signal of the projector unit 30. Transfer to circuit 310.
  • the first CPU 200 receives a command or data from the external input device 40 via the USB hub 252, the USB controller 250, and the I0 port 230.
  • the first CPU 200 receives the data stored in the first RAM 204 or the graphics controller 2 via the PCMCIA interface controller 240 according to the command received via the external input device 40 or the network line NL.
  • the image data stored in the VRAM 21 of 10 is stored in the external storage device 41.
  • the video signal conversion circuit 310 Upon receiving the image data from the graphics controller 210, the video signal conversion circuit 310 executes the above-described processing and transfers the processed image data to the LCD drive circuit 330.
  • the LCD drive circuit 330 drives and controls the LCD 332 in accordance with the received image data, and projects desired image data on a projection screen.
  • the second CPU 300 turns on the light source 342 via the light source control circuit 340, for example, when a command transferred from the network line N via the IZO port 230 directs the light source 342 to be turned on. .
  • the second CPU 300 has a cooling fan system
  • the operation state (rotation speed, rotation timing, etc.) of the cooling fan 352 is controlled according to the temperature of the light source 3442 via the control circuit 350.
  • Data transmission from the projector 10 to the network line NL is executed via the network interface controller 220 in accordance with a command from the first CPU 200.
  • FIG. 3 is a flowchart showing a processing routine executed when display data is transferred from the personal computer PC to the projector 10.
  • FIG. 4 is an explanatory diagram showing processing executed on the display 54 of the personal computer PC in order to transfer display data from the personal computer P to the projector 10.
  • FIG. 5 is an explanatory diagram showing an example of a password setting screen appearing on the display 54 after the processing shown in FIG. 4 is completed.
  • Presentation data, code processor data, and the like generated by executing an application on the personal computer PC are temporarily stored in the RAM 52 in the personal computer PC during execution of the application. At the end of the application, it is stored as a data file in the internal HDD 53 of the personal computer PC. Therefore, the HDD 53 stores a plurality of data files including data files generated in the past.
  • the CPU 50 of the personal computer PC waits for a file storage request to be generated (step S100: No), and upon detecting that the file storage request has been detected (step S100).
  • S1100: Yes) the user is requested to input a file storage destination (step S110).
  • GUI graphical user interface
  • various operations can be visually executed by a graphical user interface (GUI) displayed on the display 54.
  • GUI graphical user interface
  • FIG. 4 for example, a file icon FL corresponding to each file stored on the HDD 53 is displayed in the window FW on the display 54, and An icon PJ indicating the projector 10 is displayed on the display 54.
  • the CPU 50 of the personal computer PC saves the file when the coordinate position of the mouse pointer MP overlaps with the area of the projector icon PJ while the selection button of the mouse 552 is pressed down, and the selection button of the mouse 552 is released. Detect occurrence of request.
  • the CPU 50 of the personal computer PC determines whether or not the storage destination is the default value (step S120), and if it determines that the storage destination is the default value (step S120: Y es), a password input window PW requesting password setting is displayed on the display 54 as shown in FIG. 5 (step S130).
  • the storage destination set as the default value is the external storage device 41 of the projector 10, and this default value can be changed to any storage destination through the setting screen of this processing routine.
  • step S120 determines that the input storage destination is different from the default value (step S120: No)
  • the CPU 50 changes the storage destination (step S140) and changes the password. Request setting (step S130).
  • a personal computer P is connected via a network line NL.
  • the desired file can also be stored in the file server FS connected to C.
  • the storage capacity of the external storage device 41 of the projector 10 is not so large. Therefore, when a large amount of files (data) must be stored, it is convenient to use the file server FS.
  • the CPU 50 of the personal computer PC determines whether or not a password has been set (step S150). If it is determined that the password has been set (step S150: Yes), the drag-and- Associate the dropped file with the password (step S160). The CPU 50 transfers the file associated with the password to the storage destination (step S170), and terminates this processing routine.
  • the transferred file is stored in the external storage device 41 of the projector 10 or the file server FS.
  • step S150 If it is determined that the password has not been set (step S150: No), the CPU 50 of the personal computer PC transfers only the file to the storage destination (step S170), and The processing routine ends.
  • the transferred file is stored in the external storage device 41 of the projector 10 or the file server FS Is done.
  • FIG. 6 is a flowchart showing a processing routine executed when a data file (display data) stored in the external storage device 41 is reproduced in the projector 10.
  • FIG. 7 is an explanatory diagram schematically showing the remote controller 40 used in the present embodiment.
  • FIG. 8 is an explanatory diagram showing an example of a menu screen of the projection display screen SR of the projector 10.
  • FIG. 9 is an explanatory diagram showing an example of a file selection screen of the projection display screen S R of the projector 10.
  • FIG. 10 is an explanatory diagram showing an example of the display of the password input box PB1 in the projection display screen SR of the projector 10.
  • FIG. 11 is an explanatory diagram showing an example of the display of the authentication failure display box PB2 of the projection display screen SR of the projector 10.
  • FIG. 12 is an explanatory diagram showing an example of the display of the reproduction non-permission display box PB3 in the projection display screen SR of the projector 10.
  • the remote controller 40 that transmits a command is, as shown in FIG. 7, a tf remote controller that includes 1 to 5 numeric keys 401 that function as function keys for executing functions assigned in advance.
  • the reference numeral 40 also includes a joystick 402, a menu call key 400, an execution key 404, etc. for moving the cursor or the pointer in the vertical and horizontal directions on the projected screen SR. . It is assumed that the menu screen as shown in FIG. 8 is projected and displayed by operating the menu call key 403 of the remote controller 40 before the opening of the processing routine.
  • the first CPU 200 of the projector 10 waits for a file selection request input via the remote controller 40 (step S200: No), and when the file selection request is input (step S2 00: Yes), requests the second CPU 300 to project and display a file selection screen as shown in FIG. 9 (step S210).
  • step S200 No
  • step S2 00: Yes requests the second CPU 300 to project and display a file selection screen as shown in FIG. 9 (step S210).
  • the first CPU 200 determines whether a request to reproduce the selected file has been issued (step S220).
  • the first CPU 200 operates the joystick 402 on the file selection screen shown in FIG. 9 so that the desired file, here, the menu bar MB 2 of “2. ******. Ppt” is highlighted,
  • the execute key 404 is depressed, it is determined that a request to reproduce the selected file has been issued (input).
  • the second CPU 300 causes the password input box PB1 shown in FIG. 10 to be projected and displayed. (Step S23.0).
  • the password input box PB1 In the password input box PB1, input of a setting password is requested, and a password consisting of a combination of numbers 1 to 5 is input via the function key 401 of the remote controller 40.
  • First CPU 200 determines whether or not the input password matches the set password (step S240). If the first CPU 200 determines that both passwords match (step S240: Yes), the first CPU 200 requests the graphics controller 210 to draw the selected file, and the reproduction of the selected file is started. (Step S250).
  • the image data drawn and generated by the graphics controller 210 is output to the screen via the video signal processing circuit 310 of the projector section 30, the LCD drive circuit 330, the LCD 3332, and the projection optical system 360. Is displayed on the screen.
  • step S240 determines that the password input via the remote controller 40 does not match the set password (step S240: No).
  • the counter value of the unmatched counter that counts the number of times the code has not been matched is determined. Increment C e by one (Step S260).
  • the counter value Ce is assumed to be a positive integer value.
  • the first CPU 200 determines whether or not the unsatisfied counter value Ce is 4 or more (step S270), and if the unsuccessful counter value is 3 or less (step S270: No). ), And requests the second CPU 300 to display an authentication failure display box PB2 as shown in FIG. 11 (step S280).
  • the first CPU 200 waits for re-entry of the password while displaying the authentication failure display box PB2.
  • step S290 If the first CPU 200 determines that the unsatisfied counter value Ce is 4 or more (step S2 70: Yes), and requests the second CPU 300 to project and display a reproduction disallowed display box PB3 as shown in FIG. 12 (step S290), and does not execute reproduction of the selected file. In other words, in order to prevent unauthorized access, the reproduction of the selected file is prohibited if the password does not match the predetermined number of times or more (four times in this embodiment).
  • the "OK" button of the reproduction refusal display box PB3 is clicked on via the mouse 552 (mouse pointer)
  • the first CPU 200 shifts to step S300.
  • the first CPU 200 resets the mismatch counter value Ce to 0 (step S300), and ends the processing routine.
  • step S220 If the first CPU 200 determines that there is no request to reproduce the selected file (step S220: No), the first CPU 200 ends this processing routine. This corresponds to, for example, checking a file stored in the external storage device 41 of the projector 10.
  • display data can be transferred to and stored in the external storage device 41 of the projector 10 via the network line NL. Therefore, by storing data files necessary for a presentation in the external storage device 41 of the projector 10 in advance, the presentation can be performed using the projector 10 alone without connecting a personal computer PC. . This allows the projector 1 Each time 0 is used, the trouble of connecting a personal computer PC can be saved.
  • the file icon FL is dragged and dropped on the projector icon PJ on the display display 54 of the personal computer PC, and the file is transferred to the projector 10 and stored. This makes it possible to execute file transfer and save operations visually and easily.
  • the password setting window PW is displayed on the display display 54, and the password associated with the file can be set. Sex can be maintained.
  • the projector 10 when the reproduction of the file is instructed, the projector 10 displays the password input box PB1 on the projection display screen SR to prompt the input of the set password, File playback starts only when the entered password matches the set password. Therefore, the file stored in the external storage device 41 is not reproduced by a third party without permission, and the confidentiality of the file can be maintained. Further, even when many people share the projector PJ, it is possible to save the trouble of erasing a file from the external storage device 41 each time the projector PJ is used. In other words, even if a plurality of persons share the projector 10 while the files to be used are stored in the external storage device 41, the confidentiality of each file can be maintained.
  • the password that can be set is a combination of numbers (1 to 5) that can be entered with the remote controller 40. Therefore, when entering the password on the projector 10 side, a password other than the remote controller 40 is used. It is not necessary to use an input device.
  • the projector according to the second embodiment will be described below. It should be noted that the present invention In the description of the configuration of the projector according to the second embodiment, differences will be mainly described, and among the configurations of the projector according to the second embodiment, the same configuration as the configuration of the projector according to the first embodiment will be described. Are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted.
  • FIG. 13 is an explanatory diagram showing an example of the arrangement of the projector according to the second embodiment of the present invention.
  • the projector 10 is used by being suspended from a ceiling, for example, as shown in FIG.
  • the projector 10 is connected to a network line NL, and data and commands are transmitted and received between the server computer SC and the client computer CC via the network line NL.
  • the user can input command / data to the projector 10 using, for example, a wireless external input device 40 such as a wireless keyboard 401 and a wireless mouse 402.
  • An image supplied from an image supply device (not shown) to the projector 10 is projected on a projection screen SCR.
  • the ASP terminal unit 20 functions as a web server unit.
  • the function as the server unit includes a function that can distribute a web page including operation state information indicating the operation state of the projection display unit. Therefore, the first ROM 210 includes a web application for publishing a web page, in addition to a view application and the like. Therefore, when the ASP terminal unit 20 functions as a web server unit, the first CPU 200 reads out the web server application from the first ROM 202, starts the web server application, and sends the web server application to a web client (also called a web browser). Deliver web page information specified by
  • FIG. 14 is a functional block diagram showing a configuration when the ASP terminal unit 20 functions as a web server unit.
  • the first CPU 200 stores the first ROM By executing the web server application stored in 202, it functions as a web server unit.
  • the ASP terminal unit 20 is also referred to as a web server unit 20.
  • the web server section 20 mainly includes a control section 21 for controlling the entire operation, an operation state information acquisition section 22, a page information distribution section 24, a network input / output section 26, and an operation state control section 27. Is done.
  • the network input / output unit 26 has a function of controlling the operation of the network I / F controller 220.
  • the operation state information acquisition unit 22 has a function of acquiring information indicating various operation states of the projector unit 30 and the ASP terminal unit 20 as operation state information 23.
  • Information indicating the operation state of the ASP terminal unit 20 is stored in the first ROM 202 and the first RAM 204 (FIG. 2).
  • Information indicating the operation state of the projector unit 30 is stored in the second ROM 302 and the second RAM 304 (FIG. 2), and is transferred from the second CPU 300 via the I / O port 230.
  • the page information distribution unit 24 selects page information indicating a corresponding web page from the page information database 25, and It has a function to distribute. If the operation state information 23 acquired by the operation state information acquisition unit 22 is included as the page information to be distributed, the distribution is performed including this.
  • the operation state control unit 27 controls the operation state of the ASP terminal unit 20 according to the control information (command) returned from the web browser, and transmits a control signal for controlling the operation state of the projector unit 30 to the projector unit 30. It has the function of supplying to The projector unit 30 controls a corresponding operation state according to the supplied control signal unit.
  • a web page update command is also returned. Therefore, when the operation state is controlled by the operation state control unit 27, the operation state information 23 is newly acquired by the operation state information acquisition unit 22, and the operation state newly acquired by the page information distribution unit 24 is acquired.
  • the page information including the status acquisition information 23 is delivered, and the web page displayed on the web browser is updated.
  • the operation state information acquisition unit 22 may monitor a change in the operation state irrespective of the presence or absence of control by the operation state control unit 27, and may acquire new operation state information if the operation state has been changed.
  • the operation state control unit 27 corresponds to the control signal supply unit of the present invention
  • the operation state information acquisition unit 22 and the page information distribution unit 24 correspond to the page information update unit of the present invention.
  • a procedure for setting various operation states of the projector from the client computer C C will be described with reference to FIGS. 15 to 19.
  • web browser CC a web browser executed on the client computer CC
  • the web server unit 20 distributes the corresponding home page information to the web browser CC.
  • Web browser C C displays the home page shown in Fig. 15.
  • the URL assigned to the operation status setting icon W C is designated.
  • the web server unit 20 selects page information corresponding to the specified URL from the page information database 25 and distributes it to the web browser CC.
  • Web browser C C displays the operation status setting menu screen as shown in Fig. 16 as a web page.
  • Fig. 16 shows a menu (Web Menu) from which five setting buttons can be selected: a video setting button VB, an audio setting button AB, an altitude setting button HB, an information display button IB, and an initialization button RB. The example shown is shown.
  • the web server section 20 selects page information corresponding to the specified URL from the page information database 25 and distributes the page information to the web browser CC.
  • a corresponding setting screen is displayed as a web page.
  • FIG. 17 shows an example in which four menus of “brightness”, “contrast”, “sharpness”, and “gamma correction” are displayed as controllable operation states relating to video.
  • the "brightness” setting screen includes an operation state display screen that can display six levels of brightness, a brightness minus button IDB shown on the left side of the operation state display screen, and a right side of the operation state display The indicated brightness plus button IUB is displayed. “Contrast” and “Sharpness” are also displayed in the same way as “Brightness”.
  • FIG. 18 shows an example in which “volume”, “treble” intensity, and “bass” intensity are displayed as controllable operation states related to audio.
  • the setting screens for “Volume J,” “Treble,” and “Bass” are also displayed in the same manner as “Brightness” in FIG.
  • Fig. 16 Other setting buttons, altitude setting button HB, information display button IB, and all reset button RB also display the corresponding web screens.
  • altitude setting button HB various setting screens related to the projector, such as the color setting and the projector installation environment (whether ceiling-mounted or rear projection), are displayed.
  • information display button IB information on the projector, for example, information such as lamp lighting time, image type, and resolution is displayed.
  • the whole initialization button RB a setting screen for initializing the operation state of the projector is displayed.
  • the operation state information acquisition section 22 (FIG. 14) newly acquires information indicating the changed operation state of the projector section 30 as the operation state information 23.
  • the page information distribution unit 24 (FIG. 14) distributes the page information including the newly acquired operation state information to the web browser CC.
  • FIG. 19 shows the video setting screen after the brightness has been increased by one level.
  • An example is shown in which the brightness operation state display has been changed from the position in Fig. 17 to a position brighter by one step (the position of the black circle is shifted one position to the right with respect to Fig. 17).
  • the same operation can be performed when the brightness of an image is reduced.
  • Changing the gamma correction can be performed by selecting the corresponding radio button.
  • the brightness of the image on the image setting screen is described as an example, but the setting on other various setting screens can be similarly performed.
  • the web server 20 distributes and displays the data to the web browser executed by the client computer CC.
  • various operating states of the projector 10 can be controlled according to control information input by the user. This allows a user at a position distant from projector 10 to easily control the operation state. Therefore, the operability for controlling the operation state of the projector can be improved in the projector of the present embodiment as compared with the conventional projector.
  • the web page described in the second embodiment is an example for explaining the present invention, and the present invention is not limited to these.
  • FIG. 20 is an explanatory diagram showing a projection display system as a third embodiment of the present invention.
  • This projection display system includes a projector PJ1 (that is, a projection display device PJ1) and a computer PC1, and the projector PJ1 and the computer PC1 are connected via a network NW such as a LAN.
  • NW such as a LAN.
  • the computer PC1 in FIG. 20 corresponds to the external input device in the present invention.
  • the computer PC1 includes a mouse MS as a pointing device. As described later, operation information OPS accompanying operation of the mouse MS is supplied to the projector PJ1 via the network NW.
  • the projector PJ1 executes a predetermined process relating to the content of the image to be projected and displayed, based on the operation information ⁇ PS. For example, the projector PJ1 can display the pointer image PJ in the original image ORG displayed on the screen SC based on the operation information OPS supplied via the network NW.
  • the computer PC 1 supplies operation information OPS to the projector PJ 1 and generates image data representing an original image ORG, a pointer image PPJ, etc., which form an image to be projected and displayed. Does not supply.
  • FIG. 21 is an explanatory diagram illustrating a schematic configuration of the projector PJ1 of FIG. Professional
  • the ejector PJ 1 includes a CPU 1100, an external storage device 1102, an internal storage device 1104 such as a ROM RAM, an analog image signal input unit 1108, and an image processing unit 1110.
  • LCD light pulp driving unit 1120, LCD light valve 1130, decorative image processing unit 1140, menu image processing unit 1150, remote control signal processing unit 1160 A reading device 1170 for reading image data and the like stored in the memory card MC and a network interface unit 1180 are provided.
  • the remote control signal processing section 1160, the reader 1170, and the network interface section 1180 are connected to each other by a bus 1100b.
  • the liquid crystal light valve 1130 is almost uniformly illuminated by the illumination optical system 1200, and the image light formed by the liquid crystal light valve 1130 is projected onto the screen SC by the projection optical system 1220. Is projected. In FIG. 21, the illustration of the optical systems 1 1200 and 1220 is simplified.
  • the projector PJ1 of this embodiment can also connect input devices such as a keyboard and a mouse via an interface (not shown).
  • An analog image signal AV 1 is supplied to the analog image signal input unit 110 from an external image supply device (not shown).
  • an image signal such as an RGB signal representing a computer image supplied from a personal computer or a composite image signal representing a moving image supplied from a video recorder or a television receiver is supplied.
  • the analog image signal input unit 1108 has a function of AD converting the analog image signal AV1 and outputting digital image data DV1.
  • the image processing unit 110 has a function of synthesizing the original image data and the decoration image data to generate synthesized image data.
  • the pointer image P represented by the decoration image data is added to the original image ORG (FIG. 20) represented by the original image data.
  • Decorative images such as PJ (Fig. 20) can be superimposed.
  • the original image data is written to a frame memory (not shown) in the image processing unit 111.
  • the image processing unit 1 1 1 10 When reading the original image data written in the frame memory, the image processing unit 1 1 1 10 combines the original image data with the decoration image data, and outputs the combined image data DDV to the liquid crystal light valve driving unit 1 1 2 0 To supply.
  • the original image data includes image data DV 1 supplied from an analog image signal input unit 118, image data supplied from a network via a network interface unit 118, and a menu image processing unit.
  • Menu image data supplied from the scanner 110, image data read from the memory card MC and supplied from the reader 110, and the like are used.
  • decoration image data decoration image data supplied from the decoration image processing unit 1140 is used.
  • the decorative image means an image (additional image) prepared independently of the original image, and is projected and displayed on the screen SC by being superimposed (added) on the original image.
  • the liquid crystal light valve driving section 1120 generates image display data SD according to the combined image data DDV supplied from the image processing section 1110.
  • the liquid crystal light valve 113 is driven by the image display data SD.
  • the liquid crystal light bulb 113 modulates light from the illumination optical system 112 00 to form image light representing an image.
  • the decorative image processing unit 114 has a function of generating decorative image data representing a decorative image and supplying the generated decorative image data to the image processing unit 110. More specifically, the decorative image processing unit 1140 includes a pointer image data representing the pointer image PPJ (FIG. 20) and a specific shape created in a desired size by specifying a range using the pointer image PPJ. Various decorative image data such as an image (for example, a pointing image) and a drawn image (for example, a box image or a box image) are generated and supplied to the image processing unit 110.
  • the menu image processing unit 1150 generates menu image data representing the menu image. And a function of supplying the image data to the image processing unit 110. The user can make various settings for the projector PJ1 according to the menu image.
  • the network interface unit 1180 connects the projector PJ1 to the LAN, and transmits the operation information OPS supplied from the computer PC1 via the LAN to the CPU 1100 via the node 1100b. It has the function of supplying 0.
  • the CPU 110 controls the image processing unit 110, the decoration image processing unit 110, the menu image processing unit 110, and the like based on the operation information OPS. For example, if the operation information ⁇ PS includes position information indicating the position of the pointer image PPJ (FIG. 20) to be superimposed on the original image ORG, the decoration image processing unit 1140 converts the pointer image data into Operation information (position information) Supply to the image processing unit 111 based on OPS.
  • the image processing unit 1110 can synthesize the original image data and the pointer image data based on the operation information (position information) OPS.
  • the pointer image PPJ will be superimposed.
  • the network interface unit 118 has a function of supplying image data supplied via the LAN to the image processing unit 110 as original image data as will be described later.
  • the processing unit 1.160 (FIG. 21) controls the function of each unit of the projector PJ1 based on a control signal from the remote control RM.
  • the remote control signal processing unit 1160 controls the function of the decorative image processing unit 1140 based on the control signal from the remote control RM, and superimposes the pointer image PPJ at a predetermined position in the original image ORG. Can be made.
  • the pointer image PPJ is placed at a predetermined position in the original image ORG. Can be superimposed.
  • FIG. 22 is an explanatory diagram showing a schematic configuration of the computer PC 1 in FIG.
  • Computer PC 1 has a CPU 1300, an external storage device 1310, a ROM 1320, a RAM 1330, a display 1350, a mouse MS and a keyboard KB And an input unit 1360. Also, the computer PC 1 has a network interface unit 138 for connecting to a LAN.
  • the operation information generating section 13332 has a function of detecting an operation of the input section 1360 by the user and generating operation information OPS based on the detection result. Note that the generated operation information OPS is supplied to the projector PJ1 via the network interface unit 138.
  • a computer program that realizes the function of the operation information generating unit 1332 is provided in a form recorded on a computer-readable recording medium such as a flexible disk or a CD-ROM.
  • the computer reads the computer program from the recording medium and transfers it to an internal storage device or an external storage device.
  • a computer program may be supplied to a computer via a communication path.
  • the computer program stored in the internal storage device is executed by the microprocessor of the computer.
  • the computer may read a computer program recorded on a recording medium and directly execute the computer program.
  • the computer is a concept including a hardware device and an operation system, and means a hardware device that operates under the control of the operation system.
  • the hardware device itself corresponds to a computer.
  • the hardware device includes at least a microprocessor such as a CPU and a means for reading a computer program recorded on a recording medium.
  • the computer program Such a computer includes program codes for realizing the functions of the above-described units.
  • the “recording medium” in the present invention includes a flexible disk, a CD-ROM, a magneto-optical disk, an IC card, a ROM cartridge, a punch card, a printed material on which a code such as a per code is printed, and a computer internal storage device (RA).
  • RA computer internal storage device
  • Various computer-readable media such as memories (M and ROM) and external storage devices, can be used. .
  • FIG. 23 is an explanatory diagram showing an example of a use form of the projection display system of FIG.
  • one projector PJ1 and a plurality of computers PC1, PC2,... are connected via a LAN.
  • the operation information OPS generated with the movement of the mouse MS is supplied to the projector PJ1 via the LAN. Therefore, the projector PJ1 can move the pointer image PPJ superimposed on the original image ORG displayed on the screen SC in conjunction with the mouse MS.
  • FIG. 24 is a flowchart showing a processing procedure between the projector PJ1 and the computer PC1.
  • the projector PJ1 displays the original image ORG on the screen SC.
  • step S1101 the computer PC1 activates an operation information generation program for generating operation information OPS accompanying the operation of the input unit 1360.
  • the RAM is developed in the RAMI 330 and functions as the operation information generating unit 133.
  • an operation detection window DW is displayed on the display section 135 of the computer PC1.
  • FIG. 25 is an explanatory diagram showing an operation detection window DW displayed on the display unit 135 of the computer PC1.
  • the display section 1350 shown in FIG. 25 displays an operation detection window DW and a memo display window MW for displaying memos describing contents to be presented in the presentation.
  • the operation detection window DW consists of the “PJ Select” button B1, “Resolution Select” button B2, “Menu” button B3, “Start” button BS, and “End” button BE.
  • Information generation area GA is included.
  • the operation information generation area GA means an area for generating operation information OPS accompanying the operation of the mouse MS.
  • the pointer image PPC corresponding to the mouse MS is displayed in the entire area of the display unit 135, but only when the pointer image PPC is displayed in the operation information generation area GA.
  • Operation information OPS is generated according to the operation of the MS. In this way, when the user operates the mouse MS while displaying the pointer image PPC in an area other than the operation information generation area GA, the operation information OPS of the mouse MS is not generated. It is possible to perform other operations by using, for example, changing a memo to be displayed in the memo display window MW.
  • step S1102 in Fig. 24 the settings for projector PJ1 are made.
  • the user selects a projector to be used, and sets a resolution suitable for the selected projector.
  • the selection of the projector used by the user is executed by selecting the “PJ selection” button B1 provided in the operation detection window DW. Clicking the “PJ select” button B1 with the mouse MS displays a selection field (not shown) for selecting a projector. When multiple projectors are connected to the LAN In the selection field, information on multiple projectors is displayed. The user selects the projector “PJ1” used by the user from one or more projectors displayed in the selection field.
  • the resolution setting suitable for the projector PJ1 is executed by selecting the "resolution selection" button B2 provided in the operation detection window DW. Clicking the "resolution selection” button B2 with the mouse MS displays a selection field (not shown) for selecting a resolution. For example, if the resolution of the effective display area of the liquid crystal light valve 1 13 0 (FIG. 21) provided in the projector PJ 1 is XGA (1024 ⁇ 768), the resolution of the projector PJ 1 is “ Select "XGA".
  • the resolution of the projector PJ1 is “ Select "XGA”.
  • step S113 the computer PC1 outputs start information indicating the start of transmission of the operation information OPS. This is executed when the user selects the “Start” button BS provided in the operation detection window DW.
  • the start information is output from the network interface unit 1380 and supplied to the network interface unit 1180 of the projector PJ1 via the LAN.
  • the projector PJ1 Upon receiving the start information, the projector PJ1 prepares for superimposing and displaying the pointer image PPJ in the original image ORG in step T102. Specifically, the CPU 110 causes the decorative image processing unit 1140 to prepare the pointer image data based on the start information supplied to the network interface unit 1180.
  • the start information from the first computer PC1 is supplied to the projector PJ1
  • the projector PJ1 operates until the end information (step S111) described later is supplied.
  • the processing is executed based only on the operation information OPS from the first computer PC1, and the information from the other computers PC2, PC3 ... is ignored. As a result, the projector PJ 1 is monopolized by the first computer PC 1.
  • step S1104 the user operates the mouse MS as the input unit 136.
  • the operation of the mouse MS means an operation of moving the mouse MS itself, an operation of pressing a switch provided on the mouse MS, and the like.
  • step S1105 the operation of the mouse MS as the input unit 136 is detected. Then, in step S1106, operation information OPS is generated based on the detection result in step S1105.
  • the operation information generation unit 1 3 3 2 of the present embodiment performs the mouse MS only when the pointer image PPC corresponding to the mouse MS is displayed in the operation information generation area GA of the operation detection window DW. Detect operation. Then, the position at which the pointer image PPC is displayed in the operation information generation area GA is determined by the coordinate value according to the set resolution of the projector PJ1 (step S112).
  • step S1107 the computer PC1 transmits the operation information OPS.
  • the operation information OPS is converted to a network data format by the network interface unit 1380 (FIG. 22) and output.
  • step T103 the projector PJ1 displays an image based on the operation information OPS. Specifically, based on the operation information OPS, the pointer image PPJ is displayed at a predetermined position in the original image ORG (ie, a position corresponding to the position of the pointer image PPC in the operation information generation area GA). Note that the computer PC1 supplies the operation information OPS to the projector PJ1, but does not supply the pointer image data representing the pointer image PPJ.
  • step S111 end information indicating the end of transmission of the operation information OPS is output. This is executed by the user selecting the “End” button BE provided in the operation detection window DW. When the user selects the “end” button BE, the end information is output from the network interface 1380 and supplied to the network interface unit 1180 of the projector PJ1 via the LAN.
  • the projector PJ1 Upon receiving the end information, the projector PJ1 deletes the pointer image PPJ superimposed on the original image ORG in Step T104. Specifically, the CPU 100 causes the decorative image processing unit 1140 to stop outputting pointer image data based on the end information supplied to the network interface unit 1180.
  • the case of executing the operation of simply moving the mouse MS has been described.However, in the case of executing the operation of moving the mouse MS while pressing the switch provided on the mouse MS, An area can be designated in the original image ORG to be projected and displayed.
  • the n-type PJ 1 can superimpose a decoration image of a type different from a pointer image such as a box image or an enclosing frame image on the specified region in the original image ORG by specifying the region. It is possible.
  • the Not only the position information of the mouse MS but also the switch information of the mouse MS is generated as the operation information OPS.
  • FIG. 26 is an explanatory diagram showing processing when a box image PB is superimposed on the original image ORG using the pointer image PPJ in the original image ORG.
  • the size of the box image P B is determined by designating two opposing vertices (start point and end point) of the box image P B in the original image ORG.
  • FIGS. 26 (A-1) to (A-1 3) show the operation information generation area GA included in the operation detection window DW (FIG. 25).
  • FIGS. 26 (B-1) to (B-3) show the original images ORG displayed on the screen SC by the projector PJ1.
  • the mouse MS of the computer PC1 is operated to specify the starting point P1C for specifying the area. This is performed by the user moving the mouse MS to move the pointer image PPC to the starting point P1C, and pressing the switch of the mouse MS.
  • the starting point P 1 J is specified by the pointer image P P J in the original image ORG.
  • the starting point image PS indicating the starting point of the box image P B is superimposed on the position of the starting point P 1 J.
  • FIG. 26 (A-2) the user moves the mouse MS to the end point P 2 C of the area while holding down the switch of the mouse MS. At this time, a frame with a diagonal line connecting the start point P 1 C and the end point P 2 C is displayed as a broken line in the operation information generation area GA.
  • the original image ORG as shown in Fig. 26 (B-2), when the start image PS is displayed, the end image PE is displayed instead of the pointer image PPJ, and the original image is displayed using the end image PE.
  • the end point P 2 J in the ORG is specified.
  • the decoration image data representing the decoration image is prepared by the decoration image processing unit 110 (FIG. 21), and is supplied to the image processing unit 110.
  • the type of decoration image such as the box image PB to be superimposed on the original image ORG is specified in advance by selecting the “Menu” button B3 included in the operation detection window DW (FIG. 25). That is, when the user selects the “Menu” button B3 on the computer PC1, the menu display start information is supplied to the projector PJ1 via the LAN.
  • the CPU 1100 in the projector PJ1 controls the menu image processing section 1150 and the image processing section 1110 based on the menu display start information supplied to the network interface section 1180,
  • the menu image is projected and displayed on the screen SC as the original image ORG.
  • the user selects the type of decoration image to be used by using the pointer image P PJ superimposed on the original image ORG (menu image). It is also possible to display a menu image using the remote control RM and select the type of decoration image to be used using the remote control RM.
  • step S1104 when the user operates the keyboard KB, in steps S1105 and S1106, the operation information generation unit 1332 detects a key operation and, based on the detection result, To generate operation information OPS including key information.
  • step T103 projector PJ1 displays an image based on operation information OPS (step S1107) supplied from computer PC1.
  • FIG. 27 is an explanatory diagram showing an image projected and displayed when the user operates the keyboard KB as the input unit 1360.
  • a code image PM composed of the character “He re!” Corresponding to the key information is superimposed near the position specified by the pointer image PPJ in the original image ORG. If the key information is included in the operation information OPS, the original image Since a code image such as a character can be superimposed on the image ORG, the presentation can be performed more effectively.
  • the encoded image data representing the encoded image is prepared by the decorative image processing unit 114 and supplied to the image processing unit 110.
  • the operation of the keyboard KB is also performed for the operation detection. Since it is detected only when the pointer image PPC exists in the operation information generation area GA included in the window DW (Fig. 25), by displaying the pointer image PPC in an area other than the operation information generation area GA, Other operations, such as editing the contents of the memo in the memo display window MW, can be performed using the keyboard KB.
  • the projection display system includes the external input device PC1 and the projector PJ1 connected via the network NW.
  • the external input device PC1 includes an operation information generation unit 1332 that detects an operation of the input unit 1330 by the user and generates operation information OPS based on the detection result. Then, the projector PJ 1 superimposes the decoration image represented by the decoration image data on a predetermined position in the original image represented by the original image data based on the operation information OPS supplied via the network NW.
  • Image data generating units 110, 110, and 110 that generate image data DDV representing the generated image.
  • the computer PC1 supplies the operation information OPS to the projector PJ1, but does not supply decorative image data representing a decorative image to be superimposed on the original image. Thus, the user can easily superimpose the decoration image on the original image by operating the input unit 1360 provided in the external input device PC1.
  • the user operates the input section 1360 of the computer PC1 (FIG. 22).
  • the projector PJ 1 i.e., the projection display device PJ 1
  • the user can directly edit the contents of the original image ORG to be projected and displayed by operating the input section 1360 of the computer PC1.
  • an application program by the SBC method a user executes an application program on a server and uses an execution screen of the application program in a server on a client machine.
  • operation information such as keyboard and mouse is supplied from the client machine to the server, and update data of the execution screen is supplied from the server to the client machine.
  • the execution screen data is supplied in a predetermined format, and the client machine displays the execution screen based on the supplied data in the predetermined format.
  • the projector PJ1 projection display device PJ1
  • the projector PJ1 can also function as the client machine described above. In this case, since the projector PJ1 does not need to store the application program itself, the capacity of the external storage device 1102 and the internal storage device 1104 can be made relatively small. it can.
  • FIG. 28 is an explanatory diagram illustrating a projection display system according to the fourth embodiment.
  • This projection display system includes a projector PJ1 (projection display device PJ1), a computer PC1, and a server SB.
  • the projector PJ1, the computer PC1, and the server SB are connected via a network NW. Connected.
  • the projector PJ1 functions as the client machine described above, and projects and displays an execution screen of the application program supplied from the server SB on the screen SC. Note that the internal configuration of projector PJ1 is almost the same as that in FIG. 21, and therefore detailed description is omitted.
  • the network interface section 118 (FIG. 21) has a viewer section (not shown) inside, and the viewer section executes execution screen data representing an execution screen based on the supplied data DT in a predetermined format. prepare. This execution screen data is supplied to the image processing unit 111 (FIG. 21) and used as original image data.
  • the user operates the input section 1360 (FIG. 22) of the computer PC1 in the same manner as when the projector PJ1 stores the application program in the external storage device 112. By operating this, the original image to be projected and displayed (execution screen) The contents of the ORG can be edited directly.
  • FIG. 9 is an explanatory diagram showing a process when performing the operation.
  • the execution screen generated by the document creation program is displayed as the original image ORG.
  • FIG. 29 (A) the user moves the mouse MS provided on the computer PC1, and superimposes the pointer image P PJ on a desired position in the original image (execution screen) ORG to be projected and displayed.
  • the operation information OPS including the position information supplied from the computer PC1 is used for the superimposition processing of the pointer image PPJ in the projector PJ1 as in the first embodiment.
  • the pointer image P PJ is superimposed at the position of the character “M” in the original image ORG.
  • FIG. 29 (B) the user presses (clicks on) a switch provided on the mouse MS to display a cursor CS at a desired position in the original image (execution screen) ORG.
  • the operation information OPS including the switch information supplied from the computer PC1 is supplied to the projector PJ1, and the projector PJ1 transmits the supplied operation information OPS to the server SB via the network NW.
  • Send to The server SB displays a cursor at a predetermined position in the execution screen generated by the document creation program according to the operation information OPS including the position information of the mouse MS and the switch information.
  • the server SB supplies the updated screen on which the cursor is displayed to the projector PJ1 via the network NW, and the projector PJ1 projects and displays the updated screen as the original image ORG on the screen SC. Also at this time, as shown in FIG. 29 (B), the projector PJ1 superimposes and displays the pointer image PPJ in the original image (update screen) ORG based on the operation information OPS.
  • the user operates a key on the keyboard KB provided on the computer PC 1 to input a character or the like at the cursor position in the original image ORG.
  • the operation information OPS including the key information supplied from the computer PC1 is once supplied to the projector PJ1, and the projector PJ1 transmits the supplied operation information OPS to the server SB via the network NW.
  • Sir The SB inputs characters and the like at the cursor position in the execution screen generated by the document creation program according to the operation information OPS including the key information of the keyboard KB.
  • the server SB supplies the edited update screen to the projector PJ1 via the network NW, and the projector PJ1 projects and displays the update screen as an original image ORG on the screen SC.
  • the original image (update screen) ORG in which the character “L” is inserted between the characters “ ⁇ ” and “ ⁇ ” is displayed.
  • the user operates the input unit 1360 provided in the computer PC 1 to display the original image (execution screen) ORG that is projected and displayed. Can be edited directly.
  • FIG. 29 a case has been described in which the execution screen of the application program supplied from the projector PJ 1 and the server SB is projected and displayed on the screen SC, but the projector PJ 1 and the internal storage device 1 104 When projecting and displaying the execution screen generated by the application program stored in the, the original image (execution screen) ORG can be edited directly.
  • the capacity of the external storage device 1102 and the internal storage device 1104 provided in the computer PC 1 can be relatively small.
  • the projector PJ1 does not need to transmit the operation information OPS supplied from the computer PC1 to the server SB.
  • the processing of supplying the operation signal OPS from the projector PJ1 to the server SB is performed by the network interface unit 1180 by the CPU 1100 in the projector PJ1.
  • the input unit 1360 when the input unit 1360 is operated at a position where the pointer image PPJ is superimposed on the original image ORG, a decoration image of a different type from the pointer image PPJ is superimposed on the original image ORG. it can.
  • the fourth embodiment when the input unit 1360 is operated at a position where the pointer image PPJ is superimposed on the original image ORG, the contents of the original image (execution screen) ORG can be edited.
  • a decoration image different from the pointer image PPJ can be superimposed on the original image ORG on the original image (execution screen) ORG.
  • the projector PJ 1 performs processing (decoration mode) for superimposing a decoration image on the original image ORG based on the operation information OPS supplied after the pointer image PPJ is superimposed on the original image ORG, (Execution screen) Execute separately from the process of editing the contents of ORG directly (edit mode). Note that such switching of the processing mode is performed in the menu image, and the CPU 1100 (FIG. 21) controls each unit according to the set processing mode.
  • the projection display system includes the external input device PC1 and the projector PJ1 connected via the network NW.
  • the external input device PC1 includes an operation information generation unit 1332 that detects an operation of the input unit 1360 by the user and generates operation information OPS based on the detection result.
  • the projector PJ 1 superimposes a pointer image on a predetermined position in the original image based on the operation information OPS supplied via the network NW, and edits the contents of the original image (execution screen) ORG.
  • Image data generating units 110, 1110, and 1140 that generate image data DDV representing the generated image.
  • the user can easily execute the processing related to the content of the image to be projected and displayed on the projector PJ 1 by operating the input unit 1 360 provided in the external input device PC 1. It is possible to do.
  • the projector, the projection display system, the method and the recording medium according to the present invention have been described based on the first to fourth embodiments. It is not intended to limit the present invention. The present invention can be modified and improved without departing from the spirit and scope of the claims, and it is needless to say that the present invention includes its equivalents.
  • the file icon is displayed on the display 54. Drag and drop FL to the projector icon PJ. Transfer when dropped and described as an example where the save destination is the projector 10, but transferred to the file server FS connected to the network. ⁇ You may save it. For example, when giving a presentation by a large number of people, the external storage device 41 of the projector 10 may not be able to store all the file data, and in such a case, the file server FS needs to By storing the necessary files, the necessary files can be saved.
  • the projector 10 acquires the file information stored in the file server FS in advance, and displays the file information on the file selection screen when selecting a file.
  • the projector 10 transmits a transfer request of the selected file to the file server FS. After receiving the selected file, the projector 10 executes the projection display.
  • the transfer destination of the file from the personal computer PC may be a PC memory card stored in the PCMCIA slot.
  • the personal computer PC can transfer the file to the PC memory card and then insert the PC memory card into the projector 10.
  • the same operational effects as those of the above embodiment can be obtained.
  • the password is set using the numbers 1 to 5, but this limitation only corresponds to the numbers that can be input by the remote controller 40 as described above. It goes without saying that, when numbers and characters other than 1 to 5 can be input by the remote controller 40, a password can be set using numbers and characters other than 1 to 5.
  • a liquid crystal display window is provided on the remote control 40, and the joystick 4 A password such as a character may be input using 02.
  • various numbers and characters may be input using a wireless keyboard or the like.
  • the file in which the password is set is associated with the password and transferred to the external storage device 41 of the projector 10, but the transferred file is encrypted by the personal computer PC. May be transferred to the projector 10 and then decoded by the projector 10. In such a case, the security level at the time of file transfer via the network line NL can be improved.
  • the display screen on the display 54 and the projection display screen SR in the first embodiment are merely examples, and it goes without saying that they can be changed as appropriate in the implementation.
  • the name of the ASP terminal unit 20 is used for the network terminal unit, but the projector 10 does not necessarily need to be an ASP terminal.
  • application data file
  • file may be received via a network
  • a file may be opened by a viewing application
  • the display screen may be projected.
  • the projector 10 may determine the file format and automatically start the optimal view, or the server 10 may start the appropriate view with the file to the projector 10.
  • a start command may be supplied at the same time.
  • the ASP terminal unit 20 and the projector unit 30 are each provided with a CPU, a RAM, and a ROM, but may be provided only in the ASP terminal unit 20. In such a case, the CPU in the ASP terminal unit 20 controls the projector unit 30.
  • the projector unit 30 includes the external video signal input terminal 312 and the external audio signal input terminal 322. May be omitted. In such a case This is because image data and audio data are supplied via the network line NL.
  • the computer PC 1 has the mouse MS as the input unit 1360, but instead of the mouse MS, the tablet ⁇ , the track po ⁇ , and the track Other pointing devices such as pads and joysticks may be provided. These pointing devices also have the same function as the mouse MS, and correspond to the pointing device in the present invention.
  • the mouse MS serving as the input unit 1360 is used to specify the superposition position of the pointer image PPJ in the original image ORG. If the mouse MS is not provided, the superimposition position of the pointer image PPJ may be designated using the direction keys of the keyboard KB. Alternatively, the superimposed position of the pointer image P P J may be designated by a coordinate value using a numeric keypad. Thus, the directional keys and the numeric keypad of the keyboard KB also function as the pointing device in the present invention.
  • the position information of the mouse MS included in the operation information OPS is represented by coordinate values, but the position information is a vector value indicating the movement amount. It may be represented. However, in this case, two-way communication is preferable. In other words, if a part of the series of position information generated by moving the mouse MS is not supplied to the projector PJ1, if the position information is represented by a vector value, the operation information generation area The positional relationship of the pointer image PPC in the GA and the positional relationship of the pointer image PPJ in the projected and displayed original image ORG do not match. In this way, the position information is represented by a vector value indicating the amount of movement.
  • the projector PJ 1 may transmit a reception signal to the computer PC 1 every time the projector PJ 1 receives the operation information OPS. Then, if the computer PC 1 has not received the reception signal, the computer PC 1 may transmit the operation information OPS again.
  • the position information is represented by coordinate values
  • the operation information generation area The positional relationship of the pointer image PPC in the GA and the positional relationship of the pointer image PPJ in the projected and displayed original image ORG can be substantially matched. Therefore, when the position information is represented by coordinate values, there is an advantage that unidirectional communication from the computer PC 1 to the projector PJ 1 is sufficient.
  • the operation information OPS may be transmitted by one-way communication from the computer PC1 to the projector PJ1, or may be transmitted by two-way communication between the projector PJ1 and the computer PC1.
  • the operation information generation unit 1332 stored in the RAMI 330 of the computer PC 1 has the operation information generation area GA (FIG. 25) on the display unit 1350. Is displayed, but the operation information generation area GA may not be displayed. In this case, the operation information OPS associated with the operation of the mouse MS is generated if the pointer image PPC is displayed somewhere in the entire display area of the display unit 1350.
  • the computer PC1 includes the display unit 135.
  • the display unit 135 may be omitted.
  • the external input device of the present invention generally includes an input unit, an operation information generation unit that detects an operation of the input unit by a user, and generates operation information based on a detection result, and is connected to a network, And a network interface unit for supplying the projector to the projector via a network.
  • the user operates the input unit 1360 of the computer PC 1 to convert the decorative image such as the pointer image PPJ into the original image O. It superimposes on RG, and directly edits the contents of the original image (execution screen) ORG generated by the application program.
  • the user can cause the projector PJ1 to execute another process related to the image projected and displayed.
  • the projector PJ 1 needs to enter a data name when storing image data in the external storage device 1102, the user operates the keyboard KB provided in the computer PC 1 by operating the keyboard KB.
  • the data name can be entered and displayed on the data name input screen.
  • the projector PJ1 When the projector PJ1 needs to enter a password when using image data stored in the memory card MC as original image data, the user operates the keypad KB provided on the computer PC1. By doing so, the password can be input and displayed on the password input screen. At this time, it is preferable that a code such as “*” different from the code input by the user is displayed on the password input screen projected and displayed.
  • the image data generation unit provided in the projector of the present invention generally includes operation information supplied to the network interface unit via the network, and is operated by operating the input unit of the external input device. Any processing may be used as long as it executes predetermined processing relating to the content of the projected and displayed image based on the generated operation information and generates image data representing the image to be projected and displayed.
  • the predetermined processing related to the content of the projected and displayed image in the image data generation unit is represented by decorative image data at a predetermined position in the original image represented by the original image data based on the operation information.
  • part of the configuration realized by hardware may be replaced by software, and conversely, part of the configuration realized by software may be replaced by hardware. It may be. example For example, some of the functions of the two CPUs 200 and 300 (Fig. 2) can be executed by dedicated hardware circuits.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Storage Device Security (AREA)

Description

明細書 プロジェクタおよび投写表示システム、 並びに、 その方法おょぴ記録媒体 技術分野
本発明は、 ネットワークに接続可能な投写型表示装置、 すなわちプロジェクタ 、 ネットワークを介した画像の表示方法、 およびネットワークを介するプロジェ クタの動作状態制御に関する。 発明の背景
これまで、 投写型表示装置すなわちプロジェクタは、 例えば、 パーソナルコン ピュータ等の画像生成装置と映像ケーブルを介して接続された状態でプレゼンテ ーション等に用いられてきた。 パーソナルコンピュータによって生成されたアナ ログ R G B信号は、 映像ケーブルを介してプロジェクタに入力され、 映像として スク リーン等に投写されていた。
このような使用条件下では、 パーソナルコンピュータは、 単にプロジェクタに 対して映像信号を出力する機能を果たしているに過ぎないが、 使用の都度、 映像 ケーブルを用いてパーソナルコンピュータとプロジェクタとを接続する作業は煩 雑であるという問題があった。
したがって、 プロジェクタ側にプレゼンテーション用のデータを格納できれば 便利である。 特に、 近年のネットワーク環境の発展を考慮すれば、 ネットワーク を介してプロジェクタに対して表示画像データを配信できれば更に便利である。 ' また、 プロジェクタ側にプレゼンテーション用データを格納する場合には、 格納 されたデータが第三者によって表示されないように保護することが望まれる。 また、 画像を投写表示するプロジヱクタは、 大画面表示が可能であることから
、 講演や会議、 学校の授業等において広く利用されている。 このプロジェクタは 、 通常、 プロジヱクタへの画像供給装置であり、 また、 プロジェクタの動作状態 を制御する制御装置でもあるコンピュータによって、 表示システムを構成するこ とにより利用されている。 制御装置としてのコンピュータとプロジェクタとは、 従来、 R S - 2 3 2 C等のインタ一フェースを介して接続されており、 コンビュ ータによってプロジェクタの種々の制御が行われる。
従来、 ユーザがプロジェクタの動作状態を制御する場合、 コンピュータにおい て専用のソフトウェアを実行することにより行われていた。 あるいは、 プロジェ クタに付属のリモートコントローラ (以下、 「リモコン」 と呼ぶ。 ) によりプロ ジ クタの動作状態状態を制御していた。
しかしながら、 会議等の途中において、 プロジェクタの動作状態を変更する場 合、 通常、 制御装置を操作するオペレータによってその変更が行われる。 このた め、 会議等のように複数の参加者がいる場合において、 参加者の一人がプロジェ クタの動作状態を変更させたい場合、 オペレータにプロジェクタの動作状態の変 更を依頼して変更しなければならなかった。
このような手順でプロジェクタの動作状態を変更する場合、 変更したい参加者 とオペレータとの間で、 変更の指示がうまく伝わらないこともある。 また、 変更 したい参加者自身が制御装置を直接操作するためには、 制御装置の設置されてい る位置に移動しなければならい。 以上の点から、 従来のプロジヱクタを利用した 表示システムには、 操作性が悪いという問題があった。
さらに、 ユーザは、 図 3 0に示すように、 リモコン RMを操作して、 プロジェ クタ P J Zに対して、 種々の処理を実行させることができる。 プロジェクタ P J Zは、 画像供給装置 1 9 0 0から供給されたアナログ画像信号 A V 1に基づいて 、 スクリーン S C上に画像を投写表示する。 ユーザは、 例えば、 リモコン R Mを 操作することにより、 スクリーン S C上に投写表示される原画像 O R G内にボイ ンタ画像 P P Jなどの装飾画像を重畳させることができる。 このように、 原画像 O R Gに装飾画像を重畳することが きれば、 プレゼンテーションをより効果的 に行うことができる。
しかしながら、 リモコン RMを用いて、 プロジェクタ P J Zに対して、 投写表 示される画像の内容に関する処理を実行させるのは、 困難であるという問題があ つた。 これは、 リモコン RMの操作性があまり高くないからである。 さらに、 リ モコン RMを用いる場合には、 複数人で一台のプロジェクタを用いて順次プレゼ ンテーションを行うときに、 リモコン R Mを各人で受け渡しする必要があるので 、 プレゼンテーションの交替を円滑に行うことが困難であった。 発明の開示
本発明は、 上記問題および要望を解決するためになされたものであり、 データ の秘匿性を保持しつつプロジェクタにデータを格納することを目的とする。 また 、 データの秘匿性を維持しつつ格納されたデータを投写表示することを目的とす る。
上記課題を解決するために本発明の第 1の態様は、 記憶装置を有する画像表示 装置と計算機とがネットワークを介して接続されている画像表示システムを提供 する。 本発明の第 1の態様に係る画像表示システムは、
データおよびコマンドの少なくとも一方を入力するための入力部と、 前記画像表示装置によって表示させる表示データを格納するデータ格納部と 前記データ格納部から前記画像表示装置の記憶装置へ所望のデータを転送す る際にパスヮードの設定を促すパスヮード設定要求部と、
前記入力部を介してパスヮードが設定された場合には、 設定されたパスヮー ドと前記所望のデータとを関連付けて前記画像表示装置の記憶装置へ転送するデ 一タ転送部とを備える前記計算機と、
前記転送されたパスワードと所望のデータとを前記記憶装置へ格納するデー タ受け取り部と、 データおょぴコマンドの少なくとも一方を入力するための入力部と、 前記記憶装置に格納されたデ一タから表示を望む表示データが選択された際 に、 パスワードの入力を要求し、 前記設定されたパスワードと前記入力部を介し て入力されたパスヮードとが符合するか否かを判定する認証部と、
前記両パスワードが符合すると判定した場合には、 前記選択された表示デー タを投写表示させる投写表示部とを備える前記画像表示装置とを備えることを特 徴とする。
本発明の第 1の態様に係る画像表示システムによれば、 計算機から画像表示装 置の記憶装置に対してデータを転送する際にはパスヮードの設定が要求され、 パ スワードが設定された場合には、 パスワードと関連付けられたデータが画像表示 装置の記憶装置に対して転送される。 また、 画像表示装置においては、 記憶装置 に格納されたデ一タから表示データが選択された場合には、 パスヮードの入力を 要求し、 設定パスヮードと入力パスヮードとが符合する場合には表示データが投 写表示される。 したがって、 画像表示装置の記憶装置にデータを格納する場合で あってもデータの秘匿性を保持することができる。 また、 画像表示装置の記憶装 置にデータを格納する画像表示装置において記憶装置に格納されているデータを 表示する場合にも、 データの秘匿性を維持しつつデータの表示を実行することが できる。
本発明の第 1の態様に係る画像表示システムにおいて、 前記計算機のデータ転 送部は、 前記入力部を介してパスワードが設定されなかった場合には、 前記所望 のデータのみを前記画像表示装置の記憶装置へ転送しても良い。 かかる構成を備 える場合には、 パスヮードの設定されないデータの転送を許容することができる 。 また、 前記画像表示装置の投写表示部は、 前記両パスワードが符合しないと判 定した場合には、 認証に失敗した旨を示す投写表示不許可画面を投写表示しても 良い。 かかる構成を備える場合には、 誤入力、 選択ミス等を報知することができ る。 本発明の第 1の態様に係る画像表示システムにおいて、 前記計算機はさらに、 前記データ格納部に格納されているデータの一覧、 およぴ前記画像表示装置のァ イコンを表示する表示画面を備え、 前記パスワード設定要求部は、 前記表示画面 上において前記格納されているデータの一覧から前記所望のデータが、' 前記画像 表示装置のアイコンへドラッグ ·アンド · ドロップされた際にパスワードの設定 を促しても良い。 かかる構成を備える場合には、 計算機から画像表示装置の記憶 装置へのデータの転送を視覚的に行うことができ、 その操作を容易化することが できる。
本発明の第 1の態様に係る画像表示システムはさらに、 前記ネットワークに接 続されているファイルサーバを有し、 前記計算機のデータ転送部は、 前記入力部 を介してパスヮードが設定された場合には、 設定されたパスヮードと前記所望の データとを関連付けて前記ファイルサーバへ転送しても良い。 かかる構成を備え る場合には、 画像表示装置の記憶装置に格納できない容量の大きなデータをも格 納することができる。
本発明の第 2の態様は、 計算機を介してプロジェクタを用いて表示するデータ を保存する方法を提供する。 本発明の第 2の態様に係るデータ保存方法は、 表示 するデータを決定し、 前記決定されたデ一タを記憶装置に格納する要求が発生し たか否かを判定し、 前記格納する要求が発生したと判定した場合には、 パスヮー ドの設定を要求し、 前記データを前記設定されたパスワードと関連付け、 前記パ スヮードと関連付けられたデータを前記記憶装置に転送することを特徴とする。 本発明の第 2の態様に係るデータ保存法法によれば、 データを記憶装置に格納 する場合には、 パスワードの設定を要求し、 設定されたパスワードと関連付けた データを記憶装置に転送して格納する。 したがって、 記憶装置にデータを格納す る場合であってもデータの秘匿性を保持することができる。
本発明の第 2の態様に係るデータ保存方法において、 前記計算機の表示画面上 において前記記憶装置のアイコンへ前記決定されたデータのアイコンをドラッグ 'アンド . ドロップが発生した場合には、 前記記憶装置への前記データの格納要 求が発生したと判定しても良い。 かかる構成を備える場合には、 表示画面上にお いてデータのアイコンを記憶装置のアイコンにドラッグ ·アンド · ドロップする という一般的な操作とパスヮード設定要求とを関連付けることができるので、 特 別な操作を必要とすることなくパスヮードの設定を促すことができる。
本発明の第 2の態様に係るデータ保存方法において、 前記記憶装置は前記プロ ジェクタに配置されていても良い。 あるいは、 前記記憶装置は、 前記プロジェク タおよび前記計算機とネットワークを介して接続されているファイルサーバに配 置されていても良い。 記憶装置が投写表示装置に配置されている場合には、 投写 表示装置を単独で用いて格納されているデータを表示することができる。 また、 記憶装置がフアイルサーバに配置されている場合には、 大容量のデータを格納す ることができる。
本発明の第 3の態様は、 パスヮードと関連付けられたデータを含む表示データ を画像表示装置において表示する方法を提供する。 本発明の第 3の態様に係るデ ータ表示方法は、 前記表示データの中から表示を所望する表示データを特定し、 前記特定された表示データがパスヮードと関連付けられているか否かを判定し、 前記特定された表示データがパスヮードと関連付けられていると判定した場合に は、 前記表示データに関連付けられたパスワードの入力を要求し、 前記入力され たパスワードと前記表示データに関連付けられたパスワードとが符合するか否か を判定し、 前記入力されたパスヮードと前記表示データに関連付けられたパスヮ —ドとが符合すると判定した場合には前記表示データを表示することを特徴とす る。 ·
本発明の第 3の態様によれば、 パスヮードと関連付けられている表示データの 表示が要求されると関連付けられたパスヮードの入力を要求し、 入力されたパス ヮードと関連付けられたパスヮードとが符合した場合に表示データを表示させる 。 したがって、 入力されたパスワードと関連付けられたパスワードとが符合しな い限り画像表示装置において表示データは表示されず、 表示データの秘匿性を確 保して表示データを表示することができる。
本発明の第 3の態様に係るデータ表示方法において、 前記入力されたパスヮー ドと前記表示データに関連付けられたパスヮードとが符合しないと判定した場合 には、 前記表示データの表示を許可しない旨を表示しても良い。 かかる構成を備 える場合には、 誤入力、 選択ミス等を報知することができる。
本発明の第 4の態様は、 データ保護機能を有する画像表示装置を提供する。 本 発明の第 4の態様に係る画像表示装置は、 データおよびコマンドの少なくとも一 方を入力するための入力部と、 パスワードと関連付けられた表示データを含む表 示データを格納する表示データ格納部と、 前記パスワードと関連付けられた表示 データの表示が要求された場合には、 パスワードの入力を要求するパスヮード要 求部と、 前記入力部を介して入力されたパスワードと前記表示データに関連付け られたパスヮードとが符合するか否かを判定する認証部と、 前記両パスヮードが 符合すると判定した場合には、 前記表示が要求された表示データを投写表示する 投写表示部とを備えることを特徴とする。
本発明の第 4の態様によれば、 表示データ格納部に格納されているパスヮード と関連付けられた表示データの表示が要求されると関連付けられたパスヮードの 入力を要求し、 入力されたパスヮードと関連付けられたパスヮードとが符合した 場合に表示データを投写表示させる。 したがって、 入力されたパスワードと関連 付けられたパスヮードとが符合しない限り画像表示装置において表示データは表 示されず、 画像表示装置の表示データ格納部に表示データを格納する場合であつ ても表示データの秘匿性を確保することができる。
本発明の第 5の態様は、 表示データを格納する格納装置を有する画像表示装置 を提供する。 本発明の第 5の態様に係る画像表示装置は、 データおよびコマンド の少なくとも一方を入力するための入力部と、 前記格納装置に格納されているデ ータの一覧を表示するデータ一覧表示部と、 前記データの一覧からデータが選択 された場合には、 選択されたデータと関連付けられたパスヮードの入力画面を表 示するパスヮード入力画面表示部と、 前記入力部を介して入力されたパスヮード が選択されたデータに予め関連付けられている設定パスワードと一致するか否か を判定する認証部と、 前記入力されたパスヮードが設定パスヮードと一致する場 合には、 選択されたデータを投写表示する投写表示部とを備えることを特徴とす る。
本発明の第 5の態様によれば、 データの一覧からデータが選択されると、 パス ヮードの入力画面を表示し、 入力されたパスヮードと設定パスヮードとが符合し た場合にデータを投写表示させる。 したがって、 入力されたパスワードと設定パ スワードとが符合しない限り画像表示装置においてデータは投写表示されず、 画 像表示装置の格納装置にデータを格納する場合であってもデータの秘匿性を確保 することができる。
本発明の第 5の態様に係る画像表示装置はさらに、 前記入力されたパスヮード が設定パスヮードと一致しない場合には、 認証に失敗した旨を示す投写表示不許 可画面を表示する不許可画面表示部を備えても良い。
本発明の第 6の態様は、 コンピュータ上で実行される、 プロジェクタを用いて 表示するデータを保存するためのプログラムを記憶するコンピュータ読取り可能 媒体を提供する。 本発明の第 6の態様に係るコンピュータ読取り可能媒体におい て、 前記プログラムは、 表示するデータを決定するステップと、 前記決定された データを記憶装置に格納する要求が発生したか否かを判定するステップと、 前記 格納する要求が発生したと判定した場合には、 パスヮードの設定を要求するステ ップと、 前記データを前記設定されたパスワードと関連付けるステップと、 前記 パスヮードと関連付けられたデータを前記記憶装置に転送するステップとを備え ることを特徴とする。
本発明の第 6の態様によれば、 データを記憶装置に格納する場合には、 パスヮ 一ドの設定を要求し、 設定されたパスヮ一ドと関連付けたデータを記憶装置に転 送して格納する。 したがって、 記憶装置にデータを格納する場合であってもデー タの秘匿性を保持することができる。
本発明の第 7の態様は、 パスヮードと関連付けられた表示データを画像表示装 置において表示するためのプログラムを記憶するコンピュータ読取り可能媒体を 提供する。 本発明の第 7の態様に係るコンピュータ読取り可能媒体において、 前 記プログラムは、 複数の表示データの中から表示を所望する表示データを特定す るステップと、 前記特定された表示データがパスワードと関連付けられているか 否かを判定するステップと、 前記特定された表示データがパスヮードと関連付け られていると判定した場合には、 前記表示データに関連付けられたパスヮードの 入力を要求するステップと、 前記入力されたパスワードと前記表示データに関連 付けられたパスワードとが符合するか否かを判定するステツプと、 前記入力され たパスヮードと前記表示データに関連付けられたパスヮードとが符合すると判定 した場合には前記表示データを表示するステップとを備えることを特徴とする。 本発明の第 7の態様によれば、 複数の表示データの中から特定された表示デー タがパスワードと関連付けられている場合には、 関連付けられたパスワードの入 力を要求し、 入力されたパスヮードと関連付けられたパスヮードとが符合する場 合には表示データを表示する。 したがって、 複数の表示データが存在する場合で あっても、 各データはパスワードによって保護されており、 入力されたパスヮー ドと関連付けられたパスワードとが符合しない限り表示データは表示されること はない。
また、 本発明は、 従来技術における上述の課題を解決するためになされたもの であり、 プロジェクタの動作状態を制御するための操作性の向上を図る技術を提 供することを目的とする。
上述の課題の少なくとも一部を解決するため、 本発明の第 8の態様は、 ネット ワーク接続可能なプロジェクタを提供する。 本発明の第 8の態様に係るプロジェ クタは、 画像を投写表示する投写表示部と、 投写表示部の動作状態を表す動作状 態情報を含むウェブページ情報を配信可能なウェブサーバ部と、 を備え、 前記ゥ ェプサーバ部は、 ウェブクライアントに配信されて表示されたゥ ブベージ上で 入力された制御情報に応じて、 前記投写表示部の動作状態を制御する制御信号を 前記投写表示部に供給する制御信号供給部と、 前記ウェブクライアントからの要 求に応じて、 前記投写表示部の動作状態を表す動作状態情報を含むウェブページ 情報を前記ウェブクライアントに配信するとともに、 前記制御信号によって制御 された前記投写表示部の動作状態を表す新たな動作状態情報を取得して、 前記ゥ エブクライアントに配信されたウェブべ一ジ情報を更新するウェブべ一ジ制御部 とを有することを特徴とする。
本発明の第 8の態様に係るプロジェクタでは、 ウェブクライアント (ゥヱプブ ラウザと呼ばれることもある) に配信されたウェブページ上において入力された 制御情報に応じて、 投写表示部の動作状態を制御することができる。 従って、 ネ ットワークを介してプロジェクタの動作状態を容易に制御することができ、 従来 に比べてプロジェクタの動作状態を制御するための操作性の向上を図ることが可 能である。
ここで、 前記ウェブページは、 前記プロジェクタの動作状態を変更するための ボタンを含み、 前記ボタンを押すことにより前記制御情報が前記プロジェクタに 送信されることが好ましい。
こうすれば、 ユーザがウェブクライアントにおいて表示されたウェブページ上 のボタンを押すことにより、 動作状態を容易に変更することができる。
なお、 本発明の第 8の態様は、 種々の態様で実現することが可能であり、 例え ば、 プロジェクタの動作状態制御方法、 その方法または装置の機能を実現するた めのコンピュータプログラム、 そのコンピュータプログラムを記録した記録媒体 、 そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、 等の 態様で実現することができる。
さらに、 本発明は、 従来技術における上述の課題を解決するためになされたも のであり、 ユーザがプロジェクタに対して、 投写表示される画像の内容に関する 処理を容易に実行させることのできる技術を提供することを目的とする。
上述の課題の少なくとも一部を解決するため、 本発明の第 9の態様は、 入力部 を備える外部入力装置とネットワークを介して接続されるプロジヱクタを提供す る。 本発明の第 9の態様に係るプロジェクタは、
前記ネットワークと接続するためのネットワークインタフェース部と、 前記ネットワークを介して前記ネットワークインタフェース部に供給される操 作情報であって、 前記外部入力装置の前記入力部を操作することによって生成さ れた前記操作情報に基づいて、 投写表示される画像の内容に関する所定の処理を 実行し、 投写表示される画像を表す画像データを生成するための画像データ生成 部と、
前記画像データに応じて画像光を形成する電気光学装置と、
前記電気光学装置で得られた画像光を投写する投写光学系と、
を備えることを特徴とする。
本発明の第 9の態様に係るプロジェクタでは、 ネットワークインタフェース部 を介して供給される操作情報に基づいて、 投写表示される画像の内容に関する処 理を実行し、 画像データを生成することができるので、 ユーザは、 外部入力装置 に備えられた入力部を操作することによって、 プロジェクタに対して、 投写表示 される画像の内容に関する処理を容易に実行させることが可能となる。
また、 ネットワークに複数台の外部入力装置を接続すれば、 複数人で一台のプ 口ジェクタを用いて順次プレゼンテーションを行うときに、 プレゼンテーション の交替を円滑に行うことが可能となる。
本発明の第 9の態様に係るプロジェクタにおいて、
前記投零表示される画像は、 原画像と原画像に重畳される装飾画像とで形成さ れており、
前記装飾画像を表す装飾画像データは、 前記外部入力装置から供給されず、 前 記画像データ生成部によって準備され、
前記画像データ生成部は、 前記外部入力装置から供給される前記操作情報に基 づいて、 前記原画像を表す原画像データと前記装飾画像データとを合成して前記 画像データを生成することにより、 前記原画像内の所定の位置に前記装飾画像を 重畳することが好ましい。
こうすれば、 ユーザが外部入力装置に備えられた入力部を操作することによつ て、 容易に、 投写表示される原画像内に装飾画像を重畳させることができる。 本発明の第 9の態様に係るプロジェクタにおいて、
前記操作情報は、 前記外部入力装置の前記入力部としてのポインティングデバ イスを操作することによって生成される位置情報を少なくとも含んでおり、 前記画像データ生成部は、 前記位置情報に基づいて、 前記原画像内の所定の位 置に、 前記装飾画像としてのボインタ画像を重畳することが好ましい。
こうすれば、 ユーザが外部入力装置に備えられたポインティングデパイスを移 動させることにより、 投写表示される原画像内に重畳されるポインタ画像を容易 に移動させることができる。
本発明の第 9の態様に係るプロジェクタにおいて、
前記位置情報は、 前記ポインティングデバイスによって指示される座標値情報 であることが好ましい。
こうすれば、 ポインティングデバイスによって指示される位置と、 投写表示さ れた原画像内に重畳されるボインタ画像の位置とを容易に対応付けることができ る。
本発明の第 9の態様に係るプロジヱクタにおいて、
前記操作情報は、 さらに、 前記ボインティングデバイスに設けられたスィツチ を操作することによって生成されるスィッチ情報を含んでおり、
前記画像データ生成部は、
前記操作情報に含まれる前記位置情報と前記スィツチ情報とに基づいて、 前記 原画像内の指定された範囲において、 前記ボインタ画像と異なる種類の装飾画像 を重畳することが好ましい。
このように、 操作情報が位置情報とスィッチ情報とを含んでいれば、 原画像内 において範囲指定をすることができるので、 指定された範囲において、 ポインタ 画像と異なる種類の装飾画像を重畳させることが可能となる。
本発明の第 9の態様に係るプロジェクタにおいて、
前記操作情報は、 さらに、 前記外部入力装置の前記入力部としてのキーボード を操作することによつて生成されるキー情報を含んでおり、
前記画像データ生成部は、 前記キー情報に基づいて、 前記原画像内に、 前記装 飾画像としての符号画像を重畳することが好ましい。
こうすれば、 ユーザが外部入力装置に備えられたキーポードを操作することに より、 容易に、 投写表示される原画像内に文字などの符号画像を重畳させること が可能となる。
本発明の第 1 0の態様は、 ネットワークを介して接続された外部入力装置とプ ロジェクタとを備える投写表示システムを提供する。 本発明の第 1 0の態様に係 る投写表示システムは、
前記外部入力装置は、
入力部と、
■ ユーザによる前記入力部の操作を検出し、 検出結果に基づいて操作情報を生成 する操作情報生成部と、
前記ネットワークと接続し、 前記操作情報を前記ネットワークを介して前記プ ロジェクタに供給するための第 1のネットワークインタフェース部と、 を備え、
前記プロジェクタは、
前記ネットワークと接続するための第 2のネットワークインタフェース部と、 前記ネットワークを介して前記第 2のネットワークインタフェース部に供給さ れる操作情報に基づいて、 投写表示される画像の内容に関する所定の処理を実行 し、 投写表示される画像を表す画像データを生成するための画像データ生成部と 前記画像データに応じて画像光を形成する電気光学装置と、
前記電気光学装置で得られた画像光を投写する投写光学系と、
を備えることを特徴とする。
本発明の第 1 0の態様に係る投写表示システムは、 本発明の第 9の態様に係る プロジェクタを備えているので、 本発明の第 9の態様に係るプロジェクタを用い る場合と同様の作用 ·効果を奏し、 ユーザは、 外部入力装置に備えられた入力部 を操作することによって、 プロジェクタに対して、 投写表示される画像の内容に 関する処理を容易に実行させることが可能となる。
また、 本発明の第 1 0の態様に係る投写表示システムにおいて、
前記外部入力装置は、 さらに、 表示部を備え、
前記操作情報生成部は、 前記表示部に、 前記ポインティングデバイスの操作に 伴う前記操作情報を生成するための領域である操作情報生成領域を表示させ、 前 記操作情報生成領域内に、 前記ボインティングデバイスに対応するボインタ画像 が表示される場合にのみ前記ボインティングデバイスの操作を検出するようにし てもよい。
こうすれば、 操作情報生成領域内にポインタ画像が表示される場合にのみ操作 情報が生成されるので、 ユーザは、 操作情報生成領域以外の領域にポインタ画像 を表示させることにより、 ポィンティングデバイスを用いて他の操作を行うこと が可能となる。
また、 本発明の第 1 0の態様に係る投写表示システムにおいて、
前記操作情報生成領域は、 投写表示される画像領域と対応付けられていること が好ましい。
こうすれば、 操作情報生成領域におけるポインタ画像の位置関係と、 投写表示 される画像領域におけるポインタ画像の位置関係とを、 ほぼ一致させることが可 能となる。
本発明の第 1 1の態様は、 入力部を備える外部入力装置において、 前記外部入 力装置とネットワークを介して接続されるプロジェクタに供給される前記入力部 の操作に伴う操作情報を生成するための操作情報生成方法を提供する。 本発明の 第 1 1の態様に係る操作情報生成方法は、
( a ) ユーザによる前記入力部の操作を検出する工程と、
( b ) 検出結果に基づいて前記操作情報を生成する工程と、
を備えることを特徴とする。
こうすれば、 ユーザが、 外部入力装置に備えられた入力部を操作することによ つて、 操作情報を生成することができる。 また、 この操作情報をプロジヱクタに 供給すれば、 プロジェクタに対して、 投写表示される画像の内容に関する所定の 処理を容易に実行させることが可能となる。
本発明の第 1 1の態様に係る方法において、
前記工程 (a ) は、 前記外部入力装置に備えられた表示部に、
( a— 1 ) 前記入力部としてのボインティングデパイスの操作に伴う前記操作情 報を生成するための領域である操作情報生成領域を表示させる工程と、
( a— 2 ) 前記操作情報生成領域内に、 前記ポインティングデバイスに対応する ボインタ画像が表示される場合にのみ前記ボインティングデバイスの操作を検出 する工程と、
を含むことが好ましい。
こうすれば、 操作情報生成領域内にポインタ画像が表示される場合にのみ操作 情報が生成されるので、 ユーザは、 操作情報生成領域以外の領域にポインタ画像 を表示させることにより、 ボインティングデバイスを用いて他の操作を行うこと が可能となる。
本発明の第 1 2の態様は、 入力部を備える外部入力装置において、 前記外部入 力装置とネットワークを介して接続されるプロジェクタに供給される前記入力部 の操作に伴う'操作情報を生成するためのコンピュータプログラムを記録したコン ピュータ読み取り可能な記録媒体を提供する。 本発明の第 1 2の態様に係るコン ピュータ読み取り可能媒体は、
ユーザによる前記入力部の操作を検出する機能と、
検出結果に基づいて前記操作情報を生成する機能と、
をコンピュータに実現させるためのコンピュータプログラムを記録する。
この記録媒体に記録されたコンピュータプログラムを外部入力装置が実行すれ ば、 本発明の方法と同様に、 ユーザが、 外部入力装置に備えられた入力部を操作 することによって、 操作情報を生成することができる。 また、 この操作情報をプ ロジェクタに供給すれば、 プロジェクタに対して、 投写表示される画像の内容に 関する所定の処理を容易に実行させることが可能となる。
なお、 本発明の第 9〜第 1 2の態様は、 プロジェクタゃ投写表示システムの機 能を実現するためのコンピュータプログラム、 そのコンピュータプログラムを記 録した記録媒体、 そのコンピュータプログラムを含み搬送波内に具現化されたデ ータ信号、 等の種々の態様で実現することができる。 図面の簡単な説明
図 1は、 第 1の実施例に係るプロジェクタがネッ トワークに接続されて構成さ れる画像表示システムの構成例を示す説明図である。
図 2は、 第 1の実施例に係るプロジェクタの内部回路構成を示すプロック図で ある。
図 3は、 パーソナルコンピュータ P Cからプロジェクタ 1 0に対して表示デー タを転送する際に実行される処理ルーチンを示すフローチヤ一トである。
図 4は、 パーソナルコンピュータ P Cからプロジェクタ 1 0に対して表示デー タを転送するために、 パーソナルコンピュータ P Cの表示ディスプレイ 5 4上に て実行される処理を示す説明図である。
図 5は、 図 4に示す処理を終了した後に表示ディスプレイ 5 4上に現れるパス ワード設定画面の一例を示す説明図である。
図 6は、 プロジェクタ 1 0において外部記憶装置 4 1に格納されているデータ ファイルを再生する際に実行される処理ルーチンを示すフローチャートである。 図 7は、 第 1の実施例にて用いられるリモコン 4 0を模式的に示す説明図であ る。
図 8は、 プロジェクタ 1 0の投写表示画面 S Rのうち、 メニュー画面の一例を 示す説明図である。
図 9は、 プロジェクタ 1 0の投写表示画面 S Rのうち、 ファイル選択画面の一 例を示す説明図である。
図 1 0は、 プロジェクタ 1 0の投写表示画面 S Rのうち、 パスワード入力ポッ タス P B 1の表示の一例を示す説明図である。
図 1 1は、 プロジヱクタ 1 0の投写表示画面 S Rのうち、 認証失敗表示ボック ス P B 2の表示の一例を示す説明図である。
図 1 2は、 プロジェクタ 1 0の投写表示画面 S Rのうち、 再生不許可表示ボッ クス P B 3の表示の一例を示す説明図である。
図 1 3は、 本発明の第 2の実施例に係るプロジェクタの配置例を示す説明図で ある。
図 1 4は、 A S P端末 2 0がウェブサーバ部として機能する場合の構成を示す 機能プロック図である。
図 1 5は、 ウェブサーバ部 2 0から配信されてウェブブラゥザ C Cで表示され るホームページを示す説明図である。
図 1 6は、 ゥェブページとしてウェブブラウザ C Cに表示された動作状態設定 メニュー画面を示す説明図である。
図 1 7は、 ウェブページとしてウェブブラウザ C Cに表示された映像設定画面 を示す説明図である。
図 1 8は、 ウェブページとしてウェブブラウザ C Cに表示された音声設定画面 を示す説明図である。
図 1 9は、 明るさを 1段階アップさせた後の映像設定画面を示す説明図である o
図 2 0は、 本発明の第 3実施例としての投写表示システムを示す説明図である 図 2 1は、 図 2 0のプロジェクタ P J 1の概略構成を示す説明図である。 図 2 2は、 図 2 0のコンピュータ P C 1の概略構成を示す説明図である。 図 2 3は、 図 2 0の投写表示システムの利用形態の一例を示す説明図である。 図 2 4は、 プロジヱクタ P J 1とコンピュータ P C 1との処理手順を示すフロ 一チヤ一トである。
図 2 5は、 コンピュータ P C 1の表示部 1 3 5 0に表示される操作検出用ウイ ンドウ D Wを示す説明図である。
図 2 6は、 原画像 O R G内のポインタ画像 P P Jを用いて、 原画像 O R G内に ボックス画像 P Bを重畳する際の処理を示す説明図である。
図 2 7は、 ユーザが入力部 1 3 6 0としてのキーボード K Bを操作することに よって投写表示される画像を示す説明図である。
図 2 8は、 第 4実施例における投写表示システムを示す説明図である。
図 2 9は、 スクリーン S C上に投写表示された原画像 O R Gの内容を直接編集 する際の処理を示す説明図である。
図 3 0は、 従来のプロジェクタを示す説明図である。 発明を実施するための最良の形態
第 1の実施例:
以下、 本発明に係るセキュリティ機能を有するプロジェクタ、 およびこのプロ ジェクタがネットワークに接続されて構成される画像表示システムについて図面 を参照しつつ、 第 1の実施例に基づいて説明する。
A . 第 1の実施例に係るプロジェクタの構成:
図 1および図 2を参照して第 1の実施例に係る投写型表示装置すなわちプロジ ヱクタの概略構成の一例について説明する。 図 1は第 1の実施例に係るプロジェ クタがネットワークに接続されて構成される画像表示システムの構成例を示す説 明図である。 図 2は第 1の実施例に係るプロジェクタの内部回路構成を示すプ口 ック図である。
プロジェクタ 1 0は、 ネットワーク回線 N Lを介してファイルサーバ F S、 パ 一ソナルコンピュータ (計算機) P Cと接続されている。 パーソナルコンビユー タ P Cは、 アプリケーションプログラムを実行する C P U 5 0、 アプリケーショ ンプログラムを格納している R OM 5 1、 アプリケーションプログラム実行中の 処理内容を一時的に格納する R AM 5 2を備えている。 パーソナルコンピュータ P Cはまた、 アプリケ一ションプログラム終了時にアプリケーションプログラム によって生成したデータ (表示データ、 ファイル) を格納する内蔵型ハードディ スク ドライプ (H D D ) 5 3、 アプリケーションプログラムのユーザインターフ エースを表示する表示ディスプレイ 5 4を備えている。 パーソナルコンピュータ P Cの H D D 5 3に格納された表示データは、 後述する手順によってプロジェク タ 1 0またはファイルサーバ F Sに転送される。 パーソナルコンピュータ P C.に 対しては、 例えば、 キーボード 5 5 1、 マウス 5 5 2といった無線式の外部入力 装置 5 5を介してコマンド、 データが入力される。
プロジェクタ 1 0は、 例えば、 P C M C I A規格に準拠するメモリカードとい つた外部記憶装置 4 1を備えており、 パーソナルコンピュータ P Cから転送され た表示データを格納する。 プロジェクタ 1 0に対しては、 例えば、 リモコン等の 外部入力装置 4 0を介してコマンド、 データが入力される。 ファイルサーバ F S は、 プロジェクタ 1 0に代わって表示データを格納するサーバである。 表示デー タを再生 (投写) する場合には、 プロジェクタ.1 0がファイルサーバ F Sに対し て該当表示データの転送を要求すると、 要求された表示データはネットワーク回 線 NLを介してはファイルサーバ F Sからプロジェクタ 1 0に転送される。 図 2を参照して第 1の実施例に係るプロジヱクタ 1 0の内部構成について説明 する。 プロジェクタ 1 0は、 主として AS P端末としての機能を果たす AS P端 末部 20と、 主として従来のプロジェクタ機能を果たすプロジェクタ部 30とを 備えている。 すなわち、 第 1の実施例に係るプロジェクタ 1 0は AS Pに対応し た AS P端末として機能し得る。
AS P端末部 20は、 ビュヮ一アプリケーション、 AS Pに対応したクライア ントアプリケーショ ンの実行を初めとする種々の演算処理を実行する第 1中央処 理装置 (CPU) 200、 第 1 C PU 200にて実行するビュヮ一アプリケーシ ョン、 クライアントアプリケ——ンョンを初めとする種々のプログラムを格納する 第 1 リードオンリメモリ (ROM) 202、 第 1 C PU 200の演算結果、 デー タ等を一時的に格納する第 1ランダムアクセスメモリ (RAM) 204を備えて いる。 第 1 ROM20 2には、 更に表示データを再生 (投写表示) する際に実行 する認証プログラムが格納されている。 第 1 C PU 200と第 1 ROM202と は単方向または双方向通信可能に接続されており、 第 1 CPU 200と第 1 RA M204とは双方向通信可能に接続されている。
AS P端末部 20は、 第 1 CPU 200と双方向通信可能に接続され、 第 1 C PU 200からの描画指令に基づいて画像データを生成するグラフィックスコン トローラ 2 1 0を備えている。 グラフィックスコントローラ 2 1 0は、 画像を生 成するための L S Iチップ (図示しない) 、 生成した画像 (表示画像) を記憶す るためのビデオメモリ、 すなわち、 第 1フレームメモリ (VRAM) 2 1 2を有 している。
AS P端末部 20は、 プロジェクタ 1 0と外部装置との間でコマンドやデータ を送受信するためのィンターフェースとして、 ネットワーク ·インターフェース ' コントローラ 2 2 0、 I /Oポート 2 3 0、 P CMC I A ·インターフェース • コントローラ 24 0、 U S Bコントローラ 2 5 0を備えている。 ネットワーク •ィンターフェース · コントローラ 2 2 0は、 例えば、 イーサネット規格に準拠 したコントローラであり、 AS P端末部 2 0からネットワーク回線 NLへ送信す るコマンドやデータをネットワーク通信のプロトコルに従って適切な形式に変換 し、 あるいは、 ネットワーク回線 NLから受信した信号を AS P端末部 2 0での 処理に適した形式に変換する。 I ZOポート 2 3 0は一般的な入出力ポートであ り、 識別回路 2 3 2を介して無線入力装置 2 3 4と接続されている他、 外部入力 装置 4 0やプロジヱクタ部 3 0の第 2 C PU 3 0 0と接続されている。 無線入力 装置 244は、 無線式の入力装置から無線送信された入力データを受信するため の入力装置であり、 識別装置 2 3 2は無線入力装置 2 3 4が受信した入力データ が自身に向けて送信された入力データであるか否かを識別する。
P CMC I A 'インターフェース ' コントローラ 2 4 0は、 P CMC I A規格 に従って AS P端末部 2 0から外部装置へデータを転送し、 外部装置から AS P 端末部 2 0へデータを転送するコントローラである。 本実施例では、 例えば、 P Cカードメモリが外部記憶装置 4 1として接続されており、 パーソナルコンビュ ータ P Cから転送された表示データは外部記憶装置 4 1に格納される。 U S Bコ ントローラ 2 5 0は、 U S B規格に従って AS P端末部 2 0と外部装置との間で データを転送するコントローラであり、 例えば、 U S BHUB 2 5 2を介して外 部入力装置 4 0と接続される。
AS P端末部 2 0は、 この他に AS P端末部 2 0における絶対時間を供給する リアルタイムクロック 2 6 0、 第 1 C PU 2 0 0からの指令に基づいてサウンド データを生成する音源 2 6 2と接続されている。
なお、 AS P端末部 2 0における第 1 C PU 2 0 0、 各コントローラ 2 1 0等 は、 データおょぴコマンドを伝達するバスを介して相互に接続されている。
次に、 プロジェクタ部 3 0の構成について説明する。 プロジェクタ部 3 0は、 所定のプログラムを実行してプロジェクタ部 3 0の各回路を制御する第 2中央処 理装置 (C PU) 3 0 0、 第 2 C PU 3 0 0にて実行するプログラムを格納する 第 2リードオンリメモリ (ROM) 3 0 2、 第 2 C PU 3 0 0の演算結果、 デー タ等を一時的に格納する第 2ランダムアクセスメモリ (RAM) 3 0 4を備えて いる。 第 2 C PU 3 0 0と第 2 ROM3 0 2とは単方向または双方向通信可能に 接続されており、 第 2 C PU 3 0 0と第 2 RAM3 0 4とは双方向通信可能に接 続されている。 また、 第 2 C PU 3 0 0と第 1 C PU 2 0 0とは I 0ポート 2 3 0を介して双方向通信可能に接続されており、 第 1 CPU 2 00と第 2 C PU 3 0 0との間でデータやコマンドの送受信が可能である。
プロジェクタ部 3 0は、 さらに、 映像信号変換回路 3 1 0、 音声制御回路 3 2 0、 液晶 (LCD) 駆動回路 3 3 0、 光源駆動回路 3 4 0、 冷却ファン制御回路 3 5 0、 投写光学系 3 6 0も備えている。
映像信号変換回路 3 1 0は、 アナログ一ディジタル変換機能、 デコード機能、 同期信号分離機能、 画像処理機能といった機能を実現する。 すなわち、 映像信号 変換回路 3 1 0は、 外部映像信号入力端子 3 1 2から入力されたアナログ映像信 号をディジタル画像データに変換し、 変換されたディジタル画像データを同期信 号に同期して映像信号変換回路 3 1 0内の図示しないフレームメモリに書き込み 、 あるいは、 フレームメモリに書き込まれたディジタル画像データをフレームメ モリから読み出す。 アナログ映像信号としては、 例えば、 パーソナルコンビユー タから出力された R G B信号、 ビデオテープレコーダ等から出力されたコンポジ ット映像信号が入力される。 アナログ映像信号がコンポジット映像信号の場合に は、 映像信号変換回路 3 1 0は、 コンポジット映像信号を復調すると共に RGB の 3色の色信号で構成されるコンポーネント映像信号おょぴ同期信号に分離し、 コンポーネント映像信号をディジタル画像データに変換する。 アナログ映像信号 がパーソナルコンピュータから出力された RGB信号の場合には、 元々コンポ一 ネント映像信号として入力されると共に同期信号も分離して入力されるので分離 処理は不要であり、 映像信号変換回路 3 1 0は、 コンポーネント映像信号をディ ジタル画像データに変換する。
映像信号変換回路 3 1 0には、 AS P端末部 2 0のグラフィックスコントロー ラ 2 1 0から送信されたディジタル映像信号も入力される。 かかる場合には、 元 々ディジタル映像信号として入力されると共に同期信号が分離して供給されるの でアナログ一ディジタル変換処理および分離処理は不要である。
音声制御回路 3 2 0は、 外部音声信号入力端子 3 2 2、 スピー力 3 24、 第 2 C PU 3 0 0、 および AS P端末部 2 0の音源 2 6 2と接続されている。 音声制 御回路 3 2 0は、 第 2 C PU 3 0 0と接続されており、 第 2 C PU 3 0 0からの 指令に従い、 外部音声信号入力端子 3 2 2または音源 2 6 2から伝送された音声 信号またはサウンドデータに基づいて生成した駆動信号によってスピーカ 3 2 4 を駆動する。
L CD駆動回路 3 3 0は、 映像信号変換回路 3 1 0によって処理された画像デ ータを受け取り、 受け取った画像データに応じて L CD 3 3 2を駆動して光源 3 4 2から照射された照明光を変調する。 L CD 3 3 2によって変調された照明光 はレンズを含む投写光学系 3 6 0を介して被投写面、 例えば、 投写スク リーン上 に投写される。 光源 3 4 2には光源制御回路 3 4 0が接続されており、 光源制御 回路 3 40は、 第 2 C P U 3 0 0からの指令に従って光源 3 4 2のオン、 オフ等 を制御する。 光源 3 4 2の背面には光源 34 2に対して冷却風を送るための冷却 ファン 3 5 2が配置されている。 冷却ファン 3 5 2には冷却ファン制御回路 3 5 0が接続されており、 冷却ファン制御回路 3 5 0は、 第 2 C PU 3 0 0からの指 令に従って冷却ファン 3 5 2の回転速度等を制御する。
なお、 AS P端末部 2 0は、 例えば 1枚のプリント基板上に実装された形態を 有し、 プロジヱクタに任意に着脱できるように構成されていることが好ましい。 図 2の構成から理解できるように、 このプロジェクタは、 AS P端末部 2 0が装 着されていない状態においても、 外部から供給された映像信号に応じて画像を投 写表示可能である。 このように、 AS P端末部 20をプロジェクタに任意に着脱 可能であれば、 AS P端末部 20の機能 (AS P端末機能や後述する描画機能) を有するプロジェクタと、 AS P端末部 20の機能を有さないプロジェクタとを 容易に構成することが可能である。
B. 第 1の実施例に係るプロジェクタの基本的動作:
次に上記構成を備えるプロジェクタ 1 0の基本的な動作について図 1および図 2を参照して説明する。
ネットワーク回線 NLを介してプロジェクタ 1 0に入力された信号は、 AS P 端末部 20のネッ トワーク 'インターフェース · コントローラ 220によって A S P端末部 20に適した形式に変換され、 第 1 C PU 200へデータおよびコマ ンドとして転送される。 第 1 C PU 200は、 転送されたデータを第 1 RAM2 04に一時的に格納し、 転送されたコマンドが AS P端末部 20に対するコマン ドであるかプロジヱクタ部 30に対するコマンドであるかを判別する。 転送され たコマンドがプロジェクタ部 30に対するコマンドの場合には、 第 1 CPU 20 0は I ZOポート 2 3 0を介してプロジェクタ部 3 0の第 2 C PU 300に対し てコマンドを転送する。
一方、 転送されたコマンドが AS P端末部 20に対するコマンドの場合には、 第 1 C PU 200は、 転送されたコマンドに基づいた演算処理を実行する。 第 1 CPU 200は、 例えば、 第 1 RAM204に格納されたデータを外部記憶装置 41に格納する。 また、 第 1 CPU 200は、 外部記憶装置 4 1に格納されてい るデータの再生要求 (投写表示要求) がリモコン 40等により入力された場合に は、 後述する認証プログラムを実行する。 第 1 C PU200は、 外部記憶装置 4 1または第 1 RAM204に格納されたデータを読み出す (再生する) ために、 適切なビュヮ一アプリケーションを第 1 ROM 20 2から読み出して起動し、 格 納されているデータのユーザィンターフェースデータを生成して描画コマンドと 共に、 グラフィックスコントローラ 2 1 0に対して転送する。 あるいは、 プロジェクタ 1 0がサーバ 'ベース ' コンピューティング (S B C ) のクライアントとして機能する場合には、 第 1 CPU200は、 対応するクラ イアントアプリケーションを起動して、 受信した専用フォーマツトを有する表示 画像データからユーザインターフェース画面データを生成するようにグラフィッ クスコントローラ 2 1 0に描画コマンドを送信する。 グラフィックスコントロー ラ 2 1 0は、 受信した描画コマンドに従いュ一ザインターフェースデータ、 ある いは、 表示画面データに基づいて表示すべきユーザィンターフェース画像データ (以下 「画像データ」 という。 ) を生成し、 グラフィックスコントローラ 2 1 0 内の VRAM2 1 2中に格納する。
グラフィ ックスコントローラ 2 1 0は、 第 1 CPU200からの指令に従って 、 所定のタイミングにてグラフィックスコントローラ 2 1 0の VRAM 2 1 2に 格納されている画像データを読み出し、 プロジェクタ部 30の映像信号変換回路 3 1 0に転送する。 第 1 CPU20 0は、 US BHUB 25 2、 US Bコント口 ーラ 2 50、 I 0ポート 230を介して外部入力装置 40からコマンドまたは データを受け取る。 第 1 CPU200は、 外部入力装置 40またはネットワーク 回線 NLを介して受信したコマンドに従って、 第 1 RAM 204内に格納されて いるデータ、 または、 P CMC I A ·インターフェース ' コントローラ 240を 介してグラフィックスコントローラ 2 1 0の VRAM 2 1 2中に格納されている 画像データを外部記憶装置 4 1に格納する。
映像信号変換回路 3 1 0は、 グラフィックスコントローラ 2 1 0から画像デー タを受け取ると、 既述の処理を実行して L CD駆動回路 3 30に処理済みの画像 データを転送する。 LCD駆動回路 3 30は、 受け取った画像データに応じて L CD 3 32を駆動制御して所望の画像データを投写スクリーン上に投写させる。 第 2 CPU3 00は、 例えば、 ネッ トワーク回線 N から I ZOポート 2 3 0 を介して転送されたコマンドが光源 342のオンを指示する場合には、 光源制御 回路 340を介して光源 342をオンする。 第 2 CPU 300は、 冷却ファン制 御回路 3 5 0を介して光源 3 4 2の温度に応じて冷却ファン 3 5 2の作動状態 ( 回転速度、 回転タイミング等) を制御する。
プロジェクタ 1 0からネッ トワーク回線 NLへのデータ送信は、 第 1 C PU 2 0 0の指令に従ってネットワーク ·ィンターフェース ' コントローラ 2 2 0を介 して実行される。
C . 第 1の実施例に係るプロジヱクタへ表示データを格納する手順およぴプ口 ジェクタを用いて表示データを表示する手順
次に、 上記構成を備えるプロジェクタ 1 0に対してネットワークを介してパー ソナルコンピュータ P Cから表示データ (ファイル) を転送する際に実行される 処理について図 1、 図 3〜図 5を参照して説明する。 図 3はパーソナルコンビュ ータ P Cからプロジェクタ 1 0に対して表示データを転送する際に実行される処 理ルーチンを示すフローチヤ一トである。 図 4はパーソナルコンピュータ Pじか らプロジェクタ 1 0に対して表示データを転送するために、 パーソナルコンビュ ータ P Cの表示ディスプレイ 5 4上にて実行される処理を示す説明図である。 図 5は図 4に示す処理を終了した後に表示ディスプレイ 54上に現れるパスヮード 設定画面の一例を示す説明図である。
パーソナルコンピュータ P C上にてアプリケーションを実行して生成されるプ レゼンテ一ション用データ、 ヮードプロセッサ用データ等は、 アプリケーション 実行中はパーソナルコンピュータ P C内の RAM 5 2に一時的に格納されている 。 アプリケーション終了時には、 パーソナルコンピュータ P Cの内蔵 HDD 5 3 にデータファイルとして格納される。 したがって、 HDD 5 3には過去に生成し たデータフアイルを含め複数のデータフアイルが格納されている。
図 3に示す処理ルーチンにおいて、 パーソナルコンピュータ P Cの C PU 5 0 は、 ファイル保存要求の発生を待機し (ステップ S 1 0 0 : N o) 、 ファイル保 存要求を検出の発生を検出すると (ステップ S 1 0 0 : Y e s ) 、 ファイルの保 存先の入力を要求する (ステップ S 1 1 0) 。 今日の一般的な OSでは、 表示ディスプレイ 54上に表されるグラフィカル · ユーザ ·ィンタ一フェース (GU I ) によって種々の操作を視覚的に実行可能と なっている。 このような GU I環境では、 図 4に示すように、 例えば、 HDD 5 3上に格納されている各ファイルに対応するファイルアイコン F Lが表示ディス プレイ 54上のウィンドウ FWに表示され、 また、 転送先であるプロジェクタ 1 0を示すアイコン P Jが表示ディスプレイ 54上に表示される。 なお、 HDD 5 3上のファイルをプロジェクタ 1 0に移動 (転送) する場合には、 所望のフアイ ノレアイコン F L上にマウスポィンタ MPを置き、 マウス 5 5 2の選択ボタンを押 し下げたままの状態でマウスボインタ MPをプロジェクタアイコン P J上に移動 させた後、 選択ボタンを解放する。 かかる操作は、 ドラッグ · アンド · ドロップ (D&D) として周知のファイル移動操作である。
パーソナルコンピュータ PCの CPU 50は、 マウス 5 5 2の選択ポタンが押 し下げられたままでマウスポィンタ MPの座標位置がプロジェクタアイコン P J の領域と重なり、 マウス 5 52の選択ボタンが解放されると、 ファイル保存要求 の発生を検出する。
パーソナルコンピュータ P Cの C PU 50は、 保存先がデフオルト値であるか 否かを判定し (ステップ S 1 20) 、 保存先がデフォルト値であると判定した場 合には (ステップ S 1 20 : Y e s ) 、 図 5に示すようにパスヮードの設定を要 求するパスヮード入力ウィンドウ PWを表示ディスプレイ 54上に表示させる ( ステップ S 1 30) 。 なお、 デフォルト値として設定されている保存先はプロジ ェクタ 1 0の外部記憶装置 4 1であり、 このデフォルト値は、 本処理ルーチンの 設定画面を通じて任意の保存先に変更可能である。
パーソナルコンピュータ PCの C PU 5 0は、 入力された保存先がデフオルト 値と異なると判定した場合には (ステップ S 1 20 : N o) 、 保存先を変更して (ステップ S 140) 、 パスヮードの設定を要求する (ステップ S 1 30) 。 本 実施例では、 例えば、 ネッ トワーク回線 NLを介してパーソナルコンピュータ P Cと接続されているファイルサーバ F Sへも所望のファイルを格納することがで きる。 一般的に、 プロジェクタ 1 0の外部記憶装置 4 1の記憶容量はそれほど大 きくないので、 大量のファイル (データ) を格納しなければならない場合には、 ファイルサーバ F Sを利用すると都合が良い。
パーソナルコンピュータ P Cの C PU 50は、 パスワードが設定されたか否か を判定し (ステップ S 1 50) 、 パスワードが設定されたと判定した場合には ( ステップ S 1 50 : Y e s ) 、 ドラッグ ·アンド · ドロップされたファイルとパ スワードとを関連付ける (ステップ S 1 60) 。 C PU 50は、 パスワードと関 連付けられたファイルを保存先に転送して (ステップ S 1 70) 、 本処理ルーチ ンを終了する。 転送されたファイルは、 プロジェクタ 1 0の外部記憶装置 4 1、 または、 ファイルサーバ F Sに格納される。
パスワードの設定に際しては、 例えば、 キーボード 5 5 1を介して 1〜 5まで の任意の 5つ数字を入力すると、 パスヮード入カウィンドウ PWの入力欄 PW1 にはアスタリスクが表示される。 確認のため、 同一のパスワードを確認入力欄 P W 2に再入力し、 「OK」 ボタンをマウスポインタ MPを介してクリ ックすると パスワードが設定される。 パスワードの入力を必要としない場合には、 入力欄 P W 1をプランクにしたまま 「OK」 ボタンをマウスポインタ MPを介してクリッ クすると、 パスワード入力ウィンドウ PWが閉じる。 なお、 本実施例では、 後述 するリモートコントローラ (リモコン) 40にて入力可能な数字が 1〜 5である ことからパスワードの設定に用いる数字を 1〜 5に限定しているに過ぎず、 リモ コンの態様に従ってこの他の数字、 または、 文字等を組み合わせられることは言 うまでもない。
パーソナルコンピュータ P Cの C PU 50は、 パスヮードの設定がされなかつ たと判定した場合には (ステップ S 1 5 0 : N o) 、 ファイルのみを保存先に転 送して (ステップ S 1 70) 、 本処理ルーチンを終了する。 転送されたファイル は、 プロジェクタ 1 0の外部記憶装置 4 1、 または、 ファイルサーバ F Sに格納 される。
次に、 プロジェクタ 1 0にて外部記憶装置 4 1に格納されている表示データを 再生する際に実行される認証処理について図 1、 図 2、 図 6〜図 1 2を参照して 説明する。 図 6は、 プロジェクタ 1 0において外部記憶装置 4 1に格納されてい るデータファイル (表示データ) を再生する際に実行される処理ルーチンを示す フローチヤ一トである。 図 7は本実施例にて用いられるリモコン 4 0を模式的に 示す説明図である。 図 8はプロジェクタ 1 0の投写表示画面 S Rのうち、 メ-ュ 一画面の一例を示す説明図である。 図 9はプロジェクタ 1 0の投写表示画面 S R のうち、 ファイル選択画面の一例を示す説明図である。 図 1 0はプロジェクタ 1 0の投写表示画面 S Rのうち、 パスワード入力ボックス P B 1の表示の一例を示 す説明図である。 図 1 1はプロジェクタ 1 0の投写表示画面 S Rのうち、 認証失 敗表示ボックス P B 2の表示の一例を示す説明図である。 図 1 2はプロジェクタ 1 0の投写表示画面 S Rのうち、 再生不許可表示ボックス P B 3の表示の一例を 示す説明図である。
本処理ルーチンにて、 コマンドを送信するリモコン 4 0は、 図 7に示すように 、 予め割り当てられた機能を実行するファンクションキーとして機能する 1〜5 の数字キー 4 0 1を備えている tf リモコン 4 0はまた、 投写表示された画面 SR 上にてカーソルまたはボインタ位置を上下左右方向に移動させるためのジョイス ティック 4 0 2、 メニュー呼び出しキー 4 0 3、 実行キー 4 0 4等を備えている 。 なお、 本処理ノレ一チンの開台前に、 リモコン 4 0のメニュー呼び出しキー 4 0 3が操作されて、 図 8に示すようなメニュー画面が投写表示されているものとす る。
プロジェクタ 1 0の第 1 C PU 2 0 0は、 リモコン 4 0を介したファイル選択 要求の入力を待機し (ステップ S 2 0 0 : N o) 、 ファイル選択要求が入力され ると (ステップ S 2 0 0 : Y e s ) 、 第 2 C PU 3 0 0に対して図 9に示すよう なファイル選択画面を投写表示するよう要求する (ステップ S 2 1 0) 。 第 1 C PU 200は、 図 8に示すメ-ユー画面においてジョイスティック 40 2の操作 により 「2. ファイル選択」 のメニューバー MB 1が反転表示された状態にて、 実行キー 404が押し下げられるとファイル選択要求が発生 (入力) されたもの と判定する。
第 1 CPU20 0は、 選択ファイルの再生要求が発生したか否かを判定する ( ステップ S 220) 。 第 1 CPU200は、 図 9に示すファイル選択画面におい てジョイスティック 402の操作により所望のファイル、 ここでは 「2. * * * * *. p p t」 のメニューバー MB 2が反転表示された状態にて、 実行キー 40 4が押し下げられると選択ファイルの再生要求が発生 (入力) されたものと判定 する。
第 1 CPU20 0は、 選択ファイルの再生要求が発生したと判定すると (ステ ップ S 220 : Y e s ) 、 図 1 0に示すパスヮード入力ボックス P B 1を投写表 示させるように第 2 C PU 300に要求する (ステップ S 2 3.0) 。 パスヮード 入力ボックス PB 1では、 設定パスワードの入力が要求され、 リモコン 40のフ アンクションキー 40 1を介して 1〜 5の数字の組み合わせからなるパスヮ一ド が入力される。 第 1 CPU 200は、 入力されたパスワードが設定されたパスヮ ードと符合するか否かを判定し (ステップ S 240) する。 第 1 CPU 200は 、 両パスヮードが符合すると判定した場合には (ステップ S 240 : Y e s) 、 選択ファイルの描画処理をグラフィックスコントローラ 2 1 0に要求して、 選択 ファイルの再生が開始される (ステップ S 250) 。 グラフィックスコントロー ラ 2 1 0にて描画生成された画像データは、 プロジヱクタ部 3 0の映像信号処理 回路 3 1 0、 LCD駆動回路 3 30、 LCD 3 3 2、 投写光学系 360を介して スクリーン上に投写表示される。
第 1 CPU200は、 リモコン 40を介して入力されたパスワードが設定パス ワードと一致しないと判定した場合には (ステップ S 240 : No) 、 符合しな かった回数をカウントする不符合カウンタのカウンタ値 C eを 1つインクリメン トする (ステップ S 2 6 0) 。 なお、 カウンタ値 C eとしては正の整数値を採る ものとする。 第 1 C PU 200は、 不符合カウンタ値 C eが 4以上であるか否か を判定し (ステップ S 2 70) 、 不符合カウンタ値が 3以下の場合には (ステツ プ S 270 : N o) 、 図 1 1に示すような認証失敗表示ボックス PB 2を表示す るよう第 2 C PU 3 0 0に要求する (ステップ S 280) 。 第 1 CPU2 00は 、 認証失敗表示ボックス PB 2を表示したまま、 パスワードの再入力を待機する 第 1 CPU200は、 不符合カウンタ値 C eが 4以上であると判定した場合に は (ステップ S 2 70 : Y e s) 、 第 2 CPU30 0に対して図 1 2に示すよう な再生不許可表示ボックス PB 3を投写表示するよう要求し (ステップ S 290 ) 、 選択されたファイルの再生を実行しない。 すなわち、 不正なアクセスを防止 するために、 所定回数以上 (本実施例では 4回) パスワードの不符合が続いた場 合には選択ファイルの再生を禁止するのである。 再生不許可表示ボックス P B 3 の 「OK」 ボタンがマウス 55 2 (マウスボインタ) を介してクリックされると 、 第 1 CPU20 0は、 ステップ S 300に移行する。
最後に、 第 1 CPU 200は、 不一致カウンタ値 C eを 0にリセッ トし (ステ ップ S 30 0) 、 本処理ルーチンを終了する。
第 1 CPU 200は、 選択ファイルの再生要求がないと判定した場合には (ス テツプ S 2 20 : N o ) 、 本処理ルーチンを終了する。 プロジェクタ 1 0の外部 記憶装置 4 1に格納されているファイルを確認する場合等が該当する。
以上説明したように、 第 1の実施例によれば、 ネッ トワーク回線 NLを介して プロジェクタ 1 0の外部記憶装置 4 1に対して表示データ (ファイル) を転送し 、 格納させることができる。 したがって、 予めプロジェクタ 1 0の外部記憶装置 4 1にプレゼンテーションに必要なデータファイルを格納しておくことにより、 パーソナルコンピュータ P Cを接続することなく、 プロジェクタ 10を単独で用 いてプレゼンテーションを実行することができる。 これにより、 プロジェクタ 1 0を用いる都度、 パーソナルコンピュータ P Cを接続する手間を省くことができ る。
また、 上記第 1の実施例では、 パーソナルコンピュータ P Cにおいて、 表示デ イスプレイ 5 4上にてファイルアイコン F Lをプロジェクタアイコン P Jにドラ ッグ .アンド . ドロップすれば、 フアイルをプロジェクタ 1 0に転送 ·保存する ことができるので、 視覚的に簡易にファイル転送 ·保存操作を実行することがで きる。 加えて、 パーソナルコンピュータ P Cからプロジェクタ 1 0へのフアイノレ 転送を開始する前に、 パスワード設定ウィンドウ P Wが表示ディスプレイ 5 4上 に表示され、 ファイルに関連付けるパスワードを設定することができるので、 フ アイルの秘匿性を保持することができる。
さらに、 上記第 1の実施例では、 プロジェクタ 1 0は、 ファイルの再生が指示 された場合には、 パスヮード入力ボックス P B 1を投写表示画面 S R上に表示し て設定されたパスヮードの入力を促し、 入力されたパスヮードと設定されたパス ワードとが符合した場合にだけファイルの再生を開始する。 したがって、 外部記 憶装置 4 1に格納されたファイルが第 3者によって勝手に再生されることはなく 、 ファイルの秘匿性を維持することができる。 また、 多人数にてプロジェクタ P Jを共有する場合にも、 使用の都度、 ファイルを外部記憶装置 4 1から消去する 手間を省くことができる。 すなわち、 使用するファイルを外部記憶装置 4 1に格 納したままの状態で複数人にてプロジェクタ 1 0を共有しても、 各ファイルの秘 匿性を保持することができる。
また、 第 1の実施例では、 設定できるパスワードをリモコン 4 0にて入力可能 な数字 (1〜5 ) の組み合わせとしているので、 プロジェクタ 1 0側でパスヮー ドを入力する際に、 リモコン 4 0以外の入力装置を用いる必要がない。 第 2の実施例:
第 2の実施例に係るプロジェクタについて以下、 説明する。 なお、 本発明の第 2の実施例に係るプロジェクタの構成の説明では、 主に相違点について説明し、 第 2の実施例に係るプロジェクタの構成のうち、 第 1の実施例に係るプロジヱク タの構成と同一の構成については、 第 1の実施例において用いた符号と同一の符 合を用いてその説明を省略する。
D. 第 2の実施例に係るプロジェクタの配置:
図 1 3は、 本発明の第 2の実施例に係るプロジ-クタの配置例を示す説明図で ある。 プロジェクタ 1 0は、 例えば、 図 1 3に示すように天井につり下げられて 用いられる。 このプロジェクタ 1 0は、 ネットワーク回線 NLに接続されており 、 ネットワーク回線 NLを介してサーバコンピュータ S Cやクライアントコンビ ユータ CCとの間でデータやコマンドが送受信される。 ユーザは、 プロジェクタ 1 0に対して、 例えば、 無線式キーボード 40 1や無線式マウス 40 2といった 無線式の外部入力装置 40を用いてコマンドゃデータの入力が可能である。 図示 しない画像供給装置からプロジェクタ 1 0に供給された映像は、 投写スクリーン S CR上に投写される。
また、 本第 2の実施例においては、 AS P端末部 20は、 ウェブサーバ部とし ての機能を果たす。 ゥ ブサーバ部としての機能には、 投写表示部の動作状態を 表す動作状態情報を含むウェブページを配信可能な機能が含まれる。 したがって 、 第 1 ROM 2 1 0には、 ビュヮ一アプリケ一ション等に加えて、 ウェブページ を公開するためのウェブアプリケーションが含まれている。 したがって、 AS P 端末部 20がウェブサーバ部として機能する場合には、 第 1 CPU 200は、 ゥ エブサーバアプリケーションを第 1 ROM 20 2から読み出して起動し、 ウェブ クライアント (ウェブブラウザとも呼ばれる) に対して指定されたウェブページ 情報を配信する。
E. 第 2の実施例に係るプロジェクタの動作状態制御:
図 1 4は、 AS P端末部 20がウェブサーバ部として機能する場合の構成を示 す機能プロック図である。 AS P端末部 20は、 第 1 C PU 200が第 1 ROM 202に格納されているウェブサーバアプリケーションを実行することにより、 ウェブサーバ部として機能する。 以下では、 AS P端末部 20をウェブサーバ部 20とも呼ぶ。 ウェブサーバ部 20は、 主に、 全体の動作を制御する制御部 21 と、 動作状態情報取得部 22と、 ページ情報配信部 24と、 ネットワーク入出力 部 26と、 動作状態制御部 27とで構成される。
ネッ トワーク入出力部 26は、 ネットワーク I /Fコントローラ 2 20の動作 を制御する機能を有している。 動作状態情報取得部 2 2は、 プロジェクタ部 30 や AS P端末部 20の種々の動作状態を示す情報を動作状態情報 23として取得 する機能を有している。 AS P端末部 2 0の動作状態を示す情報は、 第 1 ROM 202、 第 1 RAM204 (図 2) に格納されている。 プロジェクタ部 3 0の動 作状態を示す情報は、 第 2ROM302、 第 2RAM304 (図 2) に格納され ており、 第 2 CPU 300から Iノ0ポート 230を介して転送される。
ページ情報配信部 24は、 クライアントコンピュータ CCにおいて実行されて いるウェブクライアント (ウェブブラゥザとも呼ばれる) からの要求に対して、 対応するウェブページを示すページ情報を、 ページ情報データベース 2 5のなか から選択して配信する機能を有している。 また、 配信すべきページ情報として、 動作状態情報取得部 22で取得した動作状態情報 23が含まれている場合には、 これを含めて配信する。
動作状態制御部 2 7は、 ウェブブラウザから返送された制御情報 (コマンド) に応じて AS P端末部 20の動作状態を制御するとともに、 プロジェクタ部 30 の動作状態を制御する制御信号をプロジェクタ部 30に供給する機能を有してい る。 プロジェクタ部 30は、 供給された制御信号部に応じて対応する動作状態を 制御する。 また、 ウェブブラウザから制御情報が返送された場合、 これに併せて ウェブページの更新命令も返送される。 このため、 動作状態制御部 27によって 動作状態が制御された場合には、 動作状態情報取得部 22によって、 新たに動作 状態情報 2 3が取得され、 ページ情報配信部 24によって新たに取得された動作 状態取得情報 2 3を含むページ情報が配信されて、 ウェブブラウザにおいて表示 されるウェブページが更新される。 なお、 動作状態情報取得部 2 2は、 動作状態 制御部 2 7による制御の有無に関わりなく動作状態の変更を監視し、 変更されて いれば新しい動作状態情報を取得するようにしてもよい。
なお、 動作状態制御部 2 7が本発明の制御信号供給部に相当し、 動作状態情報 取得部 2 2とページ情報配信部 2 4とが本発明のページ情報更新部に相当する。 次に、 クライアントコンピュータ C Cからプロジェクタの種々の動作状態を設 定する手順について図 1 5ないし図 1 9を用いて説明する。 クライアントコンピ ユ ータ C Cにおいて実行されるウェブブラゥザ (以下では、 単に 「ウェブブラゥ ザ C C」 と呼ぶ場合もある) において、 ウェブサーバ部 2 0に対応する U R L (Uniform Resource Locator) を入力して指定すると、 ウェブサーバ部 2 0は、 対 応するホームぺージ情報をウェブブラウザ C Cに配信する。 ウェブブラウザ C C は、 図 1 5に示すホームページを表示する。
ユーザがウェブブラゥザ C Cで表示されたホームページ上の動作状態設定アイ コン W Cを選択実行すると、 その動作状態設定アイコン W Cに割り付けられた U R Lが指定される。 ゥヱブサーバ部 2 0は、 指定された U R Lに対応するページ 情報をぺージ情報データベース 2 5の中から選択してゥヱブブラウザ C Cに配信 する。 ウェブブラウザ C Cは、 図 1 6に示すような動作状態設定メニュー画面を ウェブページとして表示する。 図 1 6は、 映像設定ボタン V Bと、 音声設定ボタ ン A Bと、 高度設定ボタン H Bと、 情報表示ポタン I Bと、 全体初期化ポタン R Bの 5つの設定ポタンが選択可能なメニュー (Web Menu) として表示されてい る例を示している。
ユーザが 5つの設定ボタンの中から選択したい設定ボタンを押すことにより、 その設定ポタンに割り付けられた U R Lが指定される。 そして、 ゥヱブサーバ部 2 0が指定された U R Lに対応するページ情報をページ情報データベース 2 5の 中から選択してウェブブラゥザ C Cに配信することにより、 ウェブブラゥザ C C には対応する設定画面がウェブページとして表示される。 例えば、 映像設定ボタ ン V Bを押すと、 図 1 7に示すような映像設定画面が表示される。 図 1 7は、 映 像に関する制御可能な動作状態として、 「明るさ」 、 「コントラス ト」 、 シヤー プネス」 、 「ガンマ補正」 の 4つのメニューが表示されている例を示している。
「明るさ」 の設定画面としては、 6段階の明るさの状態を表示可能な動作状態 表示画面と、 動作状態表示画面の左側に示された明るさマイナスボタン I D Bと 、 動作状態表示の右側に示された明るさプラスボタン I U Bとが表示されている 。 「コントラス ト」 、 「シャープネス」 についても 「明るさ」 と同様に表示され ている。
「ガンマ補正」 については、 「ダイナミック」 、 「ノーマル j 、 「ナチュラル
」 の 3つの状態に対応する 3つのラジオボタンが表示されている。
また、 図 1 6の音声設定ポタン A Bを押すと、 図 1 8に示すような音声設定画 面がウェブページとして表示される。 図 1 8は、 音声に関する制御可能な動作状 態として、 「音量」 、 「高音」 の強さ、 「低音」 の強さが表示されている例を示 している。 「音量 J 、 「高音」 、 「低音」 の設定画面についても、 図 1 7の 「明 るさ」 と同様に表示されている。
図 1 6の他の設定ボタン、 高度設定ボタン H Bや、 情報表示ボタン I B、 全初 期化ポタン R Bについても、 それぞれ対応するウェブ画面が表示される。 高度設 定ポタン H Bを押すことにより、 カラー設定や、 プロジェクタの設置環境 (天吊 りか否か、 リア投写か否か) 等のプロジェクタに関する種々の設定画面が表示さ れる。 情報表示ポタン I Bを押すことにより、 プロジェクタの情報、 例えば、 ラ ンプ点灯時間、 映像の種類、 解像度等の情報が表示される。 全体初期化ボタン R Bを押すことにより、 プロジヱクタの動作状態を初期状態とするための設定画面 が表示される。
次に、 プロジヱクタ 1 0の動作状態を変更する場合について、 図 1 7の映像設 定画面において映像の明るさを変更する場合を例に説明する。 映像の明るさを現 在の明るさよりも明るくする場合には明るさプラスボタン I U Bを押し、 暗くす る場合には明るさマイナスボタン I D Bを押すことにより行われる。 明るさブラ スボタン I U Bを 1回押すと、 明るさ I U Bに割り付けられている明るさを 1段 階アップさせる制御情報 (明るさアップ命令) 、 ウェブサーバ部 2 0に送信さ れる。 このとき、 同時に、 ウェブページの更新命令も送信されて、 ウェブブラウ f C Cに表示されているゥェブページとしての映像設定画面が一旦消示される。 ウェブサーバ部 2 0の動作状態制御部 2 7 (図 1 4 ) は、 送られてきた制御情 報 (コマンド) がプロジェクタ部 3 0への情報か A S P端末部 2 0への情報かを 判断する。 明るさアップ命令は、 プロジェクタ部 3 0への命令であるのでプロジ ヱクタ部 3 0に転送される。 プロジェクタ部 3 0は、 この命令に応じて映像の明 るさのアップを実行する。 これにより、 プロジェクタ部 3 0の動作状態が変更さ れる。 このとき、 動作状態情報取得部 2 2 (図 1 4 ) は、 プロジェクタ部 3 0の 変更後の動作状態を示す情報を動作状態情報 2 3として新たに取得する。 ページ 情報配信部 2 4 (図 1 4 ) は、 新たに取得された動作状態情報を含む、 ページ情 報をウェブブラウザ C Cに配信する。 ウェブブラウザ C Cには、 新たに取得され た動作状態情報 2 3に応じて更新されたウェブページとしての映像設定画面が表 示される。 図 1 9は、 明るさを 1段階アップさせた後の映像設定画面を示してい る。 明るさの動作状態表示が図 1 7の位置から 1段階明るい位置に変更されてい る (黒丸の位置が図 1 7に対して 1つ右にずれている) 例を示している。
映像の明るさを暗くする場合も同様に行うことができる。 コントラストゃシャ ープネスの設定も同様である。 ガンマ補正の変更は、 対応するラジオボタンの選 択を行うことにより実行できる。
上記説明では、 映像設定画面における映像の明るさを例に説明しているが、 他 の種々の設定画面における設定も同様に行うことができる。
以上説明したように、 第 2の実施例においては、 ウェブサーバ部 2 0によって クライアントコンピュータ C Cにより実行されるウェブブラウザに配信されて表 示されるウェブページ上で、 ユーザによって入力される制御情報に応じて、 プロ ジェクタ 1 0の種々の動作状態を制御することができる。 これによりプロジェク タ 1 0に対して離れた位置にいるユーザが容易にその動作状態を制御することが できる。 従って、 本実施例のプロジェクタは、 従来のプロジェクタに比べて、 プ ロジェクタの動作状態を制御するための操作性の向上を図ることが可能である。 なお、 第 2の実施例で説明したウェブページは、 本発明を説明するための一例 であり、 これらに限定されるものではない。
F. 第 3の実施例:
次に、 本発明の第 3の実施例に係るプロジェクタについて説明する。 図 2 0は 、 本発明の第 3実施例としての投写表示システムを示す説明図である。 この投写 表示システムは、 プロジェクタ P J 1 (すなわち投写型表示装置 P J 1 ) とコン ピュータ P C 1とを備えており、 プロジェクタ P J 1とコンピュータ PC 1とは 、 LANなどのネットワーク NWを介して接続されている。 なお、 図 20のコン ピュータ P C 1が本発明における外部入力装置に相当する。
図 20に示すように、 コンピュータ P C 1は、 ポインティングデバイスとして マウス MSを備えている。 後述するように、 マウス MSの操作に伴う操作情報 O P Sは、 ネットワーク NWを介してプロジェクタ P J 1に供給される。 プロジェ クタ P J 1は、 操作情報〇P Sに基づいて、 投写表示される画像の内容に関する 所定の処理を実行する。 例えば、 プロジェクタ P J 1は、 ネットワーク NWを介 して供給された操作情報 O P Sに基づいて、 スクリーン S C上に表示された原画 像 ORG内にポインタ画像 P P Jを表示させることができる。 なお、 図 20にお いて、 コンピュータ P C 1は、 プロジェクタ P J 1に対して、 操作情報 OP Sを 供給しており、 投写表示される画像を形成する原画像 ORGやポインタ画像 P P Jなどを表す画像データは供給していない。
図 2 1は、 図 20のプロジェクタ P J 1の概略構成を示す説明図である。 プロ ジェクタ P J 1は、 CPU 1 1 00と、 外部記憶装置 1 1 02と、 ROM RA Mなどの内部記憶装置 1 1 04と、 アナログ画像信号入力部 1 1 08と、 画像処 理部 1 1 1 0と、 液晶ライ トパルプ駆動部 1 1 20と、 液晶ライトバルブ 1 1 3 0と、 装飾画像処理部 1 1 40と、 メニュ一画像処理部 1 1 50と、 リモコン信 号処理部 1 1 6 0と、 メモリカード MCに格納された画像データなどを読み取る ための読取装置 1 1 70と、 ネットワークインタフェース部 1 1 80を備えてい る。 C P U 1 1 00と、 外部記憶装置 1 1 02と、 内部記憶装置 1 1 04と、 画 像処理部 1 1 1 0と、 装飾画像処理部 1 1 40と、 メニュー画像処理部 1 1 50 と、 リモコン信号処理部 1 1 6 0と、 読取装置 1 1 70と、 ネットワークインタ フェース部 1 1 80とは、 バス 1 1 00 bによって互いに接続されている。 液晶 ライトバルブ 1 1 3 0は、 照明光学系 1 1 200によってほぼ均一に照明されて おり、 液晶ライ トバルブ 1 1 30において形成された画像光は、 投写光学系 1 2 20によってスク リーン S C上に投写される。 図 2 1において、 光学系 1 1 20 0, 1 220の図示は、 簡略化されている。
なお、 本実施例のプロジェクタ P J 1は、 図示しないィンタフェースを介して 、 キーボードゃマウスなどの入力機器を接続することも可能である。
アナログ画像信号入力部 1 1 08には、 外部の画像供給装置 (図示せず) から アナログ画像信号 AV 1が供給される。 アナログ画像信号 AV 1としては、 例え ば、 パーソナルコンピュータから供給されたコンピュータ画像を表す R G B信号 や、 ビデオレコーダやテレビジョン受信機から供給された動画を表すコンポジッ ト画像信号などの画像信号が供給される。 アナログ画像信号入力部 1 1 0 8は、 アナログ画像信号 A V 1を AD変換し、 デジタル画像データ DV 1を出力する機 能を有している。
画像処理部 1 1 1 0は、 原画像データと装飾画像データとを合成して合成画像 データを生成する機能を有している。 これにより、 原画像データによって表され る原画像 ORG (図 2 0) に、 装飾画像データによって表されるポインタ画像 P P J (図 2 0 ) などの装飾画像を重畳させることができる。 原画像データは、 画 像処理部 1 1 1 0内の図示しないフレームメモリにー且書き込まれる。 画像処理 部 1 1 1 0は、 フレームメモリに書き込まれた原画像データを読み出す際に、 原 画像データと装飾画像データとを合成し、 合成画像データ D D Vを液晶ライ トバ ルブ駆動部 1 1 2 0に供給する。
なお、 原画像データとしては、 アナログ画像信号入力部 1 1 0 8から供給され る画像データ D V 1や、 ネットワークインタフェース部 1 1 8 0を介してネット ワークから供給される画像データ、 メニュー画像処理部 1 1 5 0から供給される メニュー画像データ、 メモリカード M Cから読み取られて読取装置 1 1 7 0から 供給される画像データなどが用いられる。 一方、 装飾画像データとしては、 装飾 画像処理部 1 1 4 0から供給される装飾画像データが用いられる。
ここで、 装飾画像とは、 原画像とは独立して準備される画像 (付加画像) を意 味しており、 原画像に重畳 (付加) されることによりスクリーン S C上に投写表 示される。
液晶ライ トバルブ駆動部 1 1 2 0は、 画像処理部 1 1 1 0から供給された合成 画像データ D D Vに応じて、 画像表示データ S Dを生成する。 液晶ライ トバルブ 1 1 3 0は、 画像表示データ S Dによって駆動される。 このとき、 液晶ライ トパ ルプ 1 1 3 0は、 照明光学系 1 1 2 0 0からの光を変調し、 画像を表す画像光を 形成する。
装飾画像処理部 1 1 4 0は、 装飾画像を表す装飾画像データを生成して、 画像 処理部 1 1 1 0に供給する機能を有している。 具体的には、 装飾画像処理部 1 1 4 0は、 ポインタ画像 P P J (図 2 0 ) を表すポインタ画像データや、 ポインタ 画像 P P Jを用いて範囲指定することにより所望のサイズで作成される特定形状 の画像 (例えば、 指差し画像) や描画画像 (例えば、 ボックス画像や囲み枠画像 ) などの種々の装飾画像データを生成して、 画像処理部 1 1 1 0に供給する。 メニュー画像処理部 1 1 5 0は、 メ-ユー画像を表すメニュー画像データを生 成して画像処理部 1 1 10に供給する機能を有している。 ユーザは、 メニュー画 像に従って、 プロジェクタ P J 1に関する種々の設定を行うことができる。
ネットワークインタフェース部 1 1 8 0は、 プロジェクタ P J 1を LANに接 続し、 コンピュータ P C 1から LANを介して供給される操作情報 OP Sを、 ノ ス 1 1 00 bを介して C PU 1 1 0 0に供給する機能を有している。 CPU 1 1 00は、 操作情報 OP Sに基づいて、 画像処理部 1 1 10や装飾画像処理部 1 1 40、 メニュー画像処理部 1 1 50などを制御する。 例えば、 操作情報〇 P Sに 、 原画像 ORG内に重畳されるポインタ画像 P P J (図 20) の位置を表す位置 情報が含まれている場合には、 装飾画像処理部 1 140は、 ポインタ画像データ を操作情報 (位置情報) OP Sに基づいて画像処理部 1 1 1 0に供給する。 これ により、 画像処理部 1 1 1 0は、 原画像データとボインタ画像データとを操作情 報 (位置情報) OP Sに基づいて合成することができ、 この結果、 原画像 ORG の所定の位置にポインタ画像 P P Jが重畳されることとなる。 また、 ネットヮー クインタフエース部 1 1 80は、 後述するように、 LANを介して供給される画 像データを原画像データとして画像処理部 1 1 1 0に供給する機能を有している リモコン信号処理部 1.1 60 (図 2 1) は、 リモコン RMからの制御信号に基 づいてプロジヱクタ P J 1の各部の機能を制御する。 例えば、 リモコン信号処理 部 1 1 6 0は、 リモコン RMからの制御信号に基づいて、 装飾画像処理部 1 14 0の機能を制御し、 原画像 ORG内の所定の位置にポインタ画像 P P Jを重畳さ せることができる。 ただし、 本実施例の投写表示システムでは、 リモコン RMに 代えて、 LANに接続されたコンピュータ P C 1のマウス MS (図 20) を操作 することにより、 原画像 ORG内の所定の位置にボインタ画像 P P Jを重畳させ ることが可能となっている。
なお、 図 2 1の C PU1 1 0 0と画像処理部 1 1 1 0と装飾画像処理部 1 14 0とが、 本発明における画像データ生成部に相当する。 図 2 2は、 図 2 0のコンピュータ P C 1の概略構成を示す説明図である。 コン ピュータ P C 1は、 C PU 1 1 3 0 0と、 外部記憶装置 1 3 1 0と、 ROM1 3 2 0と、 RAM 1 3 3 0と、 表示部 1 3 5 0と、 マウス MSやキーボード KBな どの入力部 1 3 6 0とを備えている。 また、 コンピュータ P C 1は、 LANと接 続するためのネットワークインタフェース部 1 3 8 0を備えている。
RAMI 3 3 0内には、 操作情報生成部 1 3 3 2の機能を実現するプログラム が格納されている。 操作情報生成部 1 3 3 2は、 ユーザによる入力部 1 3 6 0の 操作を検出し、 検出結果に基づいて操作情報 OP Sを生成する機能を有している 。 なお、 生成された操作情報 O P Sは、 ネットワークインタフェース部 1 3 8 0 を介してプロジェクタ P J 1に供給される。
なお、 上記の操作情報生成部 1 3 3 2の機能を実現するコンピュータプロダラ ムは、 フレキシブルディスクや CD— ROM等の、 コンピュータ読み取り可能な 記録媒体に記録された形態で提供される。 コンピュータは、 その記録媒体からコ ンピュータプログラムを読み取って内部記憶装置または外部記憶装置に転送する 。 あるいは、 通信経路を介してコンピュータにコンピュータプログラムを供給す るようにしてもよい。 コンピュータプログラムの機能を実現する時には、 内部記 憶装置に格納されたコンピュータプログラムがコンピュータのマイクロプロセッ サによって実行される。 また、 記録媒体に記録されたコンピュータプログラムを コンピュータが読み取って直接実行するようにしてもよい。
この明細書において、 コンピュータとは、 ハードウェア装置とオペレーション システムとを含む概念であり、 オペレーションシステムの制御の下で動作するハ 一ドウエア装置を意味している。 また、 オペレーションシステムが不要でアプリ ケーションプログラム単独でハードウヱァ装置を動作させるような場合には、 そ のハードウェア装置自体がコンピュータに相当する。 ハードウェア装置は、 C P U等のマイクロプロセッサと、 記録媒体に記録されたコンピュータプログラムを 読み取るための手段とを少なく とも備えている。 コンピュータプログラムは、 こ のようなコンピュータに、 上述の各手段の機能を実現させるプログラムコードを 含んでいる。 なお、 上述の機能の一部は、 アプリケーションプログラムでなく、 オペレーションシステムによって実現されていても良い。
なお、 この発明における 「記録媒体」 としては、 フレキシブルディスクや CD -ROM, 光磁気ディスク、 I Cカード、 ROMカートリッジ、 パンチカード、 パーコードなどの符号が印刷された印刷物、 コンピュータの内部記憶装置 (RA
Mや ROMなどのメモリ) および外部記憶装置等の、 コンピュータが読取り可能 な種々の媒体を利用できる。 .
図 23は、 図 20の投写表示システムの利用形態の一例を示す説明図である。 図 23の投写表示システムでは、 一台のプロジェクタ P J 1と複数台のコンビュ ータ P C 1, P C 2…とが LANを介して接続されている。 この投写表示システ ムを用いれば、 例えば、 第 1のコンピュータ PC 1においてマウス MSを移動さ せると、 マウス MSの移動に伴って生成された操作情報 OP Sが LANを介して プロジェクタ P J 1に供給されるので、 プロジェクタ P J 1は、 スクリーン S C 上に表示されている原画像 ORG内に重畳されたボインタ画像 P P Jをマウス M Sと連動させて移動させることができる。 なお、 他のコンピュータ P C 2, PC 3…においても同様である。 このような投写表示システムを用いれば、 複数人で 一台のプロジェクタ P J 1を用いて順次プレゼンテーションを行う場合に、 リモ コン RMを各人で受け渡しする必要がないので、 プレゼンテーションの交替を円 滑に行うことができる。 ,
図 24は、 プロジェクタ P J 1とコンピュータ PC 1との処理手順を示すフロ 一チヤ一トである。 プロジェクタ P J 1は、 ステップ T 10 1において、 スクリ ーン S C上に原画像 ORGを表示している。
コンピュータ PC 1は、 ステップ S 1 101において、 入力部 1 360の操作 に伴う操作情報 OP Sを生成するための操作情報生成プログラムを起動する。 こ のとき、 図 22の外部記憶装置 1 3 1 0内に格納されていた操作情報生成プログ ラムは、 RAMI 3 3 0内に展開され、 操作情報生成部 1 3 3 2として機能する 。 操作情報生成プログラムが起動すると、 コンピュータ P C 1の表示部 1 3 5 0 には、 操作検出用ウィンドウ DWが表示される。
図 2 5は、 コンピュータ P C 1の表示部 1 3 5 0に表示される操作検出用ウイ ンドウ DWを示す説明図である。 図 2 5に示す表示部 1 3 5 0では、 操作検出用 ウィンドウ DWと、 プレゼンテーションにおいて発表する内容などを記したメモ を表示するメモ表示ウインドウ MWとが表示されている。
操作検出用ウィンドウ DWは、 「 P J選択」 ボタン B 1 と、 「解像度選択」 ボ タン B 2と、 「メニュー」 ポタン B 3と、 「開始」 ポタン B Sと、 「終了」 ボタ ン B Eと、 操作情報生成領域 GAとを含んでいる。 ここで、 操作情報生成領域 G Aとは、 マウス MSの操作に伴う操作情報 O P Sを生成するための領域を意味し ている。 図 2 5において、 マウス MSに対応するポインタ画像 P P Cは、 表示部 1 3 5 0の全領域内において表示されるが、 ポインタ画像 P P Cが操作情報生成 領域 G A内に表示される場合にのみ、 マウス MSの操作に伴う操作情報 OP Sが 生成される。 このようにすれば、 ユーザが、 操作情報生成領域 GA以外の領域に おいてポィンタ画像 P P Cを表示させてマウス MSを操作する場合には、 マウス MSの操作情報 OP Sが生成されないので、 マウス MSを用いて他の操作、 例え ば、 メモ表示ウィンドウ MWに表示させるメモを変更するなどの操作を行うこと が可能となる。
図 2 4のステップ S 1 1 0 2では、 プロジェクタ P J 1についての設定を行う
。 具体的には、 ユーザが用いるプロジェクタを選択し、 また、 選択されたプロジ ェクタに適した解像度を設定する。
ユーザが用いるプロジヱクタの選択は、 操作検出用ウィンドウ DWに設けられ た 「P J選択」 ポタン B 1を選択して実行される。 「P J選択」 ボタン B 1をマ ウス MSでクリックすると、 プロジェクタを選択するための選択フィールド (図 示せず) が表示される。 LANに複数台のプロジェクタが接続されている場合に は、 選択フィールドには、 複数台のプロジェクタの情報が表示される。 ユーザは 、 選択フィールドに表示された一台あるいは複数台のプロジェクタの中から、 ュ 一ザが用いるプロジェクタ 「P J 1」 を選択する。
プロジェクタ P J 1に適した解像度の設定は、 操作検出用ウィンドウ DWに設 けられた 「解像度選択」 ボタン B 2を選択して実行される。 「解像度選択」 ボタ ン B 2をマウス MSでクリックすると、 解像度を選択するための選択フィールド (図示せず) が表示される。 例えば、 プロジェクタ P J 1に備えられた液晶ライ トバルブ 1 1 3 0 (図 2 1) の有効表示領域の解像度が XG A ( 10 24 X 76 8) である場合には、 プロジェクタ P J 1の解像度として 「XGA」 を選択する 。 このように、 プロジェクタ P J 1の解像度を設定することにより、 操作情報生 成領域 GAと、 スクリーン S C上に投写表示される原画像 ORGの画像領域とを 対応付けることができる。 すなわち、 操作情報生成領域 G A内におけるポインタ 画像 P P Cの位置関係と、 原画像 ORG内におけるボインタ画像: P P Jの位置関 係とをほぼ一致させることができる。
ステップ S 1 1 0 2において、 プロジェクタ P J 1についての設定が終了する と、 ステップ S 1 1 0 3において、 コンピュータ P C 1は、 操作情報 OP Sの送 信開始を意味する開始情報を出力する。 これは、 ュ一ザが操作検出用ウィンドウ DWに設けられた 「開始」 ボタン B Sを選択することによって実行される。 ユー ザが 「開始」 ボタン B Sを選択すると、 開始情報がネットワークインタフェース 部 1 3 80から出力され、 LANを介してプロジェクタ P J 1のネッ トワークィ ンタフェース部 1 1 80に供給される。
プロジェクタ P J 1は、 開始情報を受け取ると、 ステップ T 1 02において、 原画像 ORG内にボインタ画像 P P Jを重畳表示するための準備を行う.。 具体的 には、 C PU 1 1 00が、 ネッ トワークインタフェース部 1 1 80に供給された 開始情報に基づいて、 装飾画像処理部 1 140にボインタ画像データを準備させ る。 なお、 図 23において、 プロジェクタ P J 1に第 1のコンピュータ P C 1から の開始情報が供給されると、 プロジェクタ P J 1は、 後述する終了情報 (ステツ プ S 1 1 0 8) が供給されるまで、 第 1のコンピュータ P C 1からの操作情報 O P Sのみに基づいて処理を実行し、 他のコンピュータ PC 2, PC 3…からの情 報を無視する。 これにより、 第 1のコンピュータ P C 1によって、 プロジェクタ P J 1が独占されることとなる。
ステップ S 1 1 04では、 ユーザが入力部 1 3 6 0としてのマウス MSを操作 する。 ここで、 マウス MSの操作とは、 ユーザがマウス MS自体を移動させる操 作や、 マウス MSに設けられたスィツチを押す操作などを意味している。
ステップ S 1 1 0 5では、 入力部 1 3 6 0としてのマウス M Sの操作を検出す る。 そして、 ステップ S 1 1 06では、 ステップ S 1 105における検出結果に 基づいて操作情報 O P Sを生成する。
前述のように、 本実施例の操作情報生成部 1 3 3 2は、 マウス MSに対応する ポインタ画像 P P Cが操作検出用ウィンドウ DWの操作情報生成領域 G A内に表 示される場合にのみ、 マウス MSの操作を検出する。 そして、 操作情報生成領域 GA内においてポィンタ画像 P P Cが表示される位置を、 設定されたプロジェク タ P J 1の解像度 (ステップ S 1 1 02) 応じて、 座標値で求める。 本実施例で は、 プロジェクタ P J 1の解像度は、 XGA (1 024 X 76 8) に設定されて いるので、 ボインタ画像 P P Cが操作情報生成領域 GAの左上端に表示されてい る場合には座標値を (1, 1) とし、 中央に表示されている場合には座標値を ( 5 1 2, 3 84) とし、 右下端に表示されている場合には座標値を ( 1 024, 768) として求める。 この座標値情報が、 マウス MSの位置情報となり、 操作 情報 OP Sとして出力される。
ステップ S 1 1 0 7では、 コンピュータ P C 1は、 操作情報 OP Sを送信する 。 なお、 操作情報 OP Sは、 ネットワークインタフェース部 1 3 80 (図 22) によってネッ トワーク用のデータ形式に変換されて出力される。 プロジ クタ P J 1は、 ステップ T 1 0 3において、 操作情報 OP Sに基づい て、 画像を表示する。 具体的には、 操作情報 OP Sに基づいて、 原画像 ORG内 の所定の位置 (すなわち、 操作情報生成領域 G A内におけるポインタ画像 P P C の位置に対応する位置) にポインタ画像 P P Jを表示する。 なお、 コンピュータ PC 1は、 プロジェクタ P J 1に操作情報 OP Sを供給しているが、 ポインタ画 像 P P Jを表すポインタ画像データは供給していない。
ステップ S 1 1 04〜S 1 1 07, T 1 0 3の処理を繰り返し実行することに より、 マウス MSの移動と違動させて、 スク リーン S C上に投写表示される原画 像 ORG内のポィンタ画像 P P Jを移動させることができる。
ステップ S 1 1 0 8では、 操作情報 OP Sの送信終了を意味する終了情報を出 力する。 これは、 ユーザが操作検出用ウィンドウ DWに設けられた 「終了」 ボタ ン BEを選択することによって実行される。 ユーザが 「終了」 ボタン BEを選択 すると、 終了情報がネットワークインタフェース都 1 380から出力され、 L A Nを介してプロジェクタ P J 1のネットワークインタフェース部 1 1 80に供給 される。
プロジェクタ P J 1は、 終了情報を受け取ると、 ステップ T 1 04において、 原画像 ORG内に重畳されたポインタ画像 P P Jを消去する。 具体的には、 C P U l 1 00が、 ネットワークインタフェース部 1 1 80に供給された終了情報に 基づいて、 装飾画像処理部 1 1 40にポインタ画像データの出力を中止させる。 ところで、 上記のステップ S 1 1 04では、 マウス MSを単に移動させる操作 を実行する場合について説明したが、 マウス MSに設けられたスィツチを押しな がらマウス MSを移動させる操作を実行する場合には、 投写表示される原画像 O RG内において領域を指定することができる。 本実施例のプロジ: nクタ P J 1で は、 領域を指定することにより、 ボックス画像や囲み枠画像などのポインタ画像 と異なる種類の装飾画像を、 原画像 ORG内の指定領域に重畳することが可能と なっている。 この説明からも分かるように、 ステップ S 1 1 06においては、 マ ウス MSの位置情報のみでなく、 マウス MSのスィツチ情報も操作情報 O P Sと して生成される。
図 26は、 原画像 ORG内のポインタ画像 P P Jを用いて、 原画像 ORG内に ボックス画像 P Bを重畳する際の処理を示す説明図である。 ボックス画像 P Bの サイズは、 原画像 ORG内において、 ボックス画像 P Bの対向する 2つの頂点 ( 始点および終点) を指定することによって決定される。 図 26 (A— 1) 〜 (A 一 3) は、 操作検出用ウィンドウ DW (図 2 5) に含まれる操作情報生成領域 G Aを示している。 図 26 (B— 1) 〜 (B— 3) は、 プロジェクタ P J 1によつ てスク リーン S C上に表示される原画像 ORGを示している。
図 26 (A— 1) では、 コンピュータ P C 1のマウス MSを操作して、 領域を 指定するための始点 P 1 Cを指定する。 これは、 ユーザがマウス MSを移動させ ることにより、 ポインタ画像 P P Cを始点 P 1 Cに移動させ、 マウス MSのスィ ツチを押すことによって行われる。 このとき、 図 26 (B - 1 ) に示すように、 原画像 ORG内では、 ポインタ画像 P P Jによって始点 P 1 Jが指定される。 原 画像 ORGにおいて始点 P 1 Jが指定されると、 ボックス画像 P Bの始点を意味 する始点画像 P Sが始点 P 1 J位置に重畳される。
図 26 (A— 2) では、 ユーザがマウス MSのスィッチを押したまま、 マウス MSを領域の終点 P 2 Cに移動させる。 このとき、 操作情報生成領域 G A内には 、 始点 P 1 Cおよび終点 P 2 Cを結ぶ線分を対角線とする枠が破線で表示されて いる。 一方、 原画像 ORG内では、 図 26 (B- 2) に示すように、 始点画像 P Sが表示されると、 ポインタ画像 P P Jに代えて終点画像 P Eが表示され、 終点 画像 P Eを用いて原画像 ORG内の終点 P 2 Jが指定される。
図 2 6 (A— 3) では、 ユーザがマウス MSのスィッチを押すのを中止する。 このとき、 図 2 6 (B— 3) に示すように、 原画像 ORG内では、 始点 P I Jお ょぴ終点 P 2 Jによって設定された範囲にボックス画像 PBが重畳される。
なお、 始点画像 P Sと、 終点画像 PEと、 ボックス画像 P Bとのそれぞれの装 飾画像を表す装飾画像データは、 装飾画像処理部 1 1 40 (図 2 1) によって準 備され、 画像処理部 1 1 1 0に供給される。
また、 原画像 ORGに重畳されるボックス画像 P Bなどの装飾画像の種類は、 操作検出用ウィンドウ DW (図 2 5) に含まれる 「メニュー」 ボタン B 3を選択 することによって予め指定される。 すなわち、 ユーザがコンピュータ P C 1にお いて 「メニュー」 ボタン B 3を選択すると、 メェユー表示開始情報が LANを介 してプロジェクタ P J 1に供給される。 プロジェクタ P J 1内の CPU 1 1 00 は、 ネットワークインタフェース部 1 1 8 0に供給されたメニュー表示開始情報 に基づいて、 メニュー画像処理部 1 1 5 0および画像処理部 1 1 1 0を制御し、 メニュー画像を原画像 ORGとしてスクリーン S C上に投写表示させる。 ユーザ は、 原画像 ORG (メニュー画像) 内に重畳表示されるポインタ画像 P P Jを用 いて、 使用する装飾画像の種類を選択する。 なお、 リモコン RMを用いてメニュ 一画像を表示させて、 リモコン RMを用いて使用する装飾画像の種類を選択する ことも可能である。
上記では、 コンピュータ P C 1の入力部 1 360として、 マウス MSを操作す る場合について説明したが、 入力部 1 36 0としてキーボード KBを操作する場 合にも操作情報 OP Sが生成される。 すなわち、 ステップ S 1 1 04において、 ユーザがキーボード KBを操作すると、 ステップ S 1 1 05, S 1 1 0 6におい て、 操作情報生成部 1 33 2は、 キー操作を検出し、 検出結果に基づいてキー情 報を含む操作情報 O P Sを生成する。 プロジェクタ P J 1は、 ステップ T 1 03 において、 コンピュータ P C 1から供給された操作情報 OP S (ステップ S 1 1 0 7) に基づいて、 画像を表示する。 図 2 7は、 ユーザが入力部 1 36 0として のキーボード KBを操作することによって投写表示される画像を示す説明図であ る。 図 2 7では、 原画像 ORG内のポインタ画像 P P Jで指定された位置付近に は、 キー情報と対応する 「He r e !」 の文字からなる符号画像 P Mが重畳され ている。 このように、 操作情報 OP Sにキー情報が含まれるようにすれば、 原画 像 O R G内に、 文字等の符号画像を重畳させることができるので、 プレゼンテー ションをより効果的に行うことが可能となる。 符号画像を表す符号画像データは 、 装飾画像処理部 1 1 4 0によって準備され、 画像処理部 1 1 1 0に供給される なお、 第 3の実施例では、 キーボード K Bの操作も、 操作検出用ウィンドウ D W (図 2 5 ) に含まれる操作情報生成領域 G A内にポインタ画像 P P Cが存在す る場合にのみ検出されるので、 操作情報生成領域 G A以外の領域にポインタ画像 P P Cを表示させることにより、 キーボード K Bを用いて他の操作、 例えば、 メ モ表示ウィンドウ MWのメモの内容を編集するなどの操作を行うことが可能とな つている。
以上説明したように、 第 3の実施例に従う投写表示システムは、 ネッ トワーク NWを介して接続された外部入力装置 P C 1とプロジヱクタ P J 1とを備えてい る。 外部入力装置 P C 1は、 ユーザによる入力部 1 3 6 0の操作を検出し、 検出 結果に基づいて操作情報 O P Sを生成する操作情報生成部 1 3 3 2を備えている 。 そして、 プロジェクタ P J 1は、 ネットワーク NWを介して供給される操作情 報 O P Sに基づいて、 原画像データによって表される原画像内の所定の位置に、 装飾画像データによって表される装飾画像が重畳された画像を表す画像データ D D Vを生成する画像データ生成部 1 1 0 0 , 1 1 1 0 , 1 1 4 0を備えている。 なお、 前述したように、 コンピュータ P C 1は、 プロジェクタ P J 1に操作情報 O P Sを供給しているが、 原画像に重畳される装飾画像を表す装飾画像データは 供給していない。 これにより、 ユーザは、 外部入力装置 P C 1に備えられた入力 部 1 3 6 0を操作することによって、 容易に、 原画像内に装飾画像を重畳させる ことが可能となる。 G . 第 4の実施例:
第 3実施例では、 ユーザがコンピュータ P C 1 (図 2 2 ) の入力部 1 3 6 0を 操作することによって、 プロジェクタ P J 1 (すなわち投写型表示装置 P J 1 ) に対して、 投写表示される原画像 O R G内にボインタ画像 P P Jやボインタ画像 と異なる種類の装飾画像,を重畳させる場合について説明したが、 ユーザはコンビ ユータ P C 1の入力部 1 3 6 0を操作することによって、 投写表示される原画像 O R Gの内容を直接編集することも可能である。
これは、 プロジェクタ P J 1 (図 2 1 ) 力 、 外部記憶装置 1 1 0 2にアプリケ ーシヨンプログラムを格納することによって実現できる。 すなわち、 プロジェク タ P J 1力 外部記憶装置 1 1 0 2に格納されたアプリケーションプログラムを 起動させると、 アプリケーションプログラムは、 内部記憶装置 (R AM) 1 1 0 4内に展開され、 C P U 1 1 0 0によって実行される。 アプリケーションプログ ラムによって生成された実行画面データは、 画像処理部 1 1 1 ◦に供給され、 原 画像データとして用いられる。 これにより、 ユーザは、 コンピュータ P C 1の入 力部 1 3 6 0を操作することによって、 アプリケーションプログラムによって生 成される原画像 (実行画像) O R Gの内容を直接編集することが可能となる。
ところで、 近年、 S B C (Server Based Computing) 方式によるアプリケーショ ンプログラムの利用が推進されている。 従来では、 いわゆるダウンロード方式に よって、 アプリケ一ションプログラムが利用されていた。 ダウンロード方式によ るアプリケーションプログラムの利用は、 ユーザがサーバから所望のアプリケー シヨンプログラムを動的にクライアント機にダウンロードし、 ダウンロードした アプリケーションプログラムをクライアント機上にインス トールして、 アプリケ —ションプログラムを利用するものである。
一方、 S B C方式によるアプリケーションプログラムの利用は、 ユーザがァプ リケーションプログラムをサ一バ上で実行させ、 クライアント機でサーバにおけ るアプリケーションプログラムの実行画面を利用するものである。 このとき、 キ 一ボードやマウスなどの操作情報がクライアント機からサーバに供給され、 実行 画面の更新データがサーバからクライアント機に供給される。 これにより、 アブ リケーションプログラムの動作をクライアント機から切り離すことができるので 、 クライアント機の性能に依存せずにアプリケーションプログラムを利用するこ とが可能となる。 なお、 実行画面データは、 所定形式のデータで供給され、 クラ イアント機は、 供給された所定形式のデータに基づいて実行画面を表示させる。 第 4の実施例においては、 プロジヱクタ P J 1 (投写型表示装置 P J 1 ) は、 上記のクライアント機として機能することも可能である。 この場合には、 プロジ ェクタ P J 1は、 アプリケーションプログラム自体を格納しておく必要がないた め、 外部記憶装置 1 1 0 2や内部記憶装置 1 1 0 4の容量を比較的小さくするこ とができる。
図 2 8は、 第 4実施例における投写表示システムを示す説明図である。 この投 写表示システムは、 プロジェクタ P J 1 (投写型表示装置 P J 1 ) とコンビユー タ P C 1とサーバ S Bとを備えており、 プロジェクタ P J 1 とコンピュータ P C 1とサーバ S Bとは、 ネッ トワーク NWを介して接続されている。
プロジェクタ P J 1は、 上記のクライアント機として機能し、 サーバ S Bから 供給されるアプリケーションプログラムの実行画面をスクリーン S C上に投写表 示する。 なお、 プロジェクタ P J 1の内部構成は、 図 2 1とほぼ同じであるため 、 詳細な説明は省略する。 ただし、 ネットワークインタフェース部 1 1 8 0 (図 2 1 ) は、 内部に図示しないビューァ部を備えており、 ビューァ部は、 供給され た所定形式のデータ D Tに基づいて実行画面を表す実行画面データを準備する。 この実行画面データは、 画像処理部 1 1 1 0 (図 2 1 ) に供給され、 原画像デー タとして用いられる。
この投写表示システムにおいても、 プロジヱクタ P J 1が外部記憶装置 1 1 0 2にアプリケーションプログラムを格納している場合と同様に、 ユーザはコンビ ユータ P C 1の入力部 1 3 6 0 (図 2 2 ) を操作することによって、 投写表示さ れる原画像 (実行画面) O R Gの内容を直接編集することができる。
図 2 9は、 スクリーン S C上に投写表示された原画像 O R Gの内容を直接編集 する際の処理を示す説明図である。 なお、 図 29では、 原画像 ORGとして、 文 書作成プログラムによって生成された実行画面が表示されている。
図 29 (A) では、 ユーザは、 コンピュータ P C 1に備えられたマウス MSを 移動させて、 投写表示される原画像 (実行画面) ORG内の所望の位置にポイン タ画像 P P Jを重畳させる。 このとき、 コンピュータ P C 1から供給される位置 情報を含む操作情報 OP Sは、 第 1実施例と同様に、 プロジェクタ P J 1におい てポインタ画像 P P Jの重畳処理に利用される。 なお、 図 29 (A) では、 原画 像 ORG内の文字 「M」 の位置にポインタ画像 P P Jが重畳されている。
図 29 (B) では、 ユーザは、 マウス MSに設けられたスィッチを押し (タリ ックし) 、 原画像 (実行画面) ORG内の所望の位置にカーソル C Sを表示させ る。 このとき、 コンピュータ P C 1から供給されるスィッチ情報を含む操作情報 OP Sは、 ー且、 プロジェクタ P J 1に供給され、 プロジヱクタ P J 1は、 供給 された操作情報 OP Sをネットワーク NWを介してサーバ S Bに送信する。 サー バ S Bは、 マウス MSの位置情報ゃスィツチ情報などを含む操作情報 OP Sに従 つて、 文書作成プログラムによって生成される実行画面内の所定の位置にカーソ ルを表示させる。 そして、 サーバ S Bは、 カーソルが表示された更新画面を、 ネ ットワーク NWを介してプロジェクタ P J 1に供給し、 プロジェクタ P J 1は、 更新画面を原画像 ORGとしてスクリーン S C上に投写表示させる。 なお、 この ときにも、 図 2 9 (B) に示すように、 プロジェクタ P J 1は、 操作情報 OP S に基づいて、 原画像 (更新画面) ORG内にポインタ画像 P P Jを重畳表示させ ている。
図 29 (C) では、 ユーザが、 コンピュータ P C 1に備えられたキーボード K Bのキーを操作することによって、 原画像 ORG内のカーソル位置に文字等を入 力する。 このとき、 コンピュータ P C 1から供給されるキー情報を含む操作情報 OP Sは、 一旦、 プロジェクタ P J 1に供給され、 プロジェクタ P J 1は、 供給 された操作情報 O P Sをネットワーク NWを介してサーバ S Bに送信する。 サー パ S Bは、 キーボード KBのキー情報を含む操作情報 OP Sに従って、 文書作成 プログラムによって生成される実行画面内のカーソル位置において、 文字等の入 力を行う。 そして、 サーバ S Bは、 編集された更新画面を、 ネットワーク NWを 介してプロジェクタ P J 1に供給し、 プロジェクタ P J 1は、 更新画面を原画像 ORGとしてスクリーン S C上に投写表示させる。 なお、 図 29 (C) では、 文 字 「Κ」 , 「Μ」 の間に文字 「L」 が挿入された原画像 (更新画面) ORGが表 示されている。
図 29 (A) 〜 (C) に示すように、 ユーザは、 コンピュータ PC 1に備えら れた入力部 1 3 6 0を操作することによって、 投写表示される原画像 (実行画面 ) ORGの内容を直接編集することができる。 なお、 図 29では、 プロジェクタ P J 1力 S、 サーバ S Bから供給されるアプリケーションプログラムの実行画面を スクリーン S C上に投写表示する場合について説明したが、 プロジヱクタ P J 1 力 S、 内部記憶装置 1 1 04内に格納されたアプリケーションプログラムによって 生成される実行画面を投写表示する場合にも、 原画像 (実行画面) ORGの内容 を直接編集することができる。 前者の場合には、 前述のように、 コンピュータ P C 1に備えられる外部記憶装置 1 1 02や内部記憶装置 1 1 04の容量は比較的 小さくて済むという利点がある。 一方、 後者の場合には、 プロジェクタ P J 1は 、 コンピュータ P C 1からー且供給された操作情報 OP Sを、 サーバ S Bに送信 しなくて済むという利点がある。 なお、 プロジェクタ P J 1からサーバ S Bへの 操作信号 O P Sの供給処理は、 プロジェクタ P J 1内の C P U 1 100がネット ワークインタフェース部 1 1 80に実行させる。
なお、 第 3の実施例では、 原画像 ORG内にポインタ画像 P P Jが重畳された 位置で入力部 1 360を操作すると、 ポインタ画像 P P Jと異なる種類の装飾画 像を原画像 ORGに重畳させることができる。 一方、 第 4の実施例では、 原画像 ORG内にポィンタ画像 P P Jが重畳された位置で入力部 1 3 60を操作すると 、 原画像 (実行画面) ORGの内容を編集することができる。 なお、 第 4の実施 例においても、 原画像 (実行画面) ORGにポインタ画像 P P Jと異なる種類の 装飾画像を原画像 ORGに重畳させることもできる。 すなわち、 プロジェクタ P J 1は、 ポインタ画像 P P Jが原画像 ORGに重畳された後に供給された操作情 報 OP Sに基づいて、 装飾画像を原画像 ORGに重畳させる処理 (装飾モード) と、 原画像 (実行画面) ORGの内容を直接編集する処理 (編集モード) とを区 別して実行する。 なお、 このような処理モードの切り替えは、 メニュー画像にお いて行われ、 設定された処理モードに応じて、 CPU 1 1 00 (図 2 1) が各部 を制御する。
以上説明したように、 第 4の実施例においても、 投写表示システムは、 ネット ワーク NWを介して接続された外部入力装置 P C 1とプロジェクタ P J 1とを備 えている。 外部入力装置 PC 1は、 ユーザによる入力部 1 360の操作を検出し 、 検出結果に基づいて操作情報 O P Sを生成する操作情報生成部 1 33 2を備え ている。 そして、 プロジェクタ P J 1は、 ネットワーク NWを介して供給される 操作情報 OP Sに基づいて、 原画像内の所定の位置にポインタ画像が重畳され、 また、 原画像 (実行画面) ORGの内容が編集された画像を表す画像データ DD Vを生成する画像データ生成部 1 1 00, 1 1 1 0, 1 140を備えている。 こ のように、 ユーザは、 外部入力装置 P C 1に備えられた入力部 1 360を操作す ることによって、 プロジェクタ P J 1に対して、 投写表示される画像の内容に関 する処理を容易に実行させることが可能となる。
以上、 第 1〜第 4の実施例に基づき本発明に係るプロジヱクタおよぴ投写表示 システム、 並びに、 その方法および記録媒体について説明してきたが、 上記した 実施例は、 本発明の理解を容易にするためのものであり、 本発明を限定するもの ではない。 本発明は、 その趣旨並びに特許請求の範囲を逸脱することなく、 変更 、 改良され得ると共に、 本発明にはその等価物が含まれることはもちろんである
(1) 例えば、 第 1の実施例では、 表示ディスプレイ 54上にてファイルアイコ 'ン F Lをプロジェクタアイコン P Jへドラッグ ·アンド . ドロップした場合の転 送 ·保存先をプロジェクタ 1 0とした場合の例について説明したが、 ネットヮー ク上に接続されているファイルサーバ F Sに対して転送 ·保存するようにしても 良い。 例えば、 多人数にてプレゼンテーションを行うような場合には、 プロジヱ クタ 1 0の外部記憶装置 4 1には全てのファイルデータを格納しきれない場合が あり、 かかる場合には、 ファイルサーバ F Sに予め必要なファイルを格納するこ とにより必要なファイルを保存しておくことができる。
( 2 ) ファイルの再生に当たっては、 例えば、 次のように処理することができる 。 プロジェクタ 1 0は、 ファイルサーバ F Sに格納されているファイル情報を予 め取得しておき、 ファイル選択時にはファイル選択画面上にファイル情報を表示 する。 プロジェクタ 1 0は、 ファイルサーバ F Sに格納されているファイルが選 択されると、 ファイルサーバ F Sに対して選択ファイルの転送要求を送信する。 プロジェクタ 1 0は選択ファイルを受信した後、 投写表示を実行する。
( 3 ) また、 パーソナルコンピュータ P Cが P C M C I Aスロッ トを有する場合 には、 パーソナルコンピュータ P Cからのファイルの転送先を P C M C I Aスロ ットに格納されている P Cメモリカードとしても良い。 かかる場合には、 プロジ ェクタ 1 0がネットワークに接続されていない場合であっても、 パーソナルコン ピュータ p Cにおいて P Cメモリカードにファイルを転送した後に、 プロジェク タ 1 0に P Cメモリカードを差し込むことによって、 上記実施例と同等の作用効 果を得ることができる。 P Cメモリカードにファイルを転送する際には、 パスヮ 一ドの設定が要求されることは言うまでもない。
( 4 ) また、 第 1の実施例では、 1〜 5の数字を用いてパスワードを設定してい るが、 この制限は既述のようにリモコン 4 0によって入力可能な数字に対応した に過ぎず、 リモコン 4 0によって 1〜 5以外の数字、 文字等が入力できる場合に は 1〜5以外の数字、 文字等を用いてパスワードを設定できることは言うまでも ない。 例えば、 リモコン 4 0に液晶の表示窓を設けておき、 ジョイスティック 4 0 2を用いて文字等のパスワードを入力するようにしても良い。 あるいは、 無線 式キーボード等を用いて各種数字、 文字を入力するようにしても良い。
(5) さらに、 第 1の実施例では、 パスワードの設定されたファイルをパスヮー ドと関連付けてプロジェクタ 1 0の外部記憶装置 41に転送しているが、 パーソ ナルコンピュータ P Cにて転送ファイルを暗号化してプロジェクタ 1 0に転送し 、 プロジェクタ 1 0にて復号するようにしてもよい。 かかる場合には、 ネットヮ ーク回線 NLを通じたファイル転送時におけるセキュリティレベルを向上するこ とができる。
(6) また、 第 1の実施例における表示ディスプレイ 54上の表示画面、 並びに 、 投写表示画面 S Rは例示に過ぎず、 実施に当たっては適宜、 変更され得ること は言うまでもなレ、。
(7) 既述のように、 第 1の実施例ではネットワーク端末部に対して AS P端末 部 20という名称を用いているが、 プロジェクタ 1 0は必ずしも AS P端末であ る必要はない。 例えば、 ネッ トワークを介してアプリケーション ·データ (ファ ィル) を受け取り、 ビュヮ一アプリケーションによってファイルを開いてその表 示画面を投写してもよい。 かかる場合には、 プロジェクタ 1 0側でファイル形式 を判断して自動的に最適なビュヮ一を起動してもよく、 あるいは、 サーバからプ ロジェクタ 1 0に対してファイルと共に適切なビュヮ一を起動させる起動コマン ドを同時に供給してもよい。
(8) 第 1の実施例では、 AS P端末部 20およびプロジェクタ部 30にそれぞ れ CPU、 RAM, ROMを備えているが、 A S P端末部 20にのみ備えるよう にしてもよい。 かかる場合には、 AS P端末部 20における CPUがプロジェク タ部 30の制御を実行する。
(9) また、 第 1の実施例では、 プロジェクタ部 30において、 外部映像信号入 力端子 3 1 2、 および外部音声信号入力端子 3 22が備えられているが、 ネット ワーク接続専用プロジェクタとする場合には、 省略してもよい。 かかる場合には ネッ トワーク回線 NLを介して、 画像データ、 音声データが供給されるからであ る。
(1 0) 第 1の実施例では、 種々のインターフェース ' コントローラが備えられ ているが、 ネッ トワーク .ィンターフェース - コントローラ 220を除いて、 適 宜省略可能であることは言うまでもない。
(1 1 ) 第 3および第 4実施例では、 コンピュータ P C 1は、 入力部 1 360と して、 マウス MSを備えているが、 マウス MSに代えて、 タブレツ トゃ、 トラッ クポー^^、 トラックパッド、 ジョイスティックなどの他のポインティングデバイ スを備えるようにしてもよい。 これらのポインティングデバイスも、 マウス MS と同様の機能を有しており、 本発明におけるポインティングデバイスに相当する
(1 2) 第 3および第 4実施例では、 入力部 1 36 0としてのマウス MSを用い て、 原画像 ORG内のポインタ画像 P P Jの重畳位置を指定しているが、 入力部 1 3 6 0としてマウス MSが備えられていない場合には、 キーボード KBの方向 キーを用いて、 ポインタ画像 P P Jの重畳位置を指定するようにしてもよい。 あ るいは、 テンキーを用いて、 ポインタ画像 P P Jの重畳位置を座標値で指定する ようにしてもよレ、。 このように、 キーボード KBの方向キーやテンキーなども、 本発明におけるボインティングデバイスとして機能する。
(1 3) 第 3およぴ第 4実施例では、 操作情報 OP Sに含まれるマウス MSの位 置情報は、 座標値で表されているが、 位置情報は移動量を示すベタ トル値で表さ れていてもよい。 ただし、 この場合には、 双方向で通信することが好ましい。 す なわち、 マウス MSを移動させることによって生成される一連の位置情報のうち の一部がプロジヱクタ P J 1に供給されない場合に、 位置情報がベタ トル値で表 されていると、 操作情報生成領域 G A内におけるボインタ画像 P P Cの位置関係 と投写表示された原画像 ORG内におけるボインタ画像 P P Jの位置関係とがー 致しなくなってしまう。 このように、 位置情報が移動量を示すベク トル値で表さ れる場合には、 プロジェクタ P J 1は、 操作情報 OP Sを受信する毎に、 コンビ ユータ P C 1に受取信号を送信すればよい。 そして、 コンピュータ P C 1は、 受 取信号を受信していない場合には、 再度、 操作情報 OP Sを送信すればよい。 一 方、 位置情報が座標値で表されていると、 マウス MSを移動させることによって 生成される一連の位置情報のうちの一部がプロジェクタ P J 1に供給されない場 合にも、 操作情報生成領域 G A内におけるポインタ画像 P P Cの位置関係と投写 表示された原画像 ORG内におけるポインタ画像 P P Jの位置関係とをほぼ一致 させることができる。 したがって、 位置情報が座標値で表される場合には、 コン ピュータ P C 1からプロジェクタ P J 1への単方向の通信で済むという利点があ る。 一般には、 操作情報 OP Sは、 コンピュータ P C 1からプロジェクタ P J 1 への単方向通信によって送信されてもよいし、 プロジェクタ P J 1とコンビユー タ P C 1との双方向通信によって送信されてもよい。
(14) 第 3および第 4実施例では、 コンピュータ P C 1の RAMI 3 30内に 格納された操作情報生成部 1 3 3 2は、 表示部 1 35 0に操作情報生成領域 G A (図 2 5) を表示させているが、 操作情報生成領域 GAは表示させなくてもよい 。 この場合には、 マウス MSの操作に伴う操作情報 OP Sは、 表示部 1 3 50の 全表示領域のうちのどこかにポィンタ画像 P P Cが表示されていれば生成される
( 1 5) ) また、 第 3および第 4実施例では、 コンピュータ P C 1は、 表示部 1 3 50を備えているが、 表示部 1 3 50は省略してもよい。 本発明の外部入力装 置は、 一般に、 入力部と、 ユーザによる入力部の操作を検出し、 検出結果に基づ いて操作情報を生成する操作情報生成部と、 ネッ トワークと接続し、 操作情報を ネットワークを介してプロジェクタに供給するためのネットワークィンタフエー ス部とを備えていればよい。
( 1 6) 第 3および第 4実施例では、 ユーザは、 コンピュータ P C 1の入力部 1 3 60を操作することによって、 ボインタ画像 P P Jなどの装飾画像を原画像 O R Gに重畳させたり、 アプリケーションプログラムによって生成された原画像 ( 実行画面) O R Gの内容を直接編集したりしている。 ユーザは、 コンピュータ P C 1の入力部 1 3 6 0を操作することによって、 プロジェクタ P J 1に投写表示 される画像に関する他の処理を実行させることも可能である。
例えば、 プロジェクタ P J 1が画像データを外部記憶装置 1 1 0 2に保存する 際にデータ名の入力が必要な場合には、 ユーザは、 コンピュータ P C 1に備えら れたキーボード K Bを操作することにより、 データ名入力画面においてデータ名 を入力して表示させることができる。
また、 プロジェクタ P J 1が原画像データとしてメモリカード M C内に格納さ れた画像データを使用する際にパスワード入力が必要な場合には、 ユーザは、 コ ンピュータ P C 1に備えられたキーポード K Bを操作することにより、 パスヮー ド入力画面においてパスワードを入力して表示させることができる。 なお、 この とき、 投写表示されるパスワード入力画面には、 ユーザが入力した符号と異なる 「*」 などの符号が表示されることが好ましい。
このように、 本発明のプロジェクタに備えられる画像データ生成部としては、 一般に、 ネットヮ一クを介してネットワークインタフェース部に供給される操作 情報であって、 外部入力装置の入力部を操作することによって生成された操作情 報に基づいて、 投写表示される画像の内容に関する所定の処理を実行し、 投写表 示される画像を表す画像データを生成するようなものであればよい。
なお、 画像データ生成部における投写表示される画像の内容に関する所定の処 理とは、 操作情報に基づいて、 原画像データによって表される原画像内の所定の 位置に、 装飾画像データによって表される装飾画像を重畳するなどの、 画像の表 示内容 (すなわち、 画像内の絵柄) が変更されるような処理を意味している。
( 1 7 ) 上記各実施例において、 ハードウェアによって実現されていた構成の一 部をソフトウェアに置き換えるようにしてもよく、 逆に、 ソフトウェアによって 実現されていた構成の一部をハードウエアに置き換えるようにしてもよい。 例え ば、 2つの CPU 200, 300 (図 2) の機能の一部を専用のハードウェア回 路で実行するようにすることもできる。
(1 8) 上記各実施例では、 透過型液晶パネルを利用したプロジェクタの構成に ついて説明したが、 本発明は、 他のタイプのプロジェクタにも適用可能である。 他のタイプのプロジェクタとしては、 反射型液晶パネルを利用したものや、 マイ クロミラーデバイス (テキサスインスツルメント社の商標) を用いたもの、 また 、 CRTを用いたものなどがある。

Claims

請求の範囲
1 . 計算機と記憶装置を有する画像表示装置とがネットワークを介して接続され ている画像表示システムであって、
前記計算機は
データおょぴコマンドの少なくとも一方を入力するための入力部と、 前記画像表示装置によって表示させる表示データを格納するデータ格納部と 前記データ格納部から前記画像表示装置の記憶装置へ所望のデータを転送す る際にパスヮードの設定を促すパスヮード設定要求部と、
前記入力部を介してパスヮードが設定された場合には、 設定されたパスヮー ドと前記所望のデータとを関連付けて前記画像表示装置の記憶装置へ転送するデ ータ転送部とを備え、
前記画像表示装置は
前記転送されたパスワードと所望のデータとを前記記憶装置へ格納するデー タ受け取り部と、
データおよびコマンドの少なくとも一方を入力するための入力部と、 前記記憶装置に格納されたデータから表示を望む表示データが選択された際 に、 パスワードの入力を要求し、 前記設定されたパスワードと前記入力部を介し て入力されたパスヮードとが符合するか否かを判定する認証部と、
前記両パスヮードが符合すると判定した場合には、 前記選択された表示デー タを投写表示させる投写表示部とを備える
画像表示システム。 .
2 . 請求の範囲第 1項に記載の画像表示システムにおいて、
前記計算機のデータ転送部は、 前記入力部を介してパスヮードが設定されなか つた場合には、 前記所望のデータのみを前記画像表示装置の記憶装置へ転送する ことを特徴とする画像表示システム。
3 . 請求の範囲第 1項または第 2項に記載の画像表示システムにおいて、
前記画像表示装置の投写表示部は、 前記両パスヮードが符合しないと判定した 場合には、 認証に失敗した旨を示す投写表示不許可画面を投写表示することを特 徴とする画像表示システム。
4 . 請求の範囲第 1項ないし第 3項のいずれかに記載の画像表示システムにおい て、
前記計算機はさらに、 前記データ格納部に格納されているデータの一覧、 およ び前記画像表示装置のァィコンを表示する表示画面を備え、
前記パスヮード設定要求部は、 前記表示画面上において前記格納されているデ ータの一覧から前記所望のデータが、 前記画像表示装置のアイコンへドラッグ · アンド · ドロップされた際にパスヮードの設定を促すことを特徴とする画像表示
5 . 請求の範囲第 1項ないし第 4項のいずれかに記載の画像表示システムはさら に、 前記ネットワークに接続されているファイルサーバを有し、
前記計算機のデータ転送部は、 前記入力部を介してパスヮードが設定された場 合には、 設定されたパスワードと前記所望のデータとを関連付けて前記ファイル サーバへ転送することを特徴とする画像表示 ·
6 . 計算機を介してプロジェクタを用いて表示するデータを保存する方法であつ て、
表示するデータを決定し、 前記決定されたデータを記憶装置に格納する要求が発生したか否かを判定し、 前記格納する要求が発生したと判定した場合には、 パスヮードの設定を要求し 前記データを前記設定されたパスヮードと関連付け、
前記パスヮードと関連付けられたデータを前記記憶装置に転送するデータ保存 方法。
7 . 請求の範囲第 6項に記載のデータ保存方法において、
前記計算機の表示画面上において前記記憶装置のアイコンへ前記決定されたデ —タのアイコンをドラッグ 'アンド ' ドロップが発生した場合には、 前記記憶装 置への前記データの格納要求が発生したと判定することを特徴とするデータ保存 方法。
8 . 請求の範囲第 6項または第 7項に記載のデータ保存方法において、
前記記憶装置は前記プロジェクタに配置されていることを特徴とするデータ保 存方法。
9 . 請求の範囲第 6項または第 7項に記載のデータ保存方法において、
前記プロジェクタおよび前記計算機とネットワークを介して接続されているフ アイルサーバに前記記憶装置が配置されていることを特徴とするデータ保存方法
1 0 . パスワードと関連付けられたデータを含む表示データを画像表示装置にお いて表示する方法であって、
前記表示データの中から表示を所望する表示データを特定し、
前記特定された表示データがパスワードと関連付けられているか否かを判定し 前記特定された表示データがパスヮードと関連付けられていると判定した場合 には、 前記表示データに関連付けられたパスヮードの入力を要求し、
前記入力されたパスヮードと前記表示データに関連付けられたパスヮードとが 符合するか否かを判定し、
前記入力されたパスヮードと前記表示データに関連付けられたパスヮードとが 符合すると判定した場合には前記表示データを表示する方法。
1 1 . 請求の範囲第 1 0項に記載のデータ表示方法において、
前記入力されたパスヮードと前記表示データに関連付けられたパスヮードとが 符合しないと判定した場合には、 前記表示データの表示を許可しない旨を表示す ることを特徴とするデータ表示方法。
1 2 . データ保護機能を有する画像表示装置であって、
データおよびコマンドの少なくとも一方を入力するための入力部と、 パスワードと関連付けられた表示データを含む表示データを格納する表示デー タ格納部と、
前記パスワードと関連付けられた表示データの表示が要求された場合には、 パ スヮードの入力を要求するパスヮード要求部と、
前記入力部を介して入力されたパスヮードと前記表示データに関連付けられた パスワードとが符合するか否かを判定する認証部と、
前記両パスヮードが符合すると判定した場合には、 前記表示が要求された表示 データを投写表示する投写表示部とを備える画像表示装置。
1 3 . 表示データを格納する格納装置を有する画像表示装置であって、
データおよびコマンドの少なくとも一方を入力するための入力部と、 前記格納装置に格納されているデータの一覧を表示するデータ一覧表示部と、 前記データの一覧からデータが選択された場合には、 選択されたデータと関連 付けられたパスヮードの入力画面を表示するパスヮード入力画面表示部と、 前記入力部を介して入力されたパスヮードが選択されたデータに予め関連付け られている設定パスワードと一致するか否かを判定する認証部と、
前記入力されたパスヮードが設定パスヮードと一致する場合には、 選択された データを投写表示する投写表示部とを備える画像表示装置。
1 4 . 請求の範囲第 1 3項に記載の画像表示装置はさらに、
前記入力されたパスワードが設定パスワードと一致しない場合には、 認証に失 敗した旨を示す投写表示不許可画面を表示する不許可画面表示部を備えることを 特徴とする画像表示装置。
1 5 . コンピュータ上で実行される、 プロジェクタを用いて表示するデータを保 存するためのプログラムを記憶するコンピュータ読取り可能媒体であって、 前記 プログラムは、
表示するデータを決定するステップと、
前記決定されたデータを記憶装置に格納する要求が発生したか否かを判定する ステップと、
前記格納する要求が発生したと判定した場合には、 パスワードの設定を要求す るステップと、
前記データを前記設定されたパスワードと関連付けるステップと、
前記パスワードと関連付けられたデータを前記記憶装置に転送するステップと をコンピュータによって実現させる、 コンピュータ読取り可能媒体。
1 6 . パスワードと関連付けられた表示データを画像表示装置において表示する ためのプログラムを記憶するコンピュータ読取り可能媒体であって、 前記プログ ラムは、
複数の表示データの中から表示を所望する表示データを特定するステップと、 前記特定された表示データがパスヮ ドと関連付けられているか否かを判定す るステップと、
前記特定された表示データがパスヮードと関連付けられていると判定した場合 には、 前記表示データに関連付けられたパスワードの入力を要求するステップと 前記入力されたパスヮードと前記表示データに関連付けられたパスヮードとが 符合するか否かを判定するステツプと、
前記入力されたパスワードと前記表示データに関連付けられたパスワードとが 符合すると判定した場合には前記表示データを表示するステップとをコンビユー タによって実現させる、 コンピュータ読取り可能媒体。
1 7 . ネットワーク接続可能なプロジェクタであって、
画像を投写表示する投写表示部と、
投写表示部の動作状態を表す動作状態情報を含むウェブページ情報を配信可能 なウェブサーバ部と、 を備え、
前記ウェブサーバ部は、
ゥヱプクライアントからの要求に応じて、 前記投写表示部の動作状態を表す動 作状態情報を含むゥヱプページ情報をウェブクライアントに配信するぺージ情報 配信部と、
前記ウェブクライアントに配信されて表示されたゥェプページ上で入力されて 返送された制御情報に応じて、 前記投写表示部の動作状態を制御する制御信号を 前記投写表示部に供給する制御信号供給部と、
前記制御信号によつて制御された前記投写表示部の動作状態を表す新たな動作 状態情報を取得して、 前記ウェブクライアントに配信されたゥェブページ情報を 更新するページ情報更新部と、 を有する、
プロジェクタ。
1 8 . 投写表示部とウェブサーバ部とを有するプロジヱクタの動作状態をネット ワークを介して制御する制御方法であって、
( a ) ウェブクライアントからの要求に応じて、 前記投写表示部の動作状態を表 す動作状態情報を含むゥェブページ情報をゥヱブクライアントに配信する工程と ( b ) 前記ウェブクライアントに配信されて表示されたウェブページ上で入力さ れた制御情報に応じて、 前記投写表示部の動作状態を制御する制御信号を前記投 写表示部に供給する工程と、
( c ) 前記制御信号によって制御された前記投写表示部の動作状態を表す新たな 動作状態情報を取得して、 前記ウェブクライアントに配信されたゥェブページ情 報を更新する工程と、
を備える制御方法。
1 9 . 請求の範囲第 1 8項に記載の制御方法であって、
前記ゥヱブページは、 前記プロジヱクタの動作状態を変更するためのポタンを 含み、 前記ボタンを押すことにより前記制御情報が前記プロジェクタに送信され る、 制御方法。
2 0 . 投写表示部とウェブサーバ部とを有するプロジェクタにおいて、 ネットヮ ークを介してプロジェクタの動作状態を制御するためのプログラムをコンビユー タ読み取り可能に記録した記録媒体であって、
ウェブクライアントからの要求に応じて、 前記投写表示部の動作状態を表す動 作状態情報を含むウェブページ情報をウェブクライアントに配信する機能と、 前記ウェブクライアントに配信されて表示されたウェブページ上で入力されて 返送された制御情報に応じて、 前記投写表示部の動作状態を制御する制御信号を 前記投写表示部に供給する機能と、
前記制御信号によって制御された前記投写表示部の動作状態を表す新たな動作 状態情報を取得して、 前記ウェブクライアントに配信されたゥヱプページ情報を 更新する機能と、
を実現するためのプログラムを記録した記録媒体。
2 1 . 入力部を備える外部入力装置とネットワークを介して接続されるプロジヱ クタであって、
前記ネットワークと接続するためのネットヮ一クインタフエース部と、 前記ネットワークを介して前記ネットワークインタフヱース部に供給される操 作情報であって、 前記外部入力装置の前記入力部を操作することによって生成さ れた前記操作情報に基づいて、 投写表示される画像の内容に関する所定の処理を 実行し、 投写表示される画像を表す画像データを生成するための画像データ生成 部と、
前記画像データに応じて画像光を形成する電気光学装置と、
前記電気光学装置で得られた画像光を投写する投写光学系と、
を備えることを特徴とするプロジェクタ。
2 2 . 請求の範囲第 2 1項に記載のプロジヱクタであって、
前記投写表示される画像は、 原画像と原画像に重畳される装飾画像とで形成さ れており、
前記装飾画像を表す装飾画像データは、 前記外部入力装置から供給されず、 前 記画像データ生成部によって準備され、 前記画像データ生成部は、 前記外部入力装置から供給される前記操作情報に基 づいて、 前記原画像を表す原画像データと前記装飾画像データとを合成して前記 画像データを生成することにより、 前記原画像内の所定の位置に前記装飾画像を 重畳する、 プロジェクタ。
2 3 . 請求の範囲第 2 2項に記載のプロジヱクタであって、
前記操作情報は、 前記外部入力装置の前記入力部としてのポインティングデバ ィスを操作することによって生成される位置情報を少なくとも含んでおり、 前記画像データ生成部は、 前記位置情報に基づいて、 前記原画像內の所定の位 置に、 前記装飾画像としてのポインタ画像を重畳する、 プロジェクタ。
2 4 . 請求の範囲第 2 3項に記載のプロジェクタであって、
前記位置情報は、 前記ポインティングデバイスによって指示される座標値情報 である、 プロジェクタ。
2 5 . 請求の範囲第 2 3項または第 2 4項に記載のプロジェクタであって、 前記操作情報は、 さらに、 前記ポインティングデバイスに設けられたスィッチ を操作することによって生成されるスィツチ情報を含んでおり、
前記画像データ生成部は、
前記操作情報に含まれる前記位置情報と前記スィツチ情報とに基づいて、 前記 原画像内の指定された範囲において、 前記ポインタ画像と異なる種類の装飾画像 を重畳する、 プロジェクタ。
2 6 . 請求の範囲第 2 5項に記載のプロジヱクタであって、
前記操作情報は、 さらに、 前記外部入力装置の前記入力部としてのキーボード を操作することによって生成されるキー情報を含んでおり、 前記画像データ生成部は、 前記キー情報に基づいて、 前記原画像内に、 前記装 飾画像としての符号画像を重畳する、 プロジェクタ。
2 7 . ネットワークを介して接続された外部入力装置とプロジェクタとを備える 投写表示システムであって、
前記外部入力装置は、
入力部と、
ユーザによる前記入力部の操作を検出し、 検出結果に基づいて操作情報を生成 する操作情報生成部と、
前記ネットワークと接続し、 前記操作情報を前記ネットワークを介して前記プ ロジェクタに供給するための第 1のネットワークインタフェース部と、
備え、
前記プロジェクタは、
前記ネットワークと接続するための第 2のネットワークインタフェース部と、 前記ネットワークを介して前記第 2のネットワークインタフェース部に供給さ れる操作情報に基づいて、 投写表示される画像の内容に関する所定の処理を実行 し、 投写表示される画像を表す画像データを生成するための画像データ生成部と 前記画像データに応じて画像光を形成する電気光学装置と、
前記電気光学装置で得られた画像光を投写する投写光学系と、
を備えることを特徴とする投写表示システム。
2 8 . 請求の範囲第 2 7項に記載の投写表示システムであって、
前記投写表示される画像は、 原画像と原画像に重畳される装飾画像とで形成さ れており、
前記装飾画像を表す装飾画像データは、 前記外部入力装置から供給されず、 前 記画像データ生成部によって準備され、
前記画像データ生成部は、 前記外部入力装置から供給される前記操作情報に基 づいて、 前記原画像を表す原画像データと前記装飾画像データとを合成して前記 画像データを生成することにより、 前記原画像内の所定の位置に前記装飾画像を 重畳する、 投写表;
2 9 . 請求の範囲第 2 8項に記載の投写表示システムであって、
前記入力部は、 ポインティングデバイスを含み、
前記操作情報は、 前記ボインティングデバイスを操作することによって生成さ れる位置情報を少なくとも含んでおり、
前記画像データ生成部は、 前記位置情報に基づいて、 前記原画像内の所定の位 置に、 前記装飾画像としてのポインタ画像を重畳する、 投写表示 >
3 0 . 請求の範囲第 2 9項に記載の投写表示システムであって、
前記外部入力装置は、 さらに、 表示部を備え、
前記操作情報生成部は、 前記表示部に、 前記ポインティングデバイスの操作に 伴う前記操作情報を生成するための領域である操作情報生成領域を表示させ、 前 記操作情報生成領域内に、 前記ボインティングデバイスに対応するボインタ画像 が表示される場合にのみ前記ボインティングデバイスの操作を検出する、 投写表 示システム。
3 1 . 請求の範囲第 3 0項に記載の投写表示システムであって、
前記操作情報生成領域は、 投写表示される画像領域と対応付けられている、 投 写表示システム。
3 2 . 入力部を備える外部入力装置において、 前記外部入力装置とネットワーク を介して接続されるプロジェクタに供給される前記入力部の操作に伴う操作情報 を生成するための操作情報生成方法であって、
( a ) ユーザによる前記入力部の操作を検出する工程と、
( b ) 検出結果に基づいて前記操作情報を生成する工程と、
を備えることを特徴とする操作情報生成方法。
3 3 . 請求の範囲第 3 2項に記載の操作情報生成方法であって、
前記工程 (a ) は、 前記外部入力装置に備えられた表示部に、
( a— 1 ) 前記入力部としてのボインティングデバイスの操作に伴う前記操作情 報を生成するための領域である操作情報生成領域を表示させる工程と、
( a - 2 ) 前記操作情報生成領域内に、 前記ポインティングデバイスに対応する ボインタ画像が表示される場合にのみ前記ボインティングデバイスの操作を検出 する工程と、
を含む、 操作情報生成方法。
3 4 . 入力部を備える外部入力装置において、 前記外部入力装置とネットワーク を介して接続されるプロジェクタに供給される前記入力部の操作に伴う操作情報 を生成するためのコンピュータプログラムを記録したコンピュータ読み取り可能 な記録媒体であって、
ユーザによる前記入力部の操作を検出する機能と、
検出結果に基づいて前記操作情報を生成する機能と、
をコンピュータに実現させるためのコンピュータプログラムを記録したコンビュ ータ読み取り可能な記録媒体。
3 5 . 請求の範囲第 3 4項に記載のコンピュータ読み取り可能な記録媒体であつ て、 前記入力部の操作を検出する機能は、 前記外部入力装置に備えられた表示部に 前記入力部としてのボインティングデバイスの操作に伴う前記操作情報を生成 するための領域である操作情報生成領域を表示させる機能と、
前記操作情報生成領域内に、 前記ボインティングデバイスに対応するボインタ 画像が表示される場合にのみ前記ボインティングデバイスの操作を検出する機能 と、
を備える、 コンピュータ読み取り可能な記録媒体。
PCT/JP2001/004629 2000-05-31 2001-05-31 Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement WO2001092953A1 (fr)

Priority Applications (10)

Application Number Priority Date Filing Date Title
EP01934476A EP1286207A4 (en) 2000-05-31 2001-05-31 PROJECTOR, PROJECTION DISPLAY SYSTEM AND METHOD, AND INFORMATION RECORDING SYSTEM
JP2002501101A JP4039242B2 (ja) 2000-05-31 2001-05-31 プロジェクタおよび投写表示システム、並びに、その方法および記録媒体
US10/048,055 US7397476B2 (en) 2000-05-31 2001-05-31 Projector, projection display system, and corresponding method and recording medium
US12/068,333 US7782330B2 (en) 2000-05-31 2008-02-05 Projector, projection display system, and corresponding method and recording medium
US12/155,076 US8155768B2 (en) 2000-05-31 2008-05-29 Projector, projection display system, and corresponding method and recording medium
US12/805,092 US7965284B2 (en) 2000-05-31 2010-07-12 Projector, projection display system, and corresponding method and recording medium
US13/067,068 US20110210977A1 (en) 2000-05-31 2011-05-05 Projector, projection display system, and corresponding method and recording medium
US13/762,481 US8654109B2 (en) 2000-05-31 2013-02-08 Projector, projection display system, and corresponding method and recording medium
US14/144,993 US9270729B2 (en) 2000-05-31 2013-12-31 Projector, projection display system, and corresponding method and recording medium
US14/993,654 US9888221B2 (en) 2000-05-31 2016-01-12 Projector, projection display system, and corresponding method and recording medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2000161876 2000-05-31
JP2000-161876 2000-05-31
JP2000175868 2000-06-12
JP2000-175868 2000-06-12
JP2000175849 2000-06-12
JP2000-175849 2000-06-12

Related Child Applications (4)

Application Number Title Priority Date Filing Date
US10048055 A-371-Of-International 2001-05-31
US10/048,055 A-371-Of-International US7397476B2 (en) 2000-05-31 2001-05-31 Projector, projection display system, and corresponding method and recording medium
US12/068,333 Continuation US7782330B2 (en) 2000-05-31 2008-02-05 Projector, projection display system, and corresponding method and recording medium
US12/155,076 Continuation US8155768B2 (en) 2000-05-31 2008-05-29 Projector, projection display system, and corresponding method and recording medium

Publications (1)

Publication Number Publication Date
WO2001092953A1 true WO2001092953A1 (fr) 2001-12-06

Family

ID=27343571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004629 WO2001092953A1 (fr) 2000-05-31 2001-05-31 Projecteur, systeme et procede d'affichage de projection, et support d'enregistrement

Country Status (5)

Country Link
US (8) US7397476B2 (ja)
EP (4) EP1286207A4 (ja)
JP (4) JP4039242B2 (ja)
CN (2) CN100565327C (ja)
WO (1) WO2001092953A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279989A (ja) * 2003-03-19 2004-10-07 Sharp Corp ネットワーク映像調整システム
JP2007516506A (ja) * 2003-05-29 2007-06-21 インフォーカス コーポレイション 投影装置のユーザ・インタフェース・システム
JP2009198663A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp ホスト機器及びその制御方法
JP2009198662A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp ホスト機器及びその制御方法
US7735130B2 (en) 2002-05-27 2010-06-08 Seiko Epson Corporation Image data transmission system, process and program, image data output device and image display device
US8272035B2 (en) 2001-08-28 2012-09-18 Seiko Epson Corporation Projector projecting password
US8296572B2 (en) 2006-04-04 2012-10-23 Seiko Epson Corporation Projector system
US8640196B2 (en) 2004-01-21 2014-01-28 Seiko Epson Corporation Network system of projector
JP2015108841A (ja) * 2015-01-19 2015-06-11 セイコーエプソン株式会社 プロジェクター、及びプロジェクターの制御方法
US9305188B2 (en) 2003-03-24 2016-04-05 Seiko Epson Corporation Image-display method, projector, image-display system, projector-control method, image-display program, and projector-control program

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100565327C (zh) * 2000-05-31 2009-12-02 精工爱普生株式会社 投影机及其控制方法
EP2273452A1 (en) 2000-06-09 2011-01-12 Seiko Epson Corporation Projection of pagewise image data
US8681352B2 (en) * 2002-04-18 2014-03-25 Hewlett-Packard Development Company, L.P. Pull based computer output devices
US20040255018A1 (en) * 2002-10-04 2004-12-16 Brian Taraci Method and apparatus for providing universal web access functionality with port contention resolution
US6935754B2 (en) * 2003-05-14 2005-08-30 In Focus Corporation User-interface for a projection device
EP1631881A4 (en) * 2003-06-02 2008-07-16 Infocus Corp DATA SECURITY IN A NETWORK
WO2005041490A1 (de) * 2003-09-25 2005-05-06 Siemens Aktiengesellschaft Nutzung von diensten innerhalb eines kommunikationsnetzes mit internetmechanismen und eines automatisierungssystems
US8260857B2 (en) 2003-10-23 2012-09-04 Microsoft Corporation One to many data projection system and method
US20050091359A1 (en) 2003-10-24 2005-04-28 Microsoft Corporation Systems and methods for projecting content from computing devices
US7716273B2 (en) * 2003-10-24 2010-05-11 Microsoft Corporation Systems and methods for projecting content from computing devices
JP2005228018A (ja) * 2004-02-13 2005-08-25 Hitachi Ltd ネットワーク端末システム
JP2005284195A (ja) * 2004-03-31 2005-10-13 Seiko Epson Corp 画像表示システム
US7441062B2 (en) 2004-04-27 2008-10-21 Apple Inc. Connector interface system for enabling data communication with a multi-communication device
US8117651B2 (en) 2004-04-27 2012-02-14 Apple Inc. Method and system for authenticating an accessory
US7634605B2 (en) * 2004-04-27 2009-12-15 Apple Inc. Method and system for transferring stored data between a media player and an accessory
US7826318B2 (en) 2004-04-27 2010-11-02 Apple Inc. Method and system for allowing a media player to transfer digital audio to an accessory
US7673083B2 (en) * 2004-04-27 2010-03-02 Apple Inc. Method and system for controlling video selection and playback in a portable media player
US7526588B1 (en) 2004-04-27 2009-04-28 Apple Inc. Communication between an accessory and a media player using a protocol with multiple lingoes
US7797471B2 (en) * 2004-04-27 2010-09-14 Apple Inc. Method and system for transferring album artwork between a media player and an accessory
US7441058B1 (en) 2006-09-11 2008-10-21 Apple Inc. Method and system for controlling an accessory having a tuner
US7895378B2 (en) * 2004-04-27 2011-02-22 Apple Inc. Method and system for allowing a media player to transfer digital audio to an accessory
US7529872B1 (en) 2004-04-27 2009-05-05 Apple Inc. Communication between an accessory and a media player using a protocol with multiple lingoes
US7529870B1 (en) 2004-04-27 2009-05-05 Apple Inc. Communication between an accessory and a media player with multiple lingoes
US8689346B2 (en) * 2004-06-04 2014-04-01 Koninklijke Philips N.V. Authentication method for authenticating a first party to a second party
GB0416904D0 (en) * 2004-07-29 2004-09-01 Leeds Teaching Hospitals Nhs T Image viewing control
US7823214B2 (en) 2005-01-07 2010-10-26 Apple Inc. Accessory authentication for electronic devices
US20060168661A1 (en) * 2005-01-25 2006-07-27 Kisley Richard V Apparatus and method to implement data management protocols using a projector
DE202005005053U1 (de) * 2005-03-31 2005-07-28 Enzian, Gerhard eBook-Projektor
US8316416B2 (en) 2005-04-04 2012-11-20 Research In Motion Limited Securely using a display to exchange information
US20060274209A1 (en) * 2005-06-03 2006-12-07 Coretronic Corporation Method and a control device using the same for controlling a display device
US8006019B2 (en) 2006-05-22 2011-08-23 Apple, Inc. Method and system for transferring stored data between a media player and an accessory
US7415563B1 (en) 2006-06-27 2008-08-19 Apple Inc. Method and system for allowing a media player to determine if it supports the capabilities of an accessory
US20080058011A1 (en) * 2006-08-17 2008-03-06 Wei Lin Apparatus, System and Method for Wireless Transmission for Use in Projection Display Apparatus
US7558894B1 (en) 2006-09-11 2009-07-07 Apple Inc. Method and system for controlling power provided to an accessory
US20080297667A1 (en) * 2007-06-01 2008-12-04 Concepttapistry, Llc Projection apparatus with direct attachment of external storage media
JP4692529B2 (ja) * 2007-08-07 2011-06-01 セイコーエプソン株式会社 グラフィカルユーザインタフェース装置
US9092638B2 (en) * 2007-08-16 2015-07-28 Blackberry Limited System and method for managing docking applications for a portable electronic device
JP2009055164A (ja) * 2007-08-24 2009-03-12 Seiko Epson Corp 画像処理装置、プロジェクタ、画像処理方法、および画像処理装置の制御方法
JP2009060230A (ja) * 2007-08-30 2009-03-19 Canon Inc 画像形成装置及び画像形成装置の制御方法並びにそのプログラム及び記憶媒体
JP4966135B2 (ja) * 2007-08-31 2012-07-04 株式会社東芝 サーバ装置、端末装置、通信制御方法および通信制御プログラム
JP2009194688A (ja) * 2008-02-15 2009-08-27 Seiko Epson Corp 画像転送装置、画像表示装置、画像表示システム、画像データの転送方法、画像表示方法、およびコンピュータプログラム
JP4446004B2 (ja) * 2008-02-19 2010-04-07 シャープ株式会社 画像処理装置、画像処理方法および画像形成装置
CN101666958A (zh) * 2008-09-02 2010-03-10 鸿富锦精密工业(深圳)有限公司 投影装置
US8238811B2 (en) 2008-09-08 2012-08-07 Apple Inc. Cross-transport authentication
US8208853B2 (en) 2008-09-08 2012-06-26 Apple Inc. Accessory device authentication
TW201013300A (en) * 2008-09-22 2010-04-01 Coretronic Corp Projection system and expansion module for pico projector
KR101537598B1 (ko) * 2008-10-20 2015-07-20 엘지전자 주식회사 영상 프로젝터를 구비한 휴대 단말기 및 그 제어 방법
US7991833B2 (en) * 2008-10-24 2011-08-02 Seiko Epson Corporation User interface for projection device remote control
JP2010128802A (ja) * 2008-11-27 2010-06-10 Ricoh Co Ltd 情報処理装置、Webサーバ装置、Webページ更新方法、及びプログラム
CN101751286B (zh) 2008-11-28 2015-05-13 汉达精密电子(昆山)有限公司 直觉化档案传输方法
JP5236536B2 (ja) 2009-03-09 2013-07-17 シャープ株式会社 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
CN102035700A (zh) * 2009-09-29 2011-04-27 鸿富锦精密工业(深圳)有限公司 数字内容系统
US8052189B2 (en) * 2009-12-01 2011-11-08 Toyota Motor Engineering & Manufacturing North America, Inc. Trim ring having reinforced snap posts
JP5728814B2 (ja) * 2010-03-12 2015-06-03 セイコーエプソン株式会社 画像表示装置および画像処理方法
EP2383984B1 (en) * 2010-04-27 2019-03-06 LG Electronics Inc. Image display apparatus and method for operating the same
JP5430491B2 (ja) * 2010-05-17 2014-02-26 キヤノン株式会社 情報処理装置、表示装置、表示システム、情報処理装置の制御方法、及び表示装置の制御方法
WO2011149092A1 (ja) 2010-05-27 2011-12-01 京セラ株式会社 携帯電子機器及び画像投影ユニット
US20110321111A1 (en) * 2010-06-29 2011-12-29 Canon Kabushiki Kaisha Dynamic layout of content for multiple projectors
WO2012004447A1 (en) * 2010-07-08 2012-01-12 Nokia Corporation Visual data distribution
JP5644266B2 (ja) * 2010-08-30 2014-12-24 株式会社リコー 電子黒板システム、電子黒板装置、電子黒板システムの制御方法及びプログラム
CA2723647C (en) * 2010-12-02 2015-11-24 Philip Y.W. Tsui Remote control device with password functions
JP5436406B2 (ja) * 2010-12-27 2014-03-05 シャープ株式会社 画像形成装置、プログラムおよび記録媒体
JP2012163796A (ja) * 2011-02-08 2012-08-30 Seiko Epson Corp プロジェクターおよび認証方法
JP5708312B2 (ja) * 2011-07-05 2015-04-30 セイコーエプソン株式会社 プロジェクター
JP5581290B2 (ja) * 2011-09-27 2014-08-27 株式会社沖データ 画像処理装置
JP5927845B2 (ja) * 2011-11-01 2016-06-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP2013097734A (ja) 2011-11-04 2013-05-20 Ricoh Co Ltd 制御装置、通信制御方法
US8874657B2 (en) * 2012-04-27 2014-10-28 Seiko Epson Corporation Method for securely distributing meeting data from interactive whiteboard projector
CN103635915B (zh) * 2012-02-28 2017-12-15 松下知识产权经营株式会社 控制信息显示装置、控制信息显示方法、以及控制信息显示系统
EP2639012B1 (de) 2012-03-15 2014-04-30 Siemens Aktiengesellschaft Verfahren zum Betrieb einer Bearbeitungsmaschine, Projektionsvorrichtung für eine Bearbeitungsmaschine, Computerprogramm, digitales Speichermedium und Bearbeitungsmaschine mit einer solchen Projektionsvorrichtung
JP6089424B2 (ja) 2012-03-21 2017-03-08 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
JP5842694B2 (ja) 2012-03-21 2016-01-13 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
CN102830906B (zh) * 2012-07-04 2016-08-03 华为终端有限公司 基于用户界面进行文件处理的方法及终端设备
JP6098134B2 (ja) * 2012-11-21 2017-03-22 株式会社リコー サーバ装置、プログラム及び画像表示システム
JP2014225863A (ja) * 2013-04-16 2014-12-04 株式会社リコー 情報処理装置、画像表示装置、情報処理システム及び情報処理方法
CN103389889B (zh) * 2013-07-19 2015-11-25 西安诺瓦电子科技有限公司 Led显示屏安全播放方法以及视频控制器
JP6286915B2 (ja) * 2013-08-05 2018-03-07 株式会社リコー 情報処理装置、プログラム及び画像表示システム
CN103533317B (zh) * 2013-10-11 2016-06-22 中影数字巨幕(北京)有限公司 数字电影放映系统及方法
WO2015098841A1 (ja) * 2013-12-25 2015-07-02 株式会社リコー 情報処理装置、プログラム、及び伝送システム
JP2016039557A (ja) * 2014-08-08 2016-03-22 株式会社リコー 投影装置、投影システム、および投影方法
JP6576676B2 (ja) 2015-04-24 2019-09-18 クラリオン株式会社 情報処理装置、情報処理方法
WO2024155914A1 (en) * 2023-01-19 2024-07-25 Sharkninja Operating Llc Hair care appliance with powered attachment
US20240245190A1 (en) 2023-01-19 2024-07-25 Sharkninja Operating Llc Identification of hair care appliance attachments

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63242055A (ja) * 1987-03-30 1988-10-07 Nippon Telegr & Teleph Corp <Ntt> 投影機を用いた会議装置
JPH064238A (ja) * 1992-06-17 1994-01-14 Seiko Epson Corp プリンタ装置
JPH0635807A (ja) * 1992-07-16 1994-02-10 Sharp Corp 情報処理装置
JPH10289106A (ja) * 1997-04-15 1998-10-27 Matsushita Electric Ind Co Ltd 情報処理装置
JP2000076028A (ja) * 1998-08-28 2000-03-14 Hitachi Koki Co Ltd 印刷制御装置

Family Cites Families (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267149A (en) * 1986-08-20 1993-11-30 Oki Electric Industry Co. Ltd. System and method for registering passwords
JPH0352371A (ja) 1989-07-19 1991-03-06 Toshiba Corp 会議システム
JPH03269756A (ja) * 1990-03-20 1991-12-02 Fujitsu Ltd セキュリティ機能付共用出力装置
JPH056065A (ja) * 1991-01-28 1993-01-14 Fuji Xerox Co Ltd 記録装置のユーザインタフエース
US5809678A (en) * 1991-02-27 1998-09-22 Douglas; Andre J. T. Devices for alteration and display of chemiluminescent light
DE4206881A1 (de) 1992-03-05 1993-09-09 Bosch Gmbh Robert Abblendlichtscheinwerfer fuer kraftfahrzeuge
US6026452A (en) * 1997-02-26 2000-02-15 Pitts; William Michael Network distributed site cache RAM claimed as up/down stream request/reply channel for storing anticipated data and meta data
JPH0628095A (ja) 1992-07-08 1994-02-04 Fuji Xerox Co Ltd 座標入力制御装置
US5537544A (en) * 1992-09-17 1996-07-16 Kabushiki Kaisha Toshiba Portable computer system having password control means for holding one or more passwords such that the passwords are unreadable by direct access from a main processor
CA2107759A1 (en) * 1992-10-06 1994-04-07 Masahiko Nunokawa Tape printing device
JP3340497B2 (ja) 1993-02-23 2002-11-05 株式会社リコー 通信会議装置
JP3002352B2 (ja) * 1993-03-01 2000-01-24 シャープ株式会社 画像表示システム
US5428417A (en) 1993-08-02 1995-06-27 Lichtenstein; Bernard Visual lecture aid
US5572646A (en) * 1993-08-25 1996-11-05 Casio Computer Co., Ltd. Apparatus for displaying images of living things to show growing and/or moving of the living things
JPH0793575A (ja) * 1993-09-22 1995-04-07 Fuji Photo Film Co Ltd 編集時表示回転機能を有する画像処理システム
US6111598A (en) * 1993-11-12 2000-08-29 Peveo, Inc. System and method for producing and displaying spectrally-multiplexed images of three-dimensional imagery for use in flicker-free stereoscopic viewing thereof
US5509074A (en) * 1994-01-27 1996-04-16 At&T Corp. Method of protecting electronically published materials using cryptographic protocols
JPH07288705A (ja) * 1994-04-18 1995-10-31 Canon Inc カラー画像処理装置および方法
JPH086549A (ja) * 1994-06-17 1996-01-12 Hitachi Ltd 旋律合成方法
US5864853A (en) * 1994-09-14 1999-01-26 Kabushiki Kaisha Toshiba Portable file system operable under various computer environments
JPH08106525A (ja) * 1994-10-06 1996-04-23 Sega Enterp Ltd 画像処理方法および画像処理装置
US5782548A (en) 1995-04-07 1998-07-21 Seiko Epson Corporation Image projection system and a method of controlling a projected pointer
IL114361A (en) * 1995-06-27 1998-08-16 Veritas Technology Solutions L File encryption method
JPH0926832A (ja) * 1995-07-07 1997-01-28 Seiko Epson Corp 情報処理装置および処理方法
WO1997005561A1 (fr) * 1995-07-31 1997-02-13 Fujitsu Limited Processeur de supports et procede de traitement de supports
JP3680373B2 (ja) * 1995-09-28 2005-08-10 ソニー株式会社 光学視覚装置及び光学視覚装置の制御方法
JP3755171B2 (ja) * 1995-10-13 2006-03-15 ソニー株式会社 端末装置、受信方法、サーバ、および送信方法
US6023506A (en) * 1995-10-26 2000-02-08 Hitachi, Ltd. Data encryption control apparatus and method
WO1997018636A2 (en) * 1995-11-13 1997-05-22 Webtronics, Inc. Control of remote devices using http protocol
JPH09149376A (ja) * 1995-11-21 1997-06-06 Taiyo Elec Kk 弾発遊技機の画像表示装置
US6209048B1 (en) 1996-02-09 2001-03-27 Ricoh Company, Ltd. Peripheral with integrated HTTP server for remote access using URL's
US6055441A (en) * 1996-04-30 2000-04-25 International Business Machines Corporation Systems and methods for facsimile communication over a cellular radiotelephone communications link
KR0180509B1 (ko) * 1996-05-03 1999-05-01 박원훈 입체 영상 시스템
JPH10105470A (ja) 1996-09-27 1998-04-24 Hitachi Software Eng Co Ltd ファイルアクセス認証方法
JPH10108272A (ja) 1996-09-30 1998-04-24 Matsushita Electric Works Ltd 監視制御システムおよび監視制御装置
US5668566A (en) 1996-10-11 1997-09-16 Yen; Kerl Wireless computer picture transmission device
JPH10124418A (ja) * 1996-10-22 1998-05-15 Nippon Telegr & Teleph Corp <Ntt> Wwwサーバを用いた遠隔制御方法
US5956487A (en) 1996-10-25 1999-09-21 Hewlett-Packard Company Embedding web access mechanism in an appliance for user interface functions including a web server and web browser
JP3446503B2 (ja) * 1996-10-31 2003-09-16 富士電機株式会社 自動販売機
US6064666A (en) * 1996-11-15 2000-05-16 International Business Machines Corporation Cross service common user image association
US6139177A (en) 1996-12-03 2000-10-31 Hewlett Packard Company Device access and control using embedded web access functionality
US6043802A (en) 1996-12-17 2000-03-28 Ricoh Company, Ltd. Resolution reduction technique for displaying documents on a monitor
JPH10191463A (ja) 1996-12-24 1998-07-21 Victor Co Of Japan Ltd 電子機器及びその制御方法
US6163316A (en) 1997-01-03 2000-12-19 Texas Instruments Incorporated Electronic programming system and method
US6154757A (en) * 1997-01-29 2000-11-28 Krause; Philip R. Electronic text reading environment enhancement method and apparatus
US5970218A (en) 1997-02-11 1999-10-19 Toshiba America Information Systems, Inc. Private print
JPH10222578A (ja) 1997-02-12 1998-08-21 Ricoh Elemex Corp プレゼンテーション装置
JP2959545B2 (ja) 1997-03-25 1999-10-06 セイコーエプソン株式会社 画像情報入出力装置及び画像情報入出力装置の制御方法及び画像情報処理システム
JPH10290372A (ja) 1997-04-14 1998-10-27 Canon Inc ネットワーク画像出力システム、画像出力制御方法および画像形成装置
JPH117420A (ja) * 1997-04-22 1999-01-12 Sharp Corp データ受信装置
JPH1118178A (ja) * 1997-06-20 1999-01-22 Nec Corp ワイヤードリモコン端子を用いた信号処理システム
US5875428A (en) * 1997-06-27 1999-02-23 Kurzweil Educational Systems, Inc. Reading system displaying scanned images with dual highlights
US6087577A (en) * 1997-07-01 2000-07-11 Casio Computer Co., Ltd. Music navigator with visual image presentation of fingering motion
JPH1175145A (ja) 1997-08-29 1999-03-16 Mitsubishi Electric Corp ビデオプロジェクター制御装置
US5924013A (en) * 1997-09-03 1999-07-13 Guido; Mary M. Method and apparatus for transmitting motion picture cinematic information for viewing in movie theaters and ordering method therefor
US6219695B1 (en) 1997-09-16 2001-04-17 Texas Instruments Incorporated Circuits, systems, and methods for communicating computer video output to a remote location
JPH11191027A (ja) 1997-09-30 1999-07-13 Hewlett Packard Co <Hp> コンピュータ・プレゼンテーション・システム
EP0907120A3 (en) 1997-10-02 2004-03-24 Tumbleweed Software Corporation Method amd apparatus for delivering documents over an electronic network
TW436709B (en) 1997-11-17 2001-05-28 Ibm Method and apparatus for interacting with hardware devices remotely
US6501846B1 (en) * 1997-11-25 2002-12-31 Ethentica, Inc. Method and system for computer access and cursor control using a relief object image generator
JP3951393B2 (ja) * 1997-11-28 2007-08-01 株式会社富士通ゼネラル インフォメーションシステム
US6108591A (en) * 1998-01-22 2000-08-22 Qualcomm Incorporated Method and apparatus for validating vehicle operators
US6184943B1 (en) * 1998-01-23 2001-02-06 Compaq Computer Corporation Portable computer system incorporating a rear projection display
JPH11231259A (ja) 1998-02-12 1999-08-27 Nikon Corp プロジェクタ
GB2334868A (en) * 1998-02-26 1999-09-01 Ibm Presentation apparatus
JP4408969B2 (ja) * 1998-04-10 2010-02-03 株式会社リコー 被制御装置
US20020036694A1 (en) * 1998-05-07 2002-03-28 Merril Jonathan R. Method and system for the storage and retrieval of web-based educational materials
US7689898B2 (en) * 1998-05-07 2010-03-30 Astute Technology, Llc Enhanced capture, management and distribution of live presentations
US6359711B1 (en) * 1998-05-20 2002-03-19 Steelcase Development Corporation System and method for supporting a worker in a distributed work environment
US6078328A (en) * 1998-06-08 2000-06-20 Digital Video Express, Lp Compressed video graphics system and methodology
JP2000023149A (ja) 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ
JP2000023150A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp プロジェクタにおける画像データの再生方法及びプロジェクタ
JP2000023148A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp ネットワーク・プロジェクタ・システムにおける画像データの再生方法及びネットワーク・プロジェクタ・システム
US6157953A (en) * 1998-07-28 2000-12-05 Sun Microsystems, Inc. Authentication and access control in a management console program for managing services in a computer network
JP3627791B2 (ja) 1998-08-10 2005-03-09 富士通株式会社 他端末操作装置
JP3678017B2 (ja) * 1998-09-08 2005-08-03 ブラザー工業株式会社 ファクシミリ装置
JP3788694B2 (ja) * 1998-09-16 2006-06-21 株式会社ソニー・コンピュータエンタテインメント データ処理システム及び方法、並びにエンタテインメント装置
US6529910B1 (en) * 1998-09-18 2003-03-04 David E. Fleskes Apparatus and method for automatically generating worldwide web pages based on real world domain data
US6122640A (en) * 1998-09-22 2000-09-19 Platinum Technology Ip, Inc. Method and apparatus for reorganizing an active DBMS table
JP2000115275A (ja) * 1998-09-30 2000-04-21 Fujitsu General Ltd 遠隔制御システム
JP2000196980A (ja) * 1998-10-22 2000-07-14 Fuji Photo Film Co Ltd 携帯型プリンタ及びカメラ
US6308205B1 (en) * 1998-10-22 2001-10-23 Canon Kabushiki Kaisha Browser-based network management allowing administrators to use web browser on user's workstation to view and update configuration of network devices
JP3611464B2 (ja) * 1998-10-29 2005-01-19 シャープ株式会社 情報提供装置および情報提供システム
US6560637B1 (en) 1998-12-02 2003-05-06 Polycom, Inc. Web-enabled presentation device and methods of use thereof
US6499062B1 (en) 1998-12-17 2002-12-24 Koninklijke Philips Electronics N.V. Synchronizing property changes to enable multiple control options
JP4392886B2 (ja) * 1999-01-22 2010-01-06 キヤノン株式会社 画像抽出方法及び装置
US6216158B1 (en) 1999-01-25 2001-04-10 3Com Corporation System and method using a palm sized computer to control network devices
US7315826B1 (en) * 1999-05-27 2008-01-01 Accenture, Llp Comparatively analyzing vendors of components required for a web-based architecture
JP2003528334A (ja) * 1999-08-13 2003-09-24 シネキャスト・リミテッド・ライアビリティ・カンパニー 映画館及び劇場に広告情報をデジタル式で提供して表示するためのシステム及び方法
US6525746B1 (en) * 1999-08-16 2003-02-25 University Of Washington Interactive video object processing environment having zoom window
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7013304B1 (en) * 1999-10-20 2006-03-14 Xerox Corporation Method for locating digital information files
KR100381390B1 (ko) * 1999-12-27 2003-04-23 엘지전자 주식회사 외부 연결기기에 대한 영상기기의 메뉴 원격제어방법
JP4688996B2 (ja) * 2000-01-31 2011-05-25 キヤノン株式会社 映像表示装置、その制御方法および記憶媒体
US6593908B1 (en) * 2000-02-16 2003-07-15 Telefonaktiebolaget Lm Ericsson (Publ) Method and system for using an electronic reading device on non-paper devices
US6760045B1 (en) * 2000-02-22 2004-07-06 Gateway, Inc. Simultaneous projected presentation of client browser display
US6914605B2 (en) * 2000-03-21 2005-07-05 Matsushita Electric Industrial Co., Ltd. Graphic processor and graphic processing system
US6847354B2 (en) * 2000-03-23 2005-01-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three dimensional interactive display
EP1191450B1 (en) * 2000-03-27 2007-11-07 Seiko Epson Corporation System for managing devices connected to a network
US7102648B1 (en) 2000-04-11 2006-09-05 Rah Color Technologies Llc Methods and apparatus for calibrating a color display
US20010042014A1 (en) * 2000-05-15 2001-11-15 Lowry Brian C. System and method of providing communication between a vendor and client using an interactive video display
JP4074425B2 (ja) * 2000-05-31 2008-04-09 セイコーエプソン株式会社 大型表示装置を用いた稼働状況管理
CN100565327C (zh) * 2000-05-31 2009-12-02 精工爱普生株式会社 投影机及其控制方法
US6735616B1 (en) 2000-06-07 2004-05-11 Infocus Corporation Method and apparatus for remote projector administration and control
US7305478B2 (en) * 2000-06-08 2007-12-04 Symbol Technologies, Inc. Bar code symbol ticketing for authorizing access in a wireless local area communications network
EP2273452A1 (en) * 2000-06-09 2011-01-12 Seiko Epson Corporation Projection of pagewise image data
US6253151B1 (en) * 2000-06-23 2001-06-26 Navigation Technologies Corp. Navigation system with feature for reporting errors
US6717591B1 (en) * 2000-08-31 2004-04-06 International Business Machines Corporation Computer display system for dynamically controlling the pacing of sequential presentation segments in response to user variations in the time allocated to specific presentation segments
JP2002123488A (ja) * 2000-10-16 2002-04-26 Sony Corp 機器制御方法と装置
US8677505B2 (en) * 2000-11-13 2014-03-18 Digital Doors, Inc. Security system with extraction, reconstruction and secure recovery and storage of data
US20030149601A1 (en) * 2000-12-14 2003-08-07 Cabral Anthony J. Network billboard system and method thereof
US20040024643A1 (en) * 2001-02-08 2004-02-05 David Pollock Systems and methods for distributing multimedia presentations over a network with integration of local data
US20040015401A1 (en) * 2001-02-08 2004-01-22 In Lee Systems and methods for distributing template-based multimedia presentations over a network
US20020120554A1 (en) * 2001-02-28 2002-08-29 Vega Lilly Mae Auction, imagery and retaining engine systems for services and service providers
US6944659B2 (en) * 2001-03-01 2005-09-13 Hewlett-Packard Development Company, L.P. Method and apparatus for gathering and transmitting information for events relating to a networked appliance
US6820055B2 (en) * 2001-04-26 2004-11-16 Speche Communications Systems and methods for automated audio transcription, translation, and transfer with text display software for manipulating the text
US6925481B2 (en) * 2001-05-03 2005-08-02 Symantec Corp. Technique for enabling remote data access and manipulation from a pervasive device
US6742901B2 (en) 2001-05-16 2004-06-01 Sony Corporation Imaging prevention method and system
US7180475B2 (en) * 2001-06-07 2007-02-20 Infocus Corporation Method and apparatus for wireless image transmission to a projector
US6961912B2 (en) * 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
US20030110217A1 (en) * 2001-12-07 2003-06-12 Raju Narayan D. Method and apparatus for a networked projection system
US7182462B2 (en) * 2001-12-26 2007-02-27 Infocus Corporation System and method for updating an image display device from a remote location
US6860609B2 (en) * 2001-12-26 2005-03-01 Infocus Corporation Image-rendering device
US7143010B2 (en) * 2003-12-17 2006-11-28 Cinecast, Llc System and method for remotely monitoring, diagnosing, intervening with and reporting problems with cinematic equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63242055A (ja) * 1987-03-30 1988-10-07 Nippon Telegr & Teleph Corp <Ntt> 投影機を用いた会議装置
JPH064238A (ja) * 1992-06-17 1994-01-14 Seiko Epson Corp プリンタ装置
JPH0635807A (ja) * 1992-07-16 1994-02-10 Sharp Corp 情報処理装置
JPH10289106A (ja) * 1997-04-15 1998-10-27 Matsushita Electric Ind Co Ltd 情報処理装置
JP2000076028A (ja) * 1998-08-28 2000-03-14 Hitachi Koki Co Ltd 印刷制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1286207A4 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8806571B2 (en) 2001-08-28 2014-08-12 Seiko Epson Corporation Projector projecting password
US8272035B2 (en) 2001-08-28 2012-09-18 Seiko Epson Corporation Projector projecting password
JP2012146309A (ja) * 2002-05-27 2012-08-02 Seiko Epson Corp プロジェクタシステム、接続方法、プログラム及び情報記録媒体
US7735130B2 (en) 2002-05-27 2010-06-08 Seiko Epson Corporation Image data transmission system, process and program, image data output device and image display device
JP2014207015A (ja) * 2002-05-27 2014-10-30 セイコーエプソン株式会社 画像データ伝送システム、画像データ伝送方法、画像データ伝送プログラム、画像データ出力装置および画像表示装置
US8875053B2 (en) 2002-05-27 2014-10-28 Seiko Epson Corporation Secure connection protocol for image projecting unit, process and program
JP2004279989A (ja) * 2003-03-19 2004-10-07 Sharp Corp ネットワーク映像調整システム
US9305188B2 (en) 2003-03-24 2016-04-05 Seiko Epson Corporation Image-display method, projector, image-display system, projector-control method, image-display program, and projector-control program
JP2007516506A (ja) * 2003-05-29 2007-06-21 インフォーカス コーポレイション 投影装置のユーザ・インタフェース・システム
JP4692487B2 (ja) * 2003-05-29 2011-06-01 セイコーエプソン株式会社 投影装置のユーザ・インタフェース・システム
US8640196B2 (en) 2004-01-21 2014-01-28 Seiko Epson Corporation Network system of projector
US8646036B2 (en) 2004-01-21 2014-02-04 Seiko Epson Corporation Network system of projector
US8296572B2 (en) 2006-04-04 2012-10-23 Seiko Epson Corporation Projector system
US8892898B2 (en) 2006-04-04 2014-11-18 Seiko Epson Corporation Projector system
JP4535143B2 (ja) * 2008-02-20 2010-09-01 セイコーエプソン株式会社 情報管理システム及びそれを利用した情報管理方法
JP2009198662A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp ホスト機器及びその制御方法
JP2009198663A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp ホスト機器及びその制御方法
JP2015108841A (ja) * 2015-01-19 2015-06-11 セイコーエプソン株式会社 プロジェクター、及びプロジェクターの制御方法

Also Published As

Publication number Publication date
EP1808739A3 (en) 2007-12-05
EP1286207A4 (en) 2004-09-22
JP2011204235A (ja) 2011-10-13
US8654109B2 (en) 2014-02-18
US8155768B2 (en) 2012-04-10
US20140115027A1 (en) 2014-04-24
EP1808739A2 (en) 2007-07-18
EP2278451A1 (en) 2011-01-26
US20160127703A1 (en) 2016-05-05
US20130222409A1 (en) 2013-08-29
JP5846256B2 (ja) 2016-01-20
US20080147912A1 (en) 2008-06-19
US7782330B2 (en) 2010-08-24
EP1286207A1 (en) 2003-02-26
JP4039242B2 (ja) 2008-01-30
US7397476B2 (en) 2008-07-08
CN1637583A (zh) 2005-07-13
US7965284B2 (en) 2011-06-21
JP4983988B2 (ja) 2012-07-25
US20080234843A1 (en) 2008-09-25
US20100309210A1 (en) 2010-12-09
JP5734832B2 (ja) 2015-06-17
CN1196009C (zh) 2005-04-06
US9270729B2 (en) 2016-02-23
EP1814024A3 (en) 2007-12-05
JP2015008463A (ja) 2015-01-15
EP1814024A2 (en) 2007-08-01
CN1386213A (zh) 2002-12-18
CN100565327C (zh) 2009-12-02
JP2012133370A (ja) 2012-07-12
US9888221B2 (en) 2018-02-06
US20110210977A1 (en) 2011-09-01
US20020108108A1 (en) 2002-08-08

Similar Documents

Publication Publication Date Title
JP5846256B2 (ja) プロジェクタおよび投写表示システム、並びに、その方法および記録媒体
EP1288865B1 (en) Creation of image designation file and reproduction of image using the same
JP5243752B2 (ja) プロジェクタおよび投写表示システム、並びに、その方法および記録媒体
JP2002057964A (ja) プロジェクタおよび投写表示システム、並びに、そのための方法および記録媒体
JP4613930B2 (ja) 画像指定ファイルの作成およびこれを用いた画像の再生
JP5335270B2 (ja) 表示制御装置、表示制御方法、及びコンピュータプログラム
JP4138720B2 (ja) プロジェクタ
JP2005100400A (ja) 画像指定ファイルの作成およびこれを用いた画像の再生

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 10048055

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001934476

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 018022391

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2001934476

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2001934476

Country of ref document: EP