WO2022107537A1 - 制御装置、制御方法、制御プログラム、及び投影システム - Google Patents

制御装置、制御方法、制御プログラム、及び投影システム Download PDF

Info

Publication number
WO2022107537A1
WO2022107537A1 PCT/JP2021/038836 JP2021038836W WO2022107537A1 WO 2022107537 A1 WO2022107537 A1 WO 2022107537A1 JP 2021038836 W JP2021038836 W JP 2021038836W WO 2022107537 A1 WO2022107537 A1 WO 2022107537A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
information
control
control device
image
Prior art date
Application number
PCT/JP2021/038836
Other languages
English (en)
French (fr)
Inventor
和紀 井上
智紀 増田
晶啓 石塚
一樹 石田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022563649A priority Critical patent/JP7314425B2/ja
Publication of WO2022107537A1 publication Critical patent/WO2022107537A1/ja
Priority to US18/311,614 priority patent/US20230274675A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a control device, a control method, a control program, and a projection system.
  • Patent Document 1 describes a projection device that projects an operation image for a user within the reach of the user when the subject detected by the imaging unit is only the user (presenter).
  • Patent Document 2 describes a configuration in which a PC connected to a projector projects a menu image near the indicated position of the pen-type device when the indicated position of the pen-type device operated by the operator is detected by the infrared light receiving unit. Has been done.
  • Patent Document 3 describes a projector in which a user can arbitrarily select a projection position of a GUI by operating a remote controller.
  • One embodiment according to the technique of the present disclosure provides a control device, a control method, a control program, and a projection system capable of facilitating control of a projection device using an image for operation to be projected.
  • the control device of the present invention is a control device of a projection device that projects an image onto a projection object, and includes a processor.
  • an operation unit for operating the projection device accepts a first operation.
  • the operation for operating the projection device is performed on the portion of the projection range of the projection device determined based on the second information different from the first information obtained by the first operation on the operation unit. It controls the projection of the image to be projected from the projection device.
  • the control method of the present invention is a control method of a projection device that projects an image on a projection object, and the processor of the projection device receives the first operation by the operation unit for operating the projection device. Accordingly, in the projection range of the projection device, the portion determined based on the second information different from the first information obtained by the first operation on the operation unit is used for the operation of the projection device. It controls the projection of an image from the projection device.
  • the control program of the present invention covers the projection range of the projection device in response to the acceptance of the first operation by the operation unit for operating the projection device on the processor of the projection device that projects an image on the projection object. Among them, the control of projecting the operation image for the operation of the projection device from the projection device on the portion determined based on the second information different from the first information obtained by the first operation on the operation unit. It is for executing the processing to be performed.
  • the projection system of the present invention is a projection device that projects an image on a projection object and a control device of the projection device, in response to the acceptance of the first operation by the operation unit for operating the projection device.
  • An operation image for operating the projection device is placed in a portion of the projection range of the projection device determined based on the second information different from the first information obtained by the first operation on the operation unit. It includes a control device that controls projection from the projection device.
  • control device a control method, a control program, and a projection system capable of facilitating the control of the projection device using the image for operation to be projected.
  • FIG. 10 It is a schematic diagram which shows the schematic structure of the projection apparatus 10 to which the control apparatus of Embodiment 1 is applied. It is a schematic diagram which shows an example of the internal structure of the projection part 1 shown in FIG. It is a schematic diagram which shows the appearance structure of the projection apparatus 10. It is sectional drawing of the optical unit 106 of the projection apparatus 10 shown in FIG. It is a figure which shows an example of the projection of the operation image by the control device 4 of Embodiment 1.
  • FIG. It is a figure which shows an example of the automatic setting of the 2nd information.
  • FIG. It is a figure which shows an example of maintenance of the projection position of the operation image 62. It is a figure which shows an example of the projection of the operation image by the control device 4 of Embodiment 2. It is a flowchart which shows an example of the processing by the control device 4 of Embodiment 2.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a projection device 10 to which the control device of the first embodiment is applied.
  • the projection device 10 includes a projection unit 1, a control device 4, and an operation reception unit 2.
  • the projection unit 1 is configured by, for example, a liquid crystal projector, a projector using LCOS (Liquid Crystal On Silicon), or the like. Hereinafter, it is assumed that the projection unit 1 is a liquid crystal projector.
  • the control device 4 controls the projection by the projection device 10. Further, the control device 4 is an example of the control device of the present invention.
  • the control device 4 includes a control unit composed of various processors, a communication interface (not shown) for communicating with each unit, and a storage medium such as a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory). It is a device including 4a, and controls the projection unit 1 in an integrated manner.
  • various processors of the control unit of the control device 4 the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute programs to perform various processes.
  • Programmable Logic Device which is a possible processor, or a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as ASIC (Application Specific Integrated Circuit), etc. Is included.
  • the structure of these various processors is an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the control unit of the control device 4 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • the operation reception unit 2 detects an instruction (user instruction) from the user by receiving various operations from the user.
  • the operation reception unit 2 is an operation unit such as a button, a key, and a joystick provided on the main body of the projection device 10. Therefore, when the operation receiving unit 2 is operated, it can be determined that the user is located in the vicinity of the projection device 10.
  • the projection object 6 is an object such as a screen having a projection surface on which a projection image is displayed by the projection unit 1.
  • the projection plane of the projection object 6 is a rectangular plane. It is assumed that the top, bottom, left, and right of the projection object 6 in FIG. 1 are the top, bottom, left, and right of the actual projection object 6.
  • the projection range 11 shown by the alternate long and short dash line is the area of the projection object 6 to which the projection light is irradiated by the projection unit 1.
  • the projection range 11 is a rectangle.
  • the projection range 11 is a part or the whole of the projectable range that can be projected by the projection unit 1.
  • the projection unit 1, the control device 4, and the operation reception unit 2 are realized by, for example, one device (see, for example, FIGS. 3 and 4).
  • the projection unit 1, the control device 4, and the operation reception unit 2 may be separate devices that cooperate with each other by communicating with each other.
  • FIG. 2 is a schematic diagram showing an example of the internal configuration of the projection unit 1 shown in FIG.
  • the projection unit 1 includes a light source 21, an optical modulation unit 22, a projection optical system 23, and a control circuit 24.
  • the light source 21 includes a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • the light modulation unit 22 modulates each color light emitted from the light source 21 and separated into three colors of red, blue, and green by a color separation mechanism (not shown) based on image information, and emits each color image. It is composed of a liquid crystal panel. Red, blue, and green filters may be mounted on each of the three liquid crystal panels, and the white light emitted from the light source 21 may be modulated by each liquid crystal panel to emit each color image.
  • the projection optical system 23 is for incident light from the light source 21 and the optical modulation unit 22, and is composed of, for example, a relay optical system including at least one lens. The light that has passed through the projection optical system 23 is projected onto the projection object 6.
  • the region irradiated with the light transmitted through the entire range of the light modulation unit 22 is the projectable range that can be projected by the projection unit 1.
  • the region where the light actually transmitted from the light modulation unit 22 is irradiated is the projection range 11.
  • the size, position, and shape of the projection range 11 change in the projectable range.
  • the control circuit 24 controls the light source 21, the optical modulation unit 22, and the projection optical system 23 based on the display data input from the control device 4, so that the image based on the display data is displayed on the projection object 6.
  • the display data input to the control circuit 24 is composed of three components: red display data, blue display data, and green display data.
  • control circuit 24 expands or contracts the projection range 11 (see FIG. 1) of the projection unit 1 by changing the projection optical system 23 based on the command input from the control device 4. Further, the control device 4 may move the projection range 11 of the projection unit 1 by changing the projection optical system 23 based on the operation from the user accepted by the operation reception unit 2.
  • the projection device 10 includes a shift mechanism for mechanically or optically moving the projection range 11 while maintaining the image circle of the projection optical system 23.
  • the image circle of the projection optical system 23 is a region in which the projected light incident on the projection optical system 23 appropriately passes through the projection optical system 23 from the points of light loss, color separation, peripheral curvature, and the like.
  • the shift mechanism is realized by at least one of an optical system shift mechanism that shifts the optical system and an electron shift mechanism that performs electron shift.
  • the optical system shift mechanism is, for example, a mechanism for moving the projection optical system 23 in a direction perpendicular to the optical axis (see, for example, FIGS. 3 and 4), or an optical modulation unit 22 instead of moving the projection optical system 23. It is a mechanism that moves in the direction perpendicular to the axis. Further, the optical system shift mechanism may be a combination of the movement of the projection optical system 23 and the movement of the optical modulation unit 22.
  • the electronic shift mechanism is a mechanism that shifts the pseudo projection range 11 by changing the range through which light is transmitted in the optical modulation unit 22.
  • the projection device 10 may include a projection direction changing mechanism for moving the projection range 11 together with the image circle of the projection optical system 23.
  • the projection direction changing mechanism is a mechanism that changes the projection direction of the projection unit 1 by changing the direction of the projection unit 1 by mechanical rotation (see, for example, FIGS. 3 and 4).
  • FIG. 3 is a schematic view showing an external configuration of the projection device 10.
  • FIG. 4 is a schematic cross-sectional view of the optical unit 106 of the projection device 10 shown in FIG.
  • FIG. 4 shows a cross section of the light emitted from the main body 101 shown in FIG. 3 along the optical path.
  • the projection device 10 includes a main body portion 101 and an optical unit 106 provided so as to project from the main body portion 101.
  • the operation reception unit 2, the control device 4, the light source 21, the light modulation unit 22, and the control circuit 24 in the projection unit 1 are provided in the main body unit 101.
  • the projection optical system 23 in the projection unit 1 is provided in the optical unit 106.
  • the optical unit 106 includes a first member 102 supported by the main body 101 and a second member 103 supported by the first member 102.
  • the first member 102 and the second member 103 may be integrated members.
  • the optical unit 106 may be detachably configured (in other words, interchangeable) on the main body 101.
  • the main body 101 has a housing 15 (see FIG. 4) in which an opening 15a (see FIG. 4) for passing light is formed in a portion connected to the optical unit 106.
  • a light source 21 and a light modulation unit 22 Inside the housing 15 of the main body 101, as shown in FIG. 3, a light source 21 and a light modulation unit 22 (a light modulation unit 22 that spatially modulates the light emitted from the light source 21 based on input image data to generate an image) ( An optical modulation unit 12 including (see FIG. 2) is provided.
  • the light emitted from the light source 21 is incident on the optical modulation unit 22 of the optical modulation unit 12, and is spatially modulated by the optical modulation unit 22 and emitted.
  • the image formed by the light spatially modulated by the optical modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 106, and the projection object 6 as a projection object 6
  • the image G1 is projected onto the image and becomes visible to the observer.
  • the optical unit 106 includes a first member 102 having a hollow portion 2A connected to the inside of the main body portion 101, a second member 103 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 121 and the reflecting member 122 arranged, the second optical system 31, the reflecting member 32, the third optical system 33, and the lens 34 arranged in the hollow portion 3A, the shift mechanism 105, and the projection direction change.
  • the mechanism 104 is provided.
  • the first member 102 is a member having a rectangular cross-sectional outer shape as an example, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 102 is supported by the main body 101 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 101.
  • the light emitted from the optical modulation unit 22 of the optical modulation unit 12 of the main body 101 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 102.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 101 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction from the front to the back of the paper is described as the direction Z1
  • the direction from the back of the paper to the front is described as the direction Z2.
  • the projection device 10 is arranged so that the direction Y2 is the vertical direction.
  • the projection optical system 23 shown in FIG. 2 is composed of a first optical system 121, a reflection member 122, a second optical system 31, a reflection member 32, a third optical system 33, and a lens 34.
  • FIG. 4 shows the optical axis K of the projection optical system 23.
  • the first optical system 121, the reflective member 122, the second optical system 31, the reflective member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the optical modulation unit 22 side.
  • the first optical system 121 includes at least one lens, and guides light traveling in the direction X1 incident on the first member 102 from the main body 101 to the reflecting member 122.
  • the reflection member 122 reflects the light incident from the first optical system 121 in the direction Y1.
  • the reflective member 122 is composed of, for example, a mirror or the like.
  • the first member 102 has an opening 2b formed on the optical path of the light reflected by the reflecting member 122, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 103.
  • the second member 103 is a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 102.
  • the light from the main body 101 that has passed through the opening 2b of the first member 102 is incident on the hollow portion 3A of the second member 103 through the opening 3a.
  • the cross-sectional outer shape of the first member 102 and the second member 103 is arbitrary and is not limited to the above.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 102 to the reflecting member 32.
  • the reflection member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33.
  • the reflective member 32 is composed of, for example, a mirror or the like.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the reflecting member 32 to the lens 34.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 103 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the projection object 6.
  • the projection direction changing mechanism 104 is a rotation mechanism that rotatably connects the second member 103 to the first member 102.
  • the second member 103 is rotatably configured around a rotation axis (specifically, an optical axis K) extending in the direction Y.
  • the projection direction changing mechanism 104 is not limited to the arrangement position shown in FIG. 4, as long as the optical system can be rotated. Further, the number of rotation mechanisms is not limited to one, and a plurality of rotation mechanisms may be provided.
  • the shift mechanism 105 is a mechanism for moving the optical axis K (in other words, the optical unit 106) of the projection optical system in the direction perpendicular to the optical axis K (direction Y in FIG. 4). Specifically, the shift mechanism 105 is configured to be able to change the position of the first member 102 in the direction Y with respect to the main body 101.
  • the shift mechanism 105 may be one that manually moves the first member 102, or one that electrically moves the first member 102.
  • FIG. 4 shows a state in which the first member 102 is moved to the direction Y1 side as much as possible by the shift mechanism 105. From the state shown in FIG. 4, the first member 102 is moved in the direction Y2 by the shift mechanism 105, so that the center of the image (in other words, the center of the display surface) formed by the optical modulation unit 22 and the optical axis K are aligned with each other. The relative position changes, and the image G1 projected on the projection object 6 can be shifted (translated) in the direction Y2.
  • the shift mechanism 105 may be a mechanism that moves the optical modulation unit 22 in the direction Y instead of moving the optical unit 106 in the direction Y. Even in this case, the image G1 projected on the projection object 6 can be moved in the direction Y2.
  • FIG. 5 is a diagram showing an example of projection of an operation image by the control device 4 of the first embodiment.
  • a lens having a short focal length is used for the projection optical system 23 of the projection device 10, and the projection device 10 is installed near the projection object 6. Further, the projection device 10 is installed near the left end of the projection range 11 toward the projection object 6.
  • the operator 8 is a user who operates the projection device 10, and is located near the projection device 10. Therefore, the operator 8 is also located near the left end of the projection range 11 toward the projection object 6, similarly to the projection device 10.
  • the operation image 62 is an image for operating the projection device 10.
  • the operation image 62 is an image for operating the projection range 11 of the projection device 10 in the projection object 6.
  • the operation of the projection range 11 is, for example, a shift of the projection range 11 using the above shift mechanism, expansion / contraction of the projection range 11, distortion correction of the projection range 11 and the like.
  • the operation image 62 is an up / down / left / right cursor key image.
  • the operation image 62 is an image that imitates the up / down / left / right cursor keys provided in the projection device 10 (main body 101) as the operation reception unit 2, and is projected by pressing the cursor keys of the projection device 10. It guides the operator 8 that the range 11 can be operated. For example, when the operator 8 presses the cursor key in the right direction included in the operation reception unit 2 in the state of FIG. 5, the projection device 10 shifts the projection range 11 to the right by using the shift mechanism described above. Control to make it.
  • the operation image 62 may guide the operator 8 to an interactive operation capable of operating the projection range 11 by performing an operation of instructing the operation image 62 in the projected image.
  • the projection device 10 shifts the projection range 11 to the right by using the shift mechanism described above. Take control.
  • the operator 8 gives an instruction by an indicator having a sensor capable of detecting the indicated position in the projected image, and the projection apparatus A method can be used in which 10 obtains from this indicator.
  • an image pickup device that captures the projection object 6 is used, and the image is based on the captured image obtained by the image pickup of the image pickup device.
  • a method of detecting an instruction by the operator 8 by image recognition may be used.
  • the control device 4 projects the operation image 62 toward the projection target 6 at a position near the left end of the projection range 11, that is, near the operator 8 in the projection range 11. ..
  • This facilitates the operator 8 to control the projection device 10 using the operation image 62.
  • the operator 8 can easily see the operation image 62.
  • the operation image 62 guides the interactive operation to the operator 8 as described above, the operator 8 can easily perform the operation of instructing the operation image 62.
  • the process in which the control device 4 determines the projection position of the operation image 62 in the projection range 11 will be described.
  • the operator 8 performs the first operation on the operation reception unit 2.
  • This first operation is an operation that does not explicitly indicate the projection position of the operation image 62 in the projection range 11 to the control device 4, for example, pressing the power button included in the operation reception unit 2 or controlling.
  • This is an operation of instructing the device 4 to project the operation image 62.
  • the control device 4 When the above-mentioned first operation is performed on the operation receiving unit 2, the control device 4 has an operation image 62 in the projection range 11 based on the second information different from the first information obtained by the first operation. Determine the projection position of.
  • the first information obtained by the first operation is, for example, information indicating that the power of the projection device 10 is instructed when the first operation is the operation of the power button.
  • the first information obtained by the first operation is information indicating that the projection of the operation image 62 is instructed.
  • the second information used by the control device 4 to determine the projection position of the operation image 62 in the projection range 11 is different from the first information.
  • the second information is information that cannot be obtained only by the above-mentioned first operation. Further, the second information does not explicitly indicate the projection position of the operation image 62 instructed by the operator 8.
  • the second information is information indicating the positional relationship between the projection device 10 (that is, the operation reception unit 2) and the projection range 11.
  • the information indicating the positional relationship between the projection device 10 and the projection range 11 is, for example, that in the example of FIG. 5, the projection device 10 is installed near the left end of the projection range 11 toward the projection object 6. Information to show. Further, the information indicating the positional relationship between the projection device 10 and the projection range 11 is not limited to this, and the direction and how much the projection device 10 is located from the center or the end of the projection object 6 is located. It may be information indicating.
  • the second information is manually set for the projection device 10 when the projection device 10 is installed toward the projection object 6, and is stored in the storage medium 4a. Further, the second information may be set automatically, that is, without manual input (see FIG. 6).
  • the control device 4 is located on the portion closest to the projection device 10 (operation reception unit 2) among the plurality of portions included in the projection range 11 based on the second information indicating the positional relationship between the projection device 10 and the projection range 11. Control is performed to project the operation image 62.
  • the projection range 11 will be described by dividing it into two parts, left and right.
  • the control device 4 controls the projection range 11.
  • the projection unit 1 is controlled so as to project the operation image 62 on the left side portion of the left and right portions of the above.
  • the projection range 11 has been described by dividing it into two parts on the left and right, the projection range 11 is divided into three or more parts, and the control device 4 determines the positional relationship between the projection device 10 and the projection range 11 indicated by the second information. Based on this, control may be performed to project the operation image 62 on the portion closest to the projection device 10 among the three or more portions of the projection range 11. Further, the division of the projection range 11 may be not only a division in the left-right direction but also a division in the vertical direction, a matrix-like division, or the like.
  • FIG. 6 is a diagram showing an example of automatic setting of the second information.
  • the second information is automatically set based on the result of projection control that changes the positional relationship between the projection device 10 and the projection range 11, and is stored in the storage medium 4a, for example.
  • the projection device 10 is in a state of projecting toward the front of the projection device 10 when the projection device 10 is installed. That is, when the projection device 10 is installed, the projection range 11 is in front of the projection device 10.
  • the projection range 11a shown by the broken line in FIG. 6 indicates the projection range 11 when the projection device 10 is installed.
  • the control device 4 After the projection device 10 is installed, the control device 4 performs projection control for shifting the projection range 11 to the right toward the projection object 6 by using the above-mentioned shift mechanism (optical system shift mechanism or electronic shift mechanism).
  • the shift mechanism optical system shift mechanism or electronic shift mechanism.
  • the control device 4 stores the history of the projection control (shift) in the storage medium 4a as the second information.
  • the second information indicating the positional relationship between the projection device 10 and the projection range 11 can be stored.
  • the control device 4 uses the projection direction changing mechanism 104 to perform projection control for changing the projection direction by the projection unit 1 from the front to the right. Even when such projection control is performed, the projection device 10 is located near the left end of the projection range 11 toward the projection object 6 as in the example of FIG. In this case, the control device 4 stores the history of the projection control (change of the projection direction) in the storage medium 4a as the second information. Thereby, the second information indicating the positional relationship between the projection device 10 and the projection range 11 can be stored.
  • the projection device 10 is capable of projection control (for example, shift or change of projection direction) for changing the positional relationship between the projection device 10 and the projection range 11, and the control device 4 is capable of this projection.
  • the projection position of the operation image 62 in the projection range 11 is determined based on the second information based on the control.
  • the second information can be automatically set and the projection position of the operation image 62 in the projection range 11 can be determined without manually setting the second information for the projection device 10.
  • FIG. 7 is a flowchart showing an example of processing by the control device 4 of the first embodiment.
  • the control device 4 determines whether or not the operation reception unit 2 has received the above-mentioned first operation (for example, power-on operation) from the operator 8 (step S71), and the operation reception unit 2 is from the operator 8. Wait until the first operation is accepted (step S71: No loop).
  • the operation reception unit 2 determines whether or not the operation reception unit 2 has received the above-mentioned first operation (for example, power-on operation) from the operator 8 (step S71), and the operation reception unit 2 is from the operator 8. Wait until the first operation is accepted (step S71: No loop).
  • step S71 when the operation receiving unit 2 receives the first operation from the operator 8 (step S71: Yes), the control device 4 projects with the projection device 10 which is different from the first information obtained by the received first operation.
  • the second information indicating the positional relationship with the range 11 is acquired (step S72).
  • control device 4 determines the projection position of the operation image 62 in the projection range 11 based on the acquired second information (step S73).
  • control device 4 controls to project the operation image 62 from the projection unit 1 to the determined position (position close to the projection device 10) (step S74), and ends a series of processes.
  • control device 4 is the second in the projection range 11 of the projection device 10 with respect to the operation reception unit 2 in response to the operation of the operation reception unit 2 (operation unit) for operating the projection device 10. 1 Control is performed so that the operation image 62 is projected from the projection unit 1 on the portion determined based on the second information different from the first information obtained by the operation.
  • the operator 8 who performed the first operation is near the projection device 10 without the operator 8 explicitly instructing the projection device 10 of the projection position of the operation image 62.
  • the operation image 62 can be projected in such a state.
  • the operation image 62 can be projected at a position close to the operator 8. Therefore, it becomes easy for the operator 8 to control the projection device 10 using the operation image 62. Further, even if the positional relationship between the projection range 11 and the operator 8 is not determined by using an image pickup device or the like, the positional relationship between the projection range 11 and the projection device 10 may be determined, so that the determination is easy.
  • FIG. 8 is a diagram showing an example of maintaining the projection position of the operation image 62.
  • the projection range 11 is shifted to the left toward the projection object 6 as shown in FIG. 8 by using the above-mentioned shift mechanism (optical system shift mechanism or electronic shift mechanism). It is assumed that the projection control is performed.
  • the projection range 11b in FIG. 8 shows the projection range 11 after this shift.
  • the control device 4 controls to maintain the projection position of the operation image 62 on the projection object 6. For example, the control device 4 repeatedly executes steps S72 to S74 shown in FIG. 7 after projecting the operation image 62 by the process shown in FIG. 7. Further, it is assumed that the second information is the history of the projection control for shifting the projection range 11 as described above.
  • the second information acquired by step S72 also changes, and as a result, the positional relationship between the projection device 10 and the projection range 11 determined by step S73 also changes. do.
  • the position projected by the operation image 62 in step S74 also changes, and the projection position of the operation image 62 on the projection target 6 is maintained. Therefore, even if the projection range 11 is shifted, the operation image 62 can be continuously projected near the projection device 10, that is, near the operator 8.
  • FIG. 9 is a diagram showing an example of projection of an operation image by the control device 4 of the second embodiment.
  • the operator 8 grips the controller 52 and is located near the right end of the projection range 11 toward the projection object 6.
  • the controller 52 is a remote controller capable of remotely controlling the projection device 10.
  • the controller 52 has a sensor capable of detecting the movement of the controller 52.
  • the detection of the movement of the designated position includes the detection of the movement direction of the designated position and the detection of the movement amount of the designated position.
  • This sensor includes, for example, an accelerometer capable of measuring three-dimensional acceleration.
  • the operator 8 can perform the first operation on the controller 52.
  • the first operation is an operation that does not explicitly indicate the projection position of the operation image 62 in the projection range 11 to the control device 4, for example, a controller for turning on the power of the projection device 10. Pressing the power button of 52, pressing the button of the controller 52 for instructing the projection device 10 to project the operation image 62, and the like.
  • the first operation for the controller 52 can be various operations such as an operation for lifting the controller 52 and an operation for moving the controller 52.
  • the controller 52 can communicate with the operation reception unit 2 of the control device 4 by wireless communication such as short-range wireless communication, and transmits information to the control device 4 by wireless communication with the operation reception unit 2. For example, the controller 52 transmits the detection information indicating the detection result by the sensor to the control device 4. Further, the controller 52 transmits information indicating the acceptance result of the first operation to the control device 4.
  • wireless communication such as short-range wireless communication
  • the controller 52 transmits the detection information indicating the detection result by the sensor to the control device 4 at regular intervals, and the control device 4 receives the acceptance result of the first operation when the first operation is received. Send to.
  • the controller 52 accumulates the detection results of the above sensors, and when the first operation is accepted, the controller 52 collectively transmits the accumulated movement detection results together with the acceptance result of the first operation to the control device 4. May be good. At this time, the controller 52 may transmit all the accumulated movement detection results to the control device 4, or may transmit the result of integrating the accumulated movement detection results to the control device 4.
  • the control device 4 can acquire the second information indicating the positional relationship between the controller 52 and the projection range 11 based on the detection information by the sensor of the controller 52. For example, when the operator 8 who operates the projection device 10 operates the projection device 10 by using the controller 52, he / she first presses the power button of the projection device 10 and then grips and moves the controller 52.
  • the control device 4 moves. Based on the detection result, it is possible to acquire the second information indicating that the controller 52 is located near the right end of the projection range 11 toward the projection object 6.
  • control device 4 may further use information indicating the positional relationship between the projection device 10 and the projection range 11 when acquiring the second information based on the detection information by the sensor of the controller 52.
  • the information indicating the positional relationship between the projection device 10 and the projection range 11 is the same information as the second information in the first embodiment.
  • the second information indicating the positional relationship between the controller 52 and the projection range 11 is acquired in consideration of the positional relationship between the projection device 10 and the projection range 11, that is, the initial positional relationship between the controller 52 and the projection range 11. can do.
  • the information indicating the positional relationship between the projection device 10 and the projection range 11 is information indicating that the projection device 10 is located near the left end of the projection range 11 with respect to the projection object 6. be.
  • This information may be manually set for the projection device 10 as described above, or is automatically set based on the projection control (shift or change of projection direction) or history of the projection device 10. It may be set.
  • the control device 4 obtains the first information (for example, information indicating that the power is turned on or the projection of the operation image 62 is instructed).
  • the projection position of the operation image 62 in the projection range 11 is determined based on the second information different from the above. For example, the control device 4 determines the portion closest to the controller 52 among the plurality of portions included in the projection range 11 as the projection position of the operation image 62. Then, the control device 4 controls to project the operation image 62 from the projection unit 1 at the determined projection position.
  • FIG. 10 is a flowchart showing an example of processing by the control device 4 of the second embodiment.
  • the control device 4 determines whether or not the controller 52 has received the above-mentioned first operation (for example, the power-on operation) from the operator 8 (step S101), and the controller 52 performs the first operation from the operator 8. Wait until it is accepted (step S101: No loop).
  • the control device 4 determines whether or not the controller 52 has received the above-mentioned first operation (for example, the power-on operation) from the operator 8 (step S101), and the controller 52 performs the first operation from the operator 8. Wait until it is accepted (step S101: No loop).
  • step S101 when the controller 52 receives the first operation from the operator 8 (step S101: Yes), the control device 4 has the controller 52 and the projection range 11 which are different from the first information obtained by the received first operation.
  • the second information indicating the positional relationship of the above is acquired (step S102).
  • control device 4 determines the projection position of the operation image 62 in the projection range 11 based on the acquired second information (step S103).
  • control device 4 controls to project the operation image 62 from the projection unit 1 to the determined projection position (position close to the controller 52) (step S104), and ends a series of processes.
  • control device 4 is obtained by the first operation with respect to the controller 52 in the projection range 11 of the projection device 10 in response to the operation of the controller 52 (operation unit) for operating the projection device 10. Control is performed so that the operation image 62 is projected from the projection unit 1 on the portion determined based on the second information different from the first information to be obtained.
  • the operator 8 does not explicitly instruct the projection device 10 of the projection position of the operation image 62, the operator 8 who has performed the first operation is near the controller 52 (the controller 52 is placed near the controller 52).
  • the operation image 62 can be projected in a state that can be presumed to be (grasping). Therefore, by projecting the operation image 62 at a position close to the controller 52 in the projection range 11, the operation image 62 can be projected at a position close to the operator 8. Therefore, it becomes easy for the operator 8 to control the projection device 10 using the operation image 62. Further, since the positional relationship between the projection range 11 and the controller 52 may be determined without determining the positional relationship between the projection range 11 and the operator 8 using an image pickup device or the like, the determination is easy.
  • the control device 4 may control to maintain the projection position of the operation image 62 on the projection object 6 with respect to the change in the positional relationship between the projection device 10 and the projection range 11. For example, the control device 4 repeatedly executes steps S102 to S104 shown in FIG. 10 after projecting the operation image 62 by the process shown in FIG. Further, it is assumed that the second information is the history of the projection control for shifting the projection range 11 as described above.
  • the second information acquired by step S102 also changes, and as a result, the positional relationship between the projection device 10 and the projection range 11 determined by step S103 also changes. do.
  • the position projected by the operation image 62 in step S104 also changes, and the projection position of the operation image 62 on the projection target 6 is maintained. Therefore, even if the projection range 11 is shifted, the operation image 62 can be continuously projected near the projection device 10, that is, near the operator 8.
  • control device 4 changes the projection position of the operation image 62 in the projection range 11 when the change amount of the positional relationship between the projection range 11 and the controller 52 is equal to or more than the predetermined first change amount. May be good.
  • the control device 4 repeatedly executes steps S102 to S104 shown in FIG. 10 after projecting the operation image 62 by the process shown in FIG.
  • the control device 4 has step S103. , S104 is skipped and the process returns to step S102.
  • Modification example ⁇ Modification 1>
  • the control device 4 accepts the first operation that does not explicitly indicate the projection position of the operation image 62 in the projection range 11 to the control device 4, the operation image 62 is placed at the position based on the second information.
  • the control device 4 may accept a second operation for instructing the projection position of the operation image 62, which is different from the first operation, in addition to the first operation.
  • the control device 4 controls to project the operation image from the projection unit 1 to the projection position designated by the received second operation.
  • control device 4 when the control device 4 receives the second operation of explicitly instructing the control device 4 of the projection position of the operation image 62 in the projection range 11, the control device 4 projects the operation image 62 according to the instruction. You may.
  • control device of the embodiment may be another device capable of directly or indirectly communicating with the projection device 10.
  • control device of the embodiment may be a personal computer or the like capable of communicating with the projection device 10. In this case, the control device of the embodiment executes the above-mentioned various controls by communicating with the projection device 10.
  • the operation unit that accepts the first operation may be both an operation unit provided on the main body of the main body 101 and a controller 52.
  • the control device 4 determines based on the second information indicating the positional relationship between the operation unit and the projection range 11.
  • the operation image 62 is projected on the designated position.
  • the control device 4 projects the operation image 62 at a position determined based on the second information indicating the positional relationship between the controller 52 and the projection range 11.
  • a control device for a projection device that projects an image onto a projection object. Equipped with a processor The above processor A second information different from the first information obtained by the first operation on the operation unit in the projection range of the projection device in response to the acceptance of the first operation by the operation unit for operating the projection device. Control is performed so that an operation image for operating the projection device is projected from the projection device on a portion determined based on the information. Control device.
  • the control device (2) (1) The control device according to the above.
  • the second information is information indicating the positional relationship between the operation unit and the projection range. Control device.
  • control device controls to project the operation image on the portion closest to the operation unit among the plurality of parts included in the projection range. Control device.
  • the control device includes an operation unit provided in the projection device.
  • the second information is information indicating the positional relationship between the projection device and the projection range. Control device.
  • the control device can perform projection control that changes the positional relationship between the projection device and the projection range.
  • the second information is information based on the projection control. Control device.
  • the control device according to (4) or (5).
  • the processor controls to maintain the projection position of the operation image on the projection object in response to a change in the positional relationship between the projection device and the projection range. Control device.
  • the control device according to any one of (1) to (6).
  • the operation unit includes a controller capable of remotely controlling the projection device.
  • the second information is information indicating the positional relationship between the controller and the projection range. Control device.
  • the control device has a sensor capable of detecting the movement of the controller.
  • the second information is information based on the detection information by the sensor. Control device.
  • the control device (9) (8) The control device according to the above.
  • the second information is information based on the information indicating the positional relationship between the projection device and the projection range, and the detection information by the sensor. Control device.
  • the control device according to any one of (7) to (9).
  • the processor controls to change the projection position of the operation image in the projection range when the change amount of the positional relationship between the controller and the projection range is equal to or more than the first change amount. Control device.
  • the control device according to any one of (1) to (10).
  • the processor controls to project the operation image at the projection position based on the second operation in a state of accepting the second operation for instructing the projection position of the operation image, which is different from the first operation. , Control device.
  • the processor of the above projection device A second information different from the first information obtained by the first operation on the operation unit in the projection range of the projection device in response to the acceptance of the first operation by the operation unit for operating the projection device. Control is performed so that an operation image for operating the projection device is projected from the projection device on a portion determined based on the information. Control method.
  • the second information is information indicating the positional relationship between the operation unit and the projection range. Control method.
  • the control method according to any one of (12) to (14).
  • the operation unit includes an operation unit provided in the projection device.
  • the second information is information indicating the positional relationship between the projection device and the projection range. Control method.
  • the projection device can perform projection control that changes the positional relationship between the projection device and the projection range.
  • the second information is information based on the projection control. Control method.
  • control method according to (15) or (16).
  • the processor controls to maintain the projection position of the operation image on the projection object in response to a change in the positional relationship between the projection device and the projection range. Control method.
  • the control method according to any one of (12) to (17).
  • the operation unit includes a controller capable of remotely controlling the projection device.
  • the second information is information indicating the positional relationship between the controller and the projection range. Control method.
  • the controller has a sensor capable of detecting the movement of the controller.
  • the second information is information based on the detection information by the sensor. Control method.
  • the second information is information based on the information indicating the positional relationship between the projection device and the projection range, and the detection information by the sensor. Control method.
  • the control method according to any one of (18) to (20).
  • the processor controls to change the projection position of the operation image in the projection range when the change amount of the positional relationship between the controller and the projection range is equal to or more than the first change amount. Control method.
  • the control method according to any one of (12) to (21).
  • the processor controls to project the operation image at the projection position based on the second operation in a state of accepting the second operation for instructing the projection position of the operation image, which is different from the first operation. , Control method.
  • a projection device that projects an image onto a projection object, In response to the fact that the control device of the projection device and the operation unit for operating the projection device accepts the first operation, the first operation with respect to the operation unit in the projection range of the projection device is performed.
  • a control device that controls the projection of an operation image for operating the projection device from the projection device on a portion determined based on the second information different from the obtained first information.
  • Projection system including.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

投影する操作用画像を用いた投影装置の制御を容易にすることのできる制御装置、制御方法、制御プログラム、及び投影システムを提供する。 制御装置(4)は、投影対象物(6)に画像を投影する投影装置(10)の制御装置である。制御装置(4)は、投影装置(10)を操作するための操作部が第1操作を受け付けたことに応じて、投影装置(10)の投影範囲(11)のうち、操作部に対する第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、投影装置(10)の操作のための操作用画像(62)を投影装置(10)から投影させる制御を行う。

Description

制御装置、制御方法、制御プログラム、及び投影システム
 本発明は、制御装置、制御方法、制御プログラム、及び投影システムに関する。
 特許文献1には、撮像部で検出した被写体がユーザ(プレゼンタ)のみの場合に、ユーザの手の届く範囲にユーザ用の操作用画像を投影する投影装置が記載されている。特許文献2には、操作者が操作するペン型デバイスの指示位置を赤外線受光部で検出すると、プロジェクタに接続されたPCが、ペン型デバイスの指示位置の近くにメニュー画像を投影する構成が記載されている。特許文献3には、リモコン操作によってGUIの投影位置をユーザが任意に選択可能なプロジェクタが記載されている。
日本国特開2017-227985号公報 日本国特開2012-194850号公報 日本国特開2019-110373号公報
 本開示の技術に係る1つの実施形態は、投影する操作用画像を用いた投影装置の制御を容易にすることができる制御装置、制御方法、制御プログラム、及び投影システムを提供する。
 本発明の制御装置は、投影対象物に画像を投影する投影装置の制御装置であって、プロセッサを備え、上記プロセッサは、上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、ものである。
 本発明の制御方法は、投影対象物に画像を投影する投影装置の制御方法であって、上記投影装置のプロセッサが、上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、ものである。
 本発明の制御プログラムは、投影対象物に画像を投影する投影装置のプロセッサに、上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、処理を実行させるためのものである。
 本発明の投影システムは、投影対象物に画像を投影する投影装置と、上記投影装置の制御装置であって、上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う制御装置と、を含むものである。
 本発明によれば、投影する操作用画像を用いた投影装置の制御を容易にすることのできる制御装置、制御方法、制御プログラム、及び投影システムを提供することができる。
実施の形態1の制御装置を適用した投影装置10の概略構成を示す模式図である。 図1に示す投影部1の内部構成の一例を示す模式図である。 投影装置10の外観構成を示す模式図である。 図3に示す投影装置10の光学ユニット106の断面模式図である。 実施形態1の制御装置4による操作用画像の投影の一例を示す図である。 第2情報の自動的な設定の一例を示す図である。 実施の形態1の制御装置4による処理の一例を示すフローチャートである。 操作用画像62の投影位置の維持の一例を示す図である。 実施形態2の制御装置4による操作用画像の投影の一例を示す図である。 実施の形態2の制御装置4による処理の一例を示すフローチャートである。
 以下、本発明の実施形態の一例について、図面を参照して説明する。
(実施形態1)
<実施の形態1の制御装置を適用した投影装置10の概略構成>
 図1は、実施の形態1の制御装置を適用した投影装置10の概略構成を示す模式図である。
 投影装置10は、投影部1と、制御装置4と、操作受付部2と、を備える。投影部1は、例えば液晶プロジェクタ又はLCOS(Liquid Crystal On Silicon)を用いたプロジェクタ等によって構成される。以下では、投影部1が液晶プロジェクタであるものとして説明する。
 制御装置4は、投影装置10による投影の制御を行う。また、制御装置4は、本発明の制御装置の一例である。制御装置4は、各種のプロセッサにより構成される制御部と、各部と通信するための通信インタフェース(図示省略)と、ハードディスク、SSD(Solid State Drive)、又はROM(Read Only Memory)等の記憶媒体4aと、を含む装置であり、投影部1を統括制御する。制御装置4の制御部の各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。制御装置4の制御部は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 操作受付部2は、ユーザからの各種の操作を受け付けることにより、ユーザからの指示(ユーザ指示)を検出する。本形態において、操作受付部2は、投影装置10の本体に設けられたボタン、キー、ジョイスティック等の操作部である。したがって、操作受付部2が操作された場合、ユーザが投影装置10の付近に位置していると判定可能である。
 投影対象物6は、投影部1によって投影画像が表示される投影面を有するスクリーンなどの物体である。図1に示す例では、投影対象物6は、投影対象物6の投影面は矩形の平面である。図1における投影対象物6の上下左右が、実際の投影対象物6の上下左右であるとする。
 一点鎖線で図示する投影範囲11は、投影対象物6のうち、投影部1により投影光が照射される領域である。図1に示す例では、投影範囲11は矩形である。投影範囲11は、投影部1により投影が可能な投影可能範囲の一部又は全部である。
 なお、投影部1、制御装置4、及び操作受付部2は、例えば一個の装置により実現される(例えば図3,図4参照)。又は、投影部1、制御装置4、及び操作受付部2は、互いに通信を行うことにより連携する、それぞれ別の装置であってもよい。
<図1に示す投影部1の内部構成>
 図2は、図1に示す投影部1の内部構成の一例を示す模式図である。
 図2に示すように、投影部1は、光源21と、光変調部22と、投影光学系23と、制御回路24と、を備える。
 光源21は、レーザ又はLED(Light Emitting Diode)等の発光素子を含み、例えば白色光を出射する。
 光変調部22は、光源21から出射されて図示省略の色分離機構によって赤、青、緑の3色に分離された各色光を、画像情報に基づいて変調して各色画像を出射する3つの液晶パネルによって構成される。この3つの液晶パネルにそれぞれ赤、青、緑のフィルタを搭載し、光源21から出射された白色光を、各液晶パネルにて変調して各色画像を出射させてもよい。
 投影光学系23は、光源21及び光変調部22からの光が入射されるものであり、少なくとも1つのレンズを含む、例えばリレー光学系によって構成されている。投影光学系23を通過した光は投影対象物6に投影される。
 投影対象物6のうち、光変調部22の全範囲を透過する光が照射される領域が、投影部1により投影が可能な投影可能範囲となる。この投影可能範囲のうち、光変調部22から実際に透過する光が照射される領域が投影範囲11となる。例えば、光変調部22のうち光が透過する領域の大きさ、位置、及び形状を制御することにより、投影可能範囲において、投影範囲11の大きさ、位置、及び形状が変化する。
 制御回路24は、制御装置4から入力される表示用データに基づいて、光源21、光変調部22、及び投影光学系23を制御することにより、投影対象物6にこの表示用データに基づく画像を投影させる。制御回路24に入力される表示用データは、赤表示用データと、青表示用データと、緑表示用データとの3つによって構成される。
 また、制御回路24は、制御装置4から入力される命令に基づいて、投影光学系23を変化させることにより、投影部1の投影範囲11(図1参照)の拡大や縮小を行う。また、制御装置4は、操作受付部2によって受け付けられたユーザからの操作に基づいて投影光学系23を変化させることにより、投影部1の投影範囲11の移動を行ってもよい。
 また、投影装置10は、投影光学系23のイメージサークルを維持しつつ、投影範囲11を機械的又は光学的に移動させるシフト機構を備える。投影光学系23のイメージサークルは、投影光学系23に入射した投影光が、光量落ち、色分離、周辺湾曲などの点から適正に投影光学系23を通過する領域である。
 シフト機構は、光学系シフトを行う光学系シフト機構と、電子シフトを行う電子シフト機構と、の少なくともいずれかにより実現される。
 光学系シフト機構は、例えば、投影光学系23を光軸に垂直な方向に移動させる機構(例えば図3,図4参照)、又は、投影光学系23を移動させる代わりに光変調部22を光軸に垂直な方向に移動させる機構である。また、光学系シフト機構は、投影光学系23の移動と光変調部22の移動とを組み合わせて行うものであってもよい。
 電子シフト機構は、光変調部22において光を透過させる範囲を変化させることによる疑似的な投影範囲11のシフトを行う機構である。
 また、投影装置10は、投影光学系23のイメージサークルとともに投影範囲11を移動させる投影方向変更機構を備えてもよい。投影方向変更機構は、機械的な回転で投影部1の向きを変更することにより、投影部1の投影方向を変化させる機構である(例えば図3,図4参照)。
<投影装置10の機械的構成>
 図3は、投影装置10の外観構成を示す模式図である。図4は、図3に示す投影装置10の光学ユニット106の断面模式図である。図4は、図3に示す本体部101から出射される光の光路に沿った面での断面を示している。
 図3に示すように、投影装置10は、本体部101と、本体部101から突出して設けられた光学ユニット106と、を備える。図3に示す構成において、操作受付部2と、制御装置4と、投影部1における光源21、光変調部22、及び制御回路24と、は本体部101に設けられる。投影部1における投影光学系23は光学ユニット106に設けられる。
 光学ユニット106は、本体部101に支持される第一部材102と、第一部材102に支持された第二部材103と、を備える。
 なお、第一部材102と第二部材103は一体化された部材であってもよい。光学ユニット106は、本体部101に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部101は、光学ユニット106と連結される部分に光を通すための開口15a(図4参照)が形成された筐体15(図4参照)を有する。
 本体部101の筐体15の内部には、図3に示すように、光源21と、光源21から出射される光を入力画像データに基づいて空間変調して画像を生成する光変調部22(図2参照)を含む光変調ユニット12と、が設けられている。
 光源21から出射された光は、光変調ユニット12の光変調部22に入射され、光変調部22によって空間変調されて出射される。
 図4に示すように、光変調ユニット12によって空間変調された光によって形成される画像は、筐体15の開口15aを通過して光学ユニット106に入射され、投影対象物としての投影対象物6に投影されて、画像G1が観察者から視認可能となる。
 図4に示すように、光学ユニット106は、本体部101の内部と繋がる中空部2Aを有する第一部材102と、中空部2Aと繋がる中空部3Aを有する第二部材103と、中空部2Aに配置された第一光学系121及び反射部材122と、中空部3Aに配置された第二光学系31、反射部材32、第三光学系33、及びレンズ34と、シフト機構105と、投影方向変更機構104と、を備える。
 第一部材102は、断面外形が一例として矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材102は、本体部101の開口15aと対面する位置に開口2aが配置される状態にて、本体部101によって支持されている。本体部101の光変調ユニット12の光変調部22から射出された光は、開口15a及び開口2aを通って第一部材102の中空部2Aに入射される。
 本体部101から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図4において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。方向Zのうち、紙面手前から奥に向かう方向を方向Z1と記載し、紙面奥から手前に向かう方向を方向Z2と記載する。
 また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図4において上に向かう方向を方向Y1と記載し、図4において下に向かう方向を方向Y2と記載する。図4の例では方向Y2が鉛直方向となるように投影装置10が配置されている。
 図2に示した投影光学系23は、第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34により構成される。図4には、この投影光学系23の光軸Kが示されている。第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34は、光変調部22側からこの順に光軸Kに沿って配置されている。
 第一光学系121は、少なくとも1つのレンズを含み、本体部101から第一部材102に入射された方向X1に進む光を反射部材122に導く。
 反射部材122は、第一光学系121から入射された光を方向Y1に反射させる。反射部材122は、例えばミラー等によって構成される。第一部材102には、反射部材122にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材103の中空部3Aへと進む。
 第二部材103は、断面外形が略T字状の部材であり、第一部材102の開口2bと対面する位置に開口3aが形成されている。第一部材102の開口2bを通過した本体部101からの光は、この開口3aを通って第二部材103の中空部3Aに入射される。なお、第一部材102や第二部材103の断面外形は任意であり、上記のものには限定されない。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材102から入射された光を、反射部材32に導く。
 反射部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。反射部材32は、例えばミラー等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、反射部材32にて反射された光をレンズ34に導く。
 レンズ34は、第二部材103の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光を投影対象物6に投影する。
 投影方向変更機構104は、第一部材102に対して第二部材103を回転自在に連結する回転機構である。この投影方向変更機構104によって、第二部材103は、方向Yに延びる回転軸(具体的には光軸K)の回りに回転自在に構成されている。なお、投影方向変更機構104は、光学系を回転させることができればよく、図4に示した配置位置に限定されない。また、回転機構の数も1つに限らず、複数設けられていてもよい。
 シフト機構105は、投影光学系の光軸K(換言すると光学ユニット106)をその光軸Kに垂直な方向(図4の方向Y)に移動させるための機構である。具体的には、シフト機構105は、第一部材102の本体部101に対する方向Yの位置を変更することができるように構成されている。シフト機構105は、手動にて第一部材102を移動させるものの他、電動にて第一部材102を移動させるものであってもよい。
 図4は、シフト機構105によって第一部材102が方向Y1側に最大限移動された状態を示している。この図4に示す状態から、シフト機構105によって第一部材102が方向Y2に移動することで、光変調部22によって形成される画像の中心(換言すると表示面の中心)と光軸Kとの相対位置が変化して、投影対象物6に投影されている画像G1を方向Y2にシフト(平行移動)させることができる。
 なお、シフト機構105は、光学ユニット106を方向Yに移動させる代わりに、光変調部22を方向Yに移動させる機構であってもよい。この場合でも、投影対象物6に投影されている画像G1を方向Y2に移動させることができる。
<実施形態1の制御装置4による操作用画像の投影>
 図5は、実施形態1の制御装置4による操作用画像の投影の一例を示す図である。図5の例では、投影装置10の投影光学系23に焦点距離が短いレンズが用いられており、投影装置10が投影対象物6の近くに設置されている。また、投影装置10は、投影対象物6に向かって投影範囲11の左端付近に設置されている。
 操作者8は、投影装置10の操作を行うユーザであり、投影装置10の近くに位置する。したがって、操作者8も、投影装置10と同様に、投影対象物6に向かって投影範囲11の左端付近に位置している。
 操作用画像62は、投影装置10の操作のための画像である。例えば、操作用画像62は、投影対象物6における投影装置10の投影範囲11を操作するための画像である。投影範囲11の操作とは、例えば上記のシフト機構を用いた投影範囲11のシフト、投影範囲11の拡縮、投影範囲11の歪み補正などである。
 図5に示す例では、操作用画像62は、上下左右のカーソルキー画像である。例えば、操作用画像62は、操作受付部2として投影装置10(本体部101)に設けられた上下左右のカーソルキーを模した画像であり、投影装置10のカーソルキーを押下することにより、投影範囲11を操作することができることを操作者8に案内するものである。例えば、図5の状態で操作受付部2に含まれる右方向のカーソルキーを押下する操作を操作者8が行うと、投影装置10は、上記のシフト機構を用いて投影範囲11を右にシフトさせる制御を行う。
 又は、操作用画像62は、投影画像中の操作用画像62を指示する操作を行うことで、投影範囲11を操作することができるインタラクティブ操作を操作者8に案内するものであってもよい。例えば、投影画像中の操作用画像62のうち、右方向のカーソルキーを指示する操作を操作者8が行うと、投影装置10は、上記のシフト機構を用いて投影範囲11を右にシフトさせる制御を行う。
 投影画像中の操作用画像62を指示する操作を投影装置10が検知する方法としては、例えば投影画像中の指示位置を検出可能なセンサを有する指示体により操作者8が指示を行い、投影装置10がこの指示体から取得する方法を用いることができる。
 又は、投影画像中の操作用画像62を指示する操作を投影装置10が検知する方法として、投影対象物6を撮像する撮像装置を用いて、その撮像装置の撮像により得られた撮像画像に基づく画像認識により操作者8による指示を検出する方法を用いてもよい。
 図5に示すように、制御装置4は、投影範囲11のうち、投影対象物6に向かって投影範囲11の左端付近、すなわち操作者8に近い位置に操作用画像62を投影するものである。これにより、操作者8は、操作用画像62を用いた投影装置10の制御が容易になる。例えば、操作者8は操作用画像62を視認しやすくなる。また、操作用画像62が上記のようにインタラクティブ操作を操作者8に案内するものである場合、操作者8は操作用画像62を指示する操作を行いやすくなる。
 制御装置4が投影範囲11における操作用画像62の投影位置を決定する処理について説明する。ここで、操作者8が操作受付部2に対して第1操作を行ったとする。この第1操作は、投影範囲11における操作用画像62の投影位置を制御装置4に明示的に指示するものではない操作であり、例えば、操作受付部2に含まれる電源ボタンの押下や、制御装置4に対して操作用画像62の投影を指示する操作などである。
 制御装置4は、操作受付部2に対して上記の第1操作が行われると、その第1操作により得られる第1情報とは異なる第2情報に基づいて、投影範囲11における操作用画像62の投影位置を決定する。
 第1操作により得られる第1情報とは、例えば第1操作が電源ボタンの操作である場合、投影装置10の電源オンが指示されたことを示す情報である。また、第1操作が操作用画像62の投影を指示する操作である場合、第1操作により得られる第1情報とは、操作用画像62の投影が指示されたことを示す情報である。
 制御装置4が投影範囲11における操作用画像62の投影位置を決定するために用いる第2情報は、第1情報とは異なる情報である。換言すると、第2情報は、上記の第1操作のみでは得られない情報である。また、第2情報は、操作者8が指示した操作用画像62の投影位置を明示的に示すものでもない。
 具体的には、第2情報は、投影装置10(すなわち操作受付部2)と投影範囲11との位置関係を示す情報である。投影装置10と投影範囲11との位置関係を示す情報とは、例えば、図5の例では、投影装置10が、投影対象物6に向かって投影範囲11の左端付近に設置されていることを示す情報である。また、投影装置10と投影範囲11との位置関係を示す情報は、これに限らず、投影装置10が投影対象物6の中心や端部からどの方向にどれだけ移動した場所に位置しているかを示す情報などであってもよい。
 例えば、第2情報は、投影対象物6に向けて投影装置10が設置された際に、投影装置10に対して手入力により設定され、記憶媒体4aに記憶される。また、第2情報は、手入力によらずに、すなわち自動的に設定されてもよい(図6参照)。
 制御装置4は、投影装置10と投影範囲11との位置関係を示す第2情報に基づいて、投影範囲11に含まれる複数の部分のうち投影装置10(操作受付部2)に最も近い部分に操作用画像62を投影させる制御を行う。
 一例として、投影範囲11を左右の2つの部分に分けて説明する。第2情報が、図5の例のように、投影装置10が投影対象物6に向かって投影範囲11の左端付近に設置されていることを示している場合、制御装置4は、投影範囲11の左右の部分のうち、左側の部分に操作用画像62を投影するように投影部1を制御する。
 投影範囲11を左右の2つの部分に分けて説明したが、投影範囲11を3つ以上の部分に分け、制御装置4は、第2情報が示す投影装置10と投影範囲11との位置関係に基づいて、投影範囲11の3つ以上の部分のうち投影装置10に最も近い部分に操作用画像62を投影させる制御を行ってもよい。また、投影範囲11の分割は、左右方向の分割だけでなく、縦方向の分割であってもよいし、マトリクス状の分割などであってもよい。
<第2情報の自動的な設定>
 図6は、第2情報の自動的な設定の一例を示す図である。第2情報は、例えば、投影装置10と投影範囲11との位置関係を変化させる投影制御の結果に基づいて自動的に設定され、記憶媒体4aに記憶される。
 例えば、投影装置10は、投影装置10の設置時には投影装置10の正面に向かって投影を行う状態になっている。すなわち、投影装置10の設置時には、投影範囲11は投影装置10の正面にある。図6において破線で示す投影範囲11aは、この投影装置10の設置時の投影範囲11を示している。
 投影装置10の設置後、制御装置4は、上記のシフト機構(光学系シフト機構又は電子シフト機構)を用いて、投影範囲11を、投影対象物6に向かって右にシフトさせる投影制御を行ったとする。このような投影制御を行うと、図5の例のように、投影装置10が投影対象物6に向かって投影範囲11の左端付近に位置する状態になる。この場合、制御装置4は、その投影制御(シフト)の履歴を、第2情報として記憶媒体4aに記憶しておく。これにより、投影装置10と投影範囲11との位置関係を示す第2情報を記憶することができる。
 又は、投影装置10の設置後、制御装置4は、上記の投影方向変更機構104を用いて、投影部1による投影方向を、正面から右に変化させる投影制御を行ったとする。このような投影制御を行った場合も、図5の例のように、投影装置10が投影対象物6に向かって投影範囲11の左端付近に位置する状態になる。この場合、制御装置4は、その投影制御(投影方向の変更)の履歴を、第2情報として記憶媒体4aに記憶しておく。これにより、投影装置10と投影範囲11との位置関係を示す第2情報を記憶することができる。
 図6において説明したように、投影装置10は、投影装置10と投影範囲11との位置関係を変化させる投影制御(例えばシフト又は投影方向の変更)が可能であり、制御装置4は、この投影制御に基づく第2情報に基づいて、投影範囲11における操作用画像62の投影位置を決定する。これにより、投影装置10に対して第2情報を手入力により設定しなくても、第2情報を自動的に設定し、投影範囲11における操作用画像62の投影位置を決定することができる。
<実施の形態1の制御装置4による処理>
 図7は、実施の形態1の制御装置4による処理の一例を示すフローチャートである。まず、制御装置4は、操作受付部2が操作者8から上記の第1操作(例えば電源オンの操作)を受け付けたか否かを判断し(ステップS71)、操作受付部2が操作者8から第1操作を受け付けるまで待つ(ステップS71:Noのループ)。
 ステップS71において、操作受付部2が操作者8から第1操作を受け付けると(ステップS71:Yes)、制御装置4は、受け付けた第1操作により得られる第1情報と異なる、投影装置10と投影範囲11との位置関係を示す第2情報を取得する(ステップS72)。
 次に、制御装置4は、取得した第2情報に基づいて、投影範囲11における操作用画像62の投影位置を決定する(ステップS73)。次に、制御装置4は、決定した位置(投影装置10に近い位置)に、投影部1から操作用画像62を投影させる制御を行い(ステップS74)、一連の処理を終了する。
 このように、制御装置4は、投影装置10を操作するための操作受付部2(操作部)が操作されたことに応じて、投影装置10の投影範囲11のうち、操作受付部2に対する第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に操作用画像62を投影部1から投影させる制御を行う。
 これにより、操作者8が投影装置10に対して操作用画像62の投影位置を明示的に指示しなくても、第1操作を行った操作者8が投影装置10の近くにいると推定可能な状態にて操作用画像62を投影することができる。
 したがって、投影範囲11のうち操作受付部2(投影装置10)に近い位置に操作用画像62を投影することで、操作者8に近い位置に操作用画像62を投影することができる。このため、操作用画像62を用いた操作者8による投影装置10の制御が容易になる。また、撮像装置等を用いて投影範囲11と操作者8との位置関係を判定しなくても、投影範囲11と投影装置10との位置関係を判定すればよいため、判定が容易である。
<操作用画像62の投影位置の維持>
 図8は、操作用画像62の投影位置の維持の一例を示す図である。例えば図5に示した状態の後に、上記のシフト機構(光学系シフト機構又は電子シフト機構)を用いて、投影範囲11を、図8に示すように、投影対象物6に向かって左にシフトさせる投影制御を行ったとする。図8の投影範囲11bは、このシフト後の投影範囲11を示している。
 このような、投影装置10と投影範囲11との位置関係の変化に対して、制御装置4は、投影対象物6における操作用画像62の投影位置を維持する制御を行う。例えば、制御装置4は、図7に示した処理によって操作用画像62を投影させた後に、図7に示したステップS72~S74を繰り返し実行する。また、第2情報は、上記のように、投影範囲11をシフトさせる投影制御の履歴であるとする。
 この場合、制御装置4が投影範囲11をシフトさせると、ステップS72によって取得される第2情報も変化し、その結果、ステップS73によって判定される投影装置10と投影範囲11との位置関係も変化する。これにより、ステップS74により操作用画像62が投影させる位置も変化し、投影対象物6における操作用画像62の投影位置は維持される。このため、投影範囲11がシフトしても、操作用画像62を投影装置10の近くに、すなわち操作者8の近くに投影させ続けることができる。
(実施形態2)
 実施形態2について、実施形態1と異なる部分について説明する。実施形態1においては第1操作を受け付ける操作部が投影装置10(本体部101)に設けられている構成について説明したが、実施形態2においては、第1操作を受け付ける操作部が、投影装置10を遠隔操作可能なコントローラである場合について説明する。
<実施形態2の制御装置4による操作用画像の投影>
 図9は、実施形態2の制御装置4による操作用画像の投影の一例を示す図である。図9の例では、操作者8は、コントローラ52を把持し、投影対象物6に向かって投影範囲11の右端付近に位置している。コントローラ52は、投影装置10を遠隔操作可能なリモートコントローラである。
 コントローラ52は、コントローラ52の移動を検出可能なセンサを有する。指示位置の移動の検出には、指示位置の移動方向の検出と、指示位置の移動量の検出と、が含まれる。このセンサは、例えば3次元的な加速度を測定可能な加速度センサを含む。
 操作者8は、コントローラ52に対して第1操作が可能である。上記のように、第1操作は、投影範囲11における操作用画像62の投影位置を制御装置4に明示的に指示するものではない操作であり、例えば、投影装置10の電源を入れるためのコントローラ52の電源ボタンの押下や、投影装置10に対して操作用画像62の投影を指示するためのコントローラ52のボタンの押下などである。また、コントローラ52に対する第1操作は、コントローラ52を持ち上げる操作や、コントローラ52を移動させる操作など、各種の操作とすることができる。
 コントローラ52は、近距離無線通信などの無線通信により制御装置4の操作受付部2と通信が可能であり、操作受付部2との無線通信によって情報を制御装置4へ送信する。例えば、コントローラ52は、上記のセンサによる検知結果を示す検知情報を制御装置4へ送信する。また、コントローラ52は、上記の第1操作の受け付け結果を示す情報を制御装置4へ送信する。
 例えば、コントローラ52は、一定周期で、上記のセンサによる検知結果を示す検知情報を制御装置4へ送信するとともに、上記の第1操作の受け付け結果を、第1操作を受け付けた時点で制御装置4へ送信する。
 又は、コントローラ52は、上記のセンサによる検知結果を蓄積しつつ、第1操作を受け付けた時点で、第1操作の受け付け結果とともに、蓄積した移動の検知結果をまとめて制御装置4へ送信してもよい。このとき、コントローラ52は、蓄積した移動の検知結果をすべて制御装置4へ送信してもよいし、蓄積した移動の検知結果を積算した結果を制御装置4へ送信してもよい。
 制御装置4は、コントローラ52のセンサによる検知情報に基づいて、コントローラ52と投影範囲11との位置関係を示す第2情報を取得可能である。例えば、投影装置10を操作する操作者8は、コントローラ52を使用して投影装置10を操作する場合も、まず投影装置10の電源ボタンを押下してから、コントローラ52を把持して移動する。
 したがって、例えば投影装置10が電源がオンになった時点を基準として、その後、図9に示すように投影対象物6に向かってコントローラ52が右側に移動した場合、制御装置4は、その移動の検知結果に基づいて、投影対象物6に向かって投影範囲11の右端付近にコントローラ52が位置していることを示す第2情報を取得することができる。
 また、制御装置4は、コントローラ52のセンサによる検知情報に基づいて第2情報を取得する際に、投影装置10と投影範囲11との位置関係を示す情報をさらに用いてもよい。投影装置10と投影範囲11との位置関係を示す情報は、実施形態1における第2情報と同様の情報である。これにより、投影装置10と投影範囲11との位置関係、すなわちコントローラ52と投影範囲11との初期の位置関係も考慮して、コントローラ52と投影範囲11との位置関係を示す第2情報を取得することができる。
 例えば、図9に示す例において、投影装置10と投影範囲11との位置関係を示す情報は、投影装置10が投影対象物6に向かって投影範囲11の左端付近に位置することを示す情報である。この情報は、上記のように、投影装置10に対して手入力により設定したものであってもよいし、投影装置10の投影制御(シフトや投影方向の変更)や履歴に基づいて自動的に設定されたものであってもよい。
 制御装置4は、コントローラ52に対して上記の第1操作が行われると、その第1操作により得られる第1情報(例えば電源オンや操作用画像62の投影が指示されたことを示す情報)とは異なる第2情報に基づいて、投影範囲11における操作用画像62の投影位置を決定する。例えば、制御装置4は、投影範囲11に含まれる複数の部分のうちコントローラ52に最も近い部分を操作用画像62の投影位置として決定する。そして、制御装置4は、決定した投影位置に、投影部1から操作用画像62を投影させる制御を行う。
<実施の形態2の制御装置4による処理>
 図10は、実施の形態2の制御装置4による処理の一例を示すフローチャートである。まず、制御装置4は、コントローラ52が操作者8から上記の第1操作(例えば電源オンの操作)を受け付けたか否かを判断し(ステップS101)、コントローラ52が操作者8から第1操作を受け付けるまで待つ(ステップS101:Noのループ)。
 ステップS101において、コントローラ52が操作者8から第1操作を受け付けると(ステップS101:Yes)、制御装置4は、受け付けた第1操作により得られる第1情報と異なる、コントローラ52と投影範囲11との位置関係を示す第2情報を取得する(ステップS102)。
 次に、制御装置4は、取得した第2情報に基づいて、投影範囲11における操作用画像62の投影位置を決定する(ステップS103)。次に、制御装置4は、決定した投影位置(コントローラ52に近い位置)に、投影部1から操作用画像62を投影させる制御を行い(ステップS104)、一連の処理を終了する。
 このように、制御装置4は、投影装置10を操作するためのコントローラ52(操作部)が操作されたことに応じて、投影装置10の投影範囲11のうち、コントローラ52に対する第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に操作用画像62を投影部1から投影させる制御を行う。
 これにより、操作者8が投影装置10に対して操作用画像62の投影位置を明示的に指示しなくても、第1操作を行った操作者8がコントローラ52の近くにいる(コントローラ52を把持している)と推定可能な状態にて操作用画像62を投影することができる。したがって、投影範囲11のうちコントローラ52に近い位置に操作用画像62を投影することで、操作者8に近い位置に操作用画像62を投影することができる。このため、操作用画像62を用いた操作者8による投影装置10の制御が容易になる。また、撮像装置等を用いて投影範囲11と操作者8との位置関係を判定しなくても、投影範囲11とコントローラ52との位置関係を判定すればよいため、判定が容易である。
<操作用画像62の投影位置の維持>
 実施形態2においても、投影装置10と投影範囲11との位置関係の変化に対して、制御装置4は、投影対象物6における操作用画像62の投影位置を維持する制御を行ってもよい。例えば、制御装置4は、図10に示した処理によって操作用画像62を投影させた後に、図10に示したステップS102~S104を繰り返し実行する。また、第2情報は、上記のように、投影範囲11をシフトさせる投影制御の履歴であるとする。
 この場合、制御装置4が投影範囲11をシフトさせると、ステップS102によって取得される第2情報も変化し、その結果、ステップS103によって判定される投影装置10と投影範囲11との位置関係も変化する。これにより、ステップS104により操作用画像62が投影させる位置も変化し、投影対象物6における操作用画像62の投影位置は維持される。このため、投影範囲11がシフトしても、操作用画像62を投影装置10の近くに、すなわち操作者8の近くに投影させ続けることができる。
 また、制御装置4は、投影範囲11とコントローラ52との位置関係の変化量が所定の第1変化量以上である場合に、投影範囲11における操作用画像62の投影位置を変化させるようにしてもよい。例えば、制御装置4は、図10に示した処理によって操作用画像62を投影させた後に、図10に示したステップS102~S104を繰り返し実行する。ただし、制御装置4は、ステップS102によって取得した第2情報が示す位置関係と、前回取得した第2情報が示す位置関係と、の差(変化量)が所定値未満である場合は、ステップS103,S104をスキップしてステップS102へ戻る。
 これにより、操作者8が把持するコントローラ52が手ぶれ等によりわずかに移動したような場合には、操作用画像62の投影位置を更新しないようにし、操作用画像62の投影位置を安定させることができる。
(変形例)
<変形例1>
 制御装置4が、投影範囲11における操作用画像62の投影位置を制御装置4に明示的に指示するものではない第1操作を受け付けた場合に、第2情報に基づく位置に操作用画像62を投影する構成について説明したが、制御装置4は、第1操作とは別に、第1操作と異なる、操作用画像62の投影位置を指示する第2操作を受け付けてもよい。制御装置4は、第2操作を受け付けると、受け付けた第2操作により指示される投影位置に、投影部1から操作用画像を投影させる制御を行う。
 このように、制御装置4は、投影範囲11における操作用画像62の投影位置を制御装置4に明示的に指示する第2操作を受け付けた場合には、その指示に従って操作用画像62を投影させてもよい。
<変形例2>
 実施形態の制御装置を投影装置10に適用する場合について説明したが、このような構成に限らない。例えば、実施形態の制御装置は、投影装置10と直接又は間接的に通信可能な他の装置であってもよい。例えば、実施形態の制御装置は、投影装置10と通信可能なパーソナルコンピュータなどであってもよい。この場合に、実施形態の制御装置は、投影装置10と通信を行うことにより、上記の各種の制御を実行する。
<変形例3>
 実施形態1,2は、組み合わせて実施することも可能である。例えば、第1操作を受け付ける操作部が、本体部101に本体に設けられた操作部と、コントローラ52と、の両方であってもよい。この場合に、制御装置4は、本体部101に本体に設けられた操作部が第1操作を受け付けた場合は、その操作部と投影範囲11との位置関係を示す第2情報に基づいて決定した位置に操作用画像62を投影させる。また、制御装置4は、コントローラ52が第1操作を受け付けた場合は、そのコントローラ52と投影範囲11との位置関係を示す第2情報に基づいて決定した位置に操作用画像62を投影させる。
 本明細書には少なくとも以下の事項が記載されている。
(1)
 投影対象物に画像を投影する投影装置の制御装置であって、
 プロセッサを備え、
 上記プロセッサは、
 上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、
 制御装置。
(2)
 (1)記載の制御装置であって、
 上記第2情報は、上記操作部と上記投影範囲との位置関係を示す情報である、
 制御装置。
(3)
 (1)又は(2)記載の制御装置であって、
 上記プロセッサは、上記第2情報に基づいて、上記投影範囲に含まれる複数の部分のうち上記操作部に最も近い部分に上記操作用画像を投影させる制御を行う、
 制御装置。
(4)
 (1)から(3)のいずれか1つに記載の制御装置であって、
 上記操作部は、上記投影装置に設けられた操作部を含み、
 上記第2情報は、上記投影装置と上記投影範囲との位置関係を示す情報である、
 制御装置。
(5)
 (4)記載の制御装置であって、
 上記投影装置は、上記投影装置と上記投影範囲との位置関係を変化させる投影制御が可能であり、
 上記第2情報は、上記投影制御に基づく情報である、
 制御装置。
(6)
 (4)又は(5)記載の制御装置であって、
 上記プロセッサは、上記投影装置と上記投影範囲との位置関係の変化に対して、上記投影対象物における上記操作用画像の投影位置を維持する制御を行う、
 制御装置。
(7)
 (1)から(6)のいずれか1つに記載の制御装置であって、
 上記操作部は、上記投影装置を遠隔操作可能なコントローラを含み、
 上記第2情報は、上記コントローラと上記投影範囲との位置関係を示す情報である、
 制御装置。
(8)
 (7)記載の制御装置であって、
 上記コントローラは、上記コントローラの移動を検知可能なセンサを有し、
 上記第2情報は、上記センサによる検知情報に基づく情報である、
 制御装置。
(9)
 (8)記載の制御装置であって、
 上記第2情報は、上記投影装置と上記投影範囲との位置関係を示す情報と、上記センサによる検知情報と、に基づく情報である、
 制御装置。
(10)
 (7)から(9)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、上記コントローラと上記投影範囲との位置関係の変化量が第1変化量以上である場合に、上記投影範囲における上記操作用画像の投影位置を変化させる制御を行う、
 制御装置。
(11)
 (1)から(10)のいずれか1つに記載の制御装置であって、
 上記プロセッサは、上記第1操作と異なる、上記操作用画像の投影位置を指示する第2操作を受け付けた状態では、上記第2操作に基づく上記投影位置に上記操作用画像を投影させる制御を行う、
 制御装置。
(12)
 投影対象物に画像を投影する投影装置の制御方法であって、
 上記投影装置のプロセッサが、
 上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、
 制御方法。
(13)
 (12)記載の制御方法であって、
 上記第2情報は、上記操作部と上記投影範囲との位置関係を示す情報である、
 制御方法。
(14)
 (12)又は(13)記載の制御方法であって、
 上記プロセッサは、上記第2情報に基づいて、上記投影範囲に含まれる複数の部分のうち上記操作部に最も近い部分に上記操作用画像を投影させる制御を行う、
 制御方法。
(15)
 (12)から(14)のいずれか1つに記載の制御方法であって、
 上記操作部は、上記投影装置に設けられた操作部を含み、
 上記第2情報は、上記投影装置と上記投影範囲との位置関係を示す情報である、
 制御方法。
(16)
 (15)記載の制御方法であって、
 上記投影装置は、上記投影装置と上記投影範囲との位置関係を変化させる投影制御が可能であり、
 上記第2情報は、上記投影制御に基づく情報である、
 制御方法。
(17)
 (15)又は(16)記載の制御方法であって、
 上記プロセッサは、上記投影装置と上記投影範囲との位置関係の変化に対して、上記投影対象物における上記操作用画像の投影位置を維持する制御を行う、
 制御方法。
(18)
 (12)から(17)のいずれか1つに記載の制御方法であって、
 上記操作部は、上記投影装置を遠隔操作可能なコントローラを含み、
 上記第2情報は、上記コントローラと上記投影範囲との位置関係を示す情報である、
 制御方法。
(19)
 (18)記載の制御方法であって、
 上記コントローラは、上記コントローラの移動を検知可能なセンサを有し、
 上記第2情報は、上記センサによる検知情報に基づく情報である、
 制御方法。
(20)
 (19)記載の制御方法であって、
 上記第2情報は、上記投影装置と上記投影範囲との位置関係を示す情報と、上記センサによる検知情報と、に基づく情報である、
 制御方法。
(21)
 (18)から(20)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、上記コントローラと上記投影範囲との位置関係の変化量が第1変化量以上である場合に、上記投影範囲における上記操作用画像の投影位置を変化させる制御を行う、
 制御方法。
(22)
 (12)から(21)のいずれか1つに記載の制御方法であって、
 上記プロセッサは、上記第1操作と異なる、上記操作用画像の投影位置を指示する第2操作を受け付けた状態では、上記第2操作に基づく上記投影位置に上記操作用画像を投影させる制御を行う、
 制御方法。
(23)
 投影対象物に画像を投影する投影装置のプロセッサに、
 上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う、
 処理を実行させるための制御プログラム。
(24)
 投影対象物に画像を投影する投影装置と、
 上記投影装置の制御装置であって、上記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、上記投影装置の投影範囲のうち、上記操作部に対する上記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、上記投影装置の操作のための操作用画像を上記投影装置から投影させる制御を行う制御装置と、
 を含む投影システム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2020年11月18日出願の日本特許出願(特願2020-191745)に基づくものであり、その内容は本出願の中に参照として援用される。
 1 投影部
 2 操作受付部
 2A,3A 中空部
 2a,2b,3a,3c,15a 開口
 4 制御装置
 4a 記憶媒体
 6 投影対象物
 8 操作者
 10 投影装置
 11,11a,11b 投影範囲
 12 光変調ユニット
 15 筐体
 21 光源
 22 光変調部
 23 投影光学系
 24 制御回路
 31 第二光学系
 32,122 反射部材
 33 第三光学系
 34 レンズ
 52 コントローラ
 62 操作用画像
 101 本体部
 102 第一部材
 103 第二部材
 104 投影方向変更機構
 105 シフト機構
 106 光学ユニット
 121 第一光学系
 G1 画像

 

Claims (24)

  1.  投影対象物に画像を投影する投影装置の制御装置であって、
     プロセッサを備え、
     前記プロセッサは、
     前記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、前記投影装置の投影範囲のうち、前記操作部に対する前記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、前記投影装置の操作のための操作用画像を前記投影装置から投影させる制御を行う、
     制御装置。
  2.  請求項1記載の制御装置であって、
     前記第2情報は、前記操作部と前記投影範囲との位置関係を示す情報である、
     制御装置。
  3.  請求項1又は2記載の制御装置であって、
     前記プロセッサは、前記第2情報に基づいて、前記投影範囲に含まれる複数の部分のうち前記操作部に最も近い部分に前記操作用画像を投影させる制御を行う、
     制御装置。
  4.  請求項1から3のいずれか1項記載の制御装置であって、
     前記操作部は、前記投影装置に設けられた操作部を含み、
     前記第2情報は、前記投影装置と前記投影範囲との位置関係を示す情報である、
     制御装置。
  5.  請求項4記載の制御装置であって、
     前記投影装置は、前記投影装置と前記投影範囲との位置関係を変化させる投影制御が可能であり、
     前記第2情報は、前記投影制御に基づく情報である、
     制御装置。
  6.  請求項4又は5記載の制御装置であって、
     前記プロセッサは、前記投影装置と前記投影範囲との位置関係の変化に対して、前記投影対象物における前記操作用画像の投影位置を維持する制御を行う、
     制御装置。
  7.  請求項1から6のいずれか1項記載の制御装置であって、
     前記操作部は、前記投影装置を遠隔操作可能なコントローラを含み、
     前記第2情報は、前記コントローラと前記投影範囲との位置関係を示す情報である、
     制御装置。
  8.  請求項7記載の制御装置であって、
     前記コントローラは、前記コントローラの移動を検知可能なセンサを有し、
     前記第2情報は、前記センサによる検知情報に基づく情報である、
     制御装置。
  9.  請求項8記載の制御装置であって、
     前記第2情報は、前記投影装置と前記投影範囲との位置関係を示す情報と、前記センサによる検知情報と、に基づく情報である、
     制御装置。
  10.  請求項7から9のいずれか1項記載の制御装置であって、
     前記プロセッサは、前記コントローラと前記投影範囲との位置関係の変化量が第1変化量以上である場合に、前記投影範囲における前記操作用画像の投影位置を変化させる制御を行う、
     制御装置。
  11.  請求項1から10のいずれか1項記載の制御装置であって、
     前記プロセッサは、前記第1操作と異なる、前記操作用画像の投影位置を指示する第2操作を受け付けた状態では、前記第2操作に基づく前記投影位置に前記操作用画像を投影させる制御を行う、
     制御装置。
  12.  投影対象物に画像を投影する投影装置の制御方法であって、
     前記投影装置のプロセッサが、
     前記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、前記投影装置の投影範囲のうち、前記操作部に対する前記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、前記投影装置の操作のための操作用画像を前記投影装置から投影させる制御を行う、
     制御方法。
  13.  請求項12記載の制御方法であって、
     前記第2情報は、前記操作部と前記投影範囲との位置関係を示す情報である、
     制御方法。
  14.  請求項12又は13記載の制御方法であって、
     前記プロセッサは、前記第2情報に基づいて、前記投影範囲に含まれる複数の部分のうち前記操作部に最も近い部分に前記操作用画像を投影させる制御を行う、
     制御方法。
  15.  請求項12から14のいずれか1項記載の制御方法であって、
     前記操作部は、前記投影装置に設けられた操作部を含み、
     前記第2情報は、前記投影装置と前記投影範囲との位置関係を示す情報である、
     制御方法。
  16.  請求項15記載の制御方法であって、
     前記投影装置は、前記投影装置と前記投影範囲との位置関係を変化させる投影制御が可能であり、
     前記第2情報は、前記投影制御に基づく情報である、
     制御方法。
  17.  請求項15又は16記載の制御方法であって、
     前記プロセッサは、前記投影装置と前記投影範囲との位置関係の変化に対して、前記投影対象物における前記操作用画像の投影位置を維持する制御を行う、
     制御方法。
  18.  請求項12から17のいずれか1項記載の制御方法であって、
     前記操作部は、前記投影装置を遠隔操作可能なコントローラを含み、
     前記第2情報は、前記コントローラと前記投影範囲との位置関係を示す情報である、
     制御方法。
  19.  請求項18記載の制御方法であって、
     前記コントローラは、前記コントローラの移動を検知可能なセンサを有し、
     前記第2情報は、前記センサによる検知情報に基づく情報である、
     制御方法。
  20.  請求項19記載の制御方法であって、
     前記第2情報は、前記投影装置と前記投影範囲との位置関係を示す情報と、前記センサによる検知情報と、に基づく情報である、
     制御方法。
  21.  請求項18から20のいずれか1項記載の制御方法であって、
     前記プロセッサは、前記コントローラと前記投影範囲との位置関係の変化量が第1変化量以上である場合に、前記投影範囲における前記操作用画像の投影位置を変化させる制御を行う、
     制御方法。
  22.  請求項12から21のいずれか1項記載の制御方法であって、
     前記プロセッサは、前記第1操作と異なる、前記操作用画像の投影位置を指示する第2操作を受け付けた状態では、前記第2操作に基づく前記投影位置に前記操作用画像を投影させる制御を行う、
     制御方法。
  23.  投影対象物に画像を投影する投影装置のプロセッサに、
     前記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、前記投影装置の投影範囲のうち、前記操作部に対する前記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、前記投影装置の操作のための操作用画像を前記投影装置から投影させる制御を行う、
     処理を実行させるための制御プログラム。
  24.  投影対象物に画像を投影する投影装置と、
     前記投影装置の制御装置であって、前記投影装置を操作するための操作部が第1操作を受け付けたことに応じて、前記投影装置の投影範囲のうち、前記操作部に対する前記第1操作により得られる第1情報とは異なる第2情報に基づいて決定した部分に、前記投影装置の操作のための操作用画像を前記投影装置から投影させる制御を行う制御装置と、
     を含む投影システム。

     
PCT/JP2021/038836 2020-11-18 2021-10-20 制御装置、制御方法、制御プログラム、及び投影システム WO2022107537A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022563649A JP7314425B2 (ja) 2020-11-18 2021-10-20 制御装置、制御方法、制御プログラム、及び投影システム
US18/311,614 US20230274675A1 (en) 2020-11-18 2023-05-03 Control device, control method, control program, and projection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020191745 2020-11-18
JP2020-191745 2020-11-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/311,614 Continuation US20230274675A1 (en) 2020-11-18 2023-05-03 Control device, control method, control program, and projection system

Publications (1)

Publication Number Publication Date
WO2022107537A1 true WO2022107537A1 (ja) 2022-05-27

Family

ID=81709037

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038836 WO2022107537A1 (ja) 2020-11-18 2021-10-20 制御装置、制御方法、制御プログラム、及び投影システム

Country Status (3)

Country Link
US (1) US20230274675A1 (ja)
JP (1) JP7314425B2 (ja)
WO (1) WO2022107537A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2013080296A (ja) * 2011-09-30 2013-05-02 Casio Comput Co Ltd ポインタ制御装置、プロジェクタ及びプログラム
JP2020021316A (ja) * 2018-08-01 2020-02-06 キヤノン株式会社 制御装置及び制御方法
JP2020035176A (ja) * 2018-08-30 2020-03-05 キヤノン株式会社 投影装置、投影装置の制御方法、プログラム、および記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2013080296A (ja) * 2011-09-30 2013-05-02 Casio Comput Co Ltd ポインタ制御装置、プロジェクタ及びプログラム
JP2020021316A (ja) * 2018-08-01 2020-02-06 キヤノン株式会社 制御装置及び制御方法
JP2020035176A (ja) * 2018-08-30 2020-03-05 キヤノン株式会社 投影装置、投影装置の制御方法、プログラム、および記憶媒体

Also Published As

Publication number Publication date
JPWO2022107537A1 (ja) 2022-05-27
US20230274675A1 (en) 2023-08-31
JP7314425B2 (ja) 2023-07-25

Similar Documents

Publication Publication Date Title
US9817301B2 (en) Projector, projection system, and control method of projector
JP6809292B2 (ja) プロジェクターおよびプロジェクターの制御方法
US20190124309A1 (en) Projector and method for controlling projector
JP2019117989A (ja) プロジェクター、マルチプロジェクションシステムおよびプロジェクターの制御方法
JP7379676B2 (ja) 制御方法、投影装置、及び制御プログラム
JP6935713B2 (ja) 位置検出装置、位置検出システム及び位置検出装置の制御方法
WO2022107537A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
US11889238B2 (en) Projection apparatus, projection method, and control program
WO2022044386A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
JP7336021B2 (ja) 投影システム、投影方法、及び制御プログラム
WO2022044384A1 (ja) 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
JP6415176B2 (ja) 投射型表示装置
US10474020B2 (en) Display apparatus and method for controlling display apparatus to display an image with an orientation based on a user's position
WO2022163207A1 (ja) 合焦支援装置、合焦支援方法、及び合焦支援プログラム
WO2022070462A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
WO2021171907A1 (ja) 投影装置、投影方法、及び制御プログラム
US10860144B2 (en) Projector and method for controlling projector
TWI464630B (zh) 影像互動系統及其操控裝置
WO2023100573A1 (ja) 制御装置、制御方法、及び制御プログラム
WO2023127501A1 (ja) 制御装置、制御方法、及び制御プログラム
JP7350898B2 (ja) 投影装置、投影方法、及び制御プログラム
WO2021106498A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
JP7300054B2 (ja) 投影装置、投影方法、及び制御プログラム
WO2022064914A1 (ja) 制御装置、制御方法、および記録媒体
JP2016012046A (ja) プロジェクター

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21894411

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022563649

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21894411

Country of ref document: EP

Kind code of ref document: A1