WO2022044384A1 - 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム - Google Patents

指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム Download PDF

Info

Publication number
WO2022044384A1
WO2022044384A1 PCT/JP2021/008307 JP2021008307W WO2022044384A1 WO 2022044384 A1 WO2022044384 A1 WO 2022044384A1 JP 2021008307 W JP2021008307 W JP 2021008307W WO 2022044384 A1 WO2022044384 A1 WO 2022044384A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
indicator
setting
projection
indicated
Prior art date
Application number
PCT/JP2021/008307
Other languages
English (en)
French (fr)
Inventor
智紀 増田
和紀 井上
晶啓 石塚
一樹 石田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022545283A priority Critical patent/JP7266151B2/ja
Priority to CN202180052530.9A priority patent/CN115989541A/zh
Publication of WO2022044384A1 publication Critical patent/WO2022044384A1/ja
Priority to US18/168,830 priority patent/US20230196606A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/003Alignment of optical elements
    • G02B7/005Motorised alignment
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/20Light-tight connections for movable optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments

Definitions

  • the present invention relates to a designated position detection device, a designated position detection method, a designated position detection program, and a projection system.
  • Patent Document 1 describes a configuration in which the position of a projection point of an instruction device is detected by a hybrid tracking system including an optical tracking subsystem and a motion / direction detection subsystem.
  • the point pen transmits data obtained by reading position coordinate information invisible to the naked eye superimposed on a projected image and data detected by a built-in 3-axis acceleration sensor or the like to a data projector device, and the data is obtained.
  • a configuration is described in which the CPU in the projector device calculates the point position based on each of the above data.
  • Patent Document 3 describes a configuration in which the position of the wand is detected by using a motion detecting element such as an acceleration sensor in addition to transmitting and receiving to and from an infrared module.
  • One embodiment according to the technique of the present disclosure provides an instruction position detection device capable of detecting an instruction position by an indicator in an image used for projection, an instruction position detection method, an instruction position detection program, and a projection system. do.
  • the instruction position detection device of one embodiment according to the technique of the present disclosure is a setting for acquiring the movement amount of an indicator capable of detecting the movement amount of the instruction position and setting the origin of the instruction position by the instruction body.
  • a processor that controls the projection of an image including an image from a projection device is provided, and the processor performs a setting operation of an operator in a state where a position indicated by the setting image in the projected projection image is indicated by the indicator. Control to detect the position of the setting image in the image and the movement amount after acquiring the input result of the setting operation in the image by acquiring the input result. It's something to do.
  • the processor of the instruction position detection device acquires the movement amount of the indicator capable of detecting the movement amount of the instruction position, and the instruction position by the instruction body is obtained.
  • the instruction position detection program of one embodiment according to the technique of the present disclosure acquires the movement amount of the indicator capable of detecting the movement amount of the instruction position from the processor of the instruction position detection device, and the instruction position by the instruction body.
  • the projection system of the present invention obtains the movement amount of the projection device and the indicator capable of detecting the movement amount of the designated position, and obtains an image including a setting image for setting the origin of the designated position by the indicator.
  • Control to project from the projection device acquire the input result of the setting operation of the operator in the state where the position indicated by the setting image in the projected projection image is indicated by the indicator, and obtain the setting image in the image. It includes the position of the above, the amount of movement after acquiring the input result of the setting operation, and the instruction position detection device that detects the instruction position by the instruction body in the image based on.
  • an instruction position detection device an instruction position detection method, an instruction position detection program, and a projection system capable of detecting an instruction position by an indicator in an image used for projection.
  • FIG. 10 It is a schematic diagram which shows the schematic structure of the projection apparatus 10 to which the instruction position detection apparatus of embodiment is applied. It is a schematic diagram which shows an example of the internal structure of the projection part 1 shown in FIG. It is a schematic diagram which shows the appearance structure of the projection apparatus 10. It is sectional drawing of the optical unit 106 of the projection apparatus 10 shown in FIG. It is a figure (the 1) which shows the setting image for setting an origin and the specific example 1 of an origin setting operation. It is a figure (2) which shows the setting image for setting an origin and the specific example 1 of an origin setting operation. It is a figure (the 1) which shows the setting image for setting an origin and the specific example 2 of an origin setting operation. It is a figure (No.
  • FIG. 3 is a diagram (No. 3) showing a setting image for generating the first information, a first setting operation, and a specific example 1 of the second setting operation. It is a figure (the 1) which shows the setting image for generating the 1st information, the 1st setting operation and the specific example 2 of the 2nd setting operation.
  • FIG. 3 is a diagram (No. 3) showing a setting image for generating the first information, a first setting operation, and a specific example 1 of the second setting operation.
  • the 1 which shows the setting image for generating the 1st information, the 1st setting operation and the specific example 2 of the 2nd setting operation.
  • FIG. 2 is a diagram (No. 2) showing a setting image for generating the first information, a first setting operation, and a specific example 2 of the second setting operation.
  • FIG. 3 is a diagram (No. 3) showing a setting image for generating the first information, a first setting operation, and a specific example 2 of the second setting operation. It is a figure (the 1) which shows the setting image for generating the 1st information, the 1st setting operation and the specific example 3 of the 2nd setting operation.
  • FIG. 2 is a diagram (No. 2) showing a setting image for generating the first information, a first setting operation, and a specific example 3 of the second setting operation.
  • FIG. 3 is a diagram (No.).
  • FIG. 1 is a schematic diagram showing a schematic configuration of a projection device 10 to which the indicated position detection device of the embodiment is applied.
  • the projection device 10 includes a projection unit 1, a control device 4, and an operation reception unit 2.
  • the projection unit 1 is configured by, for example, a liquid crystal projector, a projector using LCOS (Liquid Crystal On Silicon), or the like. Hereinafter, it is assumed that the projection unit 1 is a liquid crystal projector.
  • the control device 4 controls the projection by the projection device 10. Further, the control device 4 is an example of the indicated position detection device of the present invention.
  • the control device 4 includes a control unit composed of various processors, a communication interface (not shown) for communicating with each unit, and a storage medium such as a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory). It is a device including 4a, and controls the projection unit 1 in an integrated manner.
  • various processors of the control unit of the control device 4 the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute programs to perform various processes.
  • Programmable Logic Device which is a possible processor, or a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as ASIC (Application Specific Integrated Circuit), etc. Is included.
  • the structure of these various processors is an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the control unit of the control device 4 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • the operation reception unit 2 detects an instruction (user instruction) from the user by receiving various operations from the user.
  • the operation receiving unit 2 may be a button, a key, a joystick, or the like provided on the control device 4, or may be a receiving unit or the like that receives a signal from a remote controller that remotely controls the control device 4.
  • the projected object 6 is an object such as a screen having a projection surface on which a projected image is displayed by the projection unit 1.
  • the projection plane of the projected object 6 is a rectangular plane. It is assumed that the top, bottom, left, and right of the projected object 6 in FIG. 1 are the top, bottom, left, and right of the actual projected object 6.
  • the projected area 11 illustrated by the alternate long and short dash line is the area of the projected object 6 to which the projected light is irradiated by the projection unit 1.
  • the projection area 11 is a rectangle.
  • the projection area 11 is a part or the whole of the projectable range that can be projected by the projection unit 1.
  • the projection unit 1, the control device 4, and the operation reception unit 2 are realized by, for example, one device (see, for example, FIGS. 3 and 4).
  • the projection unit 1, the control device 4, and the operation reception unit 2 may be separate devices that cooperate with each other by communicating with each other.
  • FIG. 2 is a schematic diagram showing an example of the internal configuration of the projection unit 1 shown in FIG.
  • the projection unit 1 includes a light source 21, an optical modulation unit 22, a projection optical system 23, and a control circuit 24.
  • the light source 21 includes a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • a light emitting element such as a laser or an LED (Light Emitting Diode), and emits white light, for example.
  • the light modulation unit 22 modulates each color light emitted from the light source 21 and separated into three colors of red, blue, and green by a color separation mechanism (not shown) based on image information, and emits each color image. It is composed of a liquid crystal panel. Red, blue, and green filters may be mounted on each of the three liquid crystal panels, and the white light emitted from the light source 21 may be modulated by each liquid crystal panel to emit each color image.
  • the projection optical system 23 is for incident light from the light source 21 and the optical modulation unit 22, and is composed of, for example, a relay optical system including at least one lens. The light that has passed through the projection optical system 23 is projected onto the object to be projected 6.
  • the region irradiated with the light transmitted through the entire range of the light modulation unit 22 is the projectable range that can be projected by the projection unit 1.
  • the region where the light actually transmitted from the light modulation unit 22 is irradiated is the projection region 11.
  • the size, position, and shape of the projection region 11 changes in the projectable range.
  • the control circuit 24 controls the light source 21, the optical modulation unit 22, and the projection optical system 23 based on the display data input from the control device 4, so that the projected object 6 has an image based on the display data.
  • the display data input to the control circuit 24 is composed of three components: red display data, blue display data, and green display data.
  • control circuit 24 expands or contracts the projection area 11 (see FIG. 1) of the projection unit 1 by changing the projection optical system 23 based on the command input from the control device 4. Further, the control device 4 may move the projection region 11 of the projection unit 1 by changing the projection optical system 23 based on the operation from the user accepted by the operation reception unit 2.
  • the projection device 10 includes a shift mechanism for mechanically or optically moving the projection region 11 while maintaining the image circle of the projection optical system 23.
  • the image circle of the projection optical system 23 is a region in which the projected light incident on the projection optical system 23 appropriately passes through the projection optical system 23 from the points of light loss, color separation, peripheral curvature, and the like.
  • the shift mechanism is realized by at least one of an optical system shift mechanism that shifts the optical system and an electron shift mechanism that performs electron shift.
  • the optical system shift mechanism is, for example, a mechanism for moving the projection optical system 23 in a direction perpendicular to the optical axis (see, for example, FIGS. 3 and 4), or an optical modulation unit 22 instead of moving the projection optical system 23. It is a mechanism that moves in the direction perpendicular to the axis. Further, the optical system shift mechanism may be a combination of the movement of the projection optical system 23 and the movement of the optical modulation unit 22.
  • the electronic shift mechanism is a mechanism that shifts the pseudo projection region 11 by changing the range through which light is transmitted in the optical modulation unit 22.
  • the projection device 10 may include a projection direction changing mechanism for moving the projection area 11 together with the image circle of the projection optical system 23.
  • the projection direction changing mechanism is a mechanism that changes the projection direction of the projection unit 1 by changing the direction of the projection unit 1 by mechanical rotation (see, for example, FIGS. 3 and 4).
  • FIG. 3 is a schematic view showing an external configuration of the projection device 10.
  • FIG. 4 is a schematic cross-sectional view of the optical unit 106 of the projection device 10 shown in FIG.
  • FIG. 4 shows a cross section of the light emitted from the main body 101 shown in FIG. 3 along the optical path.
  • the projection device 10 includes a main body portion 101 and an optical unit 106 provided so as to project from the main body portion 101.
  • the operation reception unit 2, the control device 4, the light source 21, the light modulation unit 22, and the control circuit 24 in the projection unit 1 are provided in the main body unit 101.
  • the projection optical system 23 in the projection unit 1 is provided in the optical unit 106.
  • the optical unit 106 includes a first member 102 supported by the main body 101 and a second member 103 supported by the first member 102.
  • the first member 102 and the second member 103 may be integrated members.
  • the optical unit 106 may be detachably configured (in other words, interchangeable) on the main body 101.
  • the main body 101 has a housing 15 (see FIG. 4) in which an opening 15a (see FIG. 4) for passing light is formed in a portion connected to the optical unit 106.
  • a light source 21 and a light modulation unit 22 As shown in FIG. 3, inside the housing 15 of the main body 101, a light source 21 and a light modulation unit 22 (a light modulation unit 22 that spatially modulates the light emitted from the light source 21 based on input image data to generate an image) ( An optical modulation unit 12 including (see FIG. 2) is provided.
  • the light emitted from the light source 21 is incident on the optical modulation unit 22 of the optical modulation unit 12, and is spatially modulated by the optical modulation unit 22 and emitted.
  • the image formed by the light spatially modulated by the optical modulation unit 12 passes through the opening 15a of the housing 15 and is incident on the optical unit 106, and the projected object 6 as a projection object 6
  • the image G1 is projected onto the image and becomes visible to the observer.
  • the optical unit 106 includes a first member 102 having a hollow portion 2A connected to the inside of the main body portion 101, a second member 103 having a hollow portion 3A connected to the hollow portion 2A, and a hollow portion 2A.
  • the first optical system 121 and the reflecting member 122 arranged, the second optical system 31, the reflecting member 32, the third optical system 33, and the lens 34 arranged in the hollow portion 3A, the shift mechanism 105, and the projection direction change.
  • the mechanism 104 is provided.
  • the first member 102 is a member having a rectangular cross-sectional outer shape as an example, and the openings 2a and 2b are formed on surfaces perpendicular to each other.
  • the first member 102 is supported by the main body 101 in a state where the opening 2a is arranged at a position facing the opening 15a of the main body 101.
  • the light emitted from the optical modulation unit 22 of the optical modulation unit 12 of the main body 101 passes through the openings 15a and 2a and is incident on the hollow portion 2A of the first member 102.
  • the incident direction of the light incident on the hollow portion 2A from the main body portion 101 is described as the direction X1, the opposite direction of the direction X1 is described as the direction X2, and the direction X1 and the direction X2 are collectively referred to as the direction X.
  • the direction from the front to the back of the paper and the opposite direction are described as the direction Z.
  • the direction from the front to the back of the paper is described as the direction Z1
  • the direction from the back of the paper to the front is described as the direction Z2.
  • the projection device 10 is arranged so that the direction Y2 is the vertical direction.
  • the projection optical system 23 shown in FIG. 2 is composed of a first optical system 121, a reflection member 122, a second optical system 31, a reflection member 32, a third optical system 33, and a lens 34.
  • FIG. 4 shows the optical axis K of the projection optical system 23.
  • the first optical system 121, the reflective member 122, the second optical system 31, the reflective member 32, the third optical system 33, and the lens 34 are arranged along the optical axis K in this order from the optical modulation unit 22 side.
  • the first optical system 121 includes at least one lens, and guides light traveling in the direction X1 incident on the first member 102 from the main body 101 to the reflecting member 122.
  • the reflection member 122 reflects the light incident from the first optical system 121 in the direction Y1.
  • the reflective member 122 is composed of, for example, a mirror or the like.
  • the first member 102 has an opening 2b formed on the optical path of the light reflected by the reflecting member 122, and the reflected light passes through the opening 2b and proceeds to the hollow portion 3A of the second member 103.
  • the second member 103 is a member having a substantially T-shaped cross section, and an opening 3a is formed at a position facing the opening 2b of the first member 102.
  • the light from the main body 101 that has passed through the opening 2b of the first member 102 is incident on the hollow portion 3A of the second member 103 through the opening 3a.
  • the cross-sectional outer shape of the first member 102 and the second member 103 is arbitrary and is not limited to the above.
  • the second optical system 31 includes at least one lens, and guides the light incident from the first member 102 to the reflecting member 32.
  • the reflection member 32 reflects the light incident from the second optical system 31 in the direction X2 and guides it to the third optical system 33.
  • the reflective member 32 is composed of, for example, a mirror or the like.
  • the third optical system 33 includes at least one lens, and guides the light reflected by the reflecting member 32 to the lens 34.
  • the lens 34 is arranged at this end so as to close the opening 3c formed at the end of the second member 103 on the direction X2 side.
  • the lens 34 projects the light incident from the third optical system 33 onto the projected object 6.
  • the projection direction changing mechanism 104 is a rotation mechanism that rotatably connects the second member 103 to the first member 102.
  • the second member 103 is rotatably configured around a rotation axis (specifically, an optical axis K) extending in the direction Y.
  • the projection direction changing mechanism 104 is not limited to the arrangement position shown in FIG. 4, as long as the optical system can be rotated. Further, the number of rotation mechanisms is not limited to one, and a plurality of rotation mechanisms may be provided.
  • the shift mechanism 105 is a mechanism for moving the optical axis K (in other words, the optical unit 106) of the projection optical system in the direction perpendicular to the optical axis K (direction Y in FIG. 4). Specifically, the shift mechanism 105 is configured to be able to change the position of the first member 102 in the direction Y with respect to the main body 101.
  • the shift mechanism 105 may be one that manually moves the first member 102, or one that electrically moves the first member 102.
  • FIG. 4 shows a state in which the first member 102 is moved to the direction Y1 side as much as possible by the shift mechanism 105. From the state shown in FIG. 4, the first member 102 is moved in the direction Y2 by the shift mechanism 105, so that the center of the image (in other words, the center of the display surface) formed by the optical modulation unit 22 and the optical axis K are aligned with each other. The relative position changes, and the image G1 projected on the projected object 6 can be shifted (translated) in the direction Y2.
  • the shift mechanism 105 may be a mechanism that moves the optical modulation unit 22 in the direction Y instead of moving the optical unit 106 in the direction Y. Even in this case, the image G1 projected on the projected object 6 can be moved in the direction Y2.
  • ⁇ Setting image for setting the origin and origin setting operation by the operator 51> 5 and 6 are diagrams showing a setting image for setting the origin and a specific example 1 of the origin setting operation.
  • the operator 51 shown in FIGS. 5 and 6 holds the indicator 52 and can instruct each part of the projected object 6 by using the indicator 52.
  • the indicator 52 has, for example, a rod shape, and can be instructed by the tip.
  • the indicator body 52 has a sensor capable of detecting the movement of the instruction position by the indicator body 52.
  • the detection of the movement of the designated position includes the detection of the movement direction of the designated position and the detection of the movement amount of the designated position.
  • This sensor includes, for example, an acceleration sensor capable of measuring three-dimensional acceleration, and is provided, for example, at the tip of an indicator 52.
  • the origin setting operation is an example of the setting operation of the present invention.
  • a sensor for detecting contact with the object to be projected 6 is provided at the tip of the indicator 52
  • the origin setting operation is an operation of bringing the tip of the indicator 52 into contact with the object 6. That is, it is an operation of touching the object 6 with the tip of the indicator 52.
  • This origin setting operation is an example of an operation for inputting to an input unit (for example, a touch sensor) provided on the indicator body 52.
  • the indicator 52 directly or indirectly transmits information such as a movement detection result, an origin setting operation, and a reception result of the first setting operation and the second setting operation described later to the control device 4.
  • the indicator 52 can communicate with the operation reception unit 2 of the control device 4 by wireless communication such as short-range wireless communication, and transmits information to the control device 4 by wireless communication with the operation reception unit 2.
  • the indicator 52 detects movement at regular intervals and transmits the detection result to the control device 4, and also transmits the acceptance result of each setting operation to the control device 4 when the setting operation is accepted.
  • the indicator 52 detects the movement at regular intervals and accumulates the detection results, and at the time when the setting operation such as the origin setting operation is received, the indicated body 52 together with the acceptance result of the setting operation collects the accumulated movement detection result. They may be collectively transmitted to the control device 4. At this time, the indicator 52 may transmit all the accumulated movement detection results to the control device 4, or may transmit the result of integrating the accumulated movement detection results to the control device 4.
  • the control device 4 By receiving the information transmitted from the indicator body 52, the control device 4 acquires information indicating the movement (movement direction and movement amount) of the instruction position by the indicator body 52. Further, the control device 4 controls to project the image 50 including the setting image 50a for setting the origin of the designated position by the indicating body 52 from the projection unit 1 onto the projection area 11.
  • the setting image 50a is an image that serves as a mark for the operator 51, and in the example of FIG. 5, it is a star mark arranged at a position that becomes the origin in the image 50.
  • the shape and the like of the set image 50a can be arbitrarily determined.
  • the position of the set image 50a in the image 50 can be arbitrarily determined in advance.
  • the setting image 50a may be arranged in a relatively lower portion of the image 50 so that the operator 51 can easily touch the projected setting image 50a by the indicator 52. ..
  • control device 4 projects the image 50 including the set image 50a from the projection unit 1 to perform the origin setting operation in the state where the set image 50a is instructed by the indicator 52 to the operator 51.
  • the control device 4 may output a message prompting the origin setting operation in the state instructed by the indicator 52 to the operator 51 by voice output, screen display, projection by the projection device 10, or the like. ..
  • the operator 51 performs the origin setting operation in a state where the setting image 50a is instructed by the indicator body 52. Specifically, as shown in FIG. 6, the operator 51 performs an origin setting operation of touching the portion of the projected object 6 on which the set image 50a is projected with the tip of the indicator 52.
  • the control device 4 acquires the input result of the origin setting operation, and moves the position of the setting image 50a in the image 50 and the instruction position by the indicator 52 after acquiring the input result of the origin setting operation (movement direction and).
  • the movement amount) and the designated position by the indicating body 52 in the image 50 are detected based on.
  • the control device 4 recognizes that the position indicated by the indicator 52 at the time of the origin setting operation is the position of the set image 50a in the image 50, and thereafter, the position of the set image 50a in the image 50 is used as the origin.
  • the instruction position by the instruction body 52 in the image 50 is detected based on the movement (movement direction and movement amount) of the instruction position by the instruction body 52.
  • the designated position by the indicating body 52 in the image 50 is represented by, for example, a pixel position in the image 50.
  • control device 4 integrates the detection results of the movement of the designated position by the indicator 52 during the period after the origin setting operation is performed, and a specific event (for example, a touch similar to the origin setting operation) occurs.
  • a specific event for example, a touch similar to the origin setting operation
  • the detection result of the movement of the designated position includes the detection result of the movement direction and the movement amount, and the integration of the detection results of the movement of the designated position is performed so that the movement amount is offset by the difference in the movement direction. .. For example, when the designated position moves 2 cm to the right and then the designated position moves 1 cm to the left, the integrated result of the detection result of the movement of the designated position is 1 cm to the right.
  • control device 4 sequentially corrects the position of the set image 50a in the image 50 based on the detection result of the movement of the indicator 52 in the period after the origin setting operation is performed, so that the indicator 4 in the image 50. It may be detected while following the position indicated by 52.
  • the position indicated by the indicator 52 in the image 50 can be detected without having to capture the projected image 50 and the indicator 52 with the image pickup device. Therefore, it is possible to realize the detection of the designated position by the indicating body 52 while suppressing the manufacturing cost of the projection device 10 and the projection system including the projection device 10.
  • control device 4 When the control device 4 detects the designated position in the image 50 based on the detection result of the movement of the designated position by the indicator 52 and the position of the set image 50a in the image 50, the control device 4 determines the amount of movement of the designated position by the indicator 52. In order to convert it into the amount of movement on the image 50, the first information showing the relationship between the size of the projected image on the object 6 and the size of the image 50 is used.
  • the size of the image 50 is the size of the image used by the projection device 10 for projection, and may be the number of pixels of the image, or the size of the image in the optical modulation unit 22 (the liquid crystal panel of the optical modulation unit 22). The size of) may be.
  • the first information is, for example, the ratio of the size of the image 50 projected on the object 6 to the size of the image used by the projection device 10 for projection.
  • the first information is stored in advance in the storage medium 4a of the control device 4, for example, based on the actual measurement result of the size of the projection region 11.
  • the control device 4 may generate the first information according to the operation on the indicator 52 (see, for example, FIGS. 9 to 18).
  • FIGS. 7 and 8 are diagrams showing a setting image for setting the origin and a specific example 2 of the origin setting operation.
  • the setting image 50a arranged at the position of the origin in the image 50 has been described as the setting image for setting the origin of the instruction position by the indicator 52, but the setting image is Not limited to this.
  • the control device 4 may control the projection unit 1 to project the image 50 including the setting image 50b for setting the origin of the instruction position by the instruction body 52 onto the projection area 11. good.
  • the setting image 50b is four arrows pointing to a position that is the origin in the image 50.
  • the operator 51 performs an origin setting operation of touching the portion of the projected object 6 pointed to by the setting image 50b with the tip of the indicator body 52.
  • the setting image for setting the origin of the designated position by the indicator 52 is not limited to the image arranged at the origin of the designated position by the indicator 52, but is an image indirectly showing the origin of the indicated position by the indicator 52. May be.
  • 9 to 11 are diagrams showing a setting image for generating the first information, a first setting operation, and a specific example 1 of the second setting operation.
  • the control device 4 projects an image 50 including the setting images 50c and 50d for generating the first information from the projection device 10 before the state shown in FIGS. 5 and 6. May be good.
  • the set images 50c and 50d are pentagonal figures showing the first position and the second position in the image 50, respectively.
  • the first position and the second position in the image 50 are each position of the preset image 50a.
  • the shapes of the set images 50c and 50d can be arbitrarily determined.
  • the control device 4 instructs the operator 51 at the first position in the projected image (projected image 50) by projecting the image 50 including the set images 50c and 50d from the projection unit 1. After performing the first setting operation in the state instructed by the body 52, it is urged to perform the second setting operation in the state in which the second position in the projected image is instructed by the indicating body 52. At this time, the control device 4 performs the first setting operation in a state where the first position in the projected image is instructed by the indicator body 52, and then sets the second position in the state where the second position in the projected image is instructed by the indicator body 52.
  • a message prompting the operation may be output to the operator 51 by voice output, screen display, projection by the projection device 10, or the like.
  • the operator 51 performs the first setting operation in a state where the first position in the projected image is instructed by the indicator 52, and then the second position in the projected image is instructed by the indicator 52. 2 Perform the setting operation.
  • Each of the first setting operation and the second setting operation may be the same operation as the origin setting operation, or may be an operation different from the origin setting operation. In this example, it is assumed that each of the first setting operation and the second setting operation is the same operation as the origin setting operation, in which the tip of the indicator 52 touches the projected object 6.
  • the operator 51 performs the first setting operation of touching the portion of the projected object 6 on which the set image 50c is projected with the tip of the indicator 52. After that, as shown in FIG. 11, the operator 51 performs a second setting operation of touching the portion of the projected object 6 on which the set image 50d is projected with the tip of the indicator 52.
  • the control device 4 determines the size of the projected image on the projected object 6 and the image 50 based on the detection result of the movement of the indicated position by the indicating body 52 from the detection of the first setting operation to the detection of the second setting operation.
  • the above-mentioned first information indicating the relationship with the size of is acquired.
  • control device 4 integrates the detection results of the movement of the designated position by the indicator 52 from the detection of the first setting operation to the detection of the second setting operation, thereby integrating the set image 50c on the projected object 6.
  • the distance between the first position on which the image is projected and the second position on which the set image 50d on the projected object 6 is projected can be derived. Further, the distance (for example, the number of pixels) between the set images 50c and 50d in the image 50 is known in the control device 4.
  • control device 4 sets the ratio of the derived distance between the first position and the second position and the distance between the known set images 50c and 50d to the size of the projected image on the projected object 6. It can be derived as the first information showing the relationship between the image 50 and the size of the image 50.
  • control device 4 projects the image 50 including the setting image 50a from the projection device 10 as shown in FIG. 5, and the origin of the position indicated by the indicator 52 according to the origin setting operation shown in FIG. Is set, and the subsequent designated position by the indicating body 52 is detected based on the acquired first information.
  • the setting image 50d (FIGS. 9 to 11) showing the second position also serves as the setting image 50a (FIG. 5 and the like) for setting the origin
  • the second setting operation (FIG. 11) is the origin setting operation (FIG. 11). It may also serve as (Fig. 6 etc.). That is, when the second setting operation shown in FIG. 11 is performed, the control device 4 may set the second position indicated by the setting image 50d as the origin of the designated position by the indicator 52. In this case, the operator 51 does not have to perform the origin setting operation separately from the second setting operation.
  • FIGS. 12 to 14 are diagrams showing a setting image for generating the first information, a first setting operation, and a specific example 2 of the second setting operation.
  • the control device 4 may first control the projection unit 1 to project the image 50 including the setting image 50c and not the setting image 50d onto the projection region 11.
  • the operator 51 performs the first setting operation of touching the portion of the projected object 6 on which the setting image 50c is projected with the tip of the indicator 52.
  • control device 4 When the control device 4 detects the first setting operation, as shown in FIG. 14, the control device 4 controls to project the image 50 including the setting image 50d and not the setting image 50c from the projection unit 1 onto the projection area 11. As shown in FIG. 14, the operator 51 performs a second setting operation of touching the portion of the projected object 6 on which the set image 50d is projected with the tip of the indicator 52.
  • the control device 4 projects the image 50 including the setting image 50c indicating the first position in the image 50 from the projection device 10, and then the image including the setting image 50d indicating the second position in the image 50. 50 may be projected from the projection device 10.
  • the second position in the projected image is instructed by the indicator 52. 2
  • the control device 4 is based on the movement of the designated position by the indicator 52 from the detection of the first setting operation to the detection of the second setting operation, as in the examples shown in FIGS. 9 to 11. To acquire the first information.
  • 15 to 18 are diagrams showing a setting image for generating the first information, a first setting operation, and a specific example 3 of the second setting operation.
  • the control device 4 may control the projection unit 1 to project the image 50 including the setting image 50e for generating the first information onto the projection region 11.
  • the setting image 50e is a figure in which the setting images 50c and 50d shown in FIGS. 9 to 11 are connected by a horizontally long rectangle.
  • the first end portion (pentagonal portion) of the setting image 50e indicates the first position
  • the second end portion (pentagonal portion) of the setting image 50e indicates the second position.
  • the operator 51 performs the first setting operation of touching the portion of the projected object 6 on which the first end portion of the setting image 50e is projected with the tip of the indicator body 52. After that, as a second setting operation, the operator 51 sets the designated position of the indicator 52 while keeping the tip of the indicator 52 in contact with the projected object 6, as shown in FIG. 17, the first end of the image 50e. It is moved from the portion to the second end portion of the set image 50e, and the tip of the indicator 52 is separated from the projected object 6 as shown in FIG.
  • the control device 4 touches the projected object 6 by the tip of the indicator 52 (after detecting the first setting operation) until the tip of the indicator 52 separates from the projected object 6 (second setting operation).
  • the first information indicating the relationship between the size of the projected image on the projected object 6 and the size of the image 50 is acquired based on the detection result of the movement of the designated position by the indicating body 52).
  • the second setting operation in the state where the second position is instructed by the indicator 52 is performed from the state where the tip of the indicator 52 is in contact with the portion of the projected object 6 corresponding to the second position.
  • the operation may be such that the tip of the 52 is separated from the object to be projected 6.
  • FIG. 19 is a flowchart showing an example of processing by the control device 4.
  • the control device 4 executes, for example, the process shown in FIG. 19 at the start of the indicated position detection.
  • the process shown in FIG. 19 is divided into a process for generating the first information (steps S191 to S195) and a process for detecting the indicated position based on the first information (steps S196 to S199).
  • the control device 4 projects an image 50 including a setting image for generating the first information from the projection device 10 (step S191).
  • the control device 4 projects the image 50 including the set images 50c and 50d from the projection device 10 as shown in FIG.
  • control device 4 waits until the first setting operation is detected (step S192). As an example, the control device 4 waits until the first touch (for example, see FIG. 10) by the tip of the indicator 52 to the projected object 6 is detected as the first setting operation. When the control device 4 detects the first setting operation, the control device 4 starts accumulating the detection result of the movement of the designated position by the indicating body 52 (step S193).
  • control device 4 waits until the second setting operation is detected (step S194).
  • the control device 4 waits until the second touch (for example, see FIG. 11) of the tip of the indicator 52 to the projected object 6 is detected as the second setting operation.
  • the control device 4 detects the second setting operation, the control device 4 generates the first information based on the detection result in which the accumulation is started from the step S193 (step S195).
  • control device 4 projects an image 50 including a setting image for setting the origin of the designated position by the indicator 52 from the projection device 10 (step S196).
  • the control device 4 causes the image 50 including the set image 50a to be projected from the projection device 10 as shown in FIG.
  • control device 4 waits until the origin setting operation is detected (step S197). As an example, the control device 4 waits until the third touch (for example, see FIG. 6) by the tip of the indicator 52 to the projected object 6 is detected as the origin setting operation. When the control device 4 detects the origin setting operation, the control device 4 starts accumulating the detection result of the movement of the designated position by the indicating body 52 (step S198).
  • control device 4 starts detecting the designated position by the indicator 52 based on the detection result starting from step S198 and the first information generated in step S195 (step S199), and detects the indicated position. Ends a series of processes at the start of.
  • the control device 4 When, for example, the first information is stored in the storage medium 4a of the control device 4 in advance based on the actual measurement result of the size of the projection area 11, the control device 4 performs a process for generating the first information (step). S191 to S195) may be omitted, and the process may be started from step S196. In this case, in step S199, the control device 4 starts detecting the designated position based on the first information stored in the storage medium 4a.
  • the control device 4 may execute the process shown in FIG. 19 when the change in the distance between the projection device 10 and the object to be projected 6 is detected. This makes it possible for the indicator 52 to continue detecting the indicated position even if the distance between the projection device 10 and the object 6 changes.
  • control device 4 can detect a change in the distance between the projection device 10 and the object to be projected 6 based on the distance measuring sensor included in the projection device 10.
  • control device 4 detects a change in the distance between the projection device 10 and the object to be projected 6 based on the change in the state (focus position) of the focus lens included in the projection optical system 23 of the projection device 10. be able to.
  • Changes in the state of the focus lens include changes in the focus position due to manual focus and changes in the focus position due to autofocus.
  • the control device 4 may execute the process shown in FIG. 19 when the change in the focal length of the projection lens included in the projection optical system 23 of the projection device 10 is detected. This makes it possible for the indicator 52 to continue detecting the indicated position even if the distance between the projection device 10 and the object 6 changes.
  • the control device 4 when the projection optical system 23 includes a zoom lens as a projection lens and the focal length of the zoom lens changes, the control device 4 focuses on the zoom lens based on a signal from the control circuit 24 of the projection unit 1. It is possible to detect changes in the distance. Further, when the projection lens of the projection optical system 23 is interchangeable and the projection lens of the projection optical system 23 is replaced with a lens having a different focal length, the control device 4 receives a signal from the control circuit 24 of the projection unit 1. It is possible to detect the change in the focal length due to this lens exchange based on.
  • the control device 4 can detect the designated position by the indicator 52 by integrating the detection results of the movement of the indicated position by the indicator 52 after the origin setting operation is performed. As time elapses after the setting operation is performed, errors in the detection result accumulate, and the detection accuracy of the designated position by the indicator 52 decreases.
  • control device 4 may execute steps S196 to S199 shown in FIG. 19 at regular intervals after executing a series of processes shown in FIG. 19.
  • the origin can be reset at regular time intervals, and the deterioration of the detection accuracy due to the accumulation of errors in the detection results can be suppressed.
  • FIG. 20 is a diagram showing an example of controlling the position of the set image based on the detection result of the indicated position.
  • control device 4 shall perform steps S196 to S199 shown in FIG. 19 at regular time intervals as described above. Further, in step S196, the control device 4 assumes that the image 50 including the set image 50a is projected from the projection device 10 as shown in FIG. Further, here, two regions in which the image 50 is divided into two left and right will be described.
  • step S196 the control device 4 determines whether the instruction position by the indicator 52 detected immediately before is included in the left region in the image 50 or the right region in the image 50.
  • the indicator 52 may be located near the right region of the image 50 projected on the projected object 6. Is high. In this case, as shown in FIG. 5, the control device 4 projects the image 50 including the set image 50a in the right region from the projection device 10.
  • the control device 4 projects the image 50 including the set image 50a in the left region from the projection device 10.
  • step S196 the set image 50a can be projected at a position where the operator 51 can easily perform the origin setting operation, so that the load of the operation on the operator 51 can be reduced.
  • the set image 50a may be further subdivided so that the control device 4 controls the position of the set image 50a in the image 50 more finely.
  • FIG. 21 is a diagram showing an example of controlling the position of the set image based on the installation state of the projection device 10.
  • the control device 4 may perform control to change the position of the set image in the image 50 based on the installation state of the projection device 10.
  • the projection device 10 is installed on the floor or the like.
  • the projection area 11 in the object to be projected 6 is large in the vertical direction, as shown in FIG. 5, the set image 50a is projected on a relatively lower portion of the image 50, so that the operator 51 performs an origin setting operation ( Touching the projected setting image 50a) becomes easy.
  • the setting image 50a in the image 50 is projected so that the setting image 50a is projected on a relatively lower portion in the image 50. Change the position of. This makes it easy for the operator 51 to perform the origin setting operation regardless of the installation state of the projection device 10.
  • control device 4 can detect the installation state of the control device 4 based on the detection result by the horizontal sensor or the like provided in the projection device 10.
  • the user for example, the operator 51
  • the control device 4 can set the installation state of the projection device 10 with respect to the control device 4, and the control device 4 detects the installation state of the control device 4 based on the setting from the user. be able to.
  • the control device 4 displays an image 50 including the setting image 50a that is inverted in the vertical direction so that the projected setting image 50a is not turned upside down. It may be projected from the projection device 10.
  • the image 50 including the setting image 50a for setting the origin of the designated position by the indicator 52 is projected from the projection device 10, and the position indicated by the setting image 50a in the projected image. Is instructed by the indicator 52, the input result of the setting operation of the operator 51 is acquired, the position of the setting image 50a in the image 50, and the movement amount of the instruction position after acquiring the input result of the setting operation. And, the designated position by the indicating body 52 in the image 50 can be detected based on the above.
  • the position indicated by the indicator 52 in the image used for projection can be detected without having to capture the projected image 50 and the indicator 52 with the image pickup device. Therefore, it is possible to realize the detection of the designated position by the indicating body 52 while suppressing the manufacturing cost of the projection device 10 and the projection system including the projection device 10.
  • ⁇ Modification 1> As an example of the origin setting operation for inputting to the input unit provided on the indicator body 52, the operation of touching the projected object 6 with the tip of the indicator body 52 has been described, but to the input unit provided on the indicator body 52.
  • the origin setting operation for inputting may be, for example, an operation of pressing a button provided on the indicator body 52.
  • the origin setting operation is not limited to the operation of inputting to the input unit provided on the indicator 52, but the input to the input unit provided on the projected object 6 (projected surface) on which the projected image is projected. It may be an operation to perform.
  • the projected object 6 is provided with a touch sensor, and the origin setting operation is provided on the projected object 6 (projected surface) by touching the projected object 6 with the tip of the indicator 52. It may be an operation of inputting to the input unit (touch sensor).
  • the indicated position detection device of the embodiment may be another device capable of directly or indirectly communicating with the projection device 10.
  • the indicated position detection device of the embodiment may be a personal computer or the like capable of communicating with the projection device 10.
  • the instruction position detection device of the embodiment executes the above-mentioned instruction position detection process by communicating with the projection device 10.
  • (1) Obtain the above movement amount of the indicator that can detect the movement amount of the instruction position, It is equipped with a processor that controls the projection of an image including a setting image for setting the origin of the designated position by the above indicating body from the projection device.
  • the above processor With the position indicated by the setting image in the projected projected image indicated by the indicator, the input result of the setting operation of the operator is acquired. Control is performed to detect the position indicated by the indicator in the image based on the position of the set image in the image and the movement amount after acquiring the input result of the setting operation. Instructed position detector.
  • the indicated position detection device includes an operation of inputting to an input unit provided on the indicator body. Instructed position detector.
  • the indicated position detection device includes an operation of inputting to an input unit provided on the projected surface on which the projected image is projected. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (3).
  • the above processor The first information showing the relationship between the size of the projected image and the size of the image, and The position of the above setting image in the above image and The amount of movement after detecting the above setting operation and Controls to detect the position indicated by the indicator in the image based on the above. Instructed position detector.
  • the indicated position detection device according to the description.
  • the above processor Control is performed to project an image including a setting image indicating the first position and the second position in the image from the projection device.
  • the second setting operation is performed in the state where the second position in the projection image is instructed by the indicator.
  • Control is performed to acquire the first information based on the detection result by the indicator from the detection of the first setting operation to the detection of the second setting operation. Instructed position detector.
  • the indicated position detection device After projecting an image including a setting image indicating the first position in the image from the projection device, control is performed to project an image including the setting image indicating the second position in the image from the projection device. After performing the first setting operation in the state where the first position in the projection image is instructed by the indicator, the second setting operation is performed in the state where the second position in the projection image is instructed by the indicator. To urge the operator, Control to acquire the first information is performed based on the movement amount from the detection of the first setting operation to the detection of the second setting operation. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (6).
  • the processor controls to project the image from the projection device according to a change in the distance between the projection device and the projection image. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (7).
  • the processor controls to project the image from the projection device according to a change in the focal length in the projection lens of the projection device. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (8).
  • the processor controls to project the image from the projection device at regular intervals. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (9).
  • the processor controls to change the position of the set image in the image according to the detected indicated position. Instructed position detector.
  • the indicated position detection device according to any one of (1) to (10).
  • the processor controls to change the position of the set image in the image according to the installation state of the projection device. Instructed position detector.
  • the processor of the indicated position detector Obtain the above movement amount of the indicator that can detect the movement amount of the instruction position, Control to project an image including a setting image for setting the origin of the designated position by the above indicator from the projection device. With the position indicated by the setting image in the projected projected image indicated by the indicator, the input result of the setting operation of the operator is acquired. Control is performed to detect the position indicated by the indicator in the image based on the position of the set image in the image and the movement amount after acquiring the input result of the setting operation. Instructed position detection method.
  • the indicated position detection method includes an operation of inputting to an input unit provided on the indicator body. Instructed position detection method.
  • the setting operation includes an operation of inputting to an input unit provided on the projected surface on which the projected image is projected. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (14).
  • the above processor The first information showing the relationship between the size of the projected image and the size of the image, and The position of the above setting image in the above image and The amount of movement after detecting the above setting operation and Controls to detect the position indicated by the indicator in the image based on the above. Instructed position detection method.
  • the indicated position detection method according to the above method.
  • the above processor Control is performed to project an image including a setting image indicating the first position and the second position in the image from the projection device.
  • the second setting operation is performed in the state where the second position in the projection image is instructed by the indicator.
  • Control is performed to acquire the first information based on the detection result by the indicator from the detection of the first setting operation to the detection of the second setting operation. Instructed position detection method.
  • the indicated position detection method according to the above method.
  • the above processor After projecting an image including a setting image indicating the first position in the image from the projection device, control is performed to project an image including the setting image indicating the second position in the image from the projection device.
  • the second setting operation After performing the first setting operation in the state where the first position in the projection image is instructed by the indicator, the second setting operation is performed in the state where the second position in the projection image is instructed by the indicator.
  • Control to acquire the first information is performed based on the movement amount from the detection of the first setting operation to the detection of the second setting operation. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (17).
  • the processor controls to project the image from the projection device according to a change in the distance between the projection device and the projection image. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (18).
  • the processor controls to project the image from the projection device according to a change in the focal length in the projection lens of the projection device. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (19).
  • the processor controls to project the image from the projection device at regular intervals. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (20).
  • the processor controls to change the position of the set image in the image according to the detected indicated position. Instructed position detection method.
  • the indicated position detection method according to any one of (12) to (21).
  • the processor controls to change the position of the set image in the image according to the installation state of the projection device. Instructed position detection method.
  • (24) Projector and The movement amount of the indicator that can detect the movement amount of the instruction position is acquired, and the image including the setting image for setting the origin of the instruction position by the instruction body is controlled to be projected from the projection device and projected.
  • the input result of the setting operation of the operator is acquired, and the position of the setting image in the image and the input result of the setting operation are obtained.
  • An instruction position detection device that detects the instruction position by the instruction body in the image based on the movement amount after acquisition, and Projection system including.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)

Abstract

投影に用いた画像における、指示体による指示位置を検出することのできる指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システムを提供する。 制御装置(4)は、指示位置の移動量を検出可能な指示体(52)による指示位置の移動量を取得する。また、制御装置(4)は、指示体(52)による指示位置の原点を設定するための設定画像(50a)を含む画像(50)を投影装置(10)から投影する制御を行う。また、制御装置(4)は、投影された投影像における設定画像(50a)が示す位置が指示体(52)で指示された状態で、操作者(51)の設定操作の入力結果を取得する。そして、制御装置(4)は、画像(50)における設定画像(50a)の位置と、設定操作の入力結果を取得してからの指示位置の移動量と、に基づいて画像(50)における指示体(52)による指示位置を検出する。

Description

指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
 本発明は、指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システムに関する。
 特許文献1には、指示デバイスの投影点の位置を光学追跡サブシステムと動き/方向検知サブシステムからなるハイブリッド追跡システムで検出する構成が記載されている。特許文献2には、ポイントペンが、投影画像に重畳された肉眼で不可視の位置座標情報を読み取ったデータと、内蔵する3軸加速度センサ等で検知したデータとをデータプロジェクタ装置に送信し、データプロジェクタ装置内のCPUが上記各データに基づいてポイント位置を算出する構成が記載されている。特許文献3には、ワンドの位置が、赤外線モジュールとの送受信に加えて加速度センサ等の動き検出要素を用いて検出される構成が記載されている。
国際公開第2018/020497号 日本国特開2012-216928号公報 日本国特開2010-538400号公報
 本開示の技術に係る1つの実施形態は、投影に用いた画像における、指示体による指示位置を検出することができる指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システムを提供する。
 本開示の技術に係る1つの実施形態の指示位置検出装置は、指示位置の移動量を検出可能な指示体の上記移動量を取得し、上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行うプロセッサを備え、上記プロセッサは、投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、ものである。
 本開示の技術に係る1つの実施形態の指示位置検出方法は、指示位置検出装置のプロセッサが、指示位置の移動量を検出可能な指示体の上記移動量を取得し、上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、ものである。
 本開示の技術に係る1つの実施形態の指示位置検出プログラムは、指示位置検出装置のプロセッサに、指示位置の移動量を検出可能な指示体の上記移動量を取得し、上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、処理を実行させるためのものである。
 本発明の投影システムは、投影装置と、指示位置の移動量を検出可能な指示体の上記移動量を取得し、上記指示体による指示位置の原点を設定するための設定画像を含む画像を上記投影装置から投影する制御を行い、投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する指示位置検出装置と、を含むものである。
 本発明によれば、投影に用いた画像における、指示体による指示位置を検出することのできる指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システムを提供することができる。
実施の形態の指示位置検出装置を適用した投影装置10の概略構成を示す模式図である。 図1に示す投影部1の内部構成の一例を示す模式図である。 投影装置10の外観構成を示す模式図である。 図3に示す投影装置10の光学ユニット106の断面模式図である。 原点を設定するための設定画像及び原点設定操作の具体例1を示す図(その1)である。 原点を設定するための設定画像及び原点設定操作の具体例1を示す図(その2)である。 原点を設定するための設定画像及び原点設定操作の具体例2を示す図(その1)である。 原点を設定するための設定画像及び原点設定操作の具体例2を示す図(その2)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例1を示す図(その1)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例1を示す図(その2)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例1を示す図(その3)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例2を示す図(その1)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例2を示す図(その2)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例2を示す図(その3)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例3を示す図(その1)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例3を示す図(その2)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例3を示す図(その3)である。 第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例3を示す図(その4)である。 制御装置4による処理の一例を示すフローチャートである。 指示位置の検出結果に基づく設定画像の位置の制御の一例を示す図である。 投影装置10の設置状態に基づく設定画像の位置の制御の一例を示す図である。
 以下、本発明の実施形態の一例について、図面を参照して説明する。
<実施の形態の指示位置検出装置を適用した投影装置10の概略構成>
 図1は、実施の形態の指示位置検出装置を適用した投影装置10の概略構成を示す模式図である。
 投影装置10は、投影部1と、制御装置4と、操作受付部2と、を備える。投影部1は、例えば液晶プロジェクタ又はLCOS(Liquid Crystal On Silicon)を用いたプロジェクタ等によって構成される。以下では、投影部1が液晶プロジェクタであるものとして説明する。
 制御装置4は、投影装置10による投影の制御を行う。また、制御装置4は、本発明の指示位置検出装置の一例である。制御装置4は、各種のプロセッサにより構成される制御部と、各部と通信するための通信インタフェース(図示省略)と、ハードディスク、SSD(Solid State Drive)、又はROM(Read Only Memory)等の記憶媒体4aと、を含む装置であり、投影部1を統括制御する。制御装置4の制御部の各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。制御装置4の制御部は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 操作受付部2は、ユーザからの各種の操作を受け付けることにより、ユーザからの指示(ユーザ指示)を検出する。操作受付部2は、制御装置4に設けられたボタン、キー、ジョイスティック等であってもよいし、制御装置4の遠隔操作を行うリモートコントローラからの信号を受け付ける受信部等であってもよい。
 被投影物6は、投影部1によって投影画像が表示される投影面を有するスクリーンなどの物体である。図1に示す例では、被投影物6は、被投影物6の投影面は矩形の平面である。図1における被投影物6の上下左右が、実際の被投影物6の上下左右であるとする。
 一点鎖線で図示する投影領域11は、被投影物6のうち、投影部1により投影光が照射される領域である。図1に示す例では、投影領域11は矩形である。投影領域11は、投影部1により投影が可能な投影可能範囲の一部又は全部である。
 なお、投影部1、制御装置4、及び操作受付部2は、例えば一個の装置により実現される(例えば図3,図4参照)。又は、投影部1、制御装置4、及び操作受付部2は、互いに通信を行うことにより連携する、それぞれ別の装置であってもよい。
<図1に示す投影部1の内部構成>
 図2は、図1に示す投影部1の内部構成の一例を示す模式図である。
 図2に示すように、投影部1は、光源21と、光変調部22と、投影光学系23と、制御回路24と、を備える。
 光源21は、レーザ又はLED(Light Emitting Diode)等の発光素子を含み、例えば白色光を出射する。
 光変調部22は、光源21から出射されて図示省略の色分離機構によって赤、青、緑の3色に分離された各色光を、画像情報に基づいて変調して各色画像を出射する3つの液晶パネルによって構成される。この3つの液晶パネルにそれぞれ赤、青、緑のフィルタを搭載し、光源21から出射された白色光を、各液晶パネルにて変調して各色画像を出射させてもよい。
 投影光学系23は、光源21及び光変調部22からの光が入射されるものであり、少なくとも1つのレンズを含む、例えばリレー光学系によって構成されている。投影光学系23を通過した光は被投影物6に投影される。
 被投影物6のうち、光変調部22の全範囲を透過する光が照射される領域が、投影部1により投影が可能な投影可能範囲となる。この投影可能範囲のうち、光変調部22から実際に透過する光が照射される領域が投影領域11となる。例えば、光変調部22のうち光が透過する領域の大きさ、位置、及び形状を制御することにより、投影可能範囲において、投影領域11の大きさ、位置、及び形状が変化する。
 制御回路24は、制御装置4から入力される表示用データに基づいて、光源21、光変調部22、及び投影光学系23を制御することにより、被投影物6にこの表示用データに基づく画像を投影させる。制御回路24に入力される表示用データは、赤表示用データと、青表示用データと、緑表示用データとの3つによって構成される。
 また、制御回路24は、制御装置4から入力される命令に基づいて、投影光学系23を変化させることにより、投影部1の投影領域11(図1参照)の拡大や縮小を行う。また、制御装置4は、操作受付部2によって受け付けられたユーザからの操作に基づいて投影光学系23を変化させることにより、投影部1の投影領域11の移動を行ってもよい。
 また、投影装置10は、投影光学系23のイメージサークルを維持しつつ、投影領域11を機械的又は光学的に移動させるシフト機構を備える。投影光学系23のイメージサークルは、投影光学系23に入射した投影光が、光量落ち、色分離、周辺湾曲などの点から適正に投影光学系23を通過する領域である。
 シフト機構は、光学系シフトを行う光学系シフト機構と、電子シフトを行う電子シフト機構と、の少なくともいずれかにより実現される。
 光学系シフト機構は、例えば、投影光学系23を光軸に垂直な方向に移動させる機構(例えば図3,図4参照)、又は、投影光学系23を移動させる代わりに光変調部22を光軸に垂直な方向に移動させる機構である。また、光学系シフト機構は、投影光学系23の移動と光変調部22の移動とを組み合わせて行うものであってもよい。
 電子シフト機構は、光変調部22において光を透過させる範囲を変化させることによる疑似的な投影領域11のシフトを行う機構である。
 また、投影装置10は、投影光学系23のイメージサークルとともに投影領域11を移動させる投影方向変更機構を備えてもよい。投影方向変更機構は、機械的な回転で投影部1の向きを変更することにより、投影部1の投影方向を変化させる機構である(例えば図3,図4参照)。
<投影装置10の機械的構成>
 図3は、投影装置10の外観構成を示す模式図である。図4は、図3に示す投影装置10の光学ユニット106の断面模式図である。図4は、図3に示す本体部101から出射される光の光路に沿った面での断面を示している。
 図3に示すように、投影装置10は、本体部101と、本体部101から突出して設けられた光学ユニット106と、を備える。図3に示す構成において、操作受付部2と、制御装置4と、投影部1における光源21、光変調部22、及び制御回路24と、は本体部101に設けられる。投影部1における投影光学系23は光学ユニット106に設けられる。
 光学ユニット106は、本体部101に支持される第一部材102と、第一部材102に支持された第二部材103と、を備える。
 なお、第一部材102と第二部材103は一体化された部材であってもよい。光学ユニット106は、本体部101に着脱自在に構成(換言すると交換可能に構成)されていてもよい。
 本体部101は、光学ユニット106と連結される部分に光を通すための開口15a(図4参照)が形成された筐体15(図4参照)を有する。
 本体部101の筐体15の内部には、図3に示すように、光源21と、光源21から出射される光を入力画像データに基づいて空間変調して画像を生成する光変調部22(図2参照)を含む光変調ユニット12と、が設けられている。
 光源21から出射された光は、光変調ユニット12の光変調部22に入射され、光変調部22によって空間変調されて出射される。
 図4に示すように、光変調ユニット12によって空間変調された光によって形成される画像は、筐体15の開口15aを通過して光学ユニット106に入射され、投影対象物としての被投影物6に投影されて、画像G1が観察者から視認可能となる。
 図4に示すように、光学ユニット106は、本体部101の内部と繋がる中空部2Aを有する第一部材102と、中空部2Aと繋がる中空部3Aを有する第二部材103と、中空部2Aに配置された第一光学系121及び反射部材122と、中空部3Aに配置された第二光学系31、反射部材32、第三光学系33、及びレンズ34と、シフト機構105と、投影方向変更機構104と、を備える。
 第一部材102は、断面外形が一例として矩形の部材であり、開口2aと開口2bが互いに垂直な面に形成されている。第一部材102は、本体部101の開口15aと対面する位置に開口2aが配置される状態にて、本体部101によって支持されている。本体部101の光変調ユニット12の光変調部22から射出された光は、開口15a及び開口2aを通って第一部材102の中空部2Aに入射される。
 本体部101から中空部2Aに入射される光の入射方向を方向X1と記載し、方向X1の逆方向を方向X2と記載し、方向X1と方向X2を総称して方向Xと記載する。また、図4において、紙面手前から奥に向かう方向とその逆方向を方向Zと記載する。方向Zのうち、紙面手前から奥に向かう方向を方向Z1と記載し、紙面奥から手前に向かう方向を方向Z2と記載する。
 また、方向X及び方向Zに垂直な方向を方向Yと記載し、方向Yのうち、図4において上に向かう方向を方向Y1と記載し、図4において下に向かう方向を方向Y2と記載する。図4の例では方向Y2が鉛直方向となるように投影装置10が配置されている。
 図2に示した投影光学系23は、第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34により構成される。図4には、この投影光学系23の光軸Kが示されている。第一光学系121、反射部材122、第二光学系31、反射部材32、第三光学系33、及びレンズ34は、光変調部22側からこの順に光軸Kに沿って配置されている。
 第一光学系121は、少なくとも1つのレンズを含み、本体部101から第一部材102に入射された方向X1に進む光を反射部材122に導く。
 反射部材122は、第一光学系121から入射された光を方向Y1に反射させる。反射部材122は、例えばミラー等によって構成される。第一部材102には、反射部材122にて反射した光の光路上に開口2bが形成されており、この反射した光は開口2bを通過して第二部材103の中空部3Aへと進む。
 第二部材103は、断面外形が略T字状の部材であり、第一部材102の開口2bと対面する位置に開口3aが形成されている。第一部材102の開口2bを通過した本体部101からの光は、この開口3aを通って第二部材103の中空部3Aに入射される。なお、第一部材102や第二部材103の断面外形は任意であり、上記のものには限定されない。
 第二光学系31は、少なくとも1つのレンズを含み、第一部材102から入射された光を、反射部材32に導く。
 反射部材32は、第二光学系31から入射される光を方向X2に反射させて第三光学系33に導く。反射部材32は、例えばミラー等によって構成される。
 第三光学系33は、少なくとも1つのレンズを含み、反射部材32にて反射された光をレンズ34に導く。
 レンズ34は、第二部材103の方向X2側の端部に形成された開口3cを塞ぐ形でこの端部に配置されている。レンズ34は、第三光学系33から入射された光を被投影物6に投影する。
 投影方向変更機構104は、第一部材102に対して第二部材103を回転自在に連結する回転機構である。この投影方向変更機構104によって、第二部材103は、方向Yに延びる回転軸(具体的には光軸K)の回りに回転自在に構成されている。なお、投影方向変更機構104は、光学系を回転させることができればよく、図4に示した配置位置に限定されない。また、回転機構の数も1つに限らず、複数設けられていてもよい。
 シフト機構105は、投影光学系の光軸K(換言すると光学ユニット106)をその光軸Kに垂直な方向(図4の方向Y)に移動させるための機構である。具体的には、シフト機構105は、第一部材102の本体部101に対する方向Yの位置を変更することができるように構成されている。シフト機構105は、手動にて第一部材102を移動させるものの他、電動にて第一部材102を移動させるものであってもよい。
 図4は、シフト機構105によって第一部材102が方向Y1側に最大限移動された状態を示している。この図4に示す状態から、シフト機構105によって第一部材102が方向Y2に移動することで、光変調部22によって形成される画像の中心(換言すると表示面の中心)と光軸Kとの相対位置が変化して、被投影物6に投影されている画像G1を方向Y2にシフト(平行移動)させることができる。
 なお、シフト機構105は、光学ユニット106を方向Yに移動させる代わりに、光変調部22を方向Yに移動させる機構であってもよい。この場合でも、被投影物6に投影されている画像G1を方向Y2に移動させることができる。
<原点を設定するための設定画像及び操作者51による原点設定操作>
 図5及び図6は、原点を設定するための設定画像及び原点設定操作の具体例1を示す図である。図5,図6に示す操作者51は、指示体52を把持しており、指示体52を用いて被投影物6における各部を指示可能である。指示体52は、例えば棒形状であり、先端による指示が可能である。
 指示体52は、指示体52による指示位置の移動を検出可能なセンサを有する。指示位置の移動の検出には、指示位置の移動方向の検出と、指示位置の移動量の検出と、が含まれる。このセンサは、例えば3次元的な加速度を測定可能な加速度センサを含み、例えば指示体52の先端に設けられている。
 指示体52を用いて、指示体52が指示している位置を入力値として制御装置4に設定するための原点設定操作が可能である。原点設定操作は、本発明の設定操作の一例である。例えば、指示体52の先端には、被投影物6との接触を検知するセンサ(タッチセンサ)が設けられており、原点設定操作は、被投影物6に指示体52の先端を接触させる操作、すなわち指示体52の先端で被投影物6にタッチする操作である。この原点設定操作(タッチ)は、指示体52に設けられた入力部(例えばタッチセンサ)への入力を行う操作の一例である。
 また、指示体52は、移動の検出結果、原点設定操作、及び後述の第1設定操作や第2設定操作の受け付け結果などの情報を、直接的又は間接的に、制御装置4へ送信する。例えば、指示体52は、近距離無線通信などの無線通信により制御装置4の操作受付部2と通信が可能であり、操作受付部2との無線通信によって情報を制御装置4へ送信する。
 例えば、指示体52は、一定周期で、移動の検出を行って検出結果を制御装置4へ送信するとともに、各設定操作の受け付け結果を、設定操作を受け付けた時点で制御装置4へ送信する。
 又は、指示体52は、一定周期で移動の検出を行って検出結果を蓄積しつつ、原点設定操作などの設定操作を受け付けた時点で、設定操作の受け付け結果とともに、蓄積した移動の検出結果をまとめて制御装置4へ送信してもよい。このとき、指示体52は、蓄積した移動の検出結果をすべて制御装置4へ送信してもよいし、蓄積した移動の検出結果を積算した結果を制御装置4へ送信してもよい。
 制御装置4は、指示体52から送信される情報を受信することにより、指示体52による指示位置の移動(移動方向及び移動量)を示す情報を取得する。また、制御装置4は、指示体52による指示位置の原点を設定するための設定画像50aを含む画像50を投影部1から投影領域11に投影させる制御を行う。
 設定画像50aは、操作者51にとって目印となる画像であり、図5の例では、画像50における原点となる位置に配置された星印である。なお、設定画像50aの形状等は任意に決定することができる。画像50における設定画像50aの位置は、予め任意に決定しておくことができる。
 なお、投影領域11が大きい場合などは、投影された設定画像50aを操作者51が指示体52によりタッチしやすいように、画像50における比較的下の部分に設定画像50aを配置してもよい。
 このように、制御装置4は、設定画像50aを含む画像50を投影部1から投影させることにより、操作者51に対して、設定画像50aを指示体52で指示した状態で原点設定操作を行うことを促す。このとき、制御装置4は、指示体52で指示した状態で原点設定操作を行うことを促すメッセージを、音声出力、画面表示、又は投影装置10による投影などによって操作者51へ出力してもよい。
 これに対して、操作者51は、設定画像50aを指示体52で指示した状態で原点設定操作を行う。具体的には、図6に示すように、操作者51は、被投影物6のうち設定画像50aが投影された部分を指示体52の先端でタッチする原点設定操作を行う。
 制御装置4は、この原点設定操作の入力結果を取得し、画像50における設定画像50aの位置と、原点設定操作の入力結果を取得してからの指示体52による指示位置の移動(移動方向及び移動量)と、に基づいて画像50における指示体52による指示位置を検出する。
 すなわち、制御装置4は、原点設定操作があった時点の指示体52による指示位置が画像50における設定画像50aの位置であると認識し、以降、画像50における設定画像50aの位置を原点として、指示体52による指示位置の移動(移動方向及び移動量)に基づいて、画像50における指示体52による指示位置を検出する。画像50における指示体52による指示位置は、例えば画像50内の画素位置により表される。
 例えば、制御装置4は、原点設定操作が行われてからの期間における指示体52による指示位置の移動の検出結果を積算していき、特定のイベント(例えば原点設定操作と同様のタッチ)が発生したときの積算結果により画像50における設定画像50aの位置(原点)を補正することで、そのイベントが発生したときの画像50における指示体52による指示位置を検出する。
 なお、指示位置の移動の検出結果は、移動方向及び移動量の検出結果を含んでおり、指示位置の移動の検出結果の積算は、移動方向の違いによって移動量が相殺されるように行われる。例えば、指示位置が右に2cm移動し、その後に指示位置が左に1cm移動した場合、指示位置の移動の検出結果の積算結果としては右に1cmとなる。
 又は、制御装置4は、原点設定操作が行われてからの期間における指示体52の移動の検出結果により、画像50における設定画像50aの位置を順次補正していくことで、画像50における指示体52による指示位置を追従しながら検出してもよい。
 これにより、例えば投影された画像50及び指示体52を撮像装置により撮像しなくても、画像50における、指示体52による指示位置を検出することができる。したがって、投影装置10や投影装置10を含む投影システムの製造コスト等を抑制しつつ、指示体52による指示位置の検出を実現することができる。
 制御装置4は、指示体52による指示位置の移動の検出結果と画像50における設定画像50aの位置とに基づいて画像50における指示位置を検出する際に、指示体52による指示位置の移動量を画像50上の移動量に換算するために、被投影物6における投影像の大きさと、画像50の大きさとの関係を示す第1情報を用いる。
 画像50の大きさは、投影装置10が投影に用いる画像の大きさであり、その画像の画素数であってもよいし、光変調部22における画像の大きさ(光変調部22の液晶パネルの大きさ)であってもよい。第1情報は、例えば、被投影物6に投影された画像50の大きさと、投影装置10が投影に用いる画像の大きさと、の比である。
 第1情報は、例えば、投影領域11の大きさの実測結果に基づいて予め制御装置4の記憶媒体4aに記憶される。又は、制御装置4は、指示体52に対する操作に応じて第1情報を生成してもよい(例えば図9~図18参照)。
 図7及び図8は、原点を設定するための設定画像及び原点設定操作の具体例2を示す図である。図5,図6に示した例では、指示体52による指示位置の原点を設定するための設定画像として、画像50における原点となる位置に配置された設定画像50aについて説明したが、設定画像はこれに限らない。
 例えば、制御装置4は、図7に示すように、指示体52による指示位置の原点を設定するための設定画像50bを含む画像50を投影部1から投影領域11に投影させる制御を行ってもよい。設定画像50bは、図7の例では、画像50における原点となる位置を指し示す4つの矢印である。操作者51は、図8に示すように、被投影物6のうち、設定画像50bが指し示す部分を指示体52の先端でタッチする原点設定操作を行う。
 すなわち、指示体52による指示位置の原点を設定するための設定画像は、指示体52による指示位置の原点に配置された画像に限らず、指示体52による指示位置の原点を間接的に示す画像であってもよい。
<投影装置10の操作者による第1操作及び第2操作>
 図9~図11は、第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例1を示す図である。制御装置4は、図5,図6に示した状態の前に、図9に示すように、第1情報を生成するための設定画像50c,50dを含む画像50を投影装置10から投影させてもよい。設定画像50c,50dは、それぞれ画像50内の第1位置及び第2位置を示す、五角形状の図形である。画像50内の第1位置及び第2位置は、予め定められた設定画像50aの各位置である。なお、設定画像50c,50dの形状等は任意に決定することができる。
 このように、制御装置4は、設定画像50c,50dを含む画像50を投影部1から投影させることにより、操作者51に対して、投影像(投影された画像50)における第1位置を指示体52で指示した状態で第1設定操作を行った後に、投影像における第2位置を指示体52で指示した状態で第2設定操作を行うことを促す。このとき、制御装置4は、投影像における第1位置を指示体52で指示した状態で第1設定操作を行った後に、投影像における第2位置を指示体52で指示した状態で第2設定操作を行うことを促すメッセージを、音声出力、画面表示、又は投影装置10による投影などによって操作者51へ出力してもよい。
 これに対して、操作者51は、投影像における第1位置を指示体52で指示した状態で第1設定操作を行った後に、投影像における第2位置を指示体52で指示した状態で第2設定操作を行う。第1設定操作及び第2設定操作のそれぞれは、原点設定操作と同じ操作であってもよいし、原点設定操作と異なる操作であってもよい。この例では、第1設定操作及び第2設定操作のそれぞれは、原点設定操作と同じ、指示体52の先端で被投影物6にタッチする操作であるとする。
 例えば、図10に示すように、操作者51は、被投影物6のうち設定画像50cが投影された部分を指示体52の先端でタッチする第1設定操作を行う。その後、図11に示すように、操作者51は、被投影物6のうち設定画像50dが投影された部分を指示体52の先端でタッチする第2設定操作を行う。
 制御装置4は、第1設定操作を検出してから第2設定操作を検出するまでの指示体52による指示位置の移動の検出結果に基づいて、被投影物6における投影像の大きさと画像50の大きさとの関係を示す上記の第1情報を取得する。
 例えば、制御装置4は、第1設定操作を検出してから第2設定操作を検出するまでの指示体52による指示位置の移動の検出結果を積算することで、被投影物6における設定画像50cが投影された第1位置と、被投影物6における設定画像50dが投影された第2位置と、の間の距離を導出することができる。また、画像50内における設定画像50c,50dの間の距離(例えば画素数)は制御装置4において既知である。
 このため、制御装置4は、導出した第1位置と第2位置との間の距離と、既知の設定画像50c,50dの間の距離と、の比を、被投影物6における投影像の大きさと画像50の大きさとの関係を示す第1情報として導出することができる。
 そして、制御装置4は、例えば、図5に示したように設定画像50aを含む画像50を投影装置10から投影させ、図6に示した原点設定操作に応じて指示体52による指示位置の原点を設定し、その後の指示体52による指示位置を、取得した第1情報に基づいて検出する。
 また、例えば第2位置を示す設定画像50d(図9~図11)が原点を設定するための設定画像50a(図5等)を兼ね、さらに第2設定操作(図11)が原点設定操作(図6等)を兼ねてもよい。すなわち、制御装置4は、図11に示した第2設定操作が行われると、設定画像50dが示す第2位置を、指示体52による指示位置の原点として設定してもよい。この場合、操作者51は、第2設定操作とは別に原点設定操作を行わなくてもよいことになる。
 図12~図14は、第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例2を示す図である。例えば、図12に示すように、制御装置4は、まず設定画像50cを含み設定画像50dを含まない画像50を投影部1から投影領域11に投影させる制御を行ってもよい。操作者51は、図13に示すように、被投影物6のうち設定画像50cが投影された部分を指示体52の先端でタッチする第1設定操作を行う。
 制御装置4は、第1設定操作を検出すると、図14に示すように、設定画像50dを含み設定画像50cを含まない画像50を投影部1から投影領域11に投影させる制御を行う。操作者51は、図14に示すように、被投影物6のうち設定画像50dが投影された部分を指示体52の先端でタッチする第2設定操作を行う。
 このように、制御装置4は、画像50内の第1位置を示す設定画像50cを含む画像50を投影装置10から投影させた後、画像50内の第2位置を示す設定画像50dを含む画像50を投影装置10から投影させてもよい。これにより、投影像(投影された画像50)における第1位置を指示体52で指示した状態で第1設定操作を行った後に、投影像における第2位置を指示体52で指示した状態で第2設定操作を行うこと、を操作者51に促すことができる。この場合も、制御装置4は、図9~図11に示した例と同様に、第1設定操作を検出してから第2設定操作を検出するまでの指示体52による指示位置の移動に基づいて第1情報を取得する。
 図15~図18は、第1情報を生成するための設定画像、第1設定操作及び第2設定操作の具体例3を示す図である。例えば、図15に示すように、制御装置4は、第1情報を生成するための設定画像50eを含む画像50を投影部1から投影領域11に投影させる制御を行ってもよい。
 設定画像50eは、図9~図11に示した設定画像50c,50dを横長の矩形により繋げた形状の図形である。設定画像50eの第1端部(五角形状の部分)は第1の位置を示し、設定画像50eの第2端部(五角形状の部分)は第2の位置を示している。
 操作者51は、図16に示すように、被投影物6のうち設定画像50eの第1端部が投影された部分を指示体52の先端でタッチする第1設定操作を行う。その後、操作者51は、第2設定操作として、図17に示すように、指示体52の先端を被投影物6に接触させたまま、指示体52の指示位置を設定画像50eの第1端部から設定画像50eの第2端部まで移動させ、図18に示すように、指示体52の先端を被投影物6から離す。
 制御装置4は、指示体52の先端により被投影物6がタッチされてから(第1設定操作を検出してから)、指示体52の先端が被投影物6から離れるまで(第2設定操作を検出するまで)の指示体52による指示位置の移動の検出結果に基づいて、被投影物6における投影像の大きさと画像50の大きさとの関係を示す上記の第1情報を取得する。
 このように、第2位置を指示体52で指示した状態での第2設定操作は、被投影物6のうち第2位置に対応する部分に指示体52の先端を接触させた状態から指示体52の先端を被投影物6から離す操作であってもよい。
<制御装置4による処理>
 図19は、制御装置4による処理の一例を示すフローチャートである。制御装置4は、指示位置検出の開始時に、例えば図19に示す処理を実行する。図19に示す処理は、第1情報の生成のための処理(ステップS191~S195)と、第1情報に基づく指示位置の検出のための処理(ステップS196~S199)と、に分けられる。
 まず、制御装置4は、第1情報を生成するための設定画像を含む画像50を投影装置10から投影させる(ステップS191)。一例としては、制御装置4は、図9に示したように設定画像50c,50dを含む画像50を投影装置10から投影させる。
 次に、制御装置4は、第1設定操作を検知するまで待機する(ステップS192)。一例としては、制御装置4は、第1設定操作として、指示体52の先端による被投影物6への1回目のタッチ(例えば図10参照)を検知するまで待機する。制御装置4は、第1設定操作を検知すると、指示体52による指示位置の移動の検出結果の蓄積を開始する(ステップS193)。
 次に、制御装置4は、第2設定操作を検知するまで待機する(ステップS194)。一例としては、制御装置4は、第2設定操作として、指示体52の先端による被投影物6への2回目のタッチ(例えば図11参照)を検知するまで待機する。制御装置4は、第2設定操作を検知すると、ステップS193から蓄積を開始した検出結果に基づいて第1情報を生成する(ステップS195)。
 次に、制御装置4は、指示体52による指示位置の原点を設定するための設定画像を含む画像50を投影装置10から投影させる(ステップS196)。一例としては、制御装置4は、図5に示したように設定画像50aを含む画像50を投影装置10から投影させる。
 次に、制御装置4は、原点設定操作を検知するまで待機する(ステップS197)。一例としては、制御装置4は、原点設定操作として、指示体52の先端による被投影物6への3回目のタッチ(例えば図6参照)を検知するまで待機する。制御装置4は、原点設定操作を検知すると、指示体52による指示位置の移動の検出結果の蓄積を開始する(ステップS198)。
 次に、制御装置4は、ステップS198から蓄積を開始した検出結果と、ステップS195により生成した第1情報と、に基づく指示体52による指示位置の検出を開始し(ステップS199)、指示位置検出の開始時の一連の処理を終了する。
 なお、例えば投影領域11の大きさの実測結果に基づいて第1情報が予め制御装置4の記憶媒体4aに記憶されている場合、制御装置4は、第1情報の生成のための処理(ステップS191~S195)を省き、ステップS196から処理を開始してもよい。この場合、制御装置4は、ステップS199において、記憶媒体4aに記憶されている第1情報に基づく指示位置の検出を開始する。
<投影装置10と被投影物6との間の距離が変化に応じた処理>
 例えば投影装置10及び被投影物6のうち少なくともいずれかが移動し、投影装置10と被投影物6(投影像)との間の距離が変化すると、被投影物6における投影像の大きさと画像50の大きさとの関係が変化する。このため、制御装置4は、投影装置10と被投影物6との間の距離の変化を検知した場合に図19に示した処理を実行してもよい。これにより、投影装置10と被投影物6との間の距離が変化しても、指示体52による指示位置の検出を継続することが可能になる。
 例えば、制御装置4は、投影装置10が備える測距センサに基づいて、投影装置10と被投影物6との間の距離の変化を検知することができる。又は、制御装置4は、投影装置10の投影光学系23に含まれるフォーカスレンズの状態(ピント位置)の変化に基づいて、投影装置10と被投影物6との間の距離の変化を検知することができる。フォーカスレンズの状態変化には、マニュアルフォーカスによるピント位置の変化や、オートフォーカスによるピント位置の変化がある。
<投影装置10の投影レンズにおける焦点距離の変化に応じた処理>
 例えば投影装置10の投影光学系23に含まれる投影レンズの焦点距離が変化した場合、投影装置10と被投影物6との間の距離が変化して、被投影物6における投影像の大きさと画像50の大きさとの関係が変化した可能性が高い。このため、制御装置4は、投影装置10の投影光学系23に含まれる投影レンズの焦点距離の変化を検知した場合に図19に示した処理を実行してもよい。これにより、投影装置10と被投影物6との間の距離が変化しても、指示体52による指示位置の検出を継続することが可能になる。
 例えば、投影光学系23に投影レンズとしてズームレンズが含まれ、このズームレンズの焦点距離が変化した場合、制御装置4は、投影部1の制御回路24からの信号に基づいてこのズームレンズの焦点距離の変化を検知することができる。また、投影光学系23の投影レンズが交換可能であり、投影光学系23の投影レンズが、焦点距離の異なるレンズに交換された場合、制御装置4は、投影部1の制御回路24からの信号に基づいてこのレンズ交換による焦点距離の変化を検知することができる。
<一定時間ごとの処理>
 上記のように、制御装置4は、原点設定操作が行われた後における指示体52による指示位置の移動の検出結果を積算することにより指示体52による指示位置を検出することができるが、原点設定操作が行われてから時間が経過するほど、検出結果の誤差が蓄積していき、指示体52による指示位置の検出精度が低下していく。
 このため、制御装置4は、例えば図19に示した一連の処理を実行した後、一定時間ごとに、図19に示したステップS196~S199を実行してもよい。これにより、一定時間ごとに原点を設定し直し、検出結果の誤差が蓄積することによる検出精度の低下を抑制することができる。
<指示位置の検出結果に基づく設定画像の位置の制御を一例>
 図20は、指示位置の検出結果に基づく設定画像の位置の制御の一例を示す図である。制御装置4は、指示体52による指示位置の検出を行った後、指示体52による指示位置の原点を設定するための設定画像を含む画像50を投影装置10から投影させる際に、その指示位置の検出結果に基づいて、画像50における設定画像の位置を変化させる制御を行ってもよい。
 例えば、制御装置4は、上記のように図19に示したステップS196~S199を一定時間ごとに行うものとする。また、制御装置4は、ステップS196において、図5に示したように設定画像50aを含む画像50を投影装置10から投影させるものとする。また、ここでは画像50を左右に2分割した2つの領域について説明する。
 制御装置4は、ステップS196において、直前に検出した指示体52による指示位置が、画像50における左の領域と、画像50における右の領域と、のいずれに含まれるかを判定する。
 直前に検出した指示位置が画像50における右の領域に含まれると判定された場合、指示体52が、被投影物6に投影された画像50における右の領域の付近に位置している可能性が高い。この場合、制御装置4は、図5に示したように、右の領域に設定画像50aが含まれる画像50を投影装置10から投影させる。
 一方で、直前に検出した指示位置が画像50における左の領域に含まれると判定された場合、指示体52が、被投影物6に投影された画像50における左の領域の付近に位置している可能性が高い。この場合、制御装置4は、図20に示すように、左の領域に設定画像50aが含まれる画像50を投影装置10から投影させる。
 これにより、ステップS196において、操作者51が原点設定操作を行いやすい位置に設定画像50aが投影させることができるため、操作者51における操作の負荷を低減することができる。
 画像50を2分割した2つの領域について説明したが、設定画像50aをさらに細分化して、制御装置4が、画像50における設定画像50aの位置をさらに細かく制御するようにしてもよい。
<投影装置10の設置状態に基づく設定画像の位置の制御を一例>
 図21は、投影装置10の設置状態に基づく設定画像の位置の制御の一例を示す図である。制御装置4は、投影装置10の設置状態に基づいて、画像50における設定画像の位置を変化させる制御を行ってもよい。
 例えば図5等に示した例では投影装置10が床等に置いた状態で設置されている。被投影物6における投影領域11が上下方向に大きい場合、図5に示したように、画像50における比較的下の部分に設定画像50aが投影されることで、操作者51が原点設定操作(投影された設定画像50aのタッチ)を行うことが容易になる。
 一方で、図21に示すように投影装置10が天井等から吊った状態で設置されており、図5の例に対して投影装置10が上下反対になっている場合、画像50も上下反対になる。したがって、そのままでは画像50における比較的上の部分に設定画像50aが投影されることになり、操作者51が原点設定操作を行うことが困難になる。
 これに対して、制御装置4は、投影装置10が上下反対の状態で設置されている場合、画像50における比較的下の部分に設定画像50aが投影されるように、画像50における設定画像50aの位置を変化させる。これにより、投影装置10の設置状態によらずに、操作者51が原点設定操作を行うことが容易になる。
 例えば、制御装置4は、投影装置10に設けられた水平センサなどによる検出結果に基づいて、制御装置4の設置状態を検出することができる。又は、制御装置4に対して投影装置10の設置状態をユーザ(例えば操作者51)が設定可能であり、制御装置4は、ユーザからの設定に基づいて、制御装置4の設置状態を検出することができる。
 また、設定画像50aのように、上下方向に対称でない設定画像について、制御装置4は、投影される設定画像50aが上下反対にならないよう、上下方向に反転させた設定画像50aを含む画像50を投影装置10から投影させるようにしてもよい。
 以上説明したように、投影装置10によれば、指示体52による指示位置の原点を設定するための設定画像50aを含む画像50を投影装置10から投影し、投影像における設定画像50aが示す位置が指示体52で指示された状態で、操作者51の設定操作の入力結果を取得し、画像50における設定画像50aの位置と、設定操作の入力結果を取得してからの指示位置の移動量と、に基づいて画像50における指示体52による指示位置を検出することができる。
 これにより、例えば投影された画像50及び指示体52を撮像装置により撮像しなくても、投影に用いた画像における、指示体52による指示位置を検出することができる。したがって、投影装置10や投影装置10を含む投影システムの製造コスト等を抑制しつつ、指示体52による指示位置の検出を実現することができる。
<変形例1>
 指示体52に設けられた入力部への入力を行う原点設定操作の一例として、指示体52の先端で被投影物6にタッチする操作について説明したが、指示体52に設けられた入力部への入力を行う原点設定操作は、例えば指示体52に設けられたボタンを押下する操作などであってもよい。
 また、原点設定操作は、指示体52に設けられた入力部への入力を行う操作に限らず、投影像が投影された被投影物6(被投影面)に設けられた入力部への入力を行う操作であってもよい。例えば、被投影物6にはタッチセンサが設けられており、原点設定操作は、指示体52の先端で被投影物6にタッチすることにより、被投影物6(被投影面)に設けられた入力部(タッチセンサ)への入力を行う操作であってもよい。
 原点設定操作について説明したが、第1設定操作や第2設定操作についても同様の変形が可能である。
<変形例2>
 実施の形態の指示位置検出装置を投影装置10に適用する場合について説明したが、このような構成に限らない。例えば、実施の形態の指示位置検出装置は、投影装置10と直接又は間接的に通信可能な他の装置であってもよい。例えば、実施の形態の指示位置検出装置は、投影装置10と通信可能なパーソナルコンピュータなどであってもよい。この場合に、実施の形態の指示位置検出装置は、投影装置10と通信を行うことにより、上記の指示位置検出の処理を実行する。
 本明細書には少なくとも以下の事項が記載されている。
(1)
 指示位置の移動量を検出可能な指示体の上記移動量を取得し、
 上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行うプロセッサを備え、
 上記プロセッサは、
 投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
 上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、
 指示位置検出装置。
(2)
 (1)記載の指示位置検出装置であって、
 上記設定操作は、上記指示体に設けられた入力部への入力を行う操作を含む、
 指示位置検出装置。
(3)
 (1)又は(2)記載の指示位置検出装置であって、
 上記設定操作は、上記投影像が投影された被投影面に設けられた入力部への入力を行う操作を含む、
 指示位置検出装置。
(4)
 (1)から(3)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、
 上記投影像の大きさと上記画像の大きさとの関係を示す第1情報と、
 上記画像における上記設定画像の位置と、
 上記設定操作を検出してからの上記移動量と、
 に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、
 指示位置検出装置。
(5)
 (4)記載の指示位置検出装置であって、
 上記プロセッサは、
 上記画像内の第1位置及び第2位置を示す設定画像を含む画像を上記投影装置から投影させる制御を行い、
 上記投影像における上記第1位置を上記指示体で指示した状態で第1設定操作を行った後に、上記投影像における上記第2位置を上記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
 上記第1設定操作を検出してから上記第2設定操作を検出するまでの上記指示体による検出結果に基づいて上記第1情報を取得する制御を行う、
 指示位置検出装置。
(6)
 (4)記載の指示位置検出装置であって、
 上記プロセッサは、
 上記画像内の第1位置を示す設定画像を含む画像を上記投影装置から投影させた後、上記画像内の第2位置を示す設定画像を含む画像を上記投影装置から投影させる制御を行い、
 上記投影像における上記第1位置を上記指示体で指示した状態で第1設定操作を行った後に、上記投影像における上記第2位置を上記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
 上記第1設定操作を検出してから上記第2設定操作を検出するまでの上記移動量に基づいて、上記第1情報を取得する制御を行う、
 指示位置検出装置。
(7)
 (1)から(6)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、上記投影装置と上記投影像との間の距離の変化に応じて上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出装置。
(8)
 (1)から(7)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、上記投影装置の投影レンズにおける焦点距離の変化に応じて上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出装置。
(9)
 (1)から(8)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、一定時間ごとに、上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出装置。
(10)
 (1)から(9)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、上記検出した上記指示位置に応じて、上記画像における上記設定画像の位置を変化させる制御を行う、
 指示位置検出装置。
(11)
 (1)から(10)のいずれか1つに記載の指示位置検出装置であって、
 上記プロセッサは、上記投影装置の設置状態に応じて、上記画像における上記設定画像の位置を変化させる制御を行う、
 指示位置検出装置。
(12)
 指示位置検出装置のプロセッサが、
 指示位置の移動量を検出可能な指示体の上記移動量を取得し、
 上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、
 投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
 上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、
 指示位置検出方法。
(13)
 (12)記載の指示位置検出方法であって、
 上記設定操作は、上記指示体に設けられた入力部への入力を行う操作を含む、
 指示位置検出方法。
(14)
 (12)又は(13)記載の指示位置検出方法であって、
 上記設定操作は、上記投影像が投影された被投影面に設けられた入力部への入力を行う操作を含む、
 指示位置検出方法。
(15)
 (12)から(14)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、
 上記投影像の大きさと上記画像の大きさとの関係を示す第1情報と、
 上記画像における上記設定画像の位置と、
 上記設定操作を検出してからの上記移動量と、
 に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、
 指示位置検出方法。
(16)
 (15)記載の指示位置検出方法であって、
 上記プロセッサは、
 上記画像内の第1位置及び第2位置を示す設定画像を含む画像を上記投影装置から投影させる制御を行い、
 上記投影像における上記第1位置を上記指示体で指示した状態で第1設定操作を行った後に、上記投影像における上記第2位置を上記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
 上記第1設定操作を検出してから上記第2設定操作を検出するまでの上記指示体による検出結果に基づいて上記第1情報を取得する制御を行う、
 指示位置検出方法。
(17)
 (15)記載の指示位置検出方法であって、
 上記プロセッサは、
 上記画像内の第1位置を示す設定画像を含む画像を上記投影装置から投影させた後、上記画像内の第2位置を示す設定画像を含む画像を上記投影装置から投影させる制御を行い、
 上記投影像における上記第1位置を上記指示体で指示した状態で第1設定操作を行った後に、上記投影像における上記第2位置を上記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
 上記第1設定操作を検出してから上記第2設定操作を検出するまでの上記移動量に基づいて、上記第1情報を取得する制御を行う、
 指示位置検出方法。
(18)
 (12)から(17)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、上記投影装置と上記投影像との間の距離の変化に応じて上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出方法。
(19)
 (12)から(18)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、上記投影装置の投影レンズにおける焦点距離の変化に応じて上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出方法。
(20)
 (12)から(19)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、一定時間ごとに、上記画像を上記投影装置から投影させる制御を行う、
 指示位置検出方法。
(21)
 (12)から(20)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、上記検出した上記指示位置に応じて、上記画像における上記設定画像の位置を変化させる制御を行う、
 指示位置検出方法。
(22)
 (12)から(21)のいずれか1つに記載の指示位置検出方法であって、
 上記プロセッサは、上記投影装置の設置状態に応じて、上記画像における上記設定画像の位置を変化させる制御を行う、
 指示位置検出方法。
(23)
 指示位置検出装置のプロセッサに、
 指示位置の移動量を検出可能な指示体の上記移動量を取得し、
 上記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、
 投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
 上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する制御を行う、
 処理を実行させるための指示位置検出プログラム。
(24)
 投影装置と、
 指示位置の移動量を検出可能な指示体の上記移動量を取得し、上記指示体による指示位置の原点を設定するための設定画像を含む画像を上記投影装置から投影する制御を行い、投影された投影像における上記設定画像が示す位置が上記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、上記画像における上記設定画像の位置と、上記設定操作の入力結果を取得してからの上記移動量と、に基づいて上記画像における上記指示体による指示位置を検出する指示位置検出装置と、
 を含む投影システム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2020年8月28日出願の日本特許出願(特願2020-144981)に基づくものであり、その内容は本出願の中に参照として援用される。
 1 投影部
 1,2 方向X
 1,2 方向Z
 1,2 方向Y
 2 操作受付部
 2A,3A 中空部
 2a,2b,3a,3c,15a 開口
 4 制御装置
 4a 記憶媒体
 6 被投影物
 10 投影装置
 11 投影領域
 12 光変調ユニット
 15 筐体
 21 光源
 22 光変調部
 23 投影光学系
 24 制御回路
 31 第二光学系
 32,122 反射部材
 33 第三光学系
 34 レンズ
 50 画像
 50a,50b,50c,50d,50e 設定画像
 51 操作者
 52 指示体
 101 本体部
 102 第一部材
 103 第二部材
 104 投影方向変更機構
 105 シフト機構
 106 光学ユニット
 121 第一光学系
 G1 画像
 

Claims (24)

  1.  指示位置の移動量を検出可能な指示体の前記移動量を取得し、
     前記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行うプロセッサを備え、
     前記プロセッサは、
     投影された投影像における前記設定画像が示す位置が前記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
     前記画像における前記設定画像の位置と、前記設定操作の入力結果を取得してからの前記移動量と、に基づいて前記画像における前記指示体による指示位置を検出する制御を行う、
     指示位置検出装置。
  2.  請求項1記載の指示位置検出装置であって、
     前記設定操作は、前記指示体に設けられた入力部への入力を行う操作を含む、
     指示位置検出装置。
  3.  請求項1又は2記載の指示位置検出装置であって、
     前記設定操作は、前記投影像が投影された被投影面に設けられた入力部への入力を行う操作を含む、
     指示位置検出装置。
  4.  請求項1から3のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、
     前記投影像の大きさと前記画像の大きさとの関係を示す第1情報と、
     前記画像における前記設定画像の位置と、
     前記設定操作を検出してからの前記移動量と、
     に基づいて前記画像における前記指示体による指示位置を検出する制御を行う、
     指示位置検出装置。
  5.  請求項4記載の指示位置検出装置であって、
     前記プロセッサは、
     前記画像内の第1位置及び第2位置を示す設定画像を含む画像を前記投影装置から投影させる制御を行い、
     前記投影像における前記第1位置を前記指示体で指示した状態で第1設定操作を行った後に、前記投影像における前記第2位置を前記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
     前記第1設定操作を検出してから前記第2設定操作を検出するまでの前記指示体による検出結果に基づいて前記第1情報を取得する制御を行う、
     指示位置検出装置。
  6.  請求項4記載の指示位置検出装置であって、
     前記プロセッサは、
     前記画像内の第1位置を示す設定画像を含む画像を前記投影装置から投影させた後、前記画像内の第2位置を示す設定画像を含む画像を前記投影装置から投影させる制御を行い、
     前記投影像における前記第1位置を前記指示体で指示した状態で第1設定操作を行った後に、前記投影像における前記第2位置を前記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
     前記第1設定操作を検出してから前記第2設定操作を検出するまでの前記移動量に基づいて、前記第1情報を取得する制御を行う、
     指示位置検出装置。
  7.  請求項1から6のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、前記投影装置と前記投影像との間の距離の変化に応じて前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出装置。
  8.  請求項1から7のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、前記投影装置の投影レンズにおける焦点距離の変化に応じて前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出装置。
  9.  請求項1から8のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、一定時間ごとに、前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出装置。
  10.  請求項1から9のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、前記検出した前記指示位置に応じて、前記画像における前記設定画像の位置を変化させる制御を行う、
     指示位置検出装置。
  11.  請求項1から10のいずれか1項記載の指示位置検出装置であって、
     前記プロセッサは、前記投影装置の設置状態に応じて、前記画像における前記設定画像の位置を変化させる制御を行う、
     指示位置検出装置。
  12.  指示位置検出装置のプロセッサが、
     指示位置の移動量を検出可能な指示体の前記移動量を取得し、
     前記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、
     投影された投影像における前記設定画像が示す位置が前記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
     前記画像における前記設定画像の位置と、前記設定操作の入力結果を取得してからの前記移動量と、に基づいて前記画像における前記指示体による指示位置を検出する制御を行う、
     指示位置検出方法。
  13.  請求項12記載の指示位置検出方法であって、
     前記設定操作は、前記指示体に設けられた入力部への入力を行う操作を含む、
     指示位置検出方法。
  14.  請求項12又は13記載の指示位置検出方法であって、
     前記設定操作は、前記投影像が投影された被投影面に設けられた入力部への入力を行う操作を含む、
     指示位置検出方法。
  15.  請求項12から14のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、
     前記投影像の大きさと前記画像の大きさとの関係を示す第1情報と、
     前記画像における前記設定画像の位置と、
     前記設定操作を検出してからの前記移動量と、
     に基づいて前記画像における前記指示体による指示位置を検出する制御を行う、
     指示位置検出方法。
  16.  請求項15記載の指示位置検出方法であって、
     前記プロセッサは、
     前記画像内の第1位置及び第2位置を示す設定画像を含む画像を前記投影装置から投影させる制御を行い、
     前記投影像における前記第1位置を前記指示体で指示した状態で第1設定操作を行った後に、前記投影像における前記第2位置を前記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
     前記第1設定操作を検出してから前記第2設定操作を検出するまでの前記指示体による検出結果に基づいて前記第1情報を取得する制御を行う、
     指示位置検出方法。
  17.  請求項15記載の指示位置検出方法であって、
     前記プロセッサは、
     前記画像内の第1位置を示す設定画像を含む画像を前記投影装置から投影させた後、前記画像内の第2位置を示す設定画像を含む画像を前記投影装置から投影させる制御を行い、
     前記投影像における前記第1位置を前記指示体で指示した状態で第1設定操作を行った後に、前記投影像における前記第2位置を前記指示体で指示した状態で第2設定操作を行うこと、を操作者に促し、
     前記第1設定操作を検出してから前記第2設定操作を検出するまでの前記移動量に基づいて、前記第1情報を取得する制御を行う、
     指示位置検出方法。
  18.  請求項12から17のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、前記投影装置と前記投影像との間の距離の変化に応じて前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出方法。
  19.  請求項12から18のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、前記投影装置の投影レンズにおける焦点距離の変化に応じて前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出方法。
  20.  請求項12から19のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、一定時間ごとに、前記画像を前記投影装置から投影させる制御を行う、
     指示位置検出方法。
  21.  請求項12から20のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、前記検出した前記指示位置に応じて、前記画像における前記設定画像の位置を変化させる制御を行う、
     指示位置検出方法。
  22.  請求項12から21のいずれか1項記載の指示位置検出方法であって、
     前記プロセッサは、前記投影装置の設置状態に応じて、前記画像における前記設定画像の位置を変化させる制御を行う、
     指示位置検出方法。
  23.  指示位置検出装置のプロセッサに、
     指示位置の移動量を検出可能な指示体の前記移動量を取得し、
     前記指示体による指示位置の原点を設定するための設定画像を含む画像を投影装置から投影する制御を行い、
     投影された投影像における前記設定画像が示す位置が前記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、
     前記画像における前記設定画像の位置と、前記設定操作の入力結果を取得してからの前記移動量と、に基づいて前記画像における前記指示体による指示位置を検出する制御を行う、
     処理を実行させるための指示位置検出プログラム。
  24.  投影装置と、
     指示位置の移動量を検出可能な指示体の前記移動量を取得し、前記指示体による指示位置の原点を設定するための設定画像を含む画像を前記投影装置から投影する制御を行い、投影された投影像における前記設定画像が示す位置が前記指示体で指示された状態で、操作者の設定操作の入力結果を取得し、前記画像における前記設定画像の位置と、前記設定操作の入力結果を取得してからの前記移動量と、に基づいて前記画像における前記指示体による指示位置を検出する指示位置検出装置と、
     を含む投影システム。
     
PCT/JP2021/008307 2020-08-28 2021-03-03 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム WO2022044384A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022545283A JP7266151B2 (ja) 2020-08-28 2021-03-03 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
CN202180052530.9A CN115989541A (zh) 2020-08-28 2021-03-03 指示位置检测装置、指示位置检测方法、指示位置检测程序及投影系统
US18/168,830 US20230196606A1 (en) 2020-08-28 2023-02-14 Instruction position detection device, instruction position detection method, instruction position detection program, and projection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-144981 2020-08-28
JP2020144981 2020-08-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/168,830 Continuation US20230196606A1 (en) 2020-08-28 2023-02-14 Instruction position detection device, instruction position detection method, instruction position detection program, and projection system

Publications (1)

Publication Number Publication Date
WO2022044384A1 true WO2022044384A1 (ja) 2022-03-03

Family

ID=80354881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/008307 WO2022044384A1 (ja) 2020-08-28 2021-03-03 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム

Country Status (4)

Country Link
US (1) US20230196606A1 (ja)
JP (1) JP7266151B2 (ja)
CN (1) CN115989541A (ja)
WO (1) WO2022044384A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114820A (ja) * 2005-10-18 2007-05-10 Sharp Corp 携帯型ポインタ装置及び表示システム
JP2008250562A (ja) * 2007-03-29 2008-10-16 Casio Comput Co Ltd 投影システム、投影装置、投影制御方法及びプログラム
JP2012027769A (ja) * 2010-07-26 2012-02-09 Seiko Epson Corp インタラクティブホワイトボード装置、画像表示装置、及びキャリブレーション方法
JP2017102461A (ja) * 2016-12-22 2017-06-08 セイコーエプソン株式会社 表示装置、及び、表示制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114820A (ja) * 2005-10-18 2007-05-10 Sharp Corp 携帯型ポインタ装置及び表示システム
JP2008250562A (ja) * 2007-03-29 2008-10-16 Casio Comput Co Ltd 投影システム、投影装置、投影制御方法及びプログラム
JP2012027769A (ja) * 2010-07-26 2012-02-09 Seiko Epson Corp インタラクティブホワイトボード装置、画像表示装置、及びキャリブレーション方法
JP2017102461A (ja) * 2016-12-22 2017-06-08 セイコーエプソン株式会社 表示装置、及び、表示制御方法

Also Published As

Publication number Publication date
JP7266151B2 (ja) 2023-04-27
US20230196606A1 (en) 2023-06-22
CN115989541A (zh) 2023-04-18
JPWO2022044384A1 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
US9817301B2 (en) Projector, projection system, and control method of projector
JP6349838B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP2010244484A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JPH11143629A (ja) 遠隔座標入力装置および遠隔座標入力方法
KR20130029740A (ko) 프로젝터
JP2009043139A (ja) 位置検出装置
WO2015111402A1 (ja) 位置検出装置、位置検出システム、及び、位置検出方法
KR20140068927A (ko) 사용자 인터페이스 표시 장치
CN109698947A (zh) 投影仪和投影仪的控制方法
US20150109261A1 (en) Projection apparatus
JP6935713B2 (ja) 位置検出装置、位置検出システム及び位置検出装置の制御方法
WO2022044384A1 (ja) 指示位置検出装置、指示位置検出方法、指示位置検出プログラム、及び投影システム
US20150185321A1 (en) Image Display Device
JP2012027769A (ja) インタラクティブホワイトボード装置、画像表示装置、及びキャリブレーション方法
WO2022107537A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
WO2022044386A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
JP6415176B2 (ja) 投射型表示装置
WO2013140594A1 (ja) プロジェクタシステムおよびフォーカス調整方法
JP5233348B2 (ja) プロジェクタ及び歪み補正方法
JP6291911B2 (ja) 位置検出装置、及び、位置検出方法
JP6291912B2 (ja) 位置検出装置、及び、位置検出方法
WO2022070462A1 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
JP2012233920A (ja) 計測面傾き計測装置、プロジェクタ及び計測面傾き計測方法
TWI464630B (zh) 影像互動系統及其操控裝置
WO2016139902A1 (ja) 表示装置及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21860816

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022545283

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21860816

Country of ref document: EP

Kind code of ref document: A1