WO2021085499A1 - 制御装置、投影装置、制御方法、制御プログラム - Google Patents

制御装置、投影装置、制御方法、制御プログラム Download PDF

Info

Publication number
WO2021085499A1
WO2021085499A1 PCT/JP2020/040506 JP2020040506W WO2021085499A1 WO 2021085499 A1 WO2021085499 A1 WO 2021085499A1 JP 2020040506 W JP2020040506 W JP 2020040506W WO 2021085499 A1 WO2021085499 A1 WO 2021085499A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
image
control device
unit
control
Prior art date
Application number
PCT/JP2020/040506
Other languages
English (en)
French (fr)
Inventor
和紀 井上
晶啓 石塚
智紀 増田
一樹 石田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021553667A priority Critical patent/JP7356512B2/ja
Publication of WO2021085499A1 publication Critical patent/WO2021085499A1/ja
Priority to US17/733,357 priority patent/US11800071B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • the present invention relates to a control device, a projection device, a control method, and a control program of a projection system.
  • the projection range of each projection unit is overlapped.
  • the operation unit for instructing switching of an image displayed on a large screen.
  • the operation unit is imaged by each imaging unit that is imaging each projection range. Therefore, it is necessary to devise in order to detect with high accuracy whether or not this operation unit is operated by the user.
  • Patent Document 1 and Patent Document 2 do not consider displaying the operation unit in the overlapping portion of the projection range.
  • the present invention has been made in view of the above circumstances, and provides a control device, a projection device, a control method, and a control program of a projection system capable of detecting a user's operation instructing execution of a default control with high accuracy.
  • the purpose is to provide.
  • the control device of the present invention is a control device of a projection system having a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units, and the projection of each of the plurality of projection units.
  • the range includes an overlapping portion that partially overlaps with the projection range of the other projection unit, and at least the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion imaged by the imaging unit. It includes an operation detection unit that detects an operation instructing execution of the default control based on an image, and a control unit that executes the default control when the operation detection unit determines that the operation has been performed. is there.
  • the control method of the present invention is a control method of a projection system including a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units, and the projection of each of the plurality of projection units.
  • the range includes an overlapping portion that partially overlaps with the projection range of the other projection unit, and at least the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion imaged by the imaging unit. It includes an operation detection step for detecting an operation instructing execution of the default control based on an image, and a control step for executing the default control when it is determined by the operation detection step that the operation has been performed.
  • the control program of the present invention is a control program of a projection system including a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units, and is a projection of each of the plurality of projection units.
  • the range includes an overlapping portion that partially overlaps with the projection range of the other projection unit, and at least the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion imaged by the imaging unit.
  • an operation detection step for detecting an operation instructing execution of the default control and a control step for executing the default control when it is determined by the operation detection step that the operation is performed are executed on the computer. It is for letting you.
  • a control device capable of detecting a user's operation instructing execution of a default control with high accuracy.
  • FIG. 1 is a schematic diagram showing a schematic configuration of the projection system 100 of the embodiment.
  • the projection system 100 includes a set of a first projection device P1 constituting a projection unit and a first imaging unit C1 constituting an imaging unit, a second projection device P2 constituting the projection unit, and a second imaging unit constituting the imaging unit. It includes a set of C2, a control device 1 that controls the entire system, and a screen SC.
  • the first projection device P1 and the second projection device P2 are configured by, for example, a projector using a liquid crystal panel, an LCOS (Liquid crystal on silicon), a DMD (Digital Micromirror Device), or the like.
  • LCOS Liquid crystal on silicon
  • DMD Digital Micromirror Device
  • the projection system 100 projects a divided image from the first projection device P1 onto the first projection range 10 of the screen SC, and the second projection device P2 falls on the second projection range 20 of the screen SC that overlaps a part of the first projection range 10.
  • the divided image is projected from the above, and the horizontally long projection target image is displayed by joining the two divided images.
  • the control device 1 includes a control unit composed of various processors, a communication interface (not shown) for communicating with each unit, and a storage medium such as a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory). It is a device including 1a, and controls the first projection device P1, the second projection device P2, the first imaging unit C1, and the second imaging unit C2 in an integrated manner.
  • the various processors described above are general-purpose processors that execute programs and perform various processes, such as a CPU (Central Processing Unit) and an FPGA (Field Programmable Gate Array), which can change the circuit configuration after manufacturing. It includes a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as a programmable logic device (Programmable Logic Device: PLD) or an ASIC (Application Special Integrated Circuit). More specifically, the structures of these various processors are electric circuits in which circuit elements such as semiconductor elements are combined.
  • a CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • PLD programmable Logic Device
  • ASIC Application Special Integrated Circuit
  • the control unit of the control device 1 may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of.
  • the control unit of the control device 1 functions as a control device including an operation detection unit and a control unit as a functional block by executing a control program stored in the storage medium 1a.
  • the first image pickup unit C1 includes an image sensor such as a CCD (Charged Coupled Device) type image sensor or a MOS (Metal Oxide Semiconductor) type image sensor that images a subject through an imaging optical system, and covers the first projection range 10 on the screen SC. At least take an image.
  • the captured image CP1 of the first projection range 10 captured by the first imaging unit C1 is transmitted to the control device 1.
  • the second image pickup unit C2 includes an image pickup element such as a CCD type image sensor or a MOS type image sensor that takes a picture of a subject through an image pickup optical system, and at least images the second projection range 20 on the screen SC.
  • the captured image CP2 of the second projection range 20 captured by the second imaging unit C2 is transmitted to the control device 1.
  • the imaging frame rates of the first imaging unit C1 and the second imaging unit C2 are set to be the same, and the imaging timing of the first imaging unit C1 and the imaging timing of the second imaging unit C2 are slightly different. It is set so that a large difference (difference below the threshold value) occurs. This difference is, for example, a value smaller than the imaging interval when the first imaging unit C1 performs continuous imaging.
  • FIG. 2 is a diagram schematically showing an image projected from the first projection device P1 to the first projection range 10 when the projection target image is displayed.
  • the first divided image 10G is projected on the first projection range 10 as shown in FIG.
  • FIG. 3 is a diagram schematically showing an image projected from the second projection device P2 to the second projection range 20 when the projection target image is displayed.
  • the second divided image 20G is projected on the second projection range 20 as shown in FIG.
  • the control device 1 has a first display data D1 for projecting the first divided image 10G and a second display data D for projecting the second divided image 20G from one display data D shown in FIG.
  • a first display data D1 for projecting the first divided image 10G
  • a second display data D for projecting the second divided image 20G from one display data D shown in FIG.
  • the first divided image 10G shown in FIG. 2 is composed of a first non-superimposed region 10b and a first superposed region 10a.
  • the first superimposed region 10a is a region projected on the overlapping portion 10A with the second projection range 20 in the first projection range 10.
  • the first non-overlapping region 10b is a region projected onto the non-overlapping portion 10B of the first projection range 10 with the second projection range 20.
  • the second divided image 20G shown in FIG. 3 is composed of a second superposed region 20a and a second non-superimposed region 20b.
  • the second overlapping region 20a is a region projected on the overlapping portion 20A with the first projection range 10 in the second projection range 20.
  • the second non-superimposed region 20b is a region projected on the non-overlapping portion 20B with the first projection range 10 in the second projection range 20.
  • the first superimposition region 10a shown in FIG. 2 and the second superimposition region 20a shown in FIG. 3 are the same image, and in the examples of FIGS. 2 to 4, the first superimposition region 10a and the second superimposition region 20a are operated.
  • Part CTR is included.
  • the operation unit CTR is an icon such as a button for receiving an instruction from the user.
  • the operation unit CTR may not be included in each of the first superimposition region 10a and the second superimposition region 20a, or may be included in the first non-superimposition region 10b or the second non-superimposition region 20b.
  • control device 1 When the control device 1 detects that the operation unit CTR in the projection target image is instructed by a finger, a pointer, or the like while displaying the projection target image consisting of the first divided image 10G and the second divided image 20G. , It is determined that the operation instructing the execution of the default control (hereinafter referred to as the execution operation) has been performed, and the default control is executed.
  • the execution operation the operation instructing the execution of the default control
  • the default control is, for example, a control for changing the projection target image being displayed to another projection target image, a control for changing the brightness or contrast of the projection target image being displayed, or a projection target image being displayed. Controls for playing or stopping the included moving image content, etc., but are not limited thereto.
  • FIG. 5 is a schematic diagram for explaining the detection process of the execution operation by the control device 1.
  • the control device 1 is a state in which the image to be projected is displayed, and the captured image CP1 of the first projection range 10 acquired from the first imaging unit C1 and the second projection range 20 acquired from the second imaging unit C2.
  • the captured image CP2 and the combined image J1 are combined to generate a combined image J1, and the execution operation is detected based on the combined image J1.
  • the captured image CP1 and the captured image CP2 used to generate the combined image J1 have a difference in imaging timing equal to or less than the above-mentioned threshold value (in other words, the first imaging unit C1 and the second imaging unit C2 at the closest timing. (Two captured images taken consecutively).
  • the control device 1 superimposes the image of the overlapping portion 10A in the captured image CP1 and the image of the overlapping portion 20A in the captured image CP2 to generate the combined image J1.
  • the image of the non-overlapping portion 10B in the captured image CP1 each pixel value of the overlapping portion 10A in the captured image CP1, and each pixel value of the image of the overlapping portion 20A in the captured image CP2
  • a combined image J1 composed of an image JP composed by adding or averaging the images and an image of the non-overlapping portion 20B in the captured image CP2 is generated.
  • the control device 1 determines that the execution operation has been performed.
  • the control device 1 determines that the execution operation has not been performed.
  • FIG. 6 is a flowchart for explaining an example of the operation of the control device 1.
  • the process shown in FIG. 6 is started.
  • the process shown in FIG. 6 is performed by the control unit of the control device 1 executing the control program stored in the storage medium 1a of the control device 1.
  • control device 1 acquires the captured image CP1 from the first imaging unit C1 and acquires the captured image CP2 from the second imaging unit C2 (step S1).
  • control device 1 determines whether or not it is necessary to generate a combined image of the captured image CP1 and the captured image CP2 acquired in step S1 (step S2).
  • Examples of the method for determining the necessity of generating the combined image include the following two methods.
  • the control device 1 determines that the generation of the combined image is unnecessary when the operation unit CTR is not included in each of the image of the overlapping portion 10A in the captured image CP1 and the image of the overlapping portion 20A in the captured image CP2. If each includes an operation unit CTR, it is determined that it is necessary to generate a combined image.
  • control device 1 determines that the generation of the combined image is unnecessary, and each of them If an instruction image is included in, it is determined that it is necessary to generate a combined image.
  • step S2 determines that it is necessary to generate the combined image
  • step S3 the control device 1 generates a combined image in which the captured image CP1 and the captured image CP2 acquired in step S1 are combined.
  • Step S4 is followed by processing.
  • step S2 determines that the generation of the combined image is unnecessary (step S2: NO)
  • the control device 1 sets the captured image CP1 and the captured image CP2 acquired in step S1 as non-coupling and performs processing in step S4 thereafter.
  • step S4 the control device 1 performs an execution operation detection process.
  • the control device 1 detects the execution operation by determining whether or not the combined image includes the operation unit CTR that overlaps with the instruction image. Specifically, when the control device 1 includes the operation unit CTR that overlaps with the instruction image, it determines that the execution operation has been performed, and the operation unit CTR that overlaps with the instruction image is included in the combined image. If not, it is determined that the execution operation has not been performed.
  • step S4 when the process of step S3 is not performed, the control device 1 has the image of the non-overlapping portion 10B in the captured image CP1 acquired in step S1 and the captured image CP2 acquired in step S1.
  • the execution operation is detected by determining whether or not any of the images of the non-overlapping portion 20B in the above includes the operation unit CTR that overlaps with the instruction image. Specifically, when any of the above images includes an operation unit CTR that overlaps with the instruction image, the control device 1 determines that the execution operation has been performed, and includes the operation unit CTR that overlaps with the instruction image. If not, it is determined that the execution operation has not been performed.
  • step S6 When the control device 1 determines that the execution operation has been performed as a result of the processing in step S4 (step S5: YES), the control device 1 executes the default control (step S6).
  • the control device 1 reflects a process (for example, a change in brightness, a change in contrast, or a change in contrast) that reflects an effect based on the default control instructed to execute on the display data that is the source of the image to be projected. Update the display data by playing the video, etc.). Then, the control device 1 newly generates the first display data for the first projection device P1 and the second display data for the second projection device P2 from the updated display data (step S7). These are input to each projection device to update the divided image (projection target image) being projected (step S8).
  • a process for example, a change in brightness, a change in contrast, or a change in contrast
  • step S5 NO
  • the control device 1 determines that the execution operation has not been performed as a result of the processing in step S4 (step S5: NO)
  • the control device 1 returns the processing to step S1 after step S8.
  • the control device 1 has the first projection range 10 and the second projection range 20 based on the captured image CP1 acquired from the first imaging unit C1 and the captured image CP2 acquired from the second imaging unit C2. It is determined whether or not the operation of the operation unit CTR projected on the overlapping portion 10A (20A) of the above is performed by the user. Since the operation unit CTR is projected onto the overlapping portion 10A (20A), it is included in both the captured image CP1 and the captured image CP2. Therefore, for example, by monitoring only the image of the overlapping portion 10A in the captured image CP1, it is possible to determine whether or not the operation of the operation unit CTR projected on the overlapping portion 10A (20A) has been performed by the user. is there.
  • the imaging frame rates of the first imaging unit C1 and the second imaging unit C2 are set to, for example, 30 fps (frame per second).
  • the captured image CP1 and the captured image CP2 can be acquired at intervals of 60 fps.
  • control device 1 determines whether or not the operation unit CTR is instructed based on the combined image (image JP of FIG. 5) of the image of the overlapping portion 10A in the captured image CP1 and the image of the overlapping portion 20A in the captured image CP2. Judging. According to this configuration, it is possible to prevent double detection of the operation of the operation unit CTR, as compared with the case where the presence or absence of the operation of the operation unit CTR is individually determined based on each image, for example.
  • control device 1 determines in step S2 of FIG. 6 whether or not it is necessary to generate the combined image, and generates the combined image only when it is determined that the combined image needs to be generated. According to this configuration, it is not always necessary to generate the combined image, so that the processing load of the control device 1 can be reduced. It is also possible to omit the process of step S2 in FIG. 6 so that the combined image is always generated.
  • the control device 1 may generate the combined image J1 by trimming the image of the overlapping portion 10A from the captured image CP1, trimming the image of the overlapping portion 20A from the captured image CP2, and superimposing the trimmed images.
  • this method only the above-mentioned image JP composed by adding or averaging each pixel value of the image of the overlapping portion 10A in the captured image CP1 and each pixel value of the image of the overlapping portion 20A in the captured image CP2 is a combined image. Generated as J1.
  • This method can be adopted on the premise that the operation unit CTR is projected only on the overlapping portion 10A (20A). According to this method, the processing load of the control device 1 can be reduced.
  • control device 1 acquires the processing of step S1 (that is, acquisition of new captured images CP1 and CP2) while performing the processing of steps S2 to S5 (that is, the processing of detecting the execution operation). Processing) may be performed in parallel. According to this configuration, the detection process of the execution operation can be performed at high speed.
  • the control device 1 may be built in either the first projection device P1 or the second projection device P2. Further, in the projection system 100, in each set of the projection unit and the imaging unit, the imaging unit may be built in the projection unit. According to these configurations, the wiring connecting each part can be simplified, and the system construction cost can be reduced.
  • the first projection device P1, the first imaging unit C1, and the control device 1 may be configured as the main projection device to be the main projection device, and the other sets may be controlled by the main projection device. Good.
  • the projection system 100 may be capable of adding one or more sets of a projection unit and an imaging unit.
  • FIG. 7 is a schematic diagram showing a schematic configuration of the projection system 100A, which is a modification of the projection system 100.
  • the projection system 100A has the same configuration as the projection system 100 except that a set of a third projection device P3 as a projection unit and a third imaging unit C3 as an imaging unit is added.
  • the third projection range 30 of the third projection device P3 partially overlaps with the second projection range 20.
  • the third imaging unit C3 captures at least the third projection range 30 and transmits the captured image CP3 to the control device 1.
  • the imaging frame rates of the first imaging unit C1, the second imaging unit C2, and the third imaging unit C3 are set to be the same, and the first imaging unit C1, the second imaging unit C2, and the third imaging unit C3 are in this order. Imaging is being performed. Further, it is set so that a slight difference (difference below the threshold value) occurs between the imaging timing of the second imaging unit C2 and the imaging timing of the third imaging unit C3. This difference is the same as the difference between the imaging timing of the first imaging unit C1 and the imaging timing of the second imaging unit C2.
  • the first operation unit CTR1 is projected on the overlapping portion of the first projection range 10 and the second projection range 20
  • the second operation unit is projected on the overlapping portion of the second projection range 20 and the third projection range 30. It is assumed that CTR2 is projected.
  • the control device 1 acquires the captured image CP1 in the first projection range 10 and the captured image CP2 in the second projection range 20, and gives an instruction image to the first operation unit CTR1 based on the combined image obtained by combining them. It is determined whether or not they overlap, and the operation on the first operation unit CTR1 is detected.
  • control device 1 acquires the captured image CP2 of the second projection range 20 and the captured image CP3 of the third projection range 30, and the instruction image is superimposed on the second operation unit CTR2 based on the combined image obtained by combining them. It is determined whether or not the operation is performed on the second operation unit CTR2. Then, when it is determined that the operation on the first operation unit CTR1 or the operation on the second operation unit CTR2 is performed, the control device 1 executes the default control.
  • FIG. 8 shows an example of captured images acquired in order from the first imaging unit C1, the second imaging unit C2, and the third imaging unit C3.
  • FIG. 8 shows the captured image CP1, the captured image CP2, and the captured image CP3.
  • the captured image CP3 is composed of an image of the overlapping portion 30A of the second projection range 20 and the third projection range 30 and an image of the non-overlapping portion 30B that does not overlap with the second projection range 20 in the third projection range 30.
  • the operation unit CTR is included in each of the image of the overlapping portion 10A in the captured image CP1 and the image of the overlapping portion 20A in the captured image CP2.
  • the image of the overlapping portion 30A in the captured image CP2 and the image of the overlapping portion 30A in the captured image CP3 do not include the operation unit CTR, respectively. Therefore, the combination of the captured image CP2 and the captured image CP3 is not essential.
  • the image of the overlapping portion 10A in the captured image CP1 and the image of the overlapping portion 20A in the captured image CP2 include an operation unit CTR, respectively. Therefore, it is necessary to combine the captured image CP1 and the captured image CP2.
  • the operation unit CTR is added to the image of the overlapping portion in any one of the three or more captured images. If it is included, it is determined that the combined image generation is necessary, and if the image of the overlapping portion of each of these three or more captured images does not include the operation unit CTR, it is determined that the combined image generation is unnecessary. ..
  • the control device 1 acquires the captured image from each of the imaging units of the three or more sets, the instruction image is included in the image of the overlapping portion in any one of the three or more captured images. If this is the case, it is determined that the combined image generation is necessary, and if the image of the overlapping portion of each of the three or more captured images does not include the instruction image, it is determined that the combined image generation is unnecessary. Good.
  • the control device 1 of the projection system 100A omits this determination process and unconditionally combines images without using this determination process. May be generated. By doing so, the processing load of the control device 1 can be reduced.
  • FIG. 9 is a schematic diagram showing a schematic configuration of the projection system 100B, which is a modification of the projection system 100.
  • the projection system 100B includes a set of a third projection device P3 as a projection unit and a third imaging unit C3 as an imaging unit, and a set of a fourth projection device P4 as a projection unit and a fourth imaging unit C4 as an imaging unit. It has the same configuration as the projection system 100 except that, is added.
  • the imaging frame rates of the first imaging unit C1, the second imaging unit C2, the third imaging unit C3, and the fourth imaging unit C4 are set to be the same, and the first imaging unit C1, the second imaging unit C2, and the second Imaging is performed in the order of the third imaging unit C3 and the fourth imaging unit C4. Further, it is set so that a slight difference (difference below the threshold value) occurs between the imaging timing of the second imaging unit C2 and the imaging timing of the third imaging unit C3, and the imaging timing of the third imaging unit C3 and the fourth imaging unit are set. It is set so that a slight difference (difference below the threshold value) occurs from the imaging timing of C4.
  • FIG. 10 is a schematic view showing the projection range of each projection unit of the projection system 100B shown in FIG.
  • the right end of the first projection range 10 and the left end of the second projection range 20 overlap.
  • the lower end of the second projection range 20 and the upper end of the third projection range 30 of the third projection device P3 overlap.
  • the left end of the third projection range 30 and the right end of the fourth projection range 40 of the fourth projection device P4 overlap.
  • the upper end of the fourth projection range 40 and the lower end of the first projection range 10 overlap.
  • the first projection range 10, the second projection range 20, the third projection range 30, and the fourth projection range 40 have a common region 50 that overlaps with each other.
  • the control device 1 has the captured image CP1 of the first projection range 10, the captured image CP2 of the second projection range 20, the captured image CP3 of the third projection range 30, and the captured image of the fourth projection range 40.
  • CP4 is acquired sequentially.
  • the control device 1 generates a combined image in which images of at least the common region 50 in the captured images CP1 to CP4 are combined, and based on this combined image, determines whether or not the instruction image overlaps with the operation unit CTR. , Detects an operation on the operation unit CTR.
  • the operation of the operation unit projected on the overlapping portion of the projection ranges can be performed with high accuracy at low cost and light load. Can be detected.
  • the first imaging unit C1 and the second imaging unit C2 of the projection system 100 may be shared to form one imaging unit (described as a common imaging unit).
  • the common imaging unit is configured to be capable of capturing at least each of the first projection range 10 and the second projection range 20.
  • the common imaging unit has an angle of view capable of capturing an image substantially equal to each of the first projection range 10 and the second projection range 20, and further, a mechanism capable of moving the imaging range (moving the entire device). It has a swing mechanism to make it swing or a mechanism to change the optical path by a mirror included in the optical system).
  • the common imaging unit moves the imaging range to image the second projection range 20, then returns the imaging range to the original position and returns the first projection range.
  • the captured image cp1 corresponding to the above-mentioned captured image CP1 and the captured image cp2 corresponding to the above-mentioned captured image CP2 can be sequentially acquired.
  • the function of the control device 1 is the same as described above, except that the captured image used for detecting the execution operation is changed from the captured image CP1 to the captured image cp1 and from the captured image CP2 to the captured image cp2. Is.
  • a control device for a projection system including a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units.
  • Each projection range of the plurality of projection units includes an overlapping portion that partially overlaps with the projection range of the other projection units.
  • An operation detection unit that detects an operation instructing execution of a default control based on at least an image of the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion captured by the imaging unit.
  • a control device including a control unit that executes the default control when it is determined by the operation detection unit that the operation has been performed.
  • the projection system is a control device having a plurality of sets of the projection unit and the imaging unit that captures at least the projection range of the projection unit.
  • the operation detection unit is a control device that detects the operation based on at least the image of the overlapping portion in the image captured by the imaging unit of each of the set of the plurality of sets having the common overlapping portion.
  • the control device according to the above.
  • the captured image of each of the above-mentioned imaging units in the above-mentioned set is a control device in which the difference in timing is equal to or less than a threshold value.
  • the control device according to any one of (3) to (5).
  • the above set is a control device including all the above sets.
  • the control device is a control device that generates a combined image in which at least the images of the overlapping portions in the captured images of the respective imaging units in the above set are combined, and detects the operation based on the combined image.
  • the operation detection unit is a control device that generates the combined image by adding at least the images of the overlapping portions in the captured images of the respective imaging units in the above set.
  • the control device is a control device that determines whether or not the combined image needs to be generated, and generates the combined image when it is determined that the combined image needs to be generated.
  • the operation detection unit is a control device that determines that it is necessary to generate the combined image when a specific image is included in the overlapping portion in the captured image of each of the imaging units in the above group.
  • the control device determines that it is necessary to generate the combined image when a specific image is included in the overlapping portion in the captured image of the imaging unit of any one of the above sets. apparatus.
  • the control device according to (10) or (11) The specific image is a control device which is an icon included in the image projected from the projection unit.
  • the control device according to (10) or (11) The specific image is a control device that is an object existing between the projection unit and the projection range.
  • the control device according to any one of (9) to (13).
  • the operation detection unit omits the determination process of whether or not the combined image needs to be generated, and controls to generate the combined image without using the determination process. apparatus.
  • the control device is a control device that acquires the captured image from the imaging unit of the above group and detects the operation in parallel.
  • a control method for a projection system including a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units.
  • Each projection range of the plurality of projection units includes an overlapping portion that partially overlaps with the projection range of the other projection units.
  • An operation detection step for detecting an operation instructing execution of a default control based on at least an image of the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion captured by the imaging unit.
  • a control method including a control step for executing the default control when it is determined by the operation detection step that the operation has been performed.
  • the projection system is a control method having a plurality of sets of the projection unit and the imaging unit that captures at least the projection range of the projection unit.
  • the above set is a control method including all the above sets.
  • a control program for a projection system having a plurality of projection units and an imaging unit that captures at least the projection range of each of the plurality of projection units.
  • Each projection range of the plurality of projection units includes an overlapping portion that partially overlaps with the projection range of the other projection units.
  • An operation detection step for detecting an operation instructing execution of a default control based on at least an image of the overlapping portion in each of the captured images of the plurality of projection ranges having the common overlapping portion captured by the imaging unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

既定制御の実行を指示するユーザの操作を高精度に検出することのできる投影システムの制御装置、投影装置、制御方法、及び制御プログラムを提供する。 投影システム(100)は、第一投影装置P1及び第一撮像部C1のセットと、第二投影装置P2及び第二撮像部C2のセットを有し、第一投影装置P1の第一投影範囲(10)と第二投影装置P2の第二投影範囲(20)は重なり部分(10A)((20A))を有する。投影システム(100)の制御装置(1)は、第一投影範囲(10)の撮像画像CP1と、第二投影範囲(20)の撮像画像CP2に基づいて、重なり部分(10A)((20A))に投影されている操作部CTRに対する操作の有無を判定し、操作が有りと判定した場合には、既定制御を実行する。

Description

制御装置、投影装置、制御方法、制御プログラム
 本発明は、投影システムの制御装置、投影装置、制御方法、及び制御プログラムに関する。
 投影部と撮像部のセットを複数有し、各セットの投影部から画像を一部重複させて大画面投影を実現するシステムが知られている(例えば、特許文献1及び特許文献2参照)。
日本国特開2017-191973号公報 日本国特開2015-109527号公報
 複数の投影部を用いて大画面表示を行うシステムにおいては、各投影部の投影範囲を重複させることが行われる。この投影範囲の重複する部分において、大画面表示している画像の切り替え等を指示するための操作部を表示させる構成が考えられる。この構成においては、各投影範囲を撮像している各撮像部によって操作部が撮像されることになる。このため、この操作部がユーザによって操作されているか否かを高精度に検出するためには工夫が必要となる。特許文献1と特許文献2は、投影範囲の重複している部分に操作部を表示させることは考慮していない。
 本発明は、上記事情に鑑みてなされたものであり、既定制御の実行を指示するユーザの操作を高精度に検出することのできる投影システムの制御装置、投影装置、制御方法、及び制御プログラムを提供することを目的とする。
 本発明の制御装置は、複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御装置であって、上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出部と、上記操作検出部によって上記操作がなされたと判定された場合に上記既定制御を実行する制御部と、を備えるものである。
 本発明の制御方法は、複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御方法であって、上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、上記操作検出ステップによって上記操作がなされたと判定された場合に上記既定制御を実行する制御ステップと、を含むものである。
 本発明の制御プログラムは、複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御プログラムであって、上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、上記操作検出ステップによって上記操作がなされたと判定された場合に上記既定制御を実行する制御ステップと、をコンピュータに実行させるためのものである。
 本発明によれば、既定制御の実行を指示するユーザの操作を高精度に検出することのできる投影システムの制御装置、投影装置、制御方法、及び制御プログラムを提供することができる。
実施形態の投影システム100の概略構成を示す模式図である。 投影対象画像の表示時において第一投影装置P1から第一投影範囲10に投影される画像を模式的に示す図である。 投影対象画像の表示時において第二投影装置P2から第二投影範囲20に投影される画像を模式的に示す図である。 分割画像を投影するための表示用データの生成過程を説明するための模式図である。 制御装置1による実行操作の検出処理を説明するための模式図である。 制御装置1の動作の一例を説明するためのフローチャートである。 投影システム100の変形例である投影システム100Aの概略構成を示す模式図である。 図7の投影システム100Aの各撮像部から取得される撮像画像の例を示す模式図である。 投影システム100の変形例である投影システム100Bの概略構成を示す模式図である。 図9に示す投影システム100Bの各投影部の投影範囲を示す模式図である。
 以下、本発明の制御装置の一実施形態を含む投影システムについて図面を参照して説明する。
 図1は、実施形態の投影システム100の概略構成を示す模式図である。投影システム100は、投影部を構成する第一投影装置P1及び撮像部を構成する第一撮像部C1のセットと、投影部を構成する第二投影装置P2及び撮像部を構成する第二撮像部C2のセットと、システム全体を統括制御する制御装置1と、スクリーンSCと、を備える。第一投影装置P1と第二投影装置P2は、それぞれ、例えば、液晶パネル、LCOS(Liquid crystal on silicon)、又はDMD(Digital Micromirror Device)等を用いたプロジェクタによって構成されている。
 投影システム100は、スクリーンSCの第一投影範囲10に第一投影装置P1から分割画像を投影させ、第一投影範囲10の一部と重なるスクリーンSCの第二投影範囲20に第二投影装置P2から分割画像を投影させて、この2つの分割画像の継ぎ合わせによって横長の投影対象画像を表示するものである。
 制御装置1は、各種のプロセッサにより構成される制御部と、各部と通信するための通信インタフェース(図示省略)と、ハードディスク、SSD(Solid State Drive)、又はROM(Read Only Memory)等の記憶媒体1aと、を含む装置であり、第一投影装置P1、第二投影装置P2、第一撮像部C1、及び第二撮像部C2を統括制御する。
 上述の各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。制御装置1の制御部は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。制御装置1の制御部は、記憶媒体1aに格納された制御プログラムを実行することにより、機能ブロックとして操作検出部及び制御部を備える制御装置として機能する。
 第一撮像部C1は、撮像光学系を通して被写体を撮像するCCD(Charged Coupled Device)型イメージセンサ又はMOS(Metal Oxide Semiconductor)型イメージセンサ等の撮像素子を備え、スクリーンSCにおける第一投影範囲10を少なくとも撮像する。第一撮像部C1によって撮像された第一投影範囲10の撮像画像CP1は制御装置1に送信される。
 第二撮像部C2は、撮像光学系を通して被写体を撮像するCCD型イメージセンサ又はMOS型イメージセンサ等の撮像素子を備え、スクリーンSCにおける第二投影範囲20を少なくとも撮像する。第二撮像部C2によって撮像された第二投影範囲20の撮像画像CP2は制御装置1に送信される。
 投影システム100では、第一撮像部C1と第二撮像部C2の各々の撮像フレームレートが同じに設定され、且つ、第一撮像部C1の撮像タイミングと第二撮像部C2の撮像タイミングとに僅かな差(閾値以下の差)が生じるよう設定されている。この差は、例えば、第一撮像部C1が連続撮像を行う場合の撮像間隔よりも小さな値とされる。
 図2は、投影対象画像の表示時において第一投影装置P1から第一投影範囲10に投影される画像を模式的に示す図である。投影対象画像の表示時においては、図3に示すように、第一投影範囲10に第一分割画像10Gが投影される。
 図3は、投影対象画像の表示時において第二投影装置P2から第二投影範囲20に投影される画像を模式的に示す図である。投影対象画像の表示時においては、図4に示すように、第二投影範囲20に第二分割画像20Gが投影される。
 制御装置1は、図4に示す1つの表示用データDから、第一分割画像10Gを投影するための第一表示用データD1と、第二分割画像20Gを投影するための第二表示用データD2を生成し、第一表示用データD1を第一投影装置P1に入力し、第二表示用データD2を第二投影装置P2に入力することで、第一分割画像10Gと第二分割画像20Gが一部重なって構成される投影対象画像をスクリーンSCに投影させる。
 図2に示す第一分割画像10Gは、第一非重畳領域10bと第一重畳領域10aとによって構成されている。第一重畳領域10aは、第一投影範囲10における第二投影範囲20との重なり部分10Aに投影された領域である。第一非重畳領域10bは、第一投影範囲10における第二投影範囲20との非重なり部分10Bに投影された領域である。
 図3に示す第二分割画像20Gは、第二重畳領域20aと第二非重畳領域20bとによって構成されている。第二重畳領域20aは、第二投影範囲20における第一投影範囲10との重なり部分20Aに投影された領域である。第二非重畳領域20bは、第二投影範囲20における第一投影範囲10との非重なり部分20Bに投影された領域である。
 図2に示す第一重畳領域10aと図3に示す第二重畳領域20aは、同じ画像であり、図2から図4の例では、第一重畳領域10aと第二重畳領域20aの各々に操作部CTRが含まれている。操作部CTRは、ユーザからの指示を受け付けるためのボタン等のアイコンである。なお、操作部CTRは、第一重畳領域10a及び第二重畳領域20aの各々に含まれない場合や、第一非重畳領域10b又は第二非重畳領域20bに含まれることも有り得る。
 制御装置1は、第一分割画像10G及び第二分割画像20Gからなる投影対象画像を表示させている状態にて、投影対象画像における操作部CTRが指又はポインタ等で指示されたことを検出すると、既定制御の実行を指示する操作(以下、実行操作と記載)がなされたと判定して既定制御を実行する。
 既定制御とは、例えば、表示中の投影対象画像を別の投影対象画像に変更する制御、表示中の投影対象画像の明るさ又はコントラスト等を変更する制御、或いは、表示中の投影対象画像に含まれる動画コンテンツの再生又は停止を行う制御等であるが、これらに限定されるものではない。
 図5は、制御装置1による実行操作の検出処理を説明するための模式図である。制御装置1は、投影対象画像を表示させている状態にて、第一撮像部C1から取得した第一投影範囲10の撮像画像CP1と、第二撮像部C2から取得した第二投影範囲20の撮像画像CP2と、を結合して結合画像J1を生成し、この結合画像J1に基づいて実行操作を検出する。
 結合画像J1の生成に用いる撮像画像CP1と撮像画像CP2は、撮像タイミングが上述した閾値以下の差となるもの(換言すると、最も近接するタイミングにて第一撮像部C1及び第二撮像部C2により連続して撮像された2つの撮像画像)である。
 制御装置1は、例えば、撮像画像CP1における重なり部分10Aの画像と撮像画像CP2における重なり部分20Aの画像とを重ね合わせて結合画像J1を生成する。この処理により、図5に示したように、撮像画像CP1における非重なり部分10Bの画像と、撮像画像CP1における重なり部分10Aの各画素値と撮像画像CP2における重なり部分20Aの画像の各画素値とが加算又は平均されて構成された画像JPと、撮像画像CP2における非重なり部分20Bの画像と、からなる結合画像J1が生成される。
 制御装置1は、このようにして生成した結合画像J1に含まれる操作部CTRに、人の手等の物体に相当する指示画像が重なっている場合には、実行操作がなされたと判定する。制御装置1は、結合画像J1に含まれる操作部CTRに指示画像が重なっていない場合には、実行操作がなされていないと判定する。
 図6は、制御装置1の動作の一例を説明するためのフローチャートである。図4に例示した表示用データDに基づく投影対象画像がスクリーンSCに投影されると、図6に示す処理が開始される。図6に示す処理は、制御装置1の記憶媒体1aに格納された制御プログラムを、制御装置1の制御部が実行することで行われる。
 まず、制御装置1は、第一撮像部C1から撮像画像CP1を取得し、第二撮像部C2から撮像画像CP2を取得する(ステップS1)。
 次に、制御装置1は、ステップS1にて取得した撮像画像CP1と撮像画像CP2の結合画像の生成が必要か否かを判定する(ステップS2)。結合画像の生成の要否判定方法としては、例えば以下の2つが挙げられる。
 (第一要否判定方法)
 制御装置1は、撮像画像CP1における重なり部分10Aの画像と撮像画像CP2における重なり部分20Aの画像の各々に操作部CTRが含まれていない場合には、結合画像の生成が不要と判定し、この各々に操作部CTRが含まれている場合には、結合画像の生成が必要と判定する。
 (第二要否判定方法)
 制御装置1は、撮像画像CP1における重なり部分10Aの画像と撮像画像CP2における重なり部分20Aの画像の各々に指示画像が含まれていない場合には、結合画像の生成が不要と判定し、この各々に指示画像が含まれている場合には、結合画像の生成が必要と判定する。
 制御装置1は、結合画像の生成が必要と判定した場合(ステップS2:YES)には、ステップS1にて取得した撮像画像CP1と撮像画像CP2を結合した結合画像を生成して(ステップS3)、ステップS4に処理を以降する。
 制御装置1は、結合画像の生成が不要と判定した場合(ステップS2:NO)には、ステップS1にて取得した撮像画像CP1と撮像画像CP2を非結合としてステップS4に処理を以降する。
 ステップS4において、制御装置1は、実行操作の検出処理を行う。制御装置1は、ステップS3の処理が行われていた場合には、結合画像に、指示画像と重なる操作部CTRが含まれているか否かを判定することで、実行操作の検出を行う。具体的には、制御装置1は、指示画像と重なる操作部CTRが結合画像に含まれている場合には、実行操作がなされたと判定し、指示画像と重なる操作部CTRが結合画像に含まれていない場合には、実行操作がなされていないと判定する。
 また、ステップS4において、制御装置1は、ステップS3の処理が行われていない場合には、ステップS1にて取得した撮像画像CP1における非重なり部分10Bの画像とステップS1にて取得した撮像画像CP2における非重なり部分20Bの画像のいずれかに、指示画像と重なる操作部CTRが含まれているか否かを判定することで、実行操作の検出を行う。具体的には、制御装置1は、上記いずれかの画像に、指示画像と重なる操作部CTRが含まれている場合には、実行操作がなされたと判定し、指示画像と重なる操作部CTRが含まれていない場合には、実行操作がなされていないと判定する。
 制御装置1は、ステップS4の処理の結果、実行操作がなされていると判定した場合(ステップS5:YES)には、既定制御を実行する(ステップS6)。
 具体的には、制御装置1は、投影対象画像の元となる表示用データに対し、実行を指示された既定制御に基づく効果を反映させる処理(例えば、明るさの変更、コントラストの変更、又は動画の再生等)を行って表示用データを更新する。そして、制御装置1は、更新後の表示用データから、第一投影装置P1用の第一表示用データと第二投影装置P2用の第二表示用データを新たに生成し(ステップS7)、これらを各投影装置に入力して、投影中の分割画像(投影対象画像)を更新する(ステップS8)。
 制御装置1は、ステップS4の処理の結果、実行操作がなされていないと判定した場合(ステップS5:NO)と、ステップS8の後には、ステップS1に処理を戻す。
 以上のように、制御装置1は、第一撮像部C1から取得した撮像画像CP1と第二撮像部C2から取得した撮像画像CP2とに基づいて、第一投影範囲10と第二投影範囲20との重なり部分10A(20A)に投影されている操作部CTRの操作がユーザによりなされたか否かを判定している。操作部CTRは、重なり部分10A(20A)に投影されているため、撮像画像CP1と撮像画像CP2のいずれにも含まれる。そのため、例えば、撮像画像CP1における重なり部分10Aの画像だけをモニタすることでも、重なり部分10A(20A)に投影されている操作部CTRの操作がユーザによりなされたか否かを判定することは可能である。
 ただし、この判定を高精度に行うためには、撮像画像CP1を高頻度に取得することが求められる。つまり、第一撮像部C1の撮像フレームレートの高速化が求められる。本実施形態では、撮像画像CP1と撮像画像CP2の撮像タイミングに差が設けられており、この差が、第一撮像部C1及び第二撮像部C2の各々の撮像間隔よりも短くなっている。
 このため、例えば、この撮像タイミングの差を第一撮像部C1における撮像間隔の半分にすれば、第一撮像部C1及び第二撮像部C2の撮像フレームレートをそれぞれ例えば30fps(flame per second)としても、撮像画像CP1と撮像画像CP2を60fpsの間隔にて取得することができる。これにより、高頻度にて重なり部分10A(20A)を撮像しながら、投影システム100における撮像部のコストを下げたり、処理負荷を軽減したりすることができる。したがって、重なり部分10A(20A)に投影された操作部CTRの操作の検出を、低コスト及び軽負荷にて、高精度に行うことができる。
 また、制御装置1は、撮像画像CP1における重なり部分10Aの画像と、撮像画像CP2における重なり部分20Aの画像との結合画像(図5の画像JP)に基づいて、操作部CTRの指示の有無を判定している。この構成によれば、例えば各画像に基づいて個別に操作部CTRの操作の有無を判定する場合と比較すると、操作部CTRの操作の2重検出を防ぐことができる。
 また、制御装置1は、図6のステップS2において、結合画像の生成の要否を判定し、生成が必要と判定した場合にのみ、結合画像を生成している。この構成によれば、結合画像を常に生成する必要がないため、制御装置1の処理負荷を軽減することができる。なお、図6のステップS2の処理を省略して、結合画像を常時生成する構成とすることも可能である。
 以下、投影システム100の変形例について説明する。
(第一変形例)
 制御装置1は、撮像画像CP1から重なり部分10Aの画像をトリミングし、撮像画像CP2から重なり部分20Aの画像をトリミングし、各トリミング画像を重ね合わせることで、結合画像J1を生成してもよい。この方法では、撮像画像CP1における重なり部分10Aの画像の各画素値と、撮像画像CP2における重なり部分20Aの画像の各画素値とが加算又は平均されて構成された上述の画像JPのみが結合画像J1として生成される。操作部CTRが、重なり部分10A(20A)にのみ投影されることを前提とすれば、この方法を採用することができる。この方法によれば、制御装置1の処理負荷を軽減することができる。
(第二変形例)
 制御装置1は、図6の動作において、ステップS2からステップS5の処理(すなわち実行操作の検出の処理)を行っている間に、ステップS1の処理(すなわち新たな撮像画像CP1,CP2の取得の処理)を並行して行ってもよい。この構成によれば、実行操作の検出処理を高速に行うことができる。
(第三変形例)
 投影システム100において、制御装置1は、第一投影装置P1と第二投影装置P2のいずれかに内蔵される構成であってもよい。また、投影システム100では、投影部と撮像部の各セットにおいて、投影部に撮像部が内蔵される構成であってもよい。これらの構成によれば、各部を繋ぐ配線を簡略化することができ、システム構築コストを下げることができる。例えば、第一投影装置P1と、第一撮像部C1と、制御装置1とを同一の装置で構成してメインの投影装置とし、このメインの投影装置によって、他のセットを制御する構成としてもよい。
(第四変形例)
 投影システム100は、投影部と撮像部のセットを更に1個以上増設することができてもよい。
 図7は、投影システム100の変形例である投影システム100Aの概略構成を示す模式図である。投影システム100Aは、投影部としての第三投影装置P3と、撮像部としての第三撮像部C3とのセットが追加された点を除いては、投影システム100と同じ構成である。
 第三投影装置P3の第三投影範囲30は、第二投影範囲20と一部が重なっている。第三撮像部C3は、第三投影範囲30を少なくとも撮像して、撮像画像CP3を制御装置1に送信する。
 第一撮像部C1と第二撮像部C2と第三撮像部C3の各々の撮像フレームレートは同じに設定され、且つ、第一撮像部C1、第二撮像部C2、第三撮像部C3の順に撮像が行われるようになっている。また、第二撮像部C2の撮像タイミングと第三撮像部C3の撮像タイミングとには僅かな差(閾値以下の差)が生じるよう設定されている。この差は、第一撮像部C1の撮像タイミングと第二撮像部C2の撮像タイミングの差と同じになっている。
 投影システム100Aにおいて、例えば、第一投影範囲10と第二投影範囲20の重なり部分に第一操作部CTR1が投影され、第二投影範囲20と第三投影範囲30の重なり部分に第二操作部CTR2が投影される状態を想定する。
 この状態では、制御装置1は、第一投影範囲10の撮像画像CP1と第二投影範囲20の撮像画像CP2を取得し、これらを結合した結合画像に基づいて、第一操作部CTR1に指示画像が重なるか否かを判定して、第一操作部CTR1に対する操作を検出する。
 また、制御装置1は、第二投影範囲20の撮像画像CP2と第三投影範囲30の撮像画像CP3を取得し、これらを結合した結合画像に基づいて、第二操作部CTR2に指示画像が重なるか否かを判定して、第二操作部CTR2に対する操作を検出する。そして、第一操作部CTR1に対する操作、又は、第二操作部CTR2に対する操作がなされていると判定した場合には、制御装置1は、既定制御を実行する。
 このように、3つ以上のセットによって更なる大画面表示を行う場合でも、投影範囲同士の重なり部分に投影される操作部に対する操作を、低コスト及び軽負荷にて、高精度に検出することができる。
 なお、投影システム100Aにおいて、例えば、第一投影範囲10と第二投影範囲20の重なり部分にのみ操作部CTRが投影され、第二投影範囲20と第三投影範囲30の重なり部分には操作部CTRが投影されていない状態も有り得る。この状態において、第一撮像部C1、第二撮像部C2、及び第三撮像部C3から順に取得された撮像画像の例を図8に示す。
 図8には、撮像画像CP1と、撮像画像CP2と、撮像画像CP3とが示されている。なお、撮像画像CP3は、第二投影範囲20と第三投影範囲30の重なり部分30Aの画像と、第三投影範囲30における第二投影範囲20と重なっていない非重なり部分30Bの画像とにより構成されている。図8の例では、撮像画像CP1における重なり部分10Aの画像と、撮像画像CP2における重なり部分20Aの画像とのそれぞれに操作部CTRが含まれている。
 図8に示す例では、撮像画像CP2における重なり部分30Aの画像と、撮像画像CP3における重なり部分30Aの画像とには、それぞれ操作部CTRが含まれていない。そのため、撮像画像CP2と撮像画像CP3の結合は必須ではない。一方、撮像画像CP1における重なり部分10Aの画像と、撮像画像CP2における重なり部分20Aの画像とには、それぞれ操作部CTRが含まれている。そのため、撮像画像CP1と撮像画像CP2の結合は必要である。
 したがって、制御装置1は、3つ以上のセットの各々の撮像部から撮像画像を取得した場合には、これら3つ以上の撮像画像のいずれか1つにおける重なり部分の画像に、操作部CTRが含まれていれば、結合画像の生成は必要と判定し、これら3つ以上の撮像画像の各々の重なり部分の画像に操作部CTRが含まれていなければ、結合画像の生成は不要と判定する。
 または、制御装置1は、3つ以上のセットの各々の撮像部から撮像画像を取得した場合には、これら3つ以上の撮像画像のいずれか1つにおける重なり部分の画像に、指示画像が含まれていれば、結合画像の生成は必要と判定し、これら3つ以上の撮像画像の各々の重なり部分の画像に指示画像が含まれていなければ、結合画像の生成は不要と判定してもよい。
 なお、図8の例では、結合画像の生成が必要と判定されるが、結合画像の生成にあたっては、撮像画像CP1と撮像画像CP2と撮像画像CP3をそれぞれ重なり部分同士で重ね合わせて結合する方法の他、撮像画像CP1と撮像画像CP2の結合処理のみを行い、撮像画像CP3については他の画像との結合を省略する方法を採用してもよい。
 また、投影システム100Aのように、投影部と撮像部のセットの数が増えると、結合画像の生成の要否の判定処理にかかる時間と演算量が増えることになる。そこで、投影システム100Aの制御装置1は、システム全体のセットの総数が閾値を超えている場合には、この判定処理を省略して、この判定処理によらずに、無条件にて、結合画像を生成するようにしてもよい。このようにすることで、制御装置1の処理負荷を軽減することができる。
(第五変形例)
 図9は、投影システム100の変形例である投影システム100Bの概略構成を示す模式図である。投影システム100Bは、投影部としての第三投影装置P3及び撮像部としての第三撮像部C3のセットと、投影部としての第四投影装置P4及び撮像部としての第四撮像部C4のセットと、が追加された点を除いては、投影システム100と同じ構成である。
 第一撮像部C1と第二撮像部C2と第三撮像部C3と第四撮像部C4の各々の撮像フレームレートは同じに設定され、且つ、第一撮像部C1、第二撮像部C2、第三撮像部C3、第四撮像部C4の順に撮像が行われるようになっている。また、第二撮像部C2の撮像タイミングと第三撮像部C3の撮像タイミングとには僅かな差(閾値以下の差)が生じるよう設定され、第三撮像部C3の撮像タイミングと第四撮像部C4の撮像タイミングとには僅かな差(閾値以下の差)が生じるよう設定されている。
 図10は、図9に示す投影システム100Bの各投影部の投影範囲を示す模式図である。図10に示すように、第一投影範囲10の右端と第二投影範囲20の左端が重なっている。また、第二投影範囲20の下端と第三投影装置P3の第三投影範囲30の上端が重なっている。また、第三投影範囲30の左端と第四投影装置P4の第四投影範囲40の右端が重なっている。また、第四投影範囲40の上端と第一投影範囲10の下端が重なっている。このように、投影システム100Bでは、第一投影範囲10、第二投影範囲20、第三投影範囲30、及び第四投影範囲40は、互いに重なる共通領域50を有する構成となっている。
 投影システム100Bにおいて、例えば、共通領域50に操作部CTRが投影される状態を想定する。この状態では、制御装置1は、第一投影範囲10の撮像画像CP1と、第二投影範囲20の撮像画像CP2と、第三投影範囲30の撮像画像CP3と、第四投影範囲40の撮像画像CP4を順次取得する。そして、制御装置1は、撮像画像CP1からCP4における少なくとも共通領域50の画像を結合した結合画像を生成し、この結合画像に基づいて、操作部CTRに指示画像が重なるか否かを判定して、操作部CTRに対する操作を検出する。
 このように、投影範囲を縦横に二次元状に配置して大画面表示を行う場合でも、投影範囲同士の重なり部分に投影される操作部に対する操作を、低コスト及び軽負荷にて、高精度に検出することができる。
(第六変形例)
 投影システム100の第一撮像部C1と第二撮像部C2を共通化して1つの撮像部(共通撮像部と記載)としてもよい。この場合、共通撮像部は、第一投影範囲10と第二投影範囲20の各々を少なくとも撮像可能に構成される。例えば、共通撮像部は、第一投影範囲10及び第二投影範囲20の各々とほぼ同等の範囲を撮像できるだけの画角を持ち、更に、撮像範囲を移動させることのできる機構(装置全体を移動させる首振り機構又は光学系に含まれるミラーによって光路変更させる機構等)を持つ。
 具体的には、共通撮像部は、第一投影範囲10を撮像した後、撮像範囲を移動させて第二投影範囲20を撮像し、その後、撮像範囲を元の位置に戻し、第一投影範囲10を撮像する、といった動作を繰り返すことで、前述の撮像画像CP1に相当する撮像画像cp1と、前述の撮像画像CP2に相当する撮像画像cp2と、を順次取得可能に構成される。制御装置1の機能は、実行操作の検出に用いる撮像画像が、撮像画像CP1から撮像画像cp1に変更され、撮像画像CP2から撮像画像cp2に変更される点を除いては、上述したのと同様である。
 以上説明してきたように、本明細書には少なくとも以下の事項が開示されている。
(1)
 複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御装置であって、
 上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、
 上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出部と、
 上記操作検出部によって上記操作がなされたと判定された場合に上記既定制御を実行する制御部と、を備える制御装置。
(2)
 (1)記載の制御装置であって、
 上記投影システムは、上記投影部とその投影部の投影範囲を少なくとも撮像する上記撮像部の複数のセットを有する制御装置。
(3)
 (2)記載の制御装置であって、
 上記操作検出部は、共通の上記重なり部分を持つ複数の上記セットの組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像に基づいて上記操作を検出する制御装置。
(4)
 (3)記載の制御装置であって、
 上記組の各々の上記撮像部の撮像画像は、異なるタイミングにて撮像して得られたものである制御装置。
(5)
 (4)記載の制御装置であって、
 上記組の各々の上記撮像部の撮像画像は、上記タイミングの差が閾値以下となるものである制御装置。
(6)
 (3)から(5)のいずれか1つに記載の制御装置であって、
 上記組は、全ての上記セットを含む制御装置。
(7)
 (3)から(6)のいずれか1つに記載の制御装置であって、
 上記操作検出部は、上記組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像を結合した結合画像を生成し、上記結合画像に基づいて上記操作を検出する制御装置。
(8)
 (7)記載の制御装置であって、
 上記操作検出部は、上記組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像を加算して上記結合画像を生成する制御装置。
(9)
 (7)又は(8)記載の制御装置であって、
 上記操作検出部は、上記結合画像の生成要否を判定し、生成が必要と判定した場合に上記結合画像の生成を行う制御装置。
(10)
 (9)記載の制御装置であって、
 上記操作検出部は、上記組の各々の上記撮像部の撮像画像における上記重なり部分に特定の画像が含まれている場合に、上記結合画像の生成が必要と判定する制御装置。
(11)
 (9)記載の制御装置であって、
 上記操作検出部は、全ての上記セットのうちのいずれか1つの上記撮像部の撮像画像における上記重なり部分に特定の画像が含まれている場合に、上記結合画像の生成が必要と判定する制御装置。
(12)
 (10)又は(11)記載の制御装置であって、
 上記特定の画像は、上記投影部から投影される画像に含まれるアイコンである制御装置。
(13)
 (10)又は(11)記載の制御装置であって、
 上記特定の画像は、上記投影部と上記投影範囲の間に存在する物体である制御装置。
(14)
 (9)から(13)のいずれか1つに記載の制御装置であって、
 上記操作検出部は、上記セットの総数が閾値を超えている場合には、上記結合画像の生成要否の判定処理を省略して、上記判定処理によらずに上記結合画像の生成を行う制御装置。
(15)
 (3)から(14)のいずれか1つに記載の制御装置であって、
 上記操作検出部は、上記組の上記撮像部からの上記撮像画像の取得と、上記操作の検出とを並行して行う制御装置。
(16)
 (1)から(15)のいずれか1つに記載の制御装置と、
 上記投影部と、
 上記撮像部と、を備える投影装置。
(17)
 複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御方法であって、
 上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、
 上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、
 上記操作検出ステップによって上記操作がなされたと判定された場合に上記既定制御を実行する制御ステップと、を含む制御方法。
(18)
 (17)記載の制御方法であって、
 上記投影システムは、上記投影部とその投影部の投影範囲を少なくとも撮像する上記撮像部の複数のセットを有する制御方法。
(19)
 (18)記載の制御方法であって、
 上記操作検出ステップにおいて、共通の上記重なり部分を持つ複数の上記セットの組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像に基づいて上記操作を検出する制御方法。
(20)
 (19)記載の制御方法であって、
 上記組の各々の上記撮像部の撮像画像は、異なるタイミングにて撮像して得られたものである制御方法。
(21)
 (20)記載の制御方法であって、
 上記組の各々の上記撮像部の撮像画像は、上記タイミングの差が閾値以下となるものである制御方法。
(22)
 (19)から(21)のいずれか1つに記載の制御方法であって、
 上記組は、全ての上記セットを含む制御方法。
(23)
 (19)から(22)のいずれか1つに記載の制御方法であって、
 上記操作検出ステップにおいて、上記組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像を結合した結合画像を生成し、上記結合画像に基づいて上記操作を検出する制御方法。
(24)
 (23)記載の制御方法であって、
 上記操作検出ステップにおいて、上記組の各々の上記撮像部の撮像画像における少なくとも上記重なり部分の画像を加算して上記結合画像を生成する制御方法。
(25)
 (23)又は(24)記載の制御方法であって、
 上記操作検出ステップにおいて、上記結合画像の生成要否を判定し、生成が必要と判定した場合に上記結合画像の生成を行う制御方法。
(26)
 (25)記載の制御方法であって、
 上記操作検出ステップにおいて、上記組の各々の上記撮像部の撮像画像における上記重なり部分に特定の画像が含まれている場合に、上記結合画像の生成が必要と判定する制御方法。
(27)
 (25)記載の制御方法であって、
 上記操作検出ステップにおいて、全ての上記セットのうちのいずれか1つの上記撮像部の撮像画像における上記重なり部分に特定の画像が含まれている場合に、上記結合画像の生成が必要と判定する制御方法。
(28)
 (26)又は(27)記載の制御方法であって、
 上記特定の画像は、上記投影部から投影される画像に含まれるアイコンである制御方法。
(29)
 (26)又は(27)記載の制御方法であって、
 上記特定の画像は、上記投影部と上記投影範囲の間に存在する物体である制御方法。
(30)
 (25)から(29)のいずれか1つに記載の制御方法であって、
 上記操作検出ステップにおいて、上記セットの総数が閾値を超えている場合には、上記結合画像の生成要否の判定処理を省略して、上記判定処理によらずに上記結合画像の生成を行う制御方法。
(31)
 (19)から(30)のいずれか1つに記載の制御方法であって、
 上記操作検出ステップにおいて、上記組の上記撮像部からの上記撮像画像の取得と、上記操作の検出とを並行して行う制御方法。
(32)
 複数の投影部と上記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御プログラムであって、
 上記複数の投影部の各々の投影範囲は、他の上記投影部の投影範囲と一部重なる重なり部分を含み、
 上記撮像部で撮像された共通の上記重なり部分を持つ複数の上記投影範囲の各々の撮像画像における少なくとも上記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、
 上記操作検出ステップによって上記操作がなされたと判定された場合に上記既定制御を実行する制御ステップと、をコンピュータに実行させるための制御プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年10月31日出願の日本特許出願(特願2019-198646)に基づくものであり、その内容は本出願の中に参照として援用される。
1 制御装置
1a 記憶媒体
P1 第一投影装置
C1 第一撮像部
P2 第二投影装置
C2 第二撮像部
10 第一投影範囲
20 第二投影範囲
10A,20A,30A 重なり部分
10B,20B,30B 非重なり部分
10G 第一分割画像
10a 第一重畳領域
10b 第一非重畳領域
20G 第二分割画像
20a 第二重畳領域
20b 第二非重畳領域
CP1,CP2,CP3,CP4 撮像画像
D 表示用データ
D1 第一表示用データ
D2 第二表示用データ
J1 結合画像
JP 画像
CTR 操作部
CTR1 第一操作部
CTR2 第二操作部
P3 第三投影装置
C3 第三撮像部
P4 第四投影装置
C4 第四撮像部
30 第三投影範囲
40 第四投影範囲
50 共通領域
100A,100B,100 投影システム
SC スクリーン
 

Claims (32)

  1.  複数の投影部と前記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御装置であって、
     前記複数の投影部の各々の投影範囲は、他の前記投影部の投影範囲と一部重なる重なり部分を含み、
     前記撮像部で撮像された共通の前記重なり部分を持つ複数の前記投影範囲の各々の撮像画像における少なくとも前記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出部と、
     前記操作検出部によって前記操作がなされたと判定された場合に前記既定制御を実行する制御部と、を備える制御装置。
  2.  請求項1記載の制御装置であって、
     前記投影システムは、前記投影部と当該投影部の投影範囲を少なくとも撮像する前記撮像部の複数のセットを有する制御装置。 
  3.  請求項2記載の制御装置であって、
     前記操作検出部は、共通の前記重なり部分を持つ複数の前記セットの組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像に基づいて前記操作を検出する制御装置。
  4.  請求項3記載の制御装置であって、
     前記組の各々の前記撮像部の撮像画像は、異なるタイミングにて撮像して得られたものである制御装置。
  5.  請求項4記載の制御装置であって、
     前記組の各々の前記撮像部の撮像画像は、前記タイミングの差が閾値以下となるものである制御装置。
  6.  請求項3から5のいずれか1項記載の制御装置であって、
     前記組は、全ての前記セットを含む制御装置。
  7.  請求項3から6のいずれか1項記載の制御装置であって、
     前記操作検出部は、前記組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像を結合した結合画像を生成し、前記結合画像に基づいて前記操作を検出する制御装置。
  8.  請求項7記載の制御装置であって、
     前記操作検出部は、前記組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像を加算して前記結合画像を生成する制御装置。
  9.  請求項7又は8記載の制御装置であって、
     前記操作検出部は、前記結合画像の生成要否を判定し、生成が必要と判定した場合に前記結合画像の生成を行う制御装置。
  10.  請求項9記載の制御装置であって、
     前記操作検出部は、前記組の各々の前記撮像部の撮像画像における前記重なり部分に特定の画像が含まれている場合に、前記結合画像の生成が必要と判定する制御装置。
  11.  請求項9記載の制御装置であって、
     前記操作検出部は、全ての前記セットのうちのいずれか1つの前記撮像部の撮像画像における前記重なり部分に特定の画像が含まれている場合に、前記結合画像の生成が必要と判定する制御装置。
  12.  請求項10又は11記載の制御装置であって、
     前記特定の画像は、前記投影部から投影される画像に含まれるアイコンである制御装置。
  13.  請求項10又は11記載の制御装置であって、
     前記特定の画像は、前記投影部と前記投影範囲の間に存在する物体である制御装置。
  14.  請求項9から13のいずれか1項記載の制御装置であって、
     前記操作検出部は、前記セットの総数が閾値を超えている場合には、前記結合画像の生成要否の判定処理を省略して、前記判定処理によらずに前記結合画像の生成を行う制御装置。
  15.  請求項3から14のいずれか1項記載の制御装置であって、
     前記操作検出部は、前記組の前記撮像部からの前記撮像画像の取得と、前記操作の検出とを並行して行う制御装置。
  16.  請求項1から15のいずれか1項記載の制御装置と、
     前記投影部と、
     前記撮像部と、を備える投影装置。
  17.  複数の投影部と前記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御方法であって、
     前記複数の投影部の各々の投影範囲は、他の前記投影部の投影範囲と一部重なる重なり部分を含み、
     前記撮像部で撮像された共通の前記重なり部分を持つ複数の前記投影範囲の各々の撮像画像における少なくとも前記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、
     前記操作検出ステップによって前記操作がなされたと判定された場合に前記既定制御を実行する制御ステップと、を含む制御方法。
  18.  請求項17記載の制御方法であって、
     前記投影システムは、前記投影部と当該投影部の投影範囲を少なくとも撮像する前記撮像部の複数のセットを有する制御方法。
  19.  請求項18記載の制御方法であって、
     前記操作検出ステップにおいて、共通の前記重なり部分を持つ複数の前記セットの組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像に基づいて前記操作を検出する制御方法。
  20.  請求項19記載の制御方法であって、
     前記組の各々の前記撮像部の撮像画像は、異なるタイミングにて撮像して得られたものである制御方法。
  21.  請求項20記載の制御方法であって、
     前記組の各々の前記撮像部の撮像画像は、前記タイミングの差が閾値以下となるものである制御方法。
  22.  請求項19から21のいずれか1項記載の制御方法であって、
     前記組は、全ての前記セットを含む制御方法。
  23.  請求項19から22のいずれか1項記載の制御方法であって、
     前記操作検出ステップにおいて、前記組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像を結合した結合画像を生成し、前記結合画像に基づいて前記操作を検出する制御方法。
  24.  請求項23記載の制御方法であって、
     前記操作検出ステップにおいて、前記組の各々の前記撮像部の撮像画像における少なくとも前記重なり部分の画像を加算して前記結合画像を生成する制御方法。
  25.  請求項23又は24記載の制御方法であって、
     前記操作検出ステップにおいて、前記結合画像の生成要否を判定し、生成が必要と判定した場合に前記結合画像の生成を行う制御方法。
  26.  請求項25記載の制御方法であって、
     前記操作検出ステップにおいて、前記組の各々の前記撮像部の撮像画像における前記重なり部分に特定の画像が含まれている場合に、前記結合画像の生成が必要と判定する制御方法。
  27.  請求項25記載の制御方法であって、
     前記操作検出ステップにおいて、全ての前記セットのうちのいずれか1つの前記撮像部の撮像画像における前記重なり部分に特定の画像が含まれている場合に、前記結合画像の生成が必要と判定する制御方法。
  28.  請求項26又は27記載の制御方法であって、
     前記特定の画像は、前記投影部から投影される画像に含まれるアイコンである制御方法。
  29.  請求項26又は27記載の制御方法であって、
     前記特定の画像は、前記投影部と前記投影範囲の間に存在する物体である制御方法。
  30.  請求項25から29のいずれか1項記載の制御方法であって、
     前記操作検出ステップにおいて、前記セットの総数が閾値を超えている場合には、前記結合画像の生成要否の判定処理を省略して、前記判定処理によらずに前記結合画像の生成を行う制御方法。
  31.  請求項19から30のいずれか1項記載の制御方法であって、
     前記操作検出ステップにおいて、前記組の前記撮像部からの前記撮像画像の取得と、前記操作の検出とを並行して行う制御方法。
  32.  複数の投影部と前記複数の投影部の各々の投影範囲を少なくとも撮像する撮像部と、を有する投影システムの制御プログラムであって、
     前記複数の投影部の各々の投影範囲は、他の前記投影部の投影範囲と一部重なる重なり部分を含み、
     前記撮像部で撮像された共通の前記重なり部分を持つ複数の前記投影範囲の各々の撮像画像における少なくとも前記重なり部分の画像に基づいて、既定制御の実行を指示する操作を検出する操作検出ステップと、
     前記操作検出ステップによって前記操作がなされたと判定された場合に前記既定制御を実行する制御ステップと、をコンピュータに実行させるための制御プログラム。
     
PCT/JP2020/040506 2019-10-31 2020-10-28 制御装置、投影装置、制御方法、制御プログラム WO2021085499A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021553667A JP7356512B2 (ja) 2019-10-31 2020-10-28 制御装置、投影装置、制御方法、制御プログラム
US17/733,357 US11800071B2 (en) 2019-10-31 2022-04-29 Control device, projection apparatus, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-198646 2019-10-31
JP2019198646 2019-10-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/733,357 Continuation US11800071B2 (en) 2019-10-31 2022-04-29 Control device, projection apparatus, control method, and control program

Publications (1)

Publication Number Publication Date
WO2021085499A1 true WO2021085499A1 (ja) 2021-05-06

Family

ID=75716028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040506 WO2021085499A1 (ja) 2019-10-31 2020-10-28 制御装置、投影装置、制御方法、制御プログラム

Country Status (3)

Country Link
US (1) US11800071B2 (ja)
JP (1) JP7356512B2 (ja)
WO (1) WO2021085499A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195220A1 (ja) * 2019-03-27 2020-10-01 富士フイルム株式会社 画像処理装置、投影システム、画像処理方法、及び画像処理プログラム
JP2023020648A (ja) * 2021-07-30 2023-02-09 富士フイルム株式会社 制御装置、制御方法、投影システム、及び制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161752A (ja) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 画像処理装置、表示装置、及び、画像処理方法
JP2017191974A (ja) * 2016-04-11 2017-10-19 セイコーエプソン株式会社 投写システム、制御装置及び制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103880A (ja) * 2013-11-21 2015-06-04 株式会社リコー マルチプロジェクションシステム、およびマルチプロジェクションシステムの制御方法
JP6361122B2 (ja) 2013-12-03 2018-07-25 株式会社リコー マルチプロジェクションシステム、およびマルチプロジェクションシステムの制御方法
JP6728914B2 (ja) 2016-04-11 2020-07-22 セイコーエプソン株式会社 投写システム、及びプロジェクターの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161752A (ja) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 画像処理装置、表示装置、及び、画像処理方法
JP2017191974A (ja) * 2016-04-11 2017-10-19 セイコーエプソン株式会社 投写システム、制御装置及び制御方法

Also Published As

Publication number Publication date
US11800071B2 (en) 2023-10-24
JP7356512B2 (ja) 2023-10-04
US20220264063A1 (en) 2022-08-18
JPWO2021085499A1 (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
US8953091B2 (en) Apparatus and method for adjusting focal point by using imaging device for outputting phase difference signal
US9525833B2 (en) Imaging device for phase difference detection
US8780200B2 (en) Imaging apparatus and image capturing method which combine a first image with a second image having a wider view
US9344620B2 (en) Imaging device and method for controlling same
WO2021085499A1 (ja) 制御装置、投影装置、制御方法、制御プログラム
US9538067B2 (en) Imaging sensor capable of detecting phase difference of focus
TWI639049B (zh) 資訊處理裝置、投影機及資訊處理方法
US10686979B2 (en) Control apparatus and control method
US10785402B2 (en) Imaging device and focusing control method of imaging device
US11954290B2 (en) Imaging apparatus, imaging method, and program
JP5797003B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP5517705B2 (ja) 投影装置
TW202002606A (zh) 影像擷取裝置與其操作方法
US11792519B2 (en) Imaging element, imaging apparatus, image data processing method, and program that performs imaging in a first frame rate and outputs data in a second frame rate
JP2014224841A (ja) 映像投写システム
JP2021019288A (ja) 撮像装置およびその制御方法
US11647278B2 (en) Imaging apparatus
JP2015109560A (ja) 表示システム、表示制御装置及び方法
JP7145444B2 (ja) 投影システム、投影調整プログラム及び投影方法
JP7149915B2 (ja) 投影装置、投影方法及びプログラム
JP6960522B2 (ja) 投影制御装置、投影制御方法、投影制御プログラム、投影システム
JP2021039164A (ja) 投影装置、投影方法及びプログラム
JP2021158446A (ja) 画像投影装置、画像投影方法及びプログラム
JP2020184697A (ja) 撮像装置およびその制御方法
JP2010226593A (ja) 多眼撮影装置、スルー画像表示方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20882571

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2021553667

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20882571

Country of ref document: EP

Kind code of ref document: A1