WO2009104550A1 - 光投影装置、照明装置 - Google Patents

光投影装置、照明装置 Download PDF

Info

Publication number
WO2009104550A1
WO2009104550A1 PCT/JP2009/052533 JP2009052533W WO2009104550A1 WO 2009104550 A1 WO2009104550 A1 WO 2009104550A1 JP 2009052533 W JP2009052533 W JP 2009052533W WO 2009104550 A1 WO2009104550 A1 WO 2009104550A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
light
data
reference image
range
Prior art date
Application number
PCT/JP2009/052533
Other languages
English (en)
French (fr)
Inventor
河村 亮
Original Assignee
パナソニック電工株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック電工株式会社 filed Critical パナソニック電工株式会社
Priority to CN200980105743.2A priority Critical patent/CN101946117B/zh
Priority to EP09711747.7A priority patent/EP2246610A4/en
Priority to KR1020107018070A priority patent/KR101187500B1/ko
Priority to US12/867,576 priority patent/US8899760B2/en
Publication of WO2009104550A1 publication Critical patent/WO2009104550A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3197Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using light modulating optical valves

Definitions

  • the present invention relates to an optical projection apparatus and an illumination apparatus that project light only to a place desired by a user.
  • Non-Patent Document 1 As a lighting device that changes the shape of projection light, a filter called a gobo or a mask is installed in the projection device, and projection light is emitted from the projection device. The projected projection part is shielded from light. As a result, the projection light that has passed through the filter is cut into a specific shape.
  • a filter (gobo or the like) cut out in a base shape composed of circles, triangles, squares, and the like is attached to a projection device to shape the contour of projection light.
  • the projection position of the projection light emitted from the projection device is adjusted to the specific location, and then roughly divided by the aperture function and zoom function of the projection device. The shape of the projection light is adjusted.
  • an illumination system that performs a space effect by using a projector, which is a projection device, instead of a lighting fixture (light).
  • the lighting fixture used for this lighting system is also called a moving projector.
  • This moving projector emits image light as projection light. For this reason, the shape and color of the projection light can be freely set and changed as a moving image.
  • the shape filter, aperture, and zoom prepared in advance are used, it is only possible to roughly match the shape of the projection light to the object to be projected.
  • the base shape can be matched with the shape of the object to be projected, so that highly accurate shape matching is possible.
  • the base shape is created as a two-dimensional shape. For this reason, when an arbitrary-shaped projection object is viewed from different directions, it is necessary to use different base shapes, and a plurality of projection devices arranged at different positions simultaneously project projection light toward the projection object. It is difficult to divert to the technology to project.
  • the present invention has been proposed in view of the above-described circumstances, and an object thereof is to provide a light projection device and an illumination device that can project light in a shape desired by a user with a simple operation.
  • JP 2006-338181 A http://www.egghouse.com/gobo/about.htm http://www.ushiolighting.co.jp/product/productimage/pdf/dl2.pdf
  • an optical projection apparatus is an optical projection apparatus that projects light onto an arbitrary space and an object set in the space, and is a projection light that specifies the projection light.
  • Projection light data generation means for generating data, a projection range for projecting light according to a user operation, a projection range setting means for setting a non-projection range for not projecting light, and a projection range set by the projection range setting means
  • a projection data correction unit that corrects projection light data so as to project light onto the projection light
  • a projection light correction data drawing unit that performs drawing processing of the projection light correction data corrected by the projection data correction unit, and a projection light data drawing unit.
  • Light projection means for projecting light using the generated projection light drawing data.
  • the projection light data generation means may specify elements including illuminance, brightness, luminous intensity, luminous flux, color temperature, and color rendering properties of the projection light.
  • the projection light data generation means may further divide the projection range set by the projection range setting means and specify the light characteristics for each of the divided projection ranges.
  • the present invention may include shape drawing input means for drawing and inputting an arbitrary shape in accordance with a user operation, and the projection range setting means may use the shape input by the shape drawing input means as the projection range.
  • the present invention relates to a reference image data generating unit that generates reference image data for generating a reference image formed in a lattice shape, a reference image drawing unit that performs a drawing process of the reference image data generated by the reference image data generating unit, and A reference image projection means for projecting light using the reference image drawing data drawn by the reference image drawing means, and a display means for displaying the reference image drawing data drawn by the reference image drawing means.
  • the reference image may be projected on the target space and the object.
  • the present invention relates to a reference image projection parameter input means for inputting parameters including the position and orientation and specifications of the reference image projection means, and an operation position parameter for inputting parameters including a user's operation position for setting the projection range by the projection range setting means.
  • a reference image projection parameter input means for inputting parameters including the position and orientation and specifications of the reference image projection means
  • an operation position parameter for inputting parameters including a user's operation position for setting the projection range by the projection range setting means.
  • the present invention relates to a flat screen for displaying a reference image projected from the reference image projecting means, a photographing means for photographing a reference image displayed on the flat screen, photographing data photographed by the photographing means, and a reference image Reference image distortion correcting means for distorting the reference image projected from the reference image projecting means so as to match the reference image generated by the data generating means may be provided.
  • the present invention includes a projection range identification condition setting unit that inputs a condition for specifying a projection range, and a projection range identification unit that identifies a projection range according to the condition input by the projection range identification condition setting unit.
  • the projection light data may be corrected corresponding to the projection range identified by, and light may be projected from the light projection means.
  • the present invention provides an imaging unit having a space including the projection range of the light projection unit as an imaging range, an imaging data display unit for displaying imaging data captured by the imaging unit, and a parameter including the position and orientation of the imaging unit and specifications.
  • Virtual plane input means for inputting parameters including the position and orientation and size of the area, parameters including the position and orientation and specifications of the imaging means, parameters including the position and orientation and specifications of the light projection means, and position and orientation and size of the virtual plane area
  • the projection light data is corrected so that the projection light matches the photographing range of the photographing means on the virtual plane based on the parameters including That may be provided with a projection light data correction means.
  • a projection range extraction setting unit that sets a condition for extracting a projection range, and shooting data generated by the shooting unit according to the conditions set by the projection range extraction setting unit are analyzed to determine the projection range and the projection range.
  • the projection light data correction unit may correct the projection light data based on the projection range and the non-projection range classified by the separation unit.
  • the present invention may include projection range correction means for correcting the boundary of the projection range in accordance with a user operation.
  • the present invention includes a projection light data storage unit that stores projection light data, and a projection light data output setting unit that sets at least one of an output order or an output condition of the projection light data stored in the projection light data storage unit.
  • Projection light data updating means for outputting the projection light data stored in the projection light data storage means in accordance with at least one of the output order and the output condition set by the projection light data output setting means.
  • the present invention provides at least an output order or output of projection range parameter storage means for storing projection range parameters for correcting projection light data by the projection light data correction means, and projection range parameters stored in the projection range parameter storage means.
  • Projection range output setting means for setting any of the conditions, and projection for outputting the projection range parameters stored in the projection range parameter storage means in accordance with at least one of the output order or the output conditions set by the projection range output setting means Range parameter updating means may be provided.
  • the present invention provides a projection light correction data storage unit for storing projection light correction data corrected by the projection light data correction unit, and at least an output order or an output condition of the projection light data stored in the projection light correction data storage unit.
  • Projection light data stored in the projection light correction data storage unit according to at least one of the output order or the output conditions set by the projection light correction light data output setting unit and the projection light correction data output setting unit. May be provided with projection light data updating means for outputting.
  • the present invention includes a reference image data storage unit that stores reference image data, a reference image data output setting unit that sets at least one of an output order or an output condition of the reference image data stored in the reference image data storage unit, and And a reference image update means for outputting the reference image data stored in the reference image data storage means in accordance with at least one of the output order and the output condition set by the reference image data output setting means.
  • the present invention stores projection light drawing data storage means for saving projection light drawing data generated by the projection light correction data drawing means, and stores projection light drawing data stored in the projection light drawing data storage means in an external storage medium. And an external storage means for outputting the projection light drawing data stored in the external storage medium to the light projection means.
  • the present invention may include a plurality of light projection means.
  • the projection light data is video data representing a video
  • the projection range setting means sets a video projection range and a non-projection range in which the video is projected
  • the projection light data correction means is in the video projection range.
  • the video data may be corrected so as to project the video
  • the projection light correction data drawing means may perform the drawing process of the corrected video data
  • the light projection means may project the video on the video projection range.
  • the present invention may be a lighting device having any one of the configurations described above.
  • the illumination system shown as 5th Embodiment of this invention it is a figure which shows a mode that distortion generate
  • a mode that the distortion of a projection range is correct
  • the illumination system shown as 5th Embodiment of this invention it is a figure which shows a mode that the projection range was formed in the projection range after correction
  • the illumination system shown as 5th Embodiment of this invention it is a figure which shows a user's viewpoint position, viewing angle, and distance with respect to a flat irradiated object.
  • the illumination system shown as 5th Embodiment of this invention it is a figure explaining the image
  • the illumination system shown as 5th Embodiment of this invention it is a figure which shows the projection position of the irradiation light projection part with respect to a flat irradiated object, a projection angle of view, and distance.
  • the illumination system shown as 5th Embodiment of this invention it is a figure explaining a mode that light projection is performed from the irradiation light projection part to the flat irradiation object.
  • the illumination system shown as 5th Embodiment of this invention it is a figure explaining the image
  • the illumination system shown as 5th Embodiment of this invention it is a figure explaining a mode that light projection is performed from the irradiation light projection part to a dome-shaped irradiated object.
  • the illumination system shown as 9th Embodiment of this invention it is a figure which shows a mode that the image imaged with the camera apparatus was displayed on the liquid crystal panel. It is a perspective view which shows the specific operation state of the illumination system shown as 9th Embodiment of this invention. It is a figure which shows a mode that the blue sheet was arrange
  • FIG. 9th Embodiment of this invention It is a perspective view which shows a mode that the dotted
  • the illumination system shown as 9th Embodiment of this invention it is a perspective view which shows the specific operation state when making a predetermined range into a projection range centering on a dotted
  • the illumination system shown as 9th Embodiment of this invention it is a perspective view which shows a mode that the linear marker was affixed on the to-be-projected object.
  • the illumination system shown as 9th Embodiment of this invention it is a perspective view which shows the specific operation state when making a predetermined range into a projection range centering on a linear marker.
  • the present invention is applied to, for example, the illumination system shown as the first embodiment configured as shown in FIGS. 1 to 3.
  • the illumination system includes an illumination control device 1 and a projector 2 that operates under the control of the illumination control device 1.
  • This illumination system projects light from the projector 2 only on a specific object or space only by a simple operation of the user.
  • the illumination system projects the projection light 2a in the projectable range 2b from the projector 2, and the projection objects 3a and 3b (hereinafter simply referred to as the projection target). Only the specific projection ranges 2c and 2d (hereinafter also referred to simply as the projection range 2c when collectively referred to) can be projected brightly.
  • the projection light 2a includes projection light that projects the projection ranges 2c and 2d brightly and non-projection light that is projected toward the background.
  • the illumination control device 1 is capable of projecting the projection light 2a according to a user's operation and a projection light data generation unit 11 as projection light data generation means for generating projection light data (projection light data) for specifying the projection light 2a.
  • Projection light is projected onto the projection range setting unit 12 as projection range setting means for setting the projection ranges 2c and 2d and the non-projection range in the range 2b, and the projection ranges 2c and 2d set by the projection range setting unit 12.
  • the projection light data correction unit 13 as a projection light data correction unit for correcting the projection light data input by the projection light data generation unit 11 and the projection light corrected by the trimming (correction) processing by the projection light data correction unit 13.
  • a projection light correction data drawing unit 14 as projection light data drawing means for performing correction data drawing processing.
  • the projector 2 functions as light projection means for generating projection light for projecting projection light onto the projection range, using the projection light drawing data generated by the projection light correction data drawing unit 14.
  • the projection light data generation unit 11 includes a playback device that reproduces a DVD, a hard disk device that stores various projection light data 11a, and the like.
  • the projection light data generation unit 11 supplies the projection light data 11a to the projection light data correction unit 13 in accordance with a user operation or the like.
  • the projection light data generation unit 11 sets characteristic information for specifying the projection light projected onto the projection ranges 2c and 2d included in the projection light 2a and the non-projection light projected onto the non-projection range.
  • the characteristic information includes elements including illuminance, luminance, luminous intensity, luminous flux, color temperature, and color rendering properties of projection light, and each element can be specified. Then, the projection light data generation unit 11 generates the projection light data 11 a specified by the characteristic information and outputs it to the projection light data correction unit 13.
  • the projection range setting unit 12 includes a memory that stores a projection range parameter 12a for specifying a projection range and a non-projection range.
  • the projection range parameter 12a is data representing a projection range 2c or a non-projection range in which light is projected by coordinates in the projectable range 2b of the projector 2.
  • the projection range setting unit 12 supplies a projection range parameter created in advance to the projection light data correction unit 13 as necessary.
  • the projection light data correction unit 13 sets the projection range 2c by using the projection light data 11a supplied from the projection light data generation unit 11 and the projection range parameter 12a supplied from the projection range setting unit 12. By setting the projection range 2c, the projection light data correction unit 13 can set a non-projection range.
  • the projection light data correction unit 13 performs a trimming process on the projection light data 11a in order to set the projection range 2c. Specifically, the projection light data correction unit 13 determines a range of projection light in the projection light 2a that brightens the projection range 2c. Then, only the portion corresponding to the projection range 2c in the projection light 2a is set as the color and brightness of the projection light determined by the projection light data generation unit 11. On the other hand, the projection light data correction unit 13 sets the portion corresponding to the non-projection range other than the projection range 2c in the projection light 2a as the color and brightness of the non-projection light determined by the projection light data generation unit 11. The correction data of the projection light data 11a created in this way is supplied to the projection light correction data drawing unit 14 as projection light correction data 13a.
  • the projection light correction data drawing unit 14 performs a drawing process using the projection light correction data 13 a supplied from the projection light data correction unit 13 and outputs the projection light drawing data 14 a to the projector 2. Thereby, the illumination control apparatus 1 drives the projector 2 by the projection light drawing data 14a.
  • the periphery of the projection object 3 can be a projection range 2c, and the wall surface 3 'can be a non-projection range.
  • the projection range 2c can be set simply by preparing the projection range parameter 12a in advance, and the setting operation and the projection operation of the projection light trimmed in real time can be realized. Can do.
  • the projection light data generation unit 11 further divides the projection range 2c set by the projection range setting unit 12, and designates the light characteristics for each of the divided projection ranges 2c. is there.
  • the projection light data generation unit 11 outputs projection light data 11a for each range obtained by dividing the projection range 2c within the projectable range 2b.
  • the projection light data generation unit 11 outputs a plurality of projection light data 11a having different elements including the illuminance, luminance, luminous intensity, luminous flux, color temperature, and color rendering properties of the projection light as light characteristics.
  • the plurality of projection light data 11a having different characteristics may be stored in advance, or may be generated by changing the characteristics by image processing of the projection light data generation unit 11.
  • the projection range setting unit 12 supplies the projection range data 12 a projection range parameter 12 a indicating each range obtained by dividing the projection range 2 c to the projection light data correction unit 13.
  • the projection light data correction unit 13 corrects the projection light data generation unit 11 so that each of the plurality of projection ranges 2c divided by the projection range parameter 12a can be projected with different light, and the projection light data The correction data 13a is created.
  • the projection light data 11a includes projection light data 11a for light projected onto the projection range 2c-1 and projection light data 11a for light projected onto the projection range 2c-2.
  • the projection range parameter 12a includes a projection range parameter 12a that represents the projection range 2c-1 of the projectable range 2b by coordinate data, and a projection that represents the projection range 2c-2 of the projectable range 2b by coordinate data. It consists of a range parameter 12a.
  • the projection light data 11a is prepared for each divided projection range 2c, and the desired projection light 2a is projected onto a plurality of projection ranges 2c in the projectable range 2b. be able to.
  • the illumination system according to the third embodiment includes a shape drawing input unit 20 that draws and inputs an arbitrary shape according to a user's operation, and is input to the projection range setting unit 12 with the shape drawing input unit 20.
  • the formed shape is used as the projection range 2c.
  • the shape drawing input unit 20 includes a pen tablet system including a pointing device such as a mouse, a liquid crystal panel configured as a display unit of the monitor device 21, and a pen operated by the user.
  • a pen tablet system including a pointing device such as a mouse, a liquid crystal panel configured as a display unit of the monitor device 21, and a pen operated by the user.
  • the entire screen of the liquid crystal panel corresponds to the entire range of the projectable range 2b.
  • the shape drawing input unit 20 generates trajectory information of pen pressure applied to the liquid crystal panel by the pen.
  • the writing pressure trajectory information is converted into a projection range parameter 12a representing the contour of the projection range 2c (trimming region) by the projector 2.
  • the projection range parameter 12 a is supplied from the projection range setting unit 12 to the projection light data correction unit 13, and the projection light data correction unit 13 corrects the projection light data 11 a based on the projection range parameter 12 a to obtain a projection range. 2c can be changed.
  • FIG. 7 when the shape drawing input unit 20 is a mouse and the projection light 2a is actually projected onto the projection object 3 to form the projection range 2c-1 and the projection range 2c-2, It shows how the projection range 2c-1 can be changed while moving.
  • the desired projection range 2c in the projectable range 2b is emphasized only by the user operating the shape drawing input unit 20 and designating the outline of the desired projection range 2c.
  • the projection light 2a can be projected.
  • the projection range 2c can be set so as to draw a picture on the spot while actually looking at the projection object 3. It is possible to realize the setting operation, projection operation, and correction operation of the projection range 2c in real time.
  • the projection range setting unit 12 may be configured to write the contour of the projection range 2c directly on the liquid crystal panel, but is not limited thereto.
  • a base shape (circle, ellipse, square, polygon, star shape, etc.) created in advance may be arranged at an arbitrary location, and the projection range 2c may be set.
  • the projection range 2c may be set by changing. Examples of the shape change include deformation between a circle and an ellipse, and deformation between a square and a rectangle.
  • this illumination system when the user designates the projection range 2 c by the shape drawing input unit 20, a groping point is displayed on the liquid crystal panel in response to the operation of the shape drawing input unit 20, or the groping point by the projector 2 is displayed. You may emit light corresponding to. For example, when it is desired to accurately specify the upper left end portion of the projection object 3, when the shape drawing input unit 20 is arbitrarily touched, the projector 2 is illuminated so as to illuminate a position in the projectable range 2 b corresponding to the arbitrary point. It will be operated. Thereby, the illumination system can perform an operation of designating the projection range 2c more easily.
  • this illumination system includes a reference image control device 4 for projecting a reference image serving as a reference for projecting light in addition to the illumination system described above.
  • the illumination system includes a reference image data generation unit 32 as a reference image data generation unit that generates reference image data for projecting a reference image to the reference image control device 4, and a reference image data generation unit.
  • a reference image data drawing unit 33 as reference image drawing means for performing drawing processing of the reference image data generated by the reference numeral 32.
  • the illumination system includes a reference image projector 2B as a reference image projecting unit for projecting a reference image separately from the projection light 2a.
  • the illumination control device 1 includes a reference image display unit 31 as display means for displaying a reference image.
  • the reference image display unit 31 includes a liquid crystal panel.
  • the reference image data generation unit 32 when the user sets the projection ranges 2c and 2d, the reference image data generation unit 32 generates specific reference image data 32a composed of grid points or grid lines.
  • the reference image may be an image that allows the user to visually recognize the coordinates within the projectable range 2b of the projection light projector 2A.
  • the reference image data drawing unit 33 performs a drawing process using the reference image data 32a supplied from the reference image data generation unit 32, and outputs the reference image drawing data 33a to the reference image projector 2B. Further, the reference image data drawing unit 33 supplies the reference image drawing data 33 a to the reference image display unit 31 in order to display the reference image on the reference image display unit 31 of the illumination control device 1.
  • the reference image display unit 31 includes a shared display device when the projection range setting unit 12 includes a liquid crystal panel.
  • the reference image display unit 31 displays the reference image by driving the liquid crystal mechanism according to the reference image drawing data 33a.
  • the illumination system includes a reference image display unit 41, a reference image data generation unit 32, and a reference image data drawing unit 33 in the illumination control device 1.
  • the reference image and the projection light 2a may be projected.
  • the illumination system can be configured by a single projector and personal computer.
  • the illumination control apparatus 1 displays the reference image 23c on the liquid crystal panel 21a as the monitor device 21, and also displays the contour images 23a and 23b as the operation result of the pen 21b. Can be made. Moreover, the illumination control apparatus 1 can project the reference image 2e corresponding to the reference image 23c within the projectable range 2b by the projector 2, and further include projection ranges 2c and 2d corresponding to the contour images 23a and 23b. The light 2a can be projected.
  • the reference image 2e is projected onto the projection objects 3a and 3b and the wall surface 3 '.
  • the projection range parameter 12a is generated.
  • the illumination control apparatus 1 uses the projection range parameter 12a, the projection light data correction unit 13 corrects the projection light data 11a, and performs the drawing process of the projection light correction data 13a.
  • a projection range 2c-1 in which the projection objects 3a and 3b are brightened can be formed.
  • the shape drawing input unit 20 is not limited to the mouse, and may be a pen 21b that touches the liquid crystal panel 21a as shown in FIG.
  • Such an illumination system allows the user to visually recognize the correspondence between the reference image 23c displayed on the liquid crystal panel 21a and the reference image 2e projected by the projection light 2a, and the projection range 2c with respect to the liquid crystal panel 21a. Can be operated to set. Accordingly, it is possible to more easily project the projection light 2a in which only the desired projection range 2c is emphasized in the projectable range 2b.
  • the projection range 2c can be set by an intuitive operation such as drawing a picture. However, the correspondence between the input position to the projection range setting unit 12 and the shape and position of the projection target 3 is determined. Since it is not presented, the projection range 2c must be specified in a groping state.
  • the projection light 2a is projected so as to include the reference image 2e in the projectable range 2b including the projection object 3, and the reference image corresponding to the reference image 2e is displayed on the liquid crystal panel 21a.
  • 23c can be displayed. Thereby, the user can confirm the reference image 2e on the projection objects 3a and 3b, and can draw the contour images 23a and 23b together with the reference image 23c on the liquid crystal panel 21a.
  • This illumination system differs from the illumination system described above in that when the reference image 2e is projected from the reference image projector 2B onto the projectable range 2b where the projection light 2a is projected, the distortion of the reference image 2e is corrected. .
  • the reference image projection parameter input for inputting parameters including the position and orientation of the reference image projector 2B that projects the reference image 2e and the specifications (projection angle of view, back focus, driving angle).
  • a virtual plane as virtual plane parameter input means for inputting the position and orientation of the plane area virtually set in the projection area of the reference image 2e Parameters and operations of the parameter input unit 53 and the reference image projector 2B Based on the position parameter and the virtual plane parameter, when the user visually recognizes the reference image 2e, the projection light 2a including the reference image projected from the reference image projector 2B is distorted so that the reference image 2e can be observed without distortion.
  • a reference image distortion correction parameter calculation unit 54 and a reference image data distortion correction unit 55 are provided as reference image distortion correction means for correcting the reference image data.
  • the reference image projection parameter input unit 51, the operation position parameter input unit 52, and the virtual plane parameter input unit 53 input parameters that affect the distortion of the reference image 2e. Specifically, it includes a keyboard operated by the user, an input interface for recognizing the keyboard operation, a mechanism for reading a recording medium storing various parameters, a mechanism for receiving various parameters transmitted from the outside, and the like.
  • the parameters for the reference image are information that affects the distortion state of the reference image 2e, and the position (coordinate information) and attitude (rotation angle information) of the projection light 2a with respect to the projection object 3 that is the projection target.
  • the parameters include a projection angle of view, a back focus, a driving angle, and the like as specifications of the reference image projector 2B that affects the distortion state of the reference image 2e.
  • the parameters of the reference image projector 2B may include other detailed information as the specifications of the reference image projector 2B.
  • the operation position parameter indicates an operation position with respect to the projection object 3 that is a projection target of the projection light 2a.
  • the operation position may be the position of a personal computer constituting the reference image control device 4 (illumination control device 1), or may be the user's viewpoint position estimated from the personal computer position.
  • the virtual plane parameter is a parameter for specifying a virtual plane on which the projection light 2a is projected, and is information on coordinate groups constituting the virtual plane.
  • This virtual plane parameter is information for setting a virtual plane at the installation position of the projection target 3a in a use scene where the projection range 2c is set for the projection target 3, for example.
  • the reference image distortion correction parameter calculation unit 54 calculates and outputs a reference image distortion correction parameter 54a from the parameters for the reference image, the operation position parameter, and the virtual plane parameter.
  • the reference image 2e is distorted by the position and orientation of the reference image projector 2B, the operation position, and the position of the virtual plane.
  • the reference image distortion correction parameter 54a allows the reference image 2e to be visually recognized without distortion on the virtual plane by giving distortion to the reference image data 32a.
  • the reference image distortion correction parameter 54a depends on the coordinate information of the reference image data 32a that is a rectangular two-dimensional image, the actual position and orientation of the reference image projector 2B, the operation position, and the position of the virtual plane.
  • the correspondence (correspondence map) with the coordinate information of the reference image data 32a after correction in which the generated distortion is eliminated is shown.
  • the reference image data distortion correction unit 55 uses the distortion correction parameter 54a supplied from the reference image distortion correction parameter calculation unit 54 for the reference image data 32a supplied from the reference image data generation unit 32 ( Texture mapping). As a result, the reference image data 32a is calculated as reference image distortion correction data 55a that is visible without distortion when the reference image 2e is projected by the reference image projector 2B, and is supplied to the reference image data drawing unit 33. To do.
  • the reference image control device 4 When the reference image control device 4 does not perform distortion correction, as shown in FIG. 15, the reference image control device 4 projects the reference image when projected onto the virtual plane according to the position, orientation, specification, and operation position of the reference image projector 2B. 2e is distorted and projected.
  • the reference image control device 4 uses the reference image distortion correction parameter based on the position and orientation of the reference image projector 2B, the specifications, the operation position, and the position of the virtual plane, which cause the distortion of the reference image 2e. 54a is generated, and the reference image data 32a is subjected to coordinate transformation which is distortion correction processing.
  • the reference image control device 4 modifies the projectable range 2b of the reference image 2e into a new projectable range 2b ′ after distortion correction on the virtual plane 2f, as shown in FIG. can do. Therefore, according to this illumination system, as shown in FIG. 17, the reference image 23c displayed on the liquid crystal panel 21a can correspond to the reference image 2e on the virtual plane 2f.
  • the projection ranges 2c and 2d can be set easily.
  • the reference image data distortion correction unit 55 corrects the reference image data 32a using the reference image distortion correction parameter 54a, so that the reference image 2e projected on the projection surface of an arbitrary shape has no distortion. This is a process to make it visible.
  • FIG. 19A a lattice-like planar image Pic (coating light) shown in FIG.
  • FIG. 19B a lattice-like planar image Pic (coating light) shown in FIG.
  • the points b1, b2, b3, b4, and b5 on the image plane U correspond to the points a1, a2, a3, a4, and a5 on the flat object S. ing. Therefore, the image displayed at the points a1, a2, a3, a4, and a5 on the flat object S is visually recognized by the user as the points b1, b2, b3, b4, and b5 on the image plane U.
  • a point P2 where the user's line of sight and the flat object S intersect with the projection position P3 of the projector 2 is a distance L2. Further, the projector 2 projects the projection light within a predetermined projection angle of view ⁇ 2.
  • the positional relationship between the image plane P of the projector 2 and the flat object S is such that the points a1, a2, a3, a4, a5 on the flat object S are on the image plane P as shown in FIG.
  • the projector 2 has a flat plate shape corresponding to each coordinate on the flat plate object S corresponding to each coordinate on the video surface U and each coordinate on the video surface P. Based on the correspondence with each coordinate on the object S, it is necessary to project a distorted planar image Pic ′′ as shown in FIG.
  • the illumination system includes a viewpoint position indicating the user's viewpoint position P1, a viewpoint position / posture parameter indicating the line-of-sight direction, and a user's viewing angle ⁇ 1. Get the viewing angle parameter shown.
  • These user parameters define the video plane U described above.
  • the shape data of the flat object S that projects the projection light emitted from the projector 2 is acquired.
  • This shape data is, for example, CAD data.
  • the viewpoint position and orientation parameter is a numerical value that defines a position on the X, Y, and Z axes and a rotation angle around the axis in a three-dimensional coordinate space.
  • This viewpoint position / orientation parameter uniquely determines the distance L1 between the viewpoint position P1 and the flat object S and the attitude of the flat object S relative to the viewpoint position P1.
  • the shape data of the flat object S is defined as a shape region in a three-dimensional coordinate space based on electronic data created by CAD or the like. This shape data uniquely determines the shape of the flat object S viewed from the viewpoint position P1.
  • the shape data of the flat object S and the user parameters define the correspondence between the coordinates of the video plane U and the coordinates on the flat object S.
  • the projector 2 is installed, and the illumination system uses the projection position P3 of the projector 2, the position and orientation parameter indicating the optical axis direction of the projector 2, and the projection angle of view ⁇ 2 of the projector 2.
  • the projection angle of view parameter shown is acquired.
  • the position and orientation parameters and the projection angle of view parameter of the projector 2 represent the image plane P that the projector 2 projects onto the flat object S.
  • the image plane P is determined, it is determined on which coordinate of the flat object S the projection light projected from the projector 2 is projected via the image plane P.
  • the position and orientation parameters and projection angle of view parameter of the projector 2 and the position and orientation parameters and shape data of the flat object S uniquely determine the range of the flat object S covered by the projection light emitted from the projector 2.
  • the projection position P3 is defined by a back focus and a driving angle
  • the projection angle of view ⁇ 2 is calculated from a horizontal and vertical projection range at a fixed distance from the projection position P3.
  • the illumination system then crosses the line (c1) between the straight line connecting the projection light pixels (a1, a2, a3, a4, a5) displayed on the flat object S and the projection position P3 of the projector 2 and the image plane P. , C2, c3, c4, c5) to form a plane image Pic ′′ and project the plane image Pic ′′ onto the flat object S.
  • the points c1, c2, c3, c4, c5 on the image plane P, the points a1, a2, a3, a4, a5 on the flat object S, the points b1, b2, b3, b4, b5 on the image plane U In this way, the user can visually recognize an image without distortion.
  • the projection object 3 is not in the shape of the flat object S but is in an arbitrary shape such as a dome shape, the projection light is projected without distortion, and the projection object 3 is visually recognized by the user. be able to.
  • the projection object 3 is a dome-shaped object S as shown in FIG. 22 (a) and the user visually recognizes the grid-like projection light as shown in FIG. 22 (b).
  • the user sees the points a1, a2, a3, a4, and a5 on the dome-shaped object S on the extension line of the points b1, b2, b3, b4, and b5 on the video plane U.
  • the projector 2 projects projection light onto the image plane P as shown in FIG.
  • the projection light that has passed through the points c1, c2, c3, c4, and c5 on the image plane P is projected onto the points a1, a2, a3, a4, and a5 on the dome-shaped object S, and the image shown in FIG. It is visually recognized as points b1, b2, b3, b4, b5 on the surface U. Accordingly, the projector 2 projects a distorted planar image Pic ′′ on the image plane P as shown in FIG. On the other hand, the user can visually recognize a flat image Pic without distortion as shown in FIG.
  • the flat screen 6 on which the reference image 2e is projected by the reference image projector 2B and the camera device 5 as a photographing unit for photographing the reference image 2e projected on the flat screen 6 are provided.
  • a reference image distortion correction parameter calculation unit 54 and a reference image data distortion correction unit 55 are provided as reference image distortion correction means for distorting the reference image projected from the projector 2B.
  • a flat screen 6 is installed as shown in FIG.
  • the installation position of the flat screen 6 is assumed to be the installation position of the projection object 3 or the like to be projected by the projection light 2a.
  • the flat screen 6 is desirably a retractable type in consideration of portability.
  • the camera device 5 includes an imaging unit 61 including an imaging element such as a CCD, an optical component, and the like, and a captured image data output unit 62 that outputs the captured image data 61 a captured by the imaging unit 61 to the reference image control device 4.
  • This camera device 5 is preferably installed in the vicinity of the user's operation position, and is installed on the monitor device 21 in the example shown in FIG.
  • the place where the camera device 5 is installed is not particularly limited as long as the reference image distortion correction parameter can be created so that the reference image 2e viewed from the user is projected without distortion.
  • the reference image control device 4 includes a photographed image data input unit 63 for inputting the photographed image data 61a output from the photographed image data output unit 62.
  • the reference image distortion correction parameter calculation unit 54 uses the captured image data 63 a output from the captured image data input unit 63 to perform reference image distortion correction for correcting the distortion of the reference image 2 e.
  • the parameter 54a is calculated.
  • the reference image distortion correction parameter calculation unit 54 uses the reference image 2e projected on the flat screen 6 acquired by the captured image data 61a generated by the camera device 5 as a projectable range 2b ′ having a predetermined shape.
  • a reference image distortion correction parameter 54a is created.
  • the reference image distortion correction parameter calculation unit 54 matches the distorted reference image 2e displayed on the flat screen 6 with the reference image generated by the reference image data generation unit 32. As a result, the reference image distortion correction parameter calculation unit 54 causes the reference image 2e displayed on the flat screen 6 to have no distortion similar to the reference image 23c displayed on the liquid crystal panel 21a.
  • the reference image control device 4 performs coordinate conversion, which is distortion correction processing, on the reference image data 32a using the reference image distortion correction parameter 54a, and converts the reference image distortion correction data 55a into the reference image data drawing unit 33. To supply.
  • the reference image projector 2B By projecting from the reference image projector 2B to the flat screen 6 according to the reference image drawing data 33a, the reference image 23c displayed on the liquid crystal panel 21a and the reference image 2e displayed on the flat screen 6 are used as a reference by the user. It can be matched in the visual sense of the image.
  • the reference image 2e is projected onto the flat screen 6 from the reference image projector 2B using the reference image data 32a that has not been subjected to the distortion correction processing.
  • the reference image 2 e is distorted in a trapezoidal shape
  • the distorted reference image 2 e is captured by the camera device 5, and the captured image data 61 a is supplied to the reference image distortion correction parameter calculation unit 54.
  • the projectable range 2b of the reference image 2e on the flat screen 6 imaged by the camera device 5 becomes a new projectable range 2b ′ after distortion correction. Can be corrected. Therefore, according to this illumination system, as shown in FIG. 27, the reference image 23c displayed on the liquid crystal panel 21a can correspond to the reference image 2e projected from the reference image projector 2B.
  • the projection ranges 2c and 2d can be set easily.
  • the flat screen 6 before setting the projection ranges 2c and 2d, the flat screen 6 is installed at the installation position of the projection objects 3a and 3b, and the distortion of the reference image 2e is automatically corrected.
  • the projection ranges 2c and 2d can be set by projecting the reference image 2e, and the projection ranges 2c and 2d can be set more easily.
  • the reference image data 32a can be automatically corrected so that the distortion is eliminated.
  • the illumination control device 1 in this illumination system projects according to the conditions input by the projection range identification condition setting unit 71 for inputting the conditions for specifying the projection range 2c and the projection range identification condition setting unit 71.
  • the illumination control apparatus 1 corrects projection light data corresponding to the projection range 2 c identified by the projection range identification unit 72 and projects light from the projector 2.
  • the illumination control device 1 automatically sets the projection range 2c without using the camera device 5 described above.
  • this illumination system divides the projectable range 2b of the projector 2 into a grid of an arbitrary size, and sets the projection range 2c by designating each grid.
  • the projection range identification condition setting unit 71 is configured with a mouse similar to the shape drawing input unit 20, displays a grid on the monitor device 21, and operates each grid with a mouse. Specify according to. Thereby, the projection range 2c can be set on the projection object 3 or the space corresponding to the cell specified by the mouse. In the example of FIG. 29, only the cells before projecting light are shown.
  • an operation of drawing a skeleton line 23d on the monitor device 21 may be performed so that a range having a predetermined width from the skeleton line 23d can be set as the projection range 23e.
  • the setting icon 23f is displayed on the monitor device 21, and the end point, viewpoint, and thickness of the skeleton line 23d, the width of the projection range 2c with respect to the skeleton line 23d, and the characteristics of the projection light are designated according to the mouse operation.
  • the projection range 2c can be set on the projection object 3.
  • the information specifying the projection range 2c by a predetermined range centered on the grid or the skeleton line is supplied to the projection range identification unit 72 by the projection range identification condition setting unit 71 as the projection range identification condition parameter 71a.
  • the projection range identification unit 72 identifies the correspondence between the predetermined range centered on the cell and skeleton line designated as the projection range 2c and the position in the projectable range 2b.
  • the illumination system recognizes the actual projection range 2c, generates the projection range identification parameter 72a, and supplies the projection range identification parameter 72a to the projection light data correction unit 13.
  • the projection range identification unit 72 is data representing the projection range 2c or the non-projection range in which light is projected by the coordinates in the projectable range 2b of the projector 2, similarly to the projection range parameter 12a.
  • the projection light data correction unit 13 can generate the projection light correction data 13a by correcting the projection light data 11a using the projection range identification parameter 72a.
  • the illumination system outputs the captured image data 61a generated by the camera device 5 to the captured image data input unit 63 of the illumination control device 1, and the captured image data display unit 86 converts the captured image data 61a.
  • the display used is performed.
  • the captured image data display unit 86 is a liquid crystal display that is also used as the liquid crystal panel 21a.
  • the illumination system includes a shooting parameter input unit 81 as a shooting parameter input unit that inputs shooting parameters including the position and orientation of the camera device 5 and specifications, and a projection that inputs projection parameters including the position and orientation of the projector 2 and specifications.
  • a shooting parameter input unit 81 as a shooting parameter input unit that inputs shooting parameters including the position and orientation of the camera device 5 and specifications
  • a projection that inputs projection parameters including the position and orientation of the projector 2 and specifications.
  • virtual plane parameters for inputting the position and orientation and size of the virtually set plane area are set.
  • the projection light matches the imaging range of the camera device 5 on the virtual plane.
  • Projection light data correction means for correcting the projection light data 11a Of and a projection light distortion correction parameter arithmetic unit 84 and a projection light data distortion correction unit 85.
  • the imaging parameter input unit 81, the projection light projection parameter input unit 82, and the virtual plane parameter input unit 83 input parameters that affect the distortion of the projection range 2c projected from the projector 2. Specifically, it includes a keyboard operated by the user, an input interface for recognizing the keyboard operation, a mechanism for reading a recording medium storing various parameters, a mechanism for receiving various parameters transmitted from the outside, and the like.
  • the shooting parameters include the position and orientation of the camera device 5 and specifications (camera angle of view, etc.) as information that affects the distortion state of the projection range 2c. Note that the shooting parameters may further include other detailed information.
  • the projection light projection parameters include the position (coordinate information) and orientation (rotation angle information) of the projector 2 with respect to the projection object 3 that is the projection target of the projection light 2a as information that affects the distortion state of the projection range 2c.
  • the projection light projection parameters include a projection angle of view, a back focus, a driving angle, and the like as specifications of the projector 2 that affect the distortion state of the projection range 2c.
  • the projection light projection parameter may further include other detailed information as the specification of the projector 2.
  • the virtual plane parameter is a parameter for specifying a virtual plane on which the projection light 2a is projected, and is information on coordinate groups constituting the virtual plane.
  • This virtual plane parameter is a position directly facing the camera device 5. For example, in a use scene where the projection range 2 is set for the projection object 3, the virtual plane is set at the installation position of the projection object 3. Information.
  • the projection light distortion correction parameter calculation unit 84 calculates and outputs a projection light distortion correction parameter 84a from the imaging parameter, the projection light projection parameter, and the virtual plane parameter.
  • the projection light distortion correction parameter 84a is distorted in the projection range 2c depending on the position and orientation of the camera device 5 and the projector 2, the position of the virtual plane, and the position of the virtual plane, the projection light data 11a is distorted to give a virtual image.
  • the projection light data 11a is corrected so that the projection light 2a matches the photographing range of the camera device 5 on the plane.
  • the projection light distortion correction parameter calculation unit 84 uses the virtual plane parameter and the imaging parameter, and the angle of view of the imaging unit 61 in the camera device 5 and the virtual with respect to the camera device 5.
  • the shooting range 5a of the camera device 5 on the virtual plane is obtained from the position of the plane 2f.
  • the projection light distortion correction parameter calculation unit 84 corrects the coordinate information of the projectable range 2b on the virtual plane 2f, which is a rectangular two-dimensional image, and the shooting range 5a on the virtual plane 2f.
  • a projection light distortion correction parameter 84a indicating a correspondence relationship with the coordinate information of the projectable range 2b is calculated.
  • the projection light data distortion correction unit 85 performs coordinate conversion on the projection light data 11 a supplied from the projection light data generation unit 11 using the projection light distortion correction parameter 84 a supplied from the projection light distortion correction parameter calculation unit 84. I do. Thereby, the projection light data 11a calculates projection light distortion correction data 85a that can project the projection range 2c that can be seen by the user without distortion when the projection light 2a is projected by the projector 2, and the projection light data correction unit 13 is supplied.
  • the imaging range 5a of the camera device 5 in a certain virtual plane 2f is defined, and even if the projection light 2a is projected from the projector 2, the projection possible range distorted in a trapezoidal shape with respect to the imaging range 5a 2b.
  • the illumination system matches the projection possible range 2b and the photographing range 5a with respect to the projection target 3 as shown in FIG. 33, so that the projection ranges 2c-1 and 2c are shown in FIGS. -2 can eliminate distortion.
  • FIG. 35 shows an example in which the pen 21b is used instead of the mouse.
  • the projection ranges 2c-1 and 2c-2 corresponding to the contour images 23a and 23b can be formed. Specifically, an object such as the projection objects 3a and 3b that is actually to be formed in the projection ranges 2c-1 and 2c-2 is photographed by the camera device 5 and displayed on the liquid crystal panel 21a. By operating on the liquid crystal panel 21a, the accuracy of the correspondence between the contour images 23a and 23b set on the liquid crystal panel 21a and the actual projection ranges 2c-1 and 2c-2 can be increased.
  • the illumination system shown as the ninth embodiment includes, in addition to the illumination system of FIG. 31 described above, a projection range extraction setting unit 91 as a projection range extraction setting unit that sets conditions for extracting the projection range 2c, and a projection range extraction setting.
  • a projection range sorting unit 92 is provided as a sorting unit that analyzes shooting data generated by the camera device 5 according to the conditions set by the unit 91 and separates the projection range 2c from a non-projection range other than the projection range. .
  • the projection light data correction unit 13 corrects the projection light distortion correction data 85a for correcting the projection light data based on the projection range and the non-projection range sorted by the projection range sorting unit 92.
  • the projection range extraction setting unit 91 analyzes the captured image data 61a captured by the camera device 5 and extracts approximate projection colors 2c by color as a condition for extracting the projection range 2c for projecting projection light.
  • An extraction method such as extraction, shape extraction for extracting the projection range 2c by shape, brightness extraction for extracting the projection range 2c by brightness, a threshold value in the extraction method, and the like are set.
  • the projection range extraction setting unit 91 includes, for example, a keyboard operated by the user and an input interface for recognizing the keyboard operation, a mechanism for reading a recording medium storing various parameters, a mechanism for receiving various parameters transmitted from the outside, and the like. Consists of.
  • the projection range 2c extraction condition set by the projection range extraction setting unit 91 is supplied to the projection range sorting unit 82 as the projection range extraction parameter 91a.
  • the projection range classification unit 82 analyzes the captured image data 63a supplied from the captured image data input unit 63 according to the projection range extraction parameter 91a. As a result of this analysis, the projection range sorting unit 82 supplies the projection light data correction unit 13 with a projection range sorting parameter 92a as coordinate information representing a projection range that matches the projection range extraction parameter 91a. Accordingly, in the illumination system, the projection light data correction unit 13 can create the projection light correction data 13a for projecting only the projection range 2c that matches the extraction condition set by the projection range extraction setting unit 91 with the projection light. .
  • the camera device 5 in order to set the projection range 2c for the projection objects 3a and 3b, the camera device 5 generates captured image data 61a including the projection objects 3a and 3b. , And supplied to the photographed image data input unit 63. Then, using the captured image data 63a supplied from the captured image data input unit 63 to the captured image data display unit 86, the captured image data display unit 86 that is also used as the liquid crystal panel 21a displays the projection objects 3a and 3b. A captured image including the object image 5c shown is displayed.
  • the projection range classification unit 82 analyzes the photographic image data 63a according to the projection range extraction parameter 91a, and classifies the projection range 2c and the non-projection range.
  • the projection range extraction parameter 91a is supplied to the projection range sorting unit 92 as the extraction conditions for the projection range 2c, which are “shape extraction processing” and “projection range 2c for the cubic region and non-projection range for other than the cubic region”. Shall.
  • the projection range sorting unit 92 is supplied with captured image data 63a including a cubic object image 5c. Then, the projection range classification unit 92 recognizes the shape edge over the entire captured image data 63a by the edge extraction process, and sets the cubic region as the projection range 2c and the non-cubic region as the non-projection range.
  • the projection range classification result acquired by the projection range classification unit 92 is displayed as contour information 5c 'on the liquid crystal panel 21a as shown in FIG. Further, the projection range parameter 82 a representing this classification result is supplied to the projection light data correction unit 13.
  • the projection light data correction unit 13 creates the projection light correction data 13a according to the projection range parameter 82a, and operates the projection light correction data drawing unit 14 and the projector 2 to obtain the projection range of the cubic region.
  • the projection light 2a for projecting the projection light can be generated.
  • the projection light can be projected on the liquid crystal panel 21a only within the projection range of the projection objects 3a and 3b.
  • a blue sheet for improving the extraction accuracy of the color extraction process may be arranged behind the projection objects 3a and 3b.
  • the projection range extraction setting unit 91 sets the projection range extraction parameters 91a for the projection range extraction conditions to be “color extraction processing”, “a blue region is a non-projection range, and a non-blue region is a projection range 2c”.
  • the projection range sorting unit 92 supplies the projection range sorting unit 92.
  • the projection range classification unit 92 performs a color extraction process for classifying the captured image data 63a into a blue region and a region other than the blue region, and obtains the contour information 5c ′ of the projection objects 3a and 3b as the projection range parameter 82a.
  • the projection light data distortion correction is performed so that the photographing range 5a of the camera device 5 including the projection objects 3a and 3b and the projectable range 2b of the projector 2 are matched.
  • the projection light correction data 75a is created by the unit 75.
  • the liquid crystal panel 21a includes the classification result confirmed on the liquid crystal panel 21a and the image including the object image 5c as a result of projecting the projection light onto the projection range automatically set according to the classification result. Can be displayed.
  • a specific condition portion is extracted by an image processing technique using the captured image data 61a obtained by capturing the projection target objects 3a and 3b that are projection targets, and the extracted area is projected into the projection range. 2c.
  • the setting of the projection range 2c can be automated.
  • a point-like marker 3c is pasted on the projection target 3, and the point-like marker 3c is attached.
  • a predetermined range at the center may be set as the projection range 2c.
  • the projection range classification unit 92 sets a predetermined circular range centered on the marker 3c as the projection range 2c, generates a projection range classification parameter 92a having the other as a non-projection range, and generates a projection light data correction unit. 13 is supplied.
  • a predetermined circular range including the marker 3c on the projection target 3 can be set as the projection range 2c-1, and the other range can be set as the projection range 2c-2.
  • the range of the projection range 2c set for the point-like marker 3c can be set to an arbitrary size in accordance with a user operation.
  • the shape of the projection range 2c is not limited to a round shape, and it is desirable that an arbitrary shape such as a square shape can be set according to a user operation.
  • a linear marker 3c is pasted on the projection target 3 as shown in FIG. 43, and the marker 3c is used as a skeleton line. It may be set that the range of the predetermined width is the projection range 2c.
  • the projection range classification unit 92 analyzes the photographic image data 63a. The position (start point, end point, length) of the linear marker 3c is recognized.
  • the projection range classification unit 92 generates a projection range classification parameter 92a having a predetermined width range with the marker 3c as a skeleton line as the projection range 2c and the other range as a non-projection range, and the projection light data correction unit 13 To supply.
  • the range of a predetermined width including the marker 3c on the projection target 3 can be set as the projection range 2c-1, and the other range can be set as the projection range 2c-2. It is desirable that the width of the projection range 2c set for the linear marker 3c can be set to an arbitrary size according to the user's operation.
  • the projection range 2c is maintained based on the marker 3c even if the marker 3c is removed after the predetermined range centered on the marker 3c or the skeleton is set as the projection range 2c. It is good that you can.
  • the illumination control device 1 needs to include means for recording the projection range classification parameter 92 a generated by the projection range classification unit 92.
  • the captured image data 63a obtained by capturing the projection object 3 with a plurality of camera devices 5 is used to scan the three-dimensional shape of the projection object 3 so as to cover the three-dimensional shape of the projection object 3.
  • the projection range 2c may be determined.
  • the illumination system shown as the ninth embodiment is the same as that shown in FIG. 4 in that a projection range correction unit 101 that corrects the boundary of the projection range 2c in accordance with a user operation is connected to the projection light data correction unit 13. It differs from the illumination control device 1 shown in FIG.
  • this illumination system corrects the projection range and the non-projection range sorted by the projection range sorting unit 82 in accordance with the user's operation.
  • a configuration including a projection range correction unit 101 as a means may be used.
  • the projection range correction unit 101 includes a pen 21b and a liquid crystal panel 21a, a keyboard operated by a user, an input interface for recognizing the keyboard operation, and the like.
  • the illumination system uses the projection range parameter 82a generated by the projection range classification unit 92 to display the projection range 2c and the non-projection range as the separation results on the liquid crystal panel 21a. Is displayed.
  • the projection range correction unit 101 recognizes that the user operates the pen 21b constituting the projection range correction unit 101 to change the projection range 2c or the non-projection range.
  • the projection range correction unit 101 generates a command for changing the coordinate information representing the projection range 2 c or the non-projection range and supplies the command to the projection light data correction unit 13.
  • the projection light data correction unit 13 When the command for changing the projection range 2c or the non-projection range is supplied, the projection light data correction unit 13 performs a correction process on the projection range parameter 82a. More specifically, the coordinate information of the unprojected projection range 2c constituting the projection range parameter 82a is converted into the corrected projection range 2c and the coordinate information of the unprojected range. Then, the projection light data correction unit 13 can generate the projection light correction data 13a by correcting the projection light correction data 85a using the corrected projection range parameter 82a.
  • the projection range 2c and the non-projection range automatically set by the illumination system shown in FIG. 4 or FIG. 36 can be corrected by the projection range correction unit 101 in accordance with a user operation. Therefore, according to this illumination system, the projection range 2c in the projectable range 2b can be set more easily.
  • a projection object image 24 that is in the projection range 2c is displayed on the liquid crystal panel 21a, and an operation of moving the pointer 26 is performed to surround the projection object image 24.
  • the projection range correction unit 101 detects that the selection area 25 has been enlarged or reduced. Thereby, the projection range correction
  • a selection area 25 is set along the projection object image 24, and a part of the selection area 25 is selected by the pointer 26 to deform the selection area 25.
  • the projection range 2c may be corrected.
  • the projection range correction unit 101 may change the projection range 2c-1 corresponding to the part into a modified projection range 2c′-1. it can.
  • the projection range correction unit 101 may deform the projection range 2c in accordance with such user operation.
  • the projection range correction unit 101 detects an operation for deforming the reference image 23c corresponding to the arm portion of the projection target 3, and deforms the lattice constituting the reference image 2e to 2e ′. Similar to the distortion of the grid constituting the reference image 2e, it can be transformed into the projection range 2c-1 to be 2c'-2.
  • the projection light 2a projected from the projector 2 is updated by storing the projection light data 11a and performing output control. You may make it do.
  • the illumination system includes a projection light data storage unit 111 as a projection light data storage unit that stores the projection light data 11a, and at least an output order or an output condition of the projection light data 11a stored in the projection light data storage unit 111.
  • the projection light data update setting unit 113 as a projection light data output setting unit for setting the above, and the projection light data storage unit 111 according to at least one of the output order or the output condition set by the projection light data update setting unit 113
  • a projection light data output updating unit 112 as projection light data updating means for outputting the stored projection light data 11a;
  • the projection light data storage unit 111 includes a hard disk device or an external storage device in a personal computer.
  • the projection light data storage unit 111 is supplied with a plurality of projection light data 11 a generated by the projection light data generation unit 11.
  • As the plurality of projection light data 11a various colors, brightness, and contrast are set for each projection range and non-projection range.
  • the projection light data update setting unit 113 sets update information indicating the output order and output conditions of the projection light 2a by a user's keyboard operation on the personal computer.
  • the output order of the projection light 2a includes the order in which the projection light 2a using the projection light data 11a is output, the projection time of each projection light 2a, the update interval, and the like.
  • the projection light data output update unit 112 reads out the projection light data 11a and projects the projection light 2a. For example, the next projection light data 11a is read when the button is operated, and the projection light 2a is updated.
  • Such an illumination system selects projection light data 11a to be used by selecting projection light 2a to be projected in advance by a user operation, and sets an update order and update conditions. Then, the projection light data output update unit 112 starts the projection of the projection light 2 a according to the update order and update conditions of the projection light 2 a set by the projection light data update setting unit 113. The projection light data 11a is read out from the above and supplied to the projection light data correction unit 13. Accordingly, the illumination system can project the projection light 2a set by the user in a desired order and interval, and instantaneously change the light characteristics (color, brightness, contrast) in the projection range of the projection light 2a. Can do.
  • the illumination system has a configuration as shown in FIG. 54, stores the projection range parameter 12a, performs output control, and updates the projection range and non-projection range of the projection light 2a projected from the projector 2. You may make it do.
  • the illumination system includes a projection range parameter storage unit 121 serving as a projection range parameter storage unit that stores a projection range parameter 12a that is a projection range parameter for correcting the projection range by the projection light data correction unit 13, and a projection range parameter storage unit.
  • a projection range parameter update setting unit 123 serving as a projection range output setting unit for setting at least one of the output order and the output condition of the projection range parameters 12a stored in the unit 121, and the projection range parameter update setting unit 123.
  • a projection range parameter output update unit 122 serving as a projection range parameter update unit that outputs the projection range parameter 12a stored in the projection range parameter storage unit 121 according to at least one of the output order and the output condition;
  • the projection range parameter storage unit 121 is composed of a hard disk device or an external storage device in a personal computer.
  • the projection range parameter storage unit 121 is supplied with a plurality of projection range parameters 12 a generated by the projection range setting unit 12.
  • the plurality of projection range parameters 12a include projection ranges and non-projection range patterns of various shapes.
  • the projection range parameter update setting unit 123 sets update information indicating the output order and output conditions of the projection range parameter 12a by a user's keyboard operation on the personal computer.
  • the order and conditions of the projection range to be changed are update information.
  • Examples of the output order of the projection range parameter 12a include the order in which the projection range is changed, the projection time for maintaining each projection range, the update interval, and the like.
  • the projection range parameter output update unit 122 reads the projection range parameter 12a to create a new projection range. For example.
  • Such an illumination system selects a projection range parameter 12a to be used by selecting a desired projection range in advance by a user operation, and sets an update order and update conditions. Then, the projection range parameter output update unit 122 starts from the projection range parameter storage unit 121 according to the update order and update conditions of the projection range set by the projection range parameter update setting unit 123 when starting projection of the projection light 2a.
  • the projection range parameter 12 a is read out and supplied to the projection light data correction unit 13. Thereby, the illumination system can project the projection range selected by the user in a desired order and interval, and can instantaneously change the projection range in the projection light 2a.
  • this illumination system may perform output control by storing the projection light correction data 13a obtained by correcting the projection light data 11a by the projection light data correction unit 13 with the configuration as shown in FIG. Thereby, the illumination system can update the projection range and the non-projection range of the projection light 2 a projected from the projector 2.
  • This illumination system is stored in a projection light correction data storage unit 131 as a projection light correction data storage unit that stores the projection light correction data 13 a corrected by the projection light data correction unit 13, and in the projection light correction data storage unit 131.
  • the projection light correction data update setting unit 133 as projection light correction data output setting means for setting at least one of the output order or the output condition of the projection light correction data 13a and the projection light correction data update setting unit 133 are set.
  • a projection light correction data output updating unit 132 as projection light data updating means for outputting the projection light data stored in the projection light correction data storage unit 131 according to at least one of the output order and the output condition.
  • the projection light correction data storage unit 131 is composed of a hard disk device or an external storage device in a personal computer.
  • the projection light correction data storage unit 131 is supplied with projection light correction data 13 a whose projection range is corrected by the projection light data correction unit 13.
  • the projection light correction data 13a is accumulated in the projection light correction data storage unit 131 every time new projection light correction data 13a is created by the projection light data correction unit 13, and thus, projection ranges and non-projection ranges of various shapes. Is included.
  • the projection light correction data update setting unit 133 sets update information indicating the output order and output conditions of the projection light correction data 13a by a user's keyboard operation on the personal computer.
  • the order and conditions of the projection range to be changed are update information.
  • the output order of the projection light correction data 13a includes the order of how the projection range is changed, the projection time for maintaining each projection range, the update interval, and the like.
  • the projection light correction data output update unit 132 reads the projection light correction data 13a and newly outputs it. Update to a proper projection range.
  • the projection light correction data 13a is selected by selecting a desired projection range in advance by a user operation, and an update order and update conditions are set. Then, the projection light correction data output update unit 132 stores the projection light correction data according to the projection range update order and update conditions set by the projection light correction data update setting unit 133 when the projection of the projection light 2a is started.
  • the projection light correction data 13 a is read from the unit 131 and supplied to the projection light correction data drawing unit 14. Thereby, the illumination system can project the projection range selected by the user in a desired order and interval, and can instantaneously change the projection range in the projection light 2a.
  • this illumination system it is not necessary to perform the trimming process by the projection light data correction unit 13 every time the projection range is switched, so that the processing load for switching the projection range can be reduced.
  • this illumination system does not cause a high processing load even when the projection range is switched at a short time interval such as a few seconds like a slide show.
  • this illumination system has a configuration as shown in FIG. 56, stores the reference image data 32a, performs output control, and displays the reference image 2e projected by the reference image projector 2B and the liquid crystal panel 21a.
  • the image 23c may be updated.
  • the illumination system includes a reference image data storage unit 141 as a reference image data storage unit that stores the reference image data 32a generated by the reference image data generation unit 32 in the reference image control device 4, and a reference image data storage unit.
  • the reference image data update setting unit 143 as reference image data output setting means for setting at least one of the output order and the output condition of the reference image data 32a stored in 141, and the reference image data update setting unit 143 are set.
  • a reference image data output update unit 142 as reference image update means for outputting the reference image data 32a stored in the reference image data storage unit 141 according to at least one of the output order and the output condition.
  • the reference image data storage unit 141 includes a hard disk device or an external storage device in a personal computer.
  • the reference image data storage unit 141 is supplied with the reference image data 32 a generated by the reference image data generation unit 32.
  • This reference image data 32a includes lattice patterns and lattice points having various dimensions.
  • update information indicating the output order and output conditions of the reference image data 32a is set by a keyboard operation on the personal computer of the user. That is, the order and condition of the reference image to be changed is update information. Examples of the output order of the reference image data 32a include the order in which the reference image is changed, the projection time, the update interval, and the like. Further, as an output condition of the reference image data 32a, for example, when a button provided on the controller 114 constituting the personal computer is operated, the reference image data output update unit 142 reads the reference image data 32a to create a new reference image. To update.
  • Such an illumination system selects reference image data 32a by selecting a desired reference image in advance by a user operation, and sets an update order and update conditions. Then, the reference image data output update unit 142 starts from the reference image data storage unit 141 according to the update order and update conditions of the reference images set by the reference image data update setting unit 143 when starting projection of the projection light 2a.
  • the reference image data 32 a is read and supplied to the reference image data drawing unit 33. Accordingly, the illumination system can project the reference images selected by the user in the desired order and interval by the reference image projector 2B, and at the same time, the reference image display unit 31 can project the reference image on the liquid crystal panel 21a. Can be switched.
  • a desired reference image can be instantaneously projected only by operating the button of the controller 114, and the projection range can be set more easily.
  • this illumination system has a configuration as shown in FIG. 57, stores reference image data 32a, performs output control, and displays a reference image 2e projected by a single projector 2 and a reference displayed on the liquid crystal panel 21a.
  • the image 23c may be updated.
  • the illumination system includes a reference image data storage unit 141, a reference image data output update unit 142, and a reference image data update setting unit 143 in the illumination control device 1, and the projector 2 and the reference image display unit from the reference image data drawing unit 33.
  • the reference image drawing data 33a is supplied to 41, and the reference image 2e can be projected and displayed on the liquid crystal panel 21a.
  • this illumination system may store projection light drawing data and output it to the projector 2 by the configuration as shown in FIG.
  • a projection light drawing data storage unit 153 serving as a projection light drawing data storage unit for storing the projection light drawing data 14 a generated by the projection light correction data drawing unit 14 and a projection light drawing data storage unit 153 are stored.
  • Projection light drawing data external medium recording unit 152 that stores the projected light drawing data 14a in the external storage medium
  • projection light drawing data output unit that outputs the projection light drawing data 14a stored in the external storage medium to the projector 2 151.
  • the projection light drawing data 14a subjected to the drawing process by the projection light correction data drawing unit 14 is stored by the projection light drawing data storage unit 153 corresponding to a hard disk device in a personal computer, the projection light drawing data 14a is stored. Is recorded in the projection light drawing data external medium recording unit 152.
  • the projection light drawing data external medium recording unit 152 may be a medium such as a general-purpose DVD. Further, the projection light drawing data output unit 151 reproduces the projection light drawing data 14 a recorded on the DVD when the DVD that is the projection light drawing data external medium recording unit 152 is mounted, and outputs it to the projector 2. There is a DVD player.
  • a projection light correction data storage unit 131 a projection light correction data output update unit 132, and a projection light correction data update setting unit 133 are connected to the projection light correction data drawing unit 14. Then, the projection light correction data 13a is supplied to the projection light correction data drawing unit 14 according to the order or conditions set by the user. As a result, the illumination system can store the projection light drawing data 14 a drawn by the projection light correction data 13 a in the projection light drawing data storage unit 153 and record it in the projection light drawing data external medium recording unit 152.
  • the data output unit 151 can also output to the projector 2.
  • the illumination system may include a plurality of projectors 2_1, 2_2, and 2_3. Such an illumination system is called a so-called multi-projection.
  • the projection range setting unit 12 generates projection range parameters 12a_1, 12a_2, and 12a_3 for the projectors 2_1, 2_2, and 2_3. These projection range parameters 12a_1, 12a_2, and 12a_3 are set to different projection ranges according to user operations.
  • the projection light data correction unit 13 corrects the projection light data 11a for each of the projection range parameters 12a_1, 12a_2, and 12a_3, and the projection light correction data 13a_1, 13a_2, and 13a_3 for each of the projectors 2_1, 2_2, and 2_3.
  • the projection light correction data 13a_1, 13a_2, and 13a_3 are supplied to the projection light correction data drawing units 14_1, 14_2, and 14_3 connected to the projectors 2_1, 2_2, and 2_3, respectively, and perform drawing processing to perform the projectors 2_1, 2_2, and 2_1. 2_3.
  • a plurality of projection ranges can be projected by each of the different projectors 2_1, 2_2, and 2_3.
  • the projection light data generation unit 11 generates projection light data 11a_1, 11a_2, and 11a_3 for each of the projectors 2_1, 2_2, and 2_3.
  • the projection light data 11a_1, 11a_2, and 11a_3 have different brightness and colors for the projectors 2_1, 2_2, and 2_3.
  • projection light data 11a_1, 11a_2, and 11a_3 are supplied to the projection light data correction unit 13. Then, the projection light data correction unit 13 corrects the projection light data 11a_1 using the projection range parameter 12a_1, generates projection light correction data 13a_1, and supplies it to the projection light correction data drawing unit 14_1. At the same time, the projection light data correction unit 13 corrects the projection light data 11a_2 using the projection range parameter 12a_2 by the projection light data correction unit 13 to generate the projection light correction data 13a_2, and the projection light correction data drawing unit. 14_2. At the same time, the projection light data correction unit 13 corrects the projection light data 11a_3 using the projection range parameter 12a_3 by the projection light data correction unit 13 to generate the projection light correction data 13a_3, and the projection light correction data drawing unit. 14_3.
  • different projection light data 11a_1, 11a_2, and 11a_3 can be set, and a plurality of projection ranges can be projected by each of the projectors 2_1, 2_2, and 2_3.
  • the lighting system shown in FIG. 62 is provided with lighting control devices 1_1 and 1_2, which are personal computers, for each projector 2_1 and 2_2.
  • Such illumination control apparatuses 1_1 and 1_2 each include a projection light data generation unit 11, a projection range setting unit 12, a projection light data correction unit 13, and a projection light correction data drawing unit 14.
  • the illumination control devices 1_1 and 1_2 include synchronization processing units 161_1 and 161_2 that synchronize the projection light drawing data supplied from the projection light correction data drawing unit 14 to the projectors 2_1 and 2_2.
  • These synchronization processing units 161_1 and 161_2 are connected to each other, and supply projection light drawing data output commands to the projection light correction data drawing units 14_1 and 14_2 according to the same clock signal. Accordingly, the illumination control devices 1_1 and 1_2 can output the projection light 2a synchronized with the projectors 2_1 and 2_2, respectively.
  • the illumination system shown in FIG. 63 includes a master PC 7 as a personal computer connected to each of the illumination control devices 1_1 and 1_2 from which the projection range setting unit 12 is removed.
  • the master PC 7 controls the projection light data correction unit 13 and the synchronization processing units 161_1 and 161_2 of the illumination control devices 1_1 and 1_2 using the illumination control devices 1_1 and 1_2 as slaves.
  • the master PC 7 includes a projection range setting unit 12.
  • a projection range parameter 12a to be formed in each of the projectors 2_1 and 2_2 is set by a user operation.
  • the master PC 7 includes a synchronization operation unit 162 and a synchronization signal generation unit 163 for controlling the synchronization processing units 161_1 and 161_2.
  • the synchronization operation unit 162 sets the synchronization operation of the projection light correction data drawing unit 14 in accordance with a user operation. That is, in order to synchronize the timing at which the projectors 2_1 and 2_2 project the projection light 2a, the operation time interval of each projection light correction data drawing unit 14 is set.
  • the synchronization signal generation unit 163 supplies a synchronization signal to the synchronization processing units 161_1 and 161_2 according to the synchronization operation set by the synchronization operation unit 162, and synchronizes the respective projection light correction data drawing units 14.
  • the master PC 7 supplies the projection range parameter 12a indicating the projection range desired to be formed by the projector 2_1 to the projection light data correction unit 13 of the illumination control device 1_1 by the projection range setting unit 12 and is formed by the projector 2_2. Is supplied to the projection light data correction unit 13 of the illumination control device 1_2.
  • the synchronization signal generation unit 163 controls the synchronization processing units 161_1 and 161_2 to synchronize the projection light correction data drawing unit 14. Then, the projectors 2_1 and 2_2 are driven.
  • this illumination system may project image light as projection light. As shown in FIGS. 64 and 65, this illumination system has the same configuration as that of the illumination control apparatus 1 but a part that is configured to handle an image, such as “image control apparatus 1 ′”. It attaches and illustrates.
  • the video data generation unit 11 generates the video data 11a', and the video projection range setting unit 12 'sets the projection range parameter 12a'.
  • the illumination system creates video correction data 13a 'indicating a predetermined video range (video trimming region) by the video data correction unit 13'.
  • the video drawing unit 14 ′ creates the video drawing data 14 a ′ using the video correction data 13 a ′ and drives the projector 2 ′.
  • the illumination system can project the image light with the image range set from the projector 2 '.
  • the illumination system shown in FIG. 65 is an application of the illumination system shown in FIG. 48 to an image.
  • the image distortion correction parameter calculation unit 84 ′ calculates the image distortion correction parameter 84a ′ based on the shooting parameter, the image projection parameter, and the virtual plane parameter, and the image data distortion correction unit 85 ′ applies the image data 11a ′ to the image data 11a ′.
  • Video distortion correction processing texture mapping processing
  • the captured image data 61a captured by the camera device 5 is displayed by the captured image data display unit 86, and the image range and non-existence are determined from the captured image data 61a according to the extraction condition of the image projection range extraction setting unit 91 ′.
  • the video range is classified and the projection range parameter 82a ′ is given to the video data correction unit 13 ′.
  • the video range and the non-video range can be corrected according to the user's operation by the video projection range correction unit 101 ′.
  • the video data correction unit 13 ′ performs trimming (correction) processing on the video distortion correction data 75a ′ corrected by the video data distortion correction unit 85 ′ according to the projection range parameter 82a ′, thereby reducing the video range.
  • the video correction data 13a ′ shown can be created.
  • the projection range and the non-projection range in which the projection light is projected are set in the projection range in which the projection light is projected according to the user's operation. Light can be projected in shape.

Abstract

任意の空間と、その空間内に設定された物体に光を投影する光投影装置であって、投影光を特定する投影光データを生成する投影光データ生成手段と、ユーザの操作に従って、光を投影する投影範囲と、光を投影しない非投影範囲を設定する投影範囲設定手段と、投影範囲設定手段により設定された投影範囲に光を投影するように投影光データを補正する投影データ補正手段と、投影データ補正手段により補正された投影光補正データの描画処理を行う投影光補正データ描画手段と、投影光データ描画手段により生成された投影光描画データを用いて光を投影する光投影手段とを備えることで、簡単な操作によってユーザが希望する形状で光を投影する。

Description

光投影装置、照明装置
 本発明は、ユーザが希望する場所のみに光を投影する光投影装置、照明装置に関する。
 従来より、投影光の形を変化させる照明装置としては、下記の非特許文献1に記載されているように、投影機器にゴボやマスクなどと呼ばれるフィルタを設置し、当該投影機器から投影光が出射される投影部を遮光している。これにより、フィルタを通過した投影光は、特定の形に切り抜かれた状態となる。具体的には、従来の照明システムでは、丸、三角、四角などで構成されるベース形状で切り抜かれたフィルタ(ゴボなど)を投影機器に取り付けて、投影光の輪郭に形をつけている。
 また、従来の照明システムにおいて、特定の形状に沿って投影したい場合は、投影機器から出射された投影光の投影位置を当該特定の場所に合わせた後、投影機器の絞り機能やズーム機能によって大まかな投影光の形状合わせを行っている。
 更に、従来においては、投影機器であるプロジェクタを照明器具(ライト)の代わりに使用して、空間演出を行う照明システムがある。この照明システムに使用される照明器具は、ムービングプロジェクタとも呼ばれる。このムービングプロジェクタは、投影光として映像光を出射する。このため、投影光の形、色を自由に設定して、動画として変化させることが可能である。
 しかしながら、この照明システムであっても、投影光に形をつける場合は、従来の照明システムと同様に、ベース形状を用いて、大まかに被投影物体の形状に投影光の輪郭を合わせる手法が採用されている。
 更にまた、従来においては、立体形状モデルに物体の表面テクスチャを効果的に表現することができる立体表示装置として、下記の特許文献1に記載された技術が知られている。
 しかしながら、上述した従来の照明システムにおいては、予め用意しておいた形状フィルタや絞り、ズームを用いるので、被投影物体に対して大まかに投影光の形状をあわせることしかできない。また、ベース形状を映像に重ね合わせるマスク処理では、ベース形状を被投影物体の形状にあわせて作成することにより精度の高い形状あわせが可能であるが、ベース形状は2次元形状で作成される。このため、任意形状の被投影物体を異なる方向から見た場合には、異なるベース形状を用いる必要があり、異なる位置に配置された複数の投影装置によって、同時に被投影物体に向けて投影光を投影する技術には転用しがたい。
 そこで、本発明は、上述した実情に鑑みて提案されたものであり、簡単な操作によってユーザが希望する形状で光を投影することができる光投影装置、照明装置を提供することを目的とする。
特開2006-338181号公報 http://www.egghouse.com/gobo/about.htm http://www.ushiolighting.co.jp/product/productimage/pdf/dl2.pdf
 本発明に係る光投影装置は、上述の課題を解決するために、任意の空間と、その空間内に設定された物体に光を投影する光投影装置であって、投影光を特定する投影光データを生成する投影光データ生成手段と、ユーザの操作に従って、光を投影する投影範囲と、光を投影しない非投影範囲を設定する投影範囲設定手段と、投影範囲設定手段により設定された投影範囲に光を投影するように投影光データを補正する投影データ補正手段と、投影データ補正手段により補正された投影光補正データの描画処理を行う投影光補正データ描画手段と、投影光データ描画手段により生成された投影光描画データを用いて光を投影する光投影手段とを備える。
 本発明において、投影光データ生成手段は、投影光の照度、輝度、光度、光束、色温度、演色性を含む要素を特定しても良い。
 本発明において、投影光データ生成手段は、投影範囲設定手段が設定した投影範囲をさらに分割し、当該分割した投影範囲ごとに光の特性を指定しても良い。
 本発明は、ユーザの操作に従って任意の形状を描画入力する形状描画入力手段を備え、投影範囲設定手段は、形状描画入力手段で入力された形状を投影範囲としても良い。
 本発明は、格子状に形成される基準画像を生成する基準画像データを生成する基準画像データ生成手段と、基準画像データ生成手段により生成された基準画像データの描画処理を行う基準画像描画手段と、基準画像描画手段により描画された基準画像描画データを用いて光を投影する基準画像投影手段と、基準画像描画手段により描画された基準画像描画データを表示する表示手段とを備え、光を投影する対象空間及び物体に対して、基準画像を投影しても良い。
 本発明は、基準画像投影手段の位置姿勢及び仕様を含むパラメータを入力する基準画像投影パラメータ入力手段と、投影範囲設定手段によって投影範囲を設定するユーザの操作位置を含むパラメータを入力する操作位置パラメータ入力手段と、基準画像投影手段から投影される基準画像の表示状態を把握させるために、当該基準画像投影手段の投影領域において仮想的に設定した仮想平面領域の位置姿勢と大きさとを含むパラメータを入力する仮想平面パラメータ入力手段と、基準画像投影手段の位置姿勢及び仕様を含むパラメータ、操作位置を含むパラメータ及び仮想平面領域の位置姿勢と大きさとを含むパラメータに基づいて、ユーザが基準画像を視認した場合に仮想平面上において当該基準画像を歪みなく観察させるために基準画像投影手段から投影される基準画像を歪ませるように基準画像データを補正する基準画像歪み補正手段とを備えていても良い。
 本発明は、基準画像投影手段から投影される基準画像を表示するための平面スクリーンと、平面スクリーンに表示された基準画像を撮影する撮影手段と、撮影手段により撮影された撮影データと、基準画像データ生成手段により生成された基準画像とを一致させるように基準画像投影手段から投影される基準画像を歪ませる基準画像歪み補正手段とを備えていても良い。
 本発明は、投影範囲を特定する条件を入力する投影範囲識別条件設定手段と、投影範囲識別条件設定手段で入力された条件に従って投影範囲を識別する投影範囲識別手段とを備え、投影範囲識別手段により識別された投影範囲に対応して投影光データを補正し、光投影手段から光を投影しても良い。
 本発明は、光投影手段の投影範囲を含む空間を撮影範囲とする撮影手段と、撮影手段により撮影された撮影データを表示する撮影データ表示手段と、撮影手段の位置姿勢及び仕様を含むパラメータを入力する撮影パラメータ入力手段と、光投影手段の位置姿勢及び仕様を含むパラメータを入力する光投影パラメータ入力手段と、光投影手段の投影範囲の状態を把握するために、仮想的に設定した仮想平面領域の位置姿勢と大きさとを含むパラメータを入力する仮想平面入力手段と、撮影手段の位置姿勢及び仕様を含むパラメータ、光投影手段の位置姿勢及び仕様を含むパラメータ及び仮想平面領域の位置姿勢と大きさとを含むパラメータに基づいて、仮想平面上において投影光が撮影手段の撮影範囲と一致するように、投影光データを補正する投影光データ補正手段とを備えていても良い。
 本発明は、投影範囲を抽出する条件を設定する投影範囲抽出設定手段と、投影範囲抽出設定手段により設定された条件に従って撮影手段により生成された撮影データを解析して、投影範囲と当該投影範囲以外の非投影範囲とを分別する分別手段とを備え、投影光データ補正手段は、分別手段により分別された投影範囲と非投影範囲とに基づいて、投影光データを補正しても良い。
 本発明は、ユーザの操作に従って、投影範囲の境界を修正する投影範囲修正手段を備えていても良い。
 本発明は、投影光データを保存する投影光データ保存手段と、投影光データ保存手段に保存された投影光データの、少なくとも出力順序又は出力条件の何れかを設定する投影光データ出力設定手段と、投影光データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影光データ保存手段に保存された投影光データを出力する投影光データ更新手段とを備えていても良い。
 本発明は、投影光データ補正手段により投影光データを補正するための投影範囲パラメータを保存する投影範囲パラメータ保存手段と、投影範囲パラメータ保存手段に保存された投影範囲パラメータの、少なくとも出力順序又は出力条件の何れかを設定する投影範囲出力設定手段と、投影範囲出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影範囲パラメータ保存手段に保存された投影範囲パラメータを出力する投影範囲パラメータ更新手段とを備えていても良い。
 本発明は、投影光データ補正手段により補正された投影光補正データを保存する投影光補正データ保存手段と、投影光補正データ保存手段に保存された投影光データの、少なくとも出力順序又は出力条件の何れかを設定する投影光補正光データ出力設定手段と、投影光補正データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影光補正データ保存手段に保存された投影光データを出力する投影光データ更新手段とを備えていても良い。
 本発明は、基準画像データを保存する基準画像データ保存手段と、基準画像データ保存手段に保存された基準画像データの、少なくとも出力順序又は出力条件の何れかを設定する基準画像データ出力設定手段と、基準画像データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って基準画像データ保存手段に保存された基準画像データを出力する基準画像更新手段とを備えていても良い。
 本発明は、投影光補正データ描画手段により生成された投影光描画データを保存する投影光描画データ保存手段と、投影光描画データ保存手段に保存された投影光描画データを外部記憶媒体に記憶して、当該外部記憶媒体に記憶された投影光描画データを光投影手段に出力する外部記憶手段とを備えていても良い。
 本発明は、光投影手段を複数備えていても良い。
 本発明において、投影光データは、映像を表す映像データであり、投影範囲設定手段は、映像が投影される映像投影範囲と非投影範囲を設定し、投影光データ補正手段は、映像投影範囲に映像を投影するように映像データを補正し、投影光補正データ描画手段は、補正された映像データの描画処理を行い、光投影手段は、映像投影範囲に映像を投影しても良い。
 本発明は、上記の何れかに記載の構成を備えた照明装置であっても良い。
本発明の第1実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第1実施形態として示す照明システムの具体的な構成を示す斜視図である。 本発明の第1実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第2実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第2実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第3実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第3実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第4実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第4実施形態として示す照明システムの機能的な他の構成を示すブロック図である。 本発明の第4実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第4実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第4実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第4実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第5実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第5実施形態として示す照明システムにおいて、投影範囲に歪みが発生した様子を示す図である。 本発明の第5実施形態として示す照明システムにおいて、投影範囲の歪みを補正する様子を示す図である。 本発明の第5実施形態として示す照明システムにおいて、補正後の投影範囲に投影範囲を形成した様子を示す図である。 本発明の第5実施形態として示す照明システムにおいて、平板状の被照射物体に対するユーザの視点位置、視野角及び距離を示す図である。 本発明の第5実施形態として示す照明システムにおいて、ユーザから平板状の被照射物体を見たときにユーザが視認する映像について説明する図である。 本発明の第5実施形態として示す照明システムにおいて、平板状の被照射物体に対する照射光投影部の投影位置、投影画角及び距離を示す図である。 本発明の第5実施形態として示す照明システムにおいて、照射光投影部から平板状の被照射物体に光投影する様子を説明する図である。 本発明の第5実施形態として示す照明システムにおいて、ユーザからドーム型の被照射物体を見たときにユーザが視認する映像について説明する図である。 本発明の第5実施形態として示す照明システムにおいて、照射光投影部からドーム型の被照射物体に光投影する様子を説明する図である。 本発明の第6実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第6実施形態として示す照明システムにおいて、平面スクリーンを利用した歪み補正を説明する図である。 本発明の第6実施形態として示す照明システムにおいて、平面スクリーン上の歪みを補正した様子を示す図である。 本発明の第6実施形態として示す照明システムにおいて、平面スクリーンを除いて投影光を投影した様子を示す図である。 本発明の第7実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第7実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第7実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第8実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第8実施形態として示す照明システムにおいて、カメラ装置によって被投影物体を撮影している様子を示す図である。 本発明の第8実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第8実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第8実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第9実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第9実施形態として示す照明システムにおいて、カメラ装置によって撮像した画像を液晶パネル上に表示させた様子を示す図である。 本発明の第9実施形態として示す照明システムの具体的な動作状態を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、被投影物体の背後にブルーシートを配置した様子を示す図である。 本発明の第9実施形態として示す照明システムにおいて、撮影範囲に投影範囲を合わせた様子を示す図である。 本発明の第9実施形態として示す照明システムにおいて、被投影物体に点状のマーカを貼り付けた様子を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、点状のマーカを中心として所定範囲を投影範囲としたときの具体的な動作状態を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、被投影物体に線状のマーカを貼り付けた様子を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、線状のマーカを中心として所定範囲を投影範囲としたときの具体的な動作状態を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、点状のマーカを外した後の具体的な動作状態を示す斜視図である。 本発明の第9実施形態として示す照明システムにおいて、線状のマーカを外した後の具体的な動作状態を示す斜視図である。 本発明の第10実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第10実施形態として示す照明システムの機能的な他の構成を示すブロック図である。 本発明の第10実施形態として示す照明システムの具体的な様子を示すブロック図である。 本発明の第10実施形態として示す照明システムの具体的な様子を示すブロック図である。 本発明の第10実施形態として示す照明システムの具体的な様子を示すブロック図である。 本発明の第10実施形態として示す照明システムの具体的な様子を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。 本発明の第11実施形態として示す照明システムの機能的な構成を示すブロック図である。
 以下、本発明の実施の形態について図面を参照して説明する。
[第1実施形態]
 本発明は、例えば、図1乃至図3に示すように構成された第1実施形態として示す照明システムに適用される。この照明システムは、照明制御装置1と、当該照明制御装置1の制御によって動作するプロジェクタ2とによって構成されている。この照明システムは、ユーザの簡単な操作のみによって、特定の物体や空間のみにプロジェクタ2から光を投影するものである。
 具体的には、照明システムは、図2に示すように、プロジェクタ2から投影可能範囲2bの投影光2aを投影して、被投影物体3a,3b(以下、総称する場合には、単に被投影物体3とも呼ぶ。)の特定の投影範囲2c,2d(以下、総称する場合には、単に投影範囲2cとも呼ぶ)のみを明るく投影することができる。なお、以下の説明においては、投影光2aには、投影範囲2c,2dを明るく投影する投影光と、背景に向けて投影される非投影光とが含まれるものとして説明する。
 照明制御装置1は、投影光2aを特定する投影光データ(投影光データ)を生成する投影光データ生成手段としての投影光データ生成部11と、ユーザの操作に従って投影光2aを投影する投影可能範囲2bのうちの投影範囲2c,2dと非投影範囲を設定する投影範囲設定手段としての投影範囲設定部12と、投影範囲設定部12により設定された投影範囲2c,2dに投影光を投影するように投影光データ生成部11により入力した投影光データを補正する投影光データ補正手段としての投影光データ補正部13と、投影光データ補正部13によりトリミング(補正)処理によって補正された投影光補正データの描画処理を行う投影光データ描画手段としての投影光補正データ描画部14とを備える。
 また、プロジェクタ2は、投影光補正データ描画部14により生成された投影光描画データを用いて、投影範囲に投影光を投影する投影光を生成する光投影手段として機能する。
 投影光データ生成部11は、DVDを再生する再生装置、各種の投影光データ11aを記憶したハードディスク装置等からなる。投影光データ生成部11は、ユーザによる操作などに従って、投影光データ11aを投影光データ補正部13に供給する。
 また、投影光データ生成部11は、投影光2aに含まれる投影範囲2c,2dに投影する投影光、非投影範囲に投影する非投影光を特定する特性情報を設定する。具体的には、この特性情報としては、投影光の照度、輝度、光度、光束、色温度、演色性を含む要素があり、当該各要素を特定することができる。そして、投影光データ生成部11は、特性情報によって特定された投影光データ11aを生成して、投影光データ補正部13に出力する。
 投影範囲設定部12は、投影範囲と非投影範囲とを特定する投影範囲パラメータ12aを記憶したメモリ等などで構成される。この投影範囲パラメータ12aは、プロジェクタ2の投影可能範囲2bにおける座標によって光が投影される投影範囲2c又は非投影範囲を表したデータである。投影範囲設定部12は、必要に応じて、予め作成した投影範囲パラメータを投影光データ補正部13に供給する。
 投影光データ補正部13は、投影光データ生成部11から供給された投影光データ11aを、投影範囲設定部12から供給された投影範囲パラメータ12aを用いて、投影範囲2cを設定する。投影範囲2cを設定することによって、投影光データ補正部13は、非投影範囲を設定することができる。
 投影光データ補正部13は、投影範囲2cを設定するために、投影光データ11aに対してトリミング処理を行う。具体的には、投影光データ補正部13は、投影光2aのうち、投影範囲2cを明るくする投影光の範囲を決定する。そして、投影光2aのうち投影範囲2cに相当する部分だけを投影光データ生成部11によって決定された投影光の色や輝度とする。一方、投影光データ補正部13は、投影光2aのうち投影範囲2c以外の非投影範囲に相当する部分を投影光データ生成部11によって決定された非投影光の色や輝度とする。このように作成された投影光データ11aの補正データは、投影光補正データ13aとして投影光補正データ描画部14に供給される。
 投影光補正データ描画部14は、投影光データ補正部13から供給された投影光補正データ13aを用いて描画処理を行って、投影光描画データ14aをプロジェクタ2に出力する。これによって、照明制御装置1は、プロジェクタ2を投影光描画データ14aによって駆動する。
 このような照明システムによれば、予め明るく投影する投影範囲2cを決定しておくだけで、投影可能範囲2bのうち所望の投影範囲2c,2dだけを強調した投影光2aを投影することができる。具体的には、図3に示すように、被投影物体3周囲を投影範囲2cとし、壁面3’を非投影範囲とすることができる。
 すなわち、既存のトリミング照明では、予め作成されたマスク(遮光版)をプロジェクタ2の投影レンズの前に設置したり、予め指定されたマスク形状による画像補正(マスキング)で投影光のトリミング(投影範囲2cの補正)を実現していたが、予め投影範囲パラメータ12aを用意しておくだけで、投影範囲2cを設定することができ、リアルタイムにトリミングした投影光の設定作業、投影動作を実現することができる。
[第2実施形態]
 つぎに、本発明の第2実施形態として示す照明システムについて、図4及び図5を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 第2実施形態として示す照明システムは、投影光データ生成部11が、投影範囲設定部12が設定した投影範囲2cをさらに分割し、当該分割した投影範囲2cごとに光の特性を指定するものである。
 この照明システムは、図4に示すように、投影光データ生成部11が、投影可能範囲2b内において投影範囲2cを分割した範囲ごとの投影光データ11aを出力する。投影光データ生成部11は、それぞれ光の特性としての投影光の照度、輝度、光度、光束、色温度、演色性を含む要素が異なる複数の投影光データ11aを出力する。特性が異なる複数の投影光データ11aは、予め記憶されたものであっても良く、投影光データ生成部11の画像処理によって特性を変化させて生成されたものであっても良い。
 投影範囲設定部12は、投影範囲2cを分割した各範囲を示す投影範囲パラメータ12aを投影光データ補正部13に供給する。
 投影光データ補正部13は、投影範囲パラメータ12aによって分割された複数の投影範囲2cのそれぞれに対して異なる光によって投影を行うことができるように投影光データ生成部11を補正して、投影光補正データ13aを作成する。
 具体的には、図5に示すように、被投影物体3周囲の投影範囲2c-1には明るい光を投影し、当該投影範囲2c-1周囲の投影範囲2c-2には、当該投影範囲2c-1よりも暗い光を投影する。この場合、投影光データ11aは、投影範囲2c-1に投影される光のための投影光データ11aと、投影範囲2c-2に投影される光のための投影光データ11aとからなる。同様に、投影範囲パラメータ12aは、投影可能範囲2bのうちの投影範囲2c-1を座標データで表す投影範囲パラメータ12aと、投影可能範囲2bのうちの投影範囲2c-2を座標データで表す投影範囲パラメータ12aとからなる。
 このような照明システムによれば、分割した投影範囲2cごとに投影光データ11aを用意しておくだけで、投影可能範囲2bのうち複数の投影範囲2cに対して所望の投影光2aにより投影することができる。
[第3実施形態]
 つぎに、本発明の第3実施形態として示す照明システムについて、図6及び図7を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 第3実施形態に係る照明システムは、図6に示すように、ユーザの操作に従って任意の形状を描画入力する形状描画入力部20を備え、投影範囲設定部12に、形状描画入力部20で入力された形状を投影範囲2cとするものである。
 形状描画入力部20は、マウス等のポインティングデバイス、モニタ装置21の表示部として構成された液晶パネルとユーザが操作するペンとからなるペンタブレットシステムで構成されている。ここで、液晶パネルの全画面が、投影可能範囲2bの全範囲に対応していることが望ましい。
 形状描画入力部20は、ペンタブレットシステムの場合、ペンによって液晶パネルに与えられた筆圧の軌跡情報を生成する。この筆圧の軌跡情報は、プロジェクタ2による投影範囲2c(トリミング領域)の輪郭を表す投影範囲パラメータ12aに変換される。この投影範囲パラメータ12aは、投影範囲設定部12から投影光データ補正部13に供給されて、投影光データ補正部13によって、投影範囲パラメータ12aに基づいて投影光データ11aを補正して、投影範囲2cを変更することができる。
 図7には、形状描画入力部20がマウスであり、実際に被投影物体3に投影光2aが投影されて投影範囲2c-1及び投影範囲2c-2が形成されている場合に、マウスを動かしながら投影範囲2c-1を変更できる様子を示している。
 このように照明システムによれば、ユーザが形状描画入力部20を操作して、所望の投影範囲2cの輪郭を指定する操作だけで、投影可能範囲2bのうち所望の投影範囲2cだけを強調した投影光2aを投影することができる。
 すなわち、既存のトリミング照明では、予め作成されたマスク(遮光版)をプロジェクタ2の投影レンズの前に設置したり、予め指定されたマスク形状による画像補正(マスキング)で投影光のトリミング(投影範囲2cの補正)を実現していたが、本発明を適用した照明システムによれば、実際に被投影物体3を見ながら、その場で絵を描くように投影範囲2cを設定することができ、リアルタイムに投影範囲2cの設定作業、投影動作、修正作業を実現することができる。
 なお、この照明システムにおいて、投影範囲設定部12は、ペンタブレットシステムを用いた場合、液晶パネルに直接的に投影範囲2cの輪郭を書き込む形態とすることが考えられるが、これには限らない。例えば、予め作成されたベース形状(円、楕円、四角、多角形、星形状など)を任意の場所に配置して、投影範囲2cを設定しても良く、当該ベース形状を拡大、縮小、形状変化させて投影範囲2cを設定しても良い。形状変化の例としては、円と楕円の間での変形、正方形と長方形の間での変形が挙げられる。
 また、この照明システムにおいて、ユーザが形状描画入力部20によって投影範囲2cを指定する時に、形状描画入力部20の操作に対して、手探り点を液晶パネルに表示することや、プロジェクタ2によって手探り点に対応した光を発しても良い。例えば、被投影物体3の左上端部を正確に指定したい場合、任意に形状描画入力部20に触れた時に、当該任意の点に対応した投影可能範囲2b内の位置を照らすようにプロジェクタ2を動作させることとなる。これによって、照明システムは、より簡単に投影範囲2cを指定させる操作をさせることができる。
[第4実施形態]
 つぎに、本発明の第4実施形態として示す照明システムについて、図8~図13を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 この照明システムは、図8に示すように、上述した照明システムに加えて、投影光を投影する基準となる基準画像を投影する基準画像用制御装置4を備えている。具体的には、照明システムは、基準画像用制御装置4に、基準画像を投影するための基準画像データを生成する基準画像データ生成手段としての基準画像データ生成部32と、基準画像データ生成部32により生成された基準画像データの描画処理を行う基準画像描画手段としての基準画像データ描画部33とを備える。また、照明システムは、投影光2aとは別個に基準画像を投影するため、基準画像投影手段としての基準画像用プロジェクタ2Bを備えている。
 なお、以下の説明において、投影光2aを投影するプロジェクタと、基準画像を投影するプロジェクタとを区別する場合には、それぞれ、「投影光用プロジェクタ2A」、「基準画像用プロジェクタ2B」と呼ぶ。
 また、この照明システムにおいて、照明制御装置1は、基準画像を表示させる表示手段として基準画像表示部31を備えている。この基準画像表示部31は、液晶パネルなどからなる。
 このような照明システムは、ユーザが投影範囲2c,2dを設定するに際して、基準画像データ生成部32によって、格子点又は格子線等で構成される特定の基準画像データ32aを生成する。この基準画像は、投影光用プロジェクタ2Aの投影可能範囲2b内の座標をユーザが視認できるような画像であれば良い。
 基準画像データ描画部33は、基準画像データ生成部32から供給された基準画像データ32aを用いた描画処理を行って、基準画像描画データ33aを基準画像用プロジェクタ2Bに出力する。また、基準画像データ描画部33は、照明制御装置1の基準画像表示部31に基準画像を表示させるために、基準画像描画データ33aを基準画像表示部31に供給する。
 基準画像表示部31は、投影範囲設定部12が液晶パネルを備える場合、共用の表示装置からなる。この基準画像表示部31は、基準画像描画データ33aに従って液晶機構を駆動させて、基準画像を表示させる。
 なお、この照明システムは、図9に示すように、照明制御装置1内に、基準画像表示部41と、基準画像データ生成部32及び基準画像データ描画部33を備え、単一のプロジェクタ2によって基準画像と投影光2aとを投影しても良い。これによって、単一のプロジェクタ、パーソナルコンピュータによって照明システムを構成できる。
 このような照明制御装置1は、図10に示すように、モニタ装置21としての液晶パネル21aに、基準画像23cを表示させた上で、ペン21bの操作結果としての輪郭画像23a,23bも表示させることができる。また、照明制御装置1は、プロジェクタ2によって、投影可能範囲2b内に、基準画像23cに対応した基準画像2eを投影でき、更に、輪郭画像23a,23bに対応した投影範囲2c,2dを含む投影光2aを投影することができる。
 更に具体的には、図11に示すように、先ず、被投影物体3a、3b及び壁面3’に基準画像2eを投影する。この状態において、図12に示すように、液晶パネル21a上で基準画像23cを表示させて、形状描画入力部20を用いて輪郭画像23a,23bを設定すると、投影範囲パラメータ12aを生成する。これにより、照明制御装置1は、投影範囲パラメータ12aを用いて、投影光データ補正部13が投影光データ11aを補正して、投影光補正データ13aの描画処理を行って、プロジェクタ2から、被投影物体3a、3bを明るくした投影範囲2c-1を形成することができる。なお、形状描画入力部20は、マウスに限らず、図13のように液晶パネル21a上に触圧するペン21bであっても良い。
 このような照明システムは、液晶パネル21aに表示させた基準画像23cと、投影光2aによって投影される基準画像2eとの対応関係をユーザに視認させながら、液晶パネル21aに対して、投影範囲2cを設定する操作をさせることができる。これによって、より簡単に投影可能範囲2bのうち所望の投影範囲2cだけを強調した投影光2aを投影することができる。
 すなわち、上述した照明システムでは、絵を描くような直感的な操作で投影範囲2cを設定できたが、投影範囲設定部12への入力位置と、被投影物体3の形状や位置との対応を提示していないので、手探り状態で投影範囲2cを指定しなくてはいけない。これに対し、この照明システムによれば、被投影物体3を含む投影可能範囲2bに基準画像2eを含めるように投影光2aを投影し、液晶パネル21a上に、基準画像2eと対応した基準画像23cを表示できる。これにより、被投影物体3a,3b上の基準画像2eをユーザが確認して、液晶パネル21a上の基準画像23cに併せて輪郭画像23a,23bを描くことができる。
[第5実施形態]
 つぎに、本発明を適用した更に他の照明システムについて、図14~図23を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 この照明システムは、基準画像用プロジェクタ2Bから投影光2aを投影する投影可能範囲2bに基準画像2eを投影した場合に、当該基準画像2eの歪みを補正する点で、上述した照明システムとは異なる。
 この照明システムは、図14に示すように、基準画像2eを投影する基準画像用プロジェクタ2Bの位置姿勢及び仕様(投影画角、バックフォーカス、打ち込み角)を含むパラメータを入力する基準画像投影パラメータ入力手段としての基準画像投影パラメータ入力部51と、投影範囲設定部12によって投影範囲2cを設定するユーザの操作位置を示す操作位置パラメータを入力する操作位置パラメータ入力手段としての操作位置パラメータ入力部52と、投影されている基準画像2eの表示状態を把握させるために、当該基準画像2eの投影領域において仮想的に設定した平面領域の位置姿勢と大きさとを入力する仮想平面パラメータ入力手段としての仮想平面パラメータ入力部53と、基準画像用プロジェクタ2Bのパラメータ、操作位置パラメータ及び仮想平面パラメータに基づいて、ユーザが基準画像2eを視認した場合に当該基準画像2eを歪みなく観察させるために基準画像用プロジェクタ2Bから投影される基準画像を含む投影光2aを歪ませるように基準画像データを補正するための基準画像歪み補正手段としての基準画像歪み補正パラメータ算出部54及び基準画像データ歪み補正部55とを備える。
 基準画像投影パラメータ入力部51、操作位置パラメータ入力部52及び仮想平面パラメータ入力部53は、基準画像2eの歪みに影響するパラメータを入力する。具体的には、ユーザが操作するキーボード及び当該キーボード操作を認識する入力インターフェースや、各種パラメータが格納された記録媒体を読み取る機構、外部から送信された各種パラメータを受信する機構などで構成される。
 基準画像のためのパラメータは、基準画像2eの歪み状態に影響を与える情報として、投影光2aの投影対象である被投影物体3に対するプロジェクタ2との位置(座標情報)、姿勢(回転角情報)を含む。また、このパラメータとしては、基準画像2eの歪み状態に影響を与える基準画像用プロジェクタ2Bの仕様として、投影画角、バックフォーカス、打ち込み角などを含む。なお、基準画像用プロジェクタ2Bのパラメータとしては、基準画像用プロジェクタ2Bの仕様として更に他の詳細な情報を含めても良い。
 操作位置パラメータは、投影光2aの投影対象である被投影物体3に対する操作位置を示す。この操作位置としては、基準画像用制御装置4(照明制御装置1)を構成するパーソナルコンピュータ位置であっても良く、当該パーソナルコンピュータ位置から推定されるユーザの視点位置であって良い。
 仮想平面パラメータは、投影光2aが投影される仮想平面を特定するパラメータであり、当該仮想平面を構成する座標群情報である。この仮想平面パラメータは、例えば被投影物体3に対して投影範囲2cを設定する使用場面においては、被投影物体3aの設置位置に仮想平面を設定するような情報となる。
 基準画像歪み補正パラメータ算出部54は、基準画像のためのパラメータ、操作位置パラメータ、仮想平面パラメータから、基準画像歪み補正パラメータ54aを算出して出力する。基準画像用プロジェクタ2Bの位置姿勢及び仕様、操作位置、仮想平面の位置によって基準画像2eに歪みが発生する。しかし、この基準画像歪み補正パラメータ54aは、基準画像データ32aに対して歪みを与えることによって、仮想平面においては歪み無く基準画像2eを視認させることができるものである。具体的には、基準画像歪み補正パラメータ54aは、長方形の2次元画像である基準画像データ32aの座標情報と、実際の基準画像用プロジェクタ2Bの位置姿勢及び仕様、操作位置、仮想平面の位置によって発生する歪みをなくした補正後の基準画像データ32aの座標情報との対応関係(対応マップ)を示す。
 基準画像データ歪み補正部55は、基準画像データ生成部32から供給された基準画像データ32aに対して、基準画像歪み補正パラメータ算出部54から供給された歪み補正パラメータ54aを用いた座標変換処理(テクスチャマッピング)を行う。これによって、基準画像データ32aは、基準画像用プロジェクタ2Bによって基準画像2eを投影した時に、ユーザからは歪み無く見えるような基準画像歪み補正データ55aを算出して、基準画像データ描画部33に供給する。
 このような基準画像用制御装置4は、歪み補正を行わない場合、図15に示すように、基準画像用プロジェクタ2Bの位置及び姿勢、仕様や、操作位置によって仮想平面に投影した時に、基準画像2eが歪んで投影されてしまう。これに対し、基準画像用制御装置4は、基準画像2eの歪みの発生要因となる基準画像用プロジェクタ2Bの位置及び姿勢、仕様や、操作位置、仮想平面の位置に基づいて基準画像歪み補正パラメータ54aを生成して、基準画像データ32aに歪み補正処理である座標変換を施す。
 これにより、基準画像用制御装置4は、図16に示すように、仮想平面2f上において、基準画像2eの投影可能範囲2bを、歪み補正後の新たな投影可能範囲2b’となるように修正することができる。したがって、この照明システムによれば、図17に示すように、液晶パネル21aに表示された基準画像23cと、仮想平面2f上の基準画像2eとを対応したものとすることができる。
 したがって、この照明システムによれば、ユーザの操作位置(観察位置)、投影可能範囲2bの設置位置、投影光2aの投影位置を変更しても、当該投影位置に歪みのない基準画像2eを投影して、簡単に投影範囲2c,2dを設定することができる。
 「投影光データの補正処理」
 ここで、この照明システムにおける光の歪み補正処理について説明する。なお、以下の説明は、基準画像データ歪み補正部55が、基準画像歪み補正パラメータ54aを用いて基準画像データ32aを補正することにより、任意形状の投影面に投影された基準画像2eが歪み無く見えるようにするための処理である。
 例えば図18に示すように、任意形状の被照射物体Sとして、ユーザに対して距離Lだけ離間し、ユーザに対して斜めに傾斜して配置された平板状物体Sを考える。この平板状物体Sは、ユーザの視点位置P1から視野角θ1で視認される。ユーザの視野中心と交差する平板状物体S上の点P2からユーザまでは、距離L1だけ離間している。
 視点位置P1と平板状物体S上の点P2との位置関係において、図19(a)に示すように、図19(b)に示す格子状の平面映像Pic(コーティング光)を、ユーザから見る映像面Uを介して平板状物体S上で見る場合を考える。この場合、映像面Uに図19(b)に示す平面映像Picが表示されていると同じ映像を平板状物体Sに表示させる場合、映像面U上の各座標と平板状物体S上の各座標との対応関係を取得する必要がある。模式的に図19(a)に示しているが、映像面U上の点b1,b2,b3,b4,b5は、平板状物体S上の点a1,a2,a3,a4,a5に対応している。したがって、平板状物体S上の点a1,a2,a3,a4,a5に表示された映像は、ユーザからは映像面U上における点b1,b2,b3,b4,b5として視認される。
 また、図20に示すように、ユーザの視線と平板状物体Sとが交差する点P2と、プロジェクタ2の投影位置P3とは、L2の距離となっている。また、プロジェクタ2は、所定の投影画角θ2の範囲で投影光を投影する。
 この場合、プロジェクタ2の映像面Pと平板状物体Sとの位置関係は、図21に示すように、平板状物体S上の点a1,a2,a3,a4,a5が、映像面P上の点c1,c2,c3,c4,c5に対応している。すなわち、プロジェクタ2の投影位置P3から映像面P上の点c1,c2,c3,c4,c5を延長した直線上の点が、平板状物体Sの点a1,a2,a3,a4,a5となる。
 このようなユーザの視点位置P1及び視野角θ1、平板状物体Sの位置、プロジェクタ2の投影位置P3及び投影画角θ2の関係から、図21(a)に示したプロジェクタ2における映像面P上の点c1,c2,c3,c4,c5に映像を投影させると、平板状物体S上の点a1,a2,a3,a4,a5に映像が投影される。その結果、平板状物体S上の点a1,a2,a3,a4,a5が、図19における映像面U上の点b1,b2,b3,b4,b5として視認されることとなる。したがって、ユーザに平面映像Picを視認させるためには、プロジェクタ2は、映像面U上の各座標に対応した平板状物体S上の各座標と、映像面P上の各座標に対応した平板状物体S上の各座標との対応関係に基づいて、図21(b)に示すように歪ませた平面映像Pic’’を投影する必要がある。
 このような投影光の投影動作を実現するために、照明システムは、図18に示すように、ユーザの視点位置P1を示す視点位置及び視線方向を示す視点位置姿勢パラメータ及びユーザの視野角θ1を示す視野角パラメータを取得する。これらのユーザのパラメータは、上述した映像面Uを定める。
 また、プロジェクタ2から出射された投影光を投影する平板状物体Sの形状データを取得する。この形状データは、例えばCADデータである。ここで、視点位置姿勢パラメータは、3次元座標空間における、X,Y,Z軸上の位置および軸周りの回転角度を数値で定義したものである。この視点位置姿勢パラメータは、視点位置P1と平板状物体Sとの距離L1と、視点位置P1に対する平板状物体Sの姿勢を一意に定める。また、平板状物体Sの形状データとは、CAD等で作成された電子データを基に、3次元座標空間における形状領域を定義したものである。この形状データは、視点位置P1から見た平板状物体Sの形状を一意に定める。このような平板状物体Sの形状データとユーザのパラメータとは、映像面Uの座標と平板状物体S上の座標との対応関係を定める。
 また、図20に示すようにプロジェクタ2が設置されたことに対し、照明システムは、プロジェクタ2の投影位置P3及び当該プロジェクタ2の光軸方向を示す位置姿勢パラメータ及びプロジェクタ2の投影画角θ2を示す投影画角パラメータを取得する。このプロジェクタ2の位置姿勢パラメータ及び投影画角パラメータは、プロジェクタ2が平板状物体Sに対して投影する映像面Pを表す。この映像面Pが定まると、プロジェクタ2から投影される投影光が映像面Pを介して平板状物体Sのどの座標に投影されるかが定められる。すなわち、プロジェクタ2の位置姿勢パラメータ及び投影画角パラメータと、平板状物体Sの位置姿勢パラメータ及び形状データとは、プロジェクタ2から出射された投影光によって覆われる平板状物体Sの範囲が一意に決まる。プロジェクタ2がプロジェクタである場合、投影位置P3はバックフォーカス及び打ち込み角で定義され、投影画角θ2は投影位置P3から一定距離での水平及び垂直方向の投影範囲から算出される。
 そして、照明システムは、平板状物体Sに表示される投影光の画素(a1,a2,a3,a4,a5)とプロジェクタ2の投影位置P3とを結ぶ直線と、映像面Pとの交点(c1,c2,c3,c4,c5)に画素を配置して平面映像Pic’’を構成し、その平面映像Pic’’を平板状物体Sに投影させる。そして、映像面P上の点c1,c2,c3,c4,c5、平板状物体S上の点a1,a2,a3,a4,a5、映像面U上の点b1,b2,b3,b4,b5という経路でユーザにとって歪みのない映像を視認させることができる。
 同様に、被投影物体3が平板状物体Sのような形状ではなく、ドーム型のような任意形状のものであっても歪みなく投影光を投影して、被投影物体3をユーザに視認させることができる。図22(a)に示すように被投影物体3がドーム型物体Sであり、図22(b)に示すように、ユーザに格子状の投影光を視認させる場面を考える。この場合、ユーザからは、映像面U上の点b1,b2,b3,b4,b5の延長線上におけるドーム型物体S上の点a1,a2,a3,a4,a5が視認される。これに対し、プロジェクタ2は、図23(a)に示すように映像面Pに投影光を投影する。この映像面Pにおける点c1,c2,c3,c4,c5を通過した投影光は、ドーム型物体Sにおける点a1,a2,a3,a4,a5に投影されて、図22(a)に示す映像面Uの点b1,b2,b3,b4,b5として視認される。したがって、プロジェクタ2は、映像面Pに対して図23(b)に示すように歪ませた平面映像Pic’’を投影する。これに対し、ユーザは、図22(b)に示すような歪みのない平面映像Picを視認することができる。
[第6実施形態]
 つぎに、本発明を適用した第6実施形態として示す照明システムについて、図24~ 図27を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 この照明システムは、図24に示すように、基準画像用プロジェクタ2Bによって基準画像2eが投影される平面スクリーン6と、平面スクリーン6に投影された基準画像2eを撮影する撮影手段としてのカメラ装置5と、カメラ装置5により生成された撮影データによって取得された平面スクリーン6に投影されている基準画像2eと、基準画像データ生成部32により生成された基準画像とを一致させるように、基準画像用プロジェクタ2Bから投影される基準画像を歪ませる基準画像歪み補正手段としての基準画像歪み補正パラメータ算出部54及び基準画像データ歪み補正部55を備える。
 このような照明システムにおいては、ユーザによって投影範囲2cを設定するに際して、図25に示すように、平面スクリーン6を設置する。この平面スクリーン6の設置位置としては、投影光2aの投影対象となる被投影物体3などの設置予定位置とする。なお、この平面スクリーン6は、携帯性を考慮して、収納式であることが望ましい。
 カメラ装置5は、CCD等の撮像素子や光学部品等からなる撮像部61と、撮像部61によって撮像された撮影画像データ61aを基準画像用制御装置4に出力する撮影画像データ出力部62とを備える。このカメラ装置5は、ユーザの操作位置付近に設置することが望ましく、図25等に示す例では、モニタ装置21上に設置している。このカメラ装置5の設置する場所は、特に限定される必要はなく、ユーザから見た基準画像2eが歪み無く投影されるように基準画像歪み補正パラメータを作成できれば良い。
 また、基準画像用制御装置4には、撮影画像データ出力部62から出力された撮影画像データ61aを入力する撮影画像データ入力部63を備える。この基準画像用制御装置4において、基準画像歪み補正パラメータ算出部54は、撮影画像データ入力部63から出力された撮影画像データ63aを用いて、基準画像2eの歪み補正のための基準画像歪み補正パラメータ54aを算出する。このとき、基準画像歪み補正パラメータ算出部54は、カメラ装置5により生成された撮影画像データ61aによって取得された平面スクリーン6に投影されている基準画像2eを、所定形状の投影可能範囲2b’となるような基準画像歪み補正パラメータ54aを作成する。すなわち、基準画像歪み補正パラメータ算出部54は、平面スクリーン6に表示されている歪んだ基準画像2eを、基準画像データ生成部32により生成された基準画像とを一致させる。これによって、基準画像歪み補正パラメータ算出部54は、平面スクリーン6に表示された基準画像2eを、液晶パネル21aに表示させる基準画像23cと同様の歪みのない状態とさせる。
 そして、基準画像用制御装置4は、基準画像歪み補正パラメータ54aを用いて基準画像データ32aに対して歪み補正処理である座標変換を行って、基準画像歪み補正データ55aを基準画像データ描画部33に供給する。基準画像描画データ33aに従って基準画像用プロジェクタ2Bから平面スクリーン6に投影をすることによって、液晶パネル21aに表示された基準画像23cと、平面スクリーン6に表示される基準画像2eとは、ユーザが基準画像の視認した感覚において一致されることができる。
 具体的には、図25に示すように、先ず、歪み補正処理を施していない基準画像データ32aを用いて基準画像用プロジェクタ2Bから基準画像2eを平面スクリーン6に投影する。このとき、台形状に基準画像2eが歪むと、当該歪みのある基準画像2eをカメラ装置5によって撮影して、撮影画像データ61aを基準画像歪み補正パラメータ算出部54に供給する。
 これに対し、照明システムは、図26に示すように、カメラ装置5で撮像した平面スクリーン6上における基準画像2eの投影可能範囲2bを、歪み補正後の新たな投影可能範囲2b’となるように修正することができる。したがって、この照明システムによれば、図27に示すように、液晶パネル21aに表示された基準画像23cと、基準画像用プロジェクタ2Bから投影する基準画像2eとを対応したものとすることができる。
 したがって、この照明システムによれば、ユーザの操作位置(観察位置)、投影可能範囲2bの設置位置、投影光2aの投影位置を変更しても、当該投影位置に歪みのない基準画像2eを投影して、簡単に投影範囲2c,2dを設定することができる。
 このような照明システムによれば、投影範囲2c,2dを設定する前に、被投影物体3a,3b等の設置位置に平面スクリーン6を設置して、自動的に基準画像2eの歪みを補正した上で、基準画像2eを投影して投影範囲2c,2dを設定させることができ、より簡単に投影範囲2c,2dの設定を行うことができる。
 また、この照明システムによれば、カメラ装置5で撮影した基準画像2eに歪みがあった場合には、歪みが無くなるように基準画像データ32aを自動的に補正することができる。これにより、各種パラメータの入力や基準画像用プロジェクタ2B等の配置精度の誤差(実際の配置位置と、入力パラメータの差異)によるキャリブレーションを省略することができる。
[第7実施形態]
 つぎに、本発明を適用した第7実施形態として示す照明システムについて、図28~図30を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 この照明システムにおける照明制御装置1は、図28に示すように、投影範囲2cを特定する条件を入力する投影範囲識別条件設定部71と、投影範囲識別条件設定部71で入力された条件に従って投影範囲2cを識別する投影範囲識別部72とを備える。この照明制御装置1は、投影範囲識別部72により識別された投影範囲2cに対応して投影光データを補正し、プロジェクタ2から光を投影するものである。この照明制御装置1は、上述したカメラ装置5を用いずに、自動的に投影範囲2cを設定するものである。
 この照明システムは、図29に示すように、プロジェクタ2の投影可能範囲2bを任意サイズの升目状に分割し、当該各升目を指定することにより投影範囲2cを設定する。この図29の例では、照明制御装置1において、投影範囲識別条件設定部71は、形状描画入力部20と同様のマウスで構成され、モニタ装置21上に升目を表示し、各升目をマウス操作に応じて指定する。これにより、マウスにより指定された升目に相当する被投影物体3上又は空間に対して、投影範囲2cを設定することができる。なお、図29の例では、光を投影する前の升目のみを示している。
 また、他の例としては、図30に示すように、モニタ装置21上に骨格線23dを描く操作をさせ、当該骨格線23dから所定幅の範囲を投影範囲23eとして設定できるようにしても良い。ここで、設定アイコン23fをモニタ装置21上に表示し、マウス操作に応じて骨格線23dの終点及び視点、太さ、骨格線23dに対する投影範囲2cの幅、投影光の特性を指定することにより、被投影物体3上に投影範囲2cを設定することができる。
 この升目又は骨格線を中心とした所定範囲により投影範囲2cを指定した情報は、投影範囲識別条件設定部71により、投影範囲識別条件パラメータ71aとして投影範囲識別部72に供給される。投影範囲識別部72は、投影範囲識別条件パラメータ71aを用いて、投影範囲2cとして指定された升目及び骨格線を中心とした所定範囲と投影可能範囲2bにおける位置との対応関係を識別する。これにより、照明システムは、実際の投影範囲2cを認識して、投影範囲識別パラメータ72aを生成して、投影光データ補正部13に供給する。この投影範囲識別部72は、投影範囲パラメータ12aと同様に、プロジェクタ2の投影可能範囲2bにおける座標によって光が投影される投影範囲2c又は非投影範囲を表したデータである。これにより、投影光データ補正部13は、投影範囲識別パラメータ72aを用いて投影光データ11aを補正して、投影光補正データ13aを生成することができる。
 このような照明システムによれば、カメラ装置5により被投影物体3を撮像しなくても、投影範囲識別条件設定部71により投影範囲2cを指定することにより、簡単に投影範囲2cを設定することができる。
[第8実施形態]
 つぎに、本発明を適用した第8実施形態として示す照明システムについて、図31~図35を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 この照明システムは、図31に示すように、カメラ装置5によって生成した撮影画像データ61aを照明制御装置1の撮影画像データ入力部63に出力し、撮像画像データ表示部86によって撮影画像データ61aを用いた表示を行う。なお、この撮像画像データ表示部86は、液晶パネル21aと兼用となっている液晶ディスプレイとなる。
 また、この照明システムは、カメラ装置5の位置姿勢及び仕様を含む撮影パラメータを入力する撮影パラメータ入力手段としての撮影パラメータ入力部81と、プロジェクタ2の位置姿勢及び仕様を含む投影パラメータを入力する投影光投影パラメータ入力手段としての投影光投影パラメータ入力部82と、プロジェクタ2の投影範囲2cの状態を把握するために、仮想的に設定した平面領域の位置姿勢と大きさとを入力する仮想平面パラメータを入力する仮想平面パラメータ入力手段としての仮想平面パラメータ入力部83と、撮影パラメータ、投影光投影パラメータ及び仮想平面パラメータに基づいて、仮想平面上において投影光がカメラ装置5の撮影範囲と一致するように、投影光データ11aを補正する投影光データ補正手段としての投影光歪み補正パラメータ演算部84及び投影光データ歪み補正部85とを備える。
 撮影パラメータ入力部81、投影光投影パラメータ入力部82及び仮想平面パラメータ入力部83は、プロジェクタ2から投影される投影範囲2cの歪みに影響するパラメータを入力する。具体的には、ユーザが操作するキーボード及び当該キーボード操作を認識する入力インターフェースや、各種パラメータが格納された記録媒体を読み取る機構、外部から送信された各種パラメータを受信する機構などで構成される。
 撮影パラメータは、投影範囲2cの歪み状態に影響を与える情報として、カメラ装置5の位置姿勢及び仕様(カメラ画角など)を含む。なお、撮影パラメータとしては、更に他の詳細な情報を含めても良い。
 投影光投影パラメータは、投影範囲2cの歪み状態に影響を与える情報として、投影光2aの投影対象である被投影物体3に対するプロジェクタ2との位置(座標情報)、姿勢(回転角情報)を含む。また、この投影光投影パラメータとしては、投影範囲2cの歪み状態に影響を与えるプロジェクタ2の仕様として、投影画角、バックフォーカス、打ち込み角などを含む。なお、投影光投影パラメータとしては、プロジェクタ2の仕様として更に他の詳細な情報を含めても良い。
 仮想平面パラメータは、投影光2aが投影される仮想平面を特定するパラメータであり、当該仮想平面を構成する座標群情報である。この仮想平面パラメータは、カメラ装置5に正対した位置であり、例えば被投影物体3に対して投影範囲2を設定する使用場面においては、被投影物体3の設置位置に仮想平面を設定するような情報となる。
 投影光歪み補正パラメータ演算部84は、撮影パラメータ、投影光投影パラメータ、仮想平面パラメータから、投影光歪み補正パラメータ84aを算出して出力する。この投影光歪み補正パラメータ84aは、カメラ装置5及びプロジェクタ2の位置姿勢及び仕様、仮想平面の位置によって投影範囲2cに歪みが発生するものの、投影光データ11aに対して歪みを与えることによって、仮想平面上において投影光2aがカメラ装置5の撮影範囲と一致するように、投影光データ11aを補正する。
 具体的には、先ず、投影光歪み補正パラメータ演算部84は、図32に示すように、仮想平面パラメータ及び撮影パラメータを用いて、カメラ装置5における撮像部61の画角及びカメラ装置5に対する仮想平面2fの位置から、仮想平面上のカメラ装置5の撮影範囲5aを求める。そして、投影光歪み補正パラメータ演算部84は、長方形の2次元画像である仮想平面2f上の投影可能範囲2bの座標情報と、仮想平面2fにおける撮影範囲5aに対して一致するような補正後の投影可能範囲2bの座標情報との対応関係を示す投影光歪み補正パラメータ84aを演算する。
 投影光データ歪み補正部85は、投影光データ生成部11から供給された投影光データ11aに対して、投影光歪み補正パラメータ演算部84から供給された投影光歪み補正パラメータ84aを用いた座標変換を行う。これによって、投影光データ11aは、プロジェクタ2によって投影光2aを投影した時に、ユーザからは歪み無く見えるような投影範囲2cを投影できる投影光歪み補正データ85aを算出して、投影光データ補正部13に供給する。
 このように、照明システムは、ある仮想平面2fにおけるカメラ装置5の撮影範囲5aが規定され、プロジェクタ2から投影光2aを投影しても、撮影範囲5aに対して台形状に歪んだ投影可能範囲2bとなってしまう。これに対し、照明システムは、図33に示すような被投影物体3に対し、投影可能範囲2bと撮影範囲5aと一致させることによって、図34,35に示すように投影範囲2c-1,2c-2に歪みが無くすことができる。なお、図35は、マウスに代えてペン21bを用いた例を示している。
 したがって、液晶パネル21aにカメラ装置5によって撮像された撮影画像データ61aを表示した状態にて、ペン21bによって液晶パネル21aに対して輪郭画像23a,23bを指定させるだけで、図34及び図35のように、当該輪郭画像23a,23bに対応した投影範囲2c-1、2c-2を形成することができる。具体的には、被投影物体3a,3bといった実際に投影範囲2c-1、2c-2を形成したい物体をカメラ装置5によって撮影して液晶パネル21aに表示した状態にて、当該液晶パネル21aに対して操作をさせることで、液晶パネル21a上で設定した輪郭画像23a,23bと実際の投影範囲2c-1、2c-2との対応関係の精度を高くできる。
[第9実施形態]
 つぎに、本発明を適用した第9実施形態として示す照明システムについて、図36~図46を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 第9実施形態として示す照明システムは、上述した図31の照明システムに加えて、投影範囲2cを抽出する条件を設定する投影範囲抽出設定手段としての投影範囲抽出設定部91と、投影範囲抽出設定部91により設定された条件に従ってカメラ装置5により生成された撮影データを解析して、投影範囲2cと当該投影範囲以外の非投影範囲とを分別する分別手段としての投影範囲分別部92とを備える。この照明システムは、投影光データ補正部13によって、投影範囲分別部92により分別された投影範囲と非投影範囲とに基づいて、投影光データを補正する投影光歪み補正データ85aを補正する。
 投影範囲抽出設定部91は、カメラ装置5によって撮影された撮影画像データ61aを解析して、投影光を投影する投影範囲2cを抽出するための条件として、色によって投影範囲2cを抽出する近似色抽出、形状によって投影範囲2cを抽出する形状抽出、明度によって投影範囲2cを抽出する明度抽出などの抽出方法、当該抽出方法における閾値等を設定する。
 投影範囲抽出設定部91は、例えば、ユーザが操作するキーボード及び当該キーボード操作を認識する入力インターフェースや、各種パラメータが格納された記録媒体を読み取る機構、外部から送信された各種パラメータを受信する機構などで構成される。投影範囲抽出設定部91により設定された投影範囲2cの抽出条件は、投影範囲抽出パラメータ91aとして、投影範囲分別部82に供給される。
 投影範囲分別部82は、投影範囲抽出パラメータ91aに従って、撮影画像データ入力部63から供給された撮影画像データ63aを解析する。この解析の結果、投影範囲分別部82は、投影範囲抽出パラメータ91aに合致した投影範囲を表す座標情報としての投影範囲分別パラメータ92aを投影光データ補正部13に供給する。これにより、照明システムは、投影光データ補正部13によって、投影範囲抽出設定部91が設定した抽出条件に合致した投影範囲2cのみを投影光によって投影する投影光補正データ13aを作成することができる。
 具体的には、図37に示すように、被投影物体3a,3bに対して投影範囲2cを設定するために、カメラ装置5は、被投影物体3a,3bを含む撮影画像データ61aを生成し、撮影画像データ入力部63に供給する。そして、撮影画像データ入力部63から撮像画像データ表示部86に供給された撮影画像データ63aを用いて、液晶パネル21aと兼用とされた撮像画像データ表示部86は、被投影物体3a,3bを示す物体画像5cを含む撮像画像を表示する。一方、投影範囲分別部82は、撮影画像データ63aを入力すると、当該撮影画像データ63aを投影範囲抽出パラメータ91aに従って解析して、投影範囲2cと非投影範囲とを分別する。
 ここで、投影範囲2cの抽出条件が、「形状抽出処理」、「立方体領域を投影範囲2c、立方体領域以外を非投影範囲」する投影範囲抽出パラメータ91aが投影範囲分別部92に供給されているものとする。
 このような環境下において、投影範囲分別部92は、立方体の物体画像5cを含む撮影画像データ63aが供給される。そして、投影範囲分別部92は、エッジ抽出処理によって撮影画像データ63aの全体に亘る形状エッジを認識し、立方体領域を投影範囲2cとし立方体領域以外を非投影範囲とする。
 このように投影範囲分別部92によって取得した投影範囲の分別結果は、図38に示すように、液晶パネル21a上に、輪郭情報5c’として表示される。また、この分別結果を表す投影範囲パラメータ82aは、投影光データ補正部13に供給される。
 これによって、照明システムは、投影範囲パラメータ82aに従って投影光データ補正部13が投影光補正データ13aを作成して、投影光補正データ描画部14及びプロジェクタ2を動作させて、立方体領域の投影範囲に投影光を投影する投影光2aを生成することができる。この結果、液晶パネル21aには、被投影物体3a,3bの投影範囲内のみに投影光が投影させることができる。
 この照明システムは、図39に示すように、被投影物体3a,3bの後方に、色抽出処理の抽出精度を高めるためのブルーシートを配置しても良い。この場合、投影範囲抽出設定部91は、投影範囲の抽出条件が、「色抽出処理」、「青領域を非投影範囲、青領域以外を投影範囲2c」する投影範囲抽出パラメータ91aを設定して、投影範囲分別部92に供給する。その結果、投影範囲分別部92は、撮影画像データ63aに対して青領域と青領域以外とを分別する色抽出処理を施して、被投影物体3a,3bの輪郭情報5c’を投影範囲パラメータ82aとして作成することができる。
 また、この照明システムにおいては、図40に示すように、被投影物体3a,3bを含むカメラ装置5の撮影範囲5aと、プロジェクタ2の投影可能範囲2bとを一致させるように投影光データ歪み補正部75によって投影光補正データ75aを作成する。これによって、液晶パネル21aには、当該液晶パネル21a上で確認した分別結果と、当該分別結果に従って自動的に設定された投影範囲に投影光を投影した結果としての物体画像5cを含む画像とを表示することができる。
 このような照明システムによれば、投影対象である被投影物体3a,3bを撮影した撮影画像データ61aを活用して、画像処理技術により特定の条件部分を抽出して、当該抽出領域を投影範囲2cとすることができる。これにより、投影範囲2cの設定を自動化することができる。
 また、この照明システムは、投影範囲抽出設定部91によって投影範囲2cを抽出する条件として、図41に示すように被投影物体3に点状のマーカ3cを貼り付け、当該点状のマーカ3cを中心とした所定範囲を投影範囲2cとして設定しても良い。そして、この条件を表す投影範囲抽出パラメータ91aが投影範囲分別部92に供給された状態にて、撮影画像データ63aが供給されると、投影範囲分別部92は、撮影画像データ63aを解析して、点状のマーカ3cの位置を認識する。そして、投影範囲分別部92は、マーカ3cを中心とした所定の円形範囲を投影範囲2cとして設定し、それ以外を非投影範囲とする投影範囲分別パラメータ92aを生成して、投影光データ補正部13に供給する。これにより、図42に示すように、被投影物体3上のマーカ3cを含む所定の円形範囲を投影範囲2c-1とし、それ以外を投影範囲2c-2とすることができる。なお、点状のマーカ3cに対して設定する投影範囲2cの範囲は、ユーザの操作に応じて任意の大きさに設定できることが望ましい。また、投影範囲2cの形状は、丸形状に限らず、四角形状などの任意の形状をユーザの操作に応じて設定できることが望ましい。
 更に、この照明システムは、投影範囲抽出設定部91によって投影範囲2cを抽出する条件として、図43に示すように被投影物体3に線状のマーカ3cを貼り付け、当該マーカ3cを骨格線とした所定幅の範囲を投影範囲2cとすることを設定しても良い。そして、この条件を表す投影範囲抽出パラメータ91aが投影範囲分別部92に供給された状態にて、撮影画像データ63aが供給されると、投影範囲分別部92は、撮影画像データ63aを解析して、線状のマーカ3cの位置(始点、終点、長さ)を認識する。そして、投影範囲分別部92は、マーカ3cを骨格線とした所定幅の範囲を投影範囲2cとし、それ以外を非投影範囲とする投影範囲分別パラメータ92aを生成して、投影光データ補正部13に供給する。これにより、図44に示すように、被投影物体3上のマーカ3cを含む所定幅の範囲を投影範囲2c-1とし、それ以外を投影範囲2c-2とすることができる。なお、線状のマーカ3cに対して設定する投影範囲2cの幅は、ユーザの操作に応じて任意の大きさに設定できることが望ましい。
 更にまた、図45及び図46に示すように、マーカ3cを中心又は骨格とした所定範囲を投影範囲2cとした後に、マーカ3cを取り外しても、マーカ3cに基づいて投影範囲2cを保持することができるとしても良い。このために、照明制御装置1は、投影範囲分別部92によって生成された投影範囲分別パラメータ92aを記録しておく手段を備える必要がある。
 更にまた、複数のカメラ装置5により被投影物体3を撮像した撮影画像データ63aを用いて、当該被投影物体3の3次元形状をスキャンして、被投影物体3の3次元形状を覆うように投影範囲2cを決定しても良い。
[第10実施形態]
 つぎに、本発明を適用した第10実施形態として示す照明システムについて、図47~図52を参照して説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 第9実施形態として示す照明システムは、図47に示すように、投影光データ補正部13に、ユーザの操作に従って投影範囲2cの境界を修正する投影範囲修正部101を接続した点で、図4に示す照明制御装置1とは異なる。
 また、この照明システムは、図48に示すように、上述した図36の照明システムに加えて、ユーザの操作に従って、投影範囲分別部82により分別された投影範囲と非投影範囲とを修正する修正手段としての投影範囲修正部101を備える構成であっても良い。
 この投影範囲修正部101は、ペン21b及び液晶パネル21aや、ユーザが操作するキーボード及び当該キーボード操作を認識する入力インターフェースなどからなる。投影範囲修正部101によって投影範囲2cを修正する場合、照明システムは、投影範囲分別部92にて生成した投影範囲パラメータ82aに従って、液晶パネル21a上に、分別結果としての投影範囲2c及び非投影範囲を表示させる。そして、投影範囲修正部101を構成するペン21bをユーザが操作して、投影範囲2c又は非投影範囲を変更する操作を行うことを投影範囲修正部101が認識する。具体的には、投影範囲2c又は非投影範囲を表す座標情報を変更する旨のコマンドを投影範囲修正部101が発生させて、投影光データ補正部13に供給する。
 投影光データ補正部13は、投影範囲2c又は非投影範囲を変更するコマンドが供給されると、投影範囲パラメータ82aに対して修正処理を行う。具体的には、投影範囲パラメータ82aを構成する修正前の投影範囲2c非投影範囲の座標情報を、修正後の投影範囲2c及び非投影範囲の座標情報に変換する。そして、投影光データ補正部13は、修正後の投影範囲パラメータ82aを用いて、投影光補正データ85aを補正して投影光補正データ13aを作成することができる。
 このように、照明システムによれば、図4又は図36に示した照明システムによって自動的に設定した投影範囲2c及び非投影範囲を、ユーザの操作に応じて投影範囲修正部101により修正できる。したがって、この照明システムによれば、より簡単に投影可能範囲2bのうちの投影範囲2cを設定することができる。
 具体的には、図49に示すように、液晶パネル21a上に投影範囲2cとなる被投影物体画像24を表示していて、ポインタ26を移動させる操作をして当該被投影物体画像24を囲む選択領域25を拡大又は縮小させたことを投影範囲修正部101により検出する。これにより、投影範囲修正部101は、ユーザの操作に応じて投影範囲2cの修正をすることができる。例えば選択領域25をポインタ26の操作により拡大した場合には、投影範囲修正部101は、被投影物体3に投影していた投影範囲2c-1を、拡大した投影範囲2c’-1とすることができる。
 他の具体例としては、図50に示すように、被投影物体画像24に沿った選択領域25を設定し、当該選択領域25の一部をポインタ26により選択して、選択領域25を変形させることにより、投影範囲2cの修正をしても良い。投影範囲修正部101は、例えば選択領域25の一部を図面上の左側にずらした場合には、当該一部に相当する投影範囲2c-1を変形した投影範囲2c’-1とすることができる。
 他の具体例としては、図51に示すように被投影物体3に対して基準画像2eを投影しており、液晶パネル21a上に基準画像23cを表示している時に、図52に示すように、ユーザの形状描画入力部20と同様のマウスの操作によって液晶パネル21a上にて基準画像23cを変形させたとする。このようなユーザの操作に応じて、投影範囲修正部101は、投影範囲2cを変形しても良い。図52の例では、投影範囲修正部101は、被投影物体3の腕部分に相当する基準画像23cを変形させる操作を検出して、当該基準画像2eを構成する格子を変形させて2e’とし、基準画像2eを構成する格子の歪み方と相似的に投影範囲2c-1に変形させて2c’-2とすることができる。
[第11実施形態]
 つぎに、上述した照明システムに対して適用可能な他の実施形態を第11実施形態として説明する。なお、上述した照明システムと同様の部分については同一符号を付することによってその詳細な説明を省略する。
 図1~図52を参照して説明した照明システムにおいては、図53に示すように、投影光データ11aを保存しておいて出力制御を行うことによって、プロジェクタ2から投影する投影光2aを更新するようにしても良い。
 この照明システムは、投影光データ11aを保存する投影光データ保存手段としての投影光データ保存部111と、投影光データ保存部111に保存された投影光データ11aの少なくとも出力順序又は出力条件の何れかを設定する投影光データ出力設定手段としての投影光データ更新設定部113と、投影光データ更新設定部113により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影光データ保存部111に保存された投影光データ11aを出力する投影光データ更新手段としての投影光データ出力更新部112とを備える。
 投影光データ保存部111は、パーソナルコンピュータにおけるハードディスク装置や、外部記憶装置などからなる。この投影光データ保存部111には、投影光データ生成部11によって生成された複数の投影光データ11aが供給される。この複数の投影光データ11aとしては、様々な色や輝度、コントラストが投影範囲及び非投影範囲ごとに設定されている。
 投影光データ更新設定部113は、ユーザのパーソナルコンピュータに対するキーボード操作などによって、投影光2aの出力順序や出力条件を表す更新情報が設定される。投影光2aの出力順序としては、どのような投影光データ11aを用いた投影光2aを出力するかの順序、各投影光2aの投影時間や更新間隔などが挙げられる。また、投影光2aの出力条件としては、例えば、パーソナルコンピュータを構成するコントローラ114に設けられたボタンが操作された時に投影光データ出力更新部112によって投影光データ11aを読み出して投影光2aを投影開始することや、ボタン操作時に次の投影光データ11aを読み出して投影光2aを更新することなどが挙げられる。
 このような照明システムは、予めユーザの操作によって、投影したい投影光2aを選択することによって使用する投影光データ11aを選択し、且つ更新順序や更新条件を設定しておく。そして、投影光データ出力更新部112は、投影光2aの投影を開始するときに、投影光データ更新設定部113によって設定された投影光2aの更新順序や更新条件に従って、投影光データ保存部111から投影光データ11aを読み出して投影光データ補正部13に供給する。これによって、照明システムは、ユーザが設定した投影光2aを所望とする順序及び間隔で投影することができ、投影光2aにおける投影範囲における光特性(色、輝度、コントラスト)を瞬時に変更することができる。
 更に、この照明システムは、図54に示すような構成によって、投影範囲パラメータ12aを保存しておいて出力制御を行い、プロジェクタ2から投影する投影光2aのうちの投影範囲及び非投影範囲を更新するようにしても良い。
 この照明システムは、投影光データ補正部13により投影範囲を補正するための投影範囲パラメータである投影範囲パラメータ12aを保存する投影範囲パラメータ保存手段としての投影範囲パラメータ保存部121と、投影範囲パラメータ保存部121に保存された投影範囲パラメータ12aの少なくとも出力順序又は出力条件の何れかを設定する投影範囲出力設定手段としての投影範囲パラメータ更新設定部123と、投影範囲パラメータ更新設定部123により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影範囲パラメータ保存部121に保存された投影範囲パラメータ12aを出力する投影範囲パラメータ更新手段としての投影範囲パラメータ出力更新部122とを備える。
 投影範囲パラメータ保存部121は、パーソナルコンピュータにおけるハードディスク装置や、外部記憶装置などからなる。この投影範囲パラメータ保存部121には、投影範囲設定部12によって生成された複数の投影範囲パラメータ12aが供給される。この複数の投影範囲パラメータ12aとしては、様々な形状の投影範囲及び非投影範囲のパターンが含まれる。
 投影範囲パラメータ更新設定部123は、ユーザのパーソナルコンピュータに対するキーボード操作などによって、投影範囲パラメータ12aの出力順序や出力条件を表す更新情報が設定される。すなわち、変化させたい投影範囲の順序や条件が更新情報である。投影範囲パラメータ12aの出力順序としては、どのように投影範囲を変化させるかの順序、各投影範囲を維持する投影時間や更新間隔などが挙げられる。また、投影範囲パラメータ12aの出力条件としては、例えば、パーソナルコンピュータを構成するコントローラ114に設けられたボタンが操作された時に投影範囲パラメータ出力更新部122によって投影範囲パラメータ12aを読み出して新たな投影範囲を更新することなどが挙げられる。
 このような照明システムは、予めユーザの操作によって、所望の投影範囲を選択することによって使用する投影範囲パラメータ12aを選択し、且つ更新順序や更新条件を設定しておく。そして、投影範囲パラメータ出力更新部122は、投影光2aの投影を開始するときに、投影範囲パラメータ更新設定部123によって設定された投影範囲の更新順序や更新条件に従って、投影範囲パラメータ保存部121から投影範囲パラメータ12aを読み出して投影光データ補正部13に供給する。これによって、照明システムは、ユーザが選択した投影範囲を所望とする順序及び間隔で投影することができ、投影光2aにおける投影範囲を瞬時に変更することができる。
 更に、この照明システムは、図55に示すような構成によって、投影光データ補正部13によって投影光データ11aを補正した投影光補正データ13aを保存しておいて出力制御を行っても良い。これにより、照明システムは、プロジェクタ2から投影する投影光2aのうちの投影範囲及び非投影範囲を更新することができる。
 この照明システムは、投影光データ補正部13により補正された投影光補正データ13aを保存する投影光補正データ保存手段としての投影光補正データ保存部131と、投影光補正データ保存部131に保存された投影光補正データ13aの少なくとも出力順序又は出力条件の何れかを設定する投影光補正データ出力設定手段としての投影光補正データ更新設定部133と、投影光補正データ更新設定部133により設定された少なくとも出力順序又は出力条件の何れか一方に従って投影光補正データ保存部131に保存された投影光データを出力する投影光データ更新手段としての投影光補正データ出力更新部132とを備える。
 投影光補正データ保存部131は、パーソナルコンピュータにおけるハードディスク装置や、外部記憶装置などからなる。この投影光補正データ保存部131には、投影光データ補正部13によって投影範囲が補正された投影光補正データ13aが供給される。この投影光補正データ13aは、投影光データ補正部13によって新たな投影光補正データ13aが作成される度に投影光補正データ保存部131に蓄積されて、様々な形状の投影範囲及び非投影範囲とされたものが含まれる。
 投影光補正データ更新設定部133は、ユーザのパーソナルコンピュータに対するキーボード操作などによって、投影光補正データ13aの出力順序や出力条件を表す更新情報が設定される。すなわち、変化させたい投影範囲の順序や条件が更新情報である。投影光補正データ13aの出力順序としては、どのように投影範囲を変化させるかの順序、各投影範囲を維持する投影時間や更新間隔などが挙げられる。また、投影光補正データ13aの出力条件としては、例えば、パーソナルコンピュータを構成するコントローラ114に設けられたボタンが操作された時に投影光補正データ出力更新部132によって投影光補正データ13aを読み出して新たな投影範囲に更新することなどが挙げられる。
 このような照明システムは、予めユーザの操作によって、所望の投影範囲を選択することによって投影光補正データ13aを選択し、且つ更新順序や更新条件を設定しておく。そして、投影光補正データ出力更新部132は、投影光2aの投影を開始するときに、投影光補正データ更新設定部133によって設定された投影範囲の更新順序や更新条件に従って、投影光補正データ保存部131から投影光補正データ13aを読み出して投影光補正データ描画部14に供給する。これによって、照明システムは、ユーザが選択した投影範囲を所望とする順序及び間隔で投影することができ、投影光2aにおける投影範囲を瞬時に変更することができる。
 また、この照明システムによれば、投影範囲を切り替える度に投影光データ補正部13によってトリミング処理を行う必要がないので、投影範囲を切り替える処理負担を軽減できる。特に、この照明システムは、数秒といった短い時間間隔でスライドショーのように投影範囲を切り替える場合でも、高い処理負荷となることはない。
 更に、この照明システムは、図56に示すような構成によって、基準画像データ32aを保存しておいて出力制御を行い、基準画像用プロジェクタ2Bによって投影する基準画像2e及び液晶パネル21aに表示する基準画像23cを更新するようにしても良い。
 この照明システムは、基準画像用制御装置4に、基準画像データ生成部32によって生成された基準画像データ32aを保存する基準画像データ保存手段としての基準画像データ保存部141と、基準画像データ保存部141に保存された基準画像データ32aの少なくとも出力順序又は出力条件の何れかを設定する基準画像データ出力設定手段としての基準画像データ更新設定部143と、基準画像データ更新設定部143により設定された少なくとも出力順序又は出力条件の何れか一方に従って基準画像データ保存部141に保存された基準画像データ32aを出力する基準画像更新手段としての基準画像データ出力更新部142とを備える。
 基準画像データ保存部141は、パーソナルコンピュータにおけるハードディスク装置や、外部記憶装置などからなる。この基準画像データ保存部141には、基準画像データ生成部32によって生成された基準画像データ32aが供給される。この基準画像データ32aは、様々な寸法の格子柄、格子点のものが含まれる。
 基準画像データ更新設定部143は、ユーザのパーソナルコンピュータに対するキーボード操作などによって、基準画像データ32aの出力順序や出力条件を表す更新情報が設定される。すなわち、変化させたい基準画像の順序や条件が更新情報である。基準画像データ32aの出力順序としては、どのように基準画像を変化させるかの順序、投影時間や更新間隔などが挙げられる。また、基準画像データ32aの出力条件としては、例えば、パーソナルコンピュータを構成するコントローラ114に設けられたボタンが操作された時に基準画像データ出力更新部142によって基準画像データ32aを読み出して新たな基準画像に更新することなどが挙げられる。
 このような照明システムは、予めユーザの操作によって、所望の基準画像を選択することによって基準画像データ32aを選択し、且つ更新順序や更新条件を設定しておく。そして、基準画像データ出力更新部142は、投影光2aの投影を開始するときに、基準画像データ更新設定部143によって設定された基準画像の更新順序や更新条件に従って、基準画像データ保存部141から基準画像データ32aを読み出して基準画像データ描画部33に供給する。これによって、照明システムは、基準画像用プロジェクタ2Bによって、ユーザが選択した基準画像を所望とする順序及び間隔で投影することができると同時に、基準画像表示部31によって液晶パネル21a上の基準画像を切り替えることができる。
 したがって、この照明システムによれば、コントローラ114のボタン操作のみによって瞬時に所望とする基準画像を投影することができ、より簡単に投影範囲を設定することができる。
 更に、この照明システムは、図57に示すような構成によって、基準画像データ32aを保存しておいて出力制御を行い、単一のプロジェクタ2によって投影する基準画像2e及び液晶パネル21aに表示する基準画像23cを更新するようにしても良い。
 この照明システムは、照明制御装置1に、基準画像データ保存部141,基準画像データ出力更新部142,基準画像データ更新設定部143を備え、基準画像データ描画部33からプロジェクタ2及び基準画像表示部41に基準画像描画データ33aを供給し、基準画像2eを投影すると共に液晶パネル21a上に表示できる。
 更に、この照明システムは、図58に示すような構成によって、投影光描画データを保存しておいて、プロジェクタ2に出力するようにしても良い。
 この照明システムは、投影光補正データ描画部14により生成された投影光描画データ14aを保存する投影光描画データ保存手段としての投影光描画データ保存部153と、投影光描画データ保存部153に保存された投影光描画データ14aを外部記憶媒体に記憶する投影光描画データ外部媒体記録部152と、当該外部記憶媒体に記憶された投影光描画データ14aをプロジェクタ2に出力する投影光描画データ出力部151とを備える。
 この照明システムは、パーソナルコンピュータにおけるハードディスク装置に相当する投影光描画データ保存部153によって、投影光補正データ描画部14で描画処理がなされた投影光描画データ14aを保存すると、当該投影光描画データ14aを投影光描画データ外部媒体記録部152に記録する。
 投影光描画データ外部媒体記録部152としては、汎用のDVDなどのメディアが挙げられる。また、投影光描画データ出力部151としては、投影光描画データ外部媒体記録部152であるDVDが装着された時に当該DVDに記録された投影光描画データ14aを再生して、プロジェクタ2に出力するDVDプレーヤが挙げられる。
 このような照明システムによれば、投影光描画データ14aを外部記録媒体に記録させることによって、投影光2aを投影させる度に投影光補正データ描画部14で描画処理を行う必要が無い。これによって、照明システムの装置構成を簡素化できる。
 また、この照明システムは、図59に示すように、投影光補正データ描画部14に、投影光補正データ保存部131,投影光補正データ出力更新部132,投影光補正データ更新設定部133を接続して、ユーザが設定した順序又は条件によって投影光補正データ13aを投影光補正データ描画部14に供給する。これによって、照明システムは、投影光補正データ13aによって描画された投影光描画データ14aを投影光描画データ保存部153に保存して、投影光描画データ外部媒体記録部152に記録することができる。
 このように投影光補正データ13aを切り替えるのではなく、上述したように、投影範囲パラメータ12aや投影光データ11aを切り替えても、同様に投影光描画データ14aを保存、記憶して、投影光描画データ出力部151によってプロジェクタ2に出力することもできる。
 更に、この照明システムは、図60~図63に示すように、複数のプロジェクタ2_1,2_2,2_3を備えていても良い。このような照明システムは、所謂マルチプロジェクションと称される。
 図60に示す照明システムは、投影範囲設定部12によって、プロジェクタ2_1,2_2,2_3ごとの投影範囲パラメータ12a_1,12a_2,12a_3を生成する。これら投影範囲パラメータ12a_1,12a_2,12a_3は、それぞれユーザの操作によって異なる投影範囲に設定される。
 そして、投影光データ補正部13は、投影光データ11aに対して、投影範囲パラメータ12a_1,12a_2,12a_3ごと補正を行って、プロジェクタ2_1,2_2,2_3ごとの投影光補正データ13a_1,13a_2,13a_3とする。これらの投影光補正データ13a_1,13a_2,13a_3は、プロジェクタ2_1,2_2,2_3にそれぞれ接続された投影光補正データ描画部14_1,14_2,14_3に供給されて、描画処理を行ってプロジェクタ2_1,2_2,2_3に供給する。
 このような照明システムによれば、異なるプロジェクタ2_1,2_2,2_3のそれぞれによって、複数の投影範囲を投影することができる。
 また、図61に示す照明システムは、投影光データ生成部11によってプロジェクタ2_1,2_2,2_3ごとの投影光データ11a_1,11a_2,11a_3を生成する。各投影光データ11a_1,11a_2,11a_3は、プロジェクタ2_1,2_2,2_3ごとに輝度や色が異なったものとなっている。
 この照明システムは、投影光データ補正部13に投影光データ11a_1,11a_2,11a_3が供給される。すると、投影光データ補正部13によって、投影範囲パラメータ12a_1を用いて投影光データ11a_1を補正して、投影光補正データ13a_1を生成して、投影光補正データ描画部14_1に供給する。同時に、投影光データ補正部13は、投影光データ補正部13によって、投影範囲パラメータ12a_2を用いて投影光データ11a_2を補正して、投影光補正データ13a_2を生成して、投影光補正データ描画部14_2に供給する。同時に、投影光データ補正部13は、投影光データ補正部13によって、投影範囲パラメータ12a_3を用いて投影光データ11a_3を補正して、投影光補正データ13a_3を生成して、投影光補正データ描画部14_3に供給する。
 このような照明システムによれば、異なる投影光データ11a_1,11a_2,11a_3をそれぞれ設定して、プロジェクタ2_1,2_2,2_3のそれぞれによって、複数の投影範囲を投影することができる。
 更に、図62に示す照明システムは、プロジェクタ2_1,2_2ごとに、パーソナルコンピュータである照明制御装置1_1,1_2を設けたものである。このような照明制御装置1_1,1_2は、それぞれ、投影光データ生成部11,投影範囲設定部12,投影光データ補正部13,投影光補正データ描画部14を備える。更に、照明制御装置1_1,1_2は、相互に投影光補正データ描画部14からプロジェクタ2_1,2_2に供給する投影光描画データの同期を取る同期処理部161_1,161_2を備える。これらの同期処理部161_1,161_2は、相互に接続されて、同じクロック信号に従って投影光補正データ描画部14_1,14_2に投影光描画データの出力コマンドを与える。これによって、照明制御装置1_1,1_2は、プロジェクタ2_1,2_2に対して同期が取れた投影光2aをそれぞれ出力させることができる。
 更に、図63に示す照明システムは、投影範囲設定部12が除かれた照明制御装置1_1,1_2にそれぞれ接続されたパーソナルコンピュータとしてマスターPC7を備える。このマスターPC7は、照明制御装置1_1,1_2をスレーブとして、照明制御装置1_1,1_2の投影光データ補正部13及び同期処理部161_1,161_2を制御する。
 マスターPC7は、投影範囲設定部12を備える。この投影範囲設定部12は、ユーザの操作によって、プロジェクタ2_1,2_2のそれぞれに形成させる投影範囲パラメータ12aが設定される。また、マスターPC7は、同期処理部161_1,161_2をそれぞれ制御するための同期操作部162と同期信号生成部163とを備える。このマスターPC7は、ユーザの操作に従って同期操作部162が投影光補正データ描画部14の同期動作を設定する。すなわち、プロジェクタ2_1,2_2が投影光2aをそれぞれ投影するタイミングを同期させるために、それぞれの投影光補正データ描画部14の動作時間間隔などを設定する。そして、同期信号生成部163は、同期操作部162によって設定された同期動作に従って同期信号を同期処理部161_1,161_2に供給して、それぞれの投影光補正データ描画部14の同期を取る。
 このようなマスターPC7は、投影範囲設定部12によって、プロジェクタ2_1によって形成したい投影範囲を示す投影範囲パラメータ12aを照明制御装置1_1の投影光データ補正部13に供給し、プロジェクタ2_2によって形成させる投影範囲の投影範囲パラメータ12aを照明制御装置1_2の投影光データ補正部13に供給する。そして、マスターPC7は、照明制御装置1_1,1_2に投影範囲パラメータ12aを出力すると、同期信号生成部163が同期処理部161_1,161_2を制御することによって、投影光補正データ描画部14の同期を取って、プロジェクタ2_1,2_2を駆動させる。
 更に、この照明システムは、投影光として映像光を投影するようにしても良い。この照明システムは、図64及び図65に示すように、照明制御装置1と同じ構成ではあるが映像を扱う構成とされた部分を「映像制御装置1’」といったように、符号に「’」を付して図示している。
 図64に示す照明システムは、映像データ生成部11’によって映像データ11a’を生成すると共に、映像投影範囲設定部12’によって投影範囲パラメータ12a’を設定する。これに応じて、照明システムは、映像データ補正部13’により、所定の映像範囲(映像トリミング領域)を示す映像補正データ13a’を作成する。これによって、映像補正データ13a’を用いて、映像描画部14’が映像描画データ14a’を作成してプロジェクタ2’を駆動する。これによって、照明システムは、プロジェクタ2’から、映像範囲が設定された映像光を投影することができる。
 図65に示す照明システムは、図48に示した照明システムを映像に応用したものである。この照明システムは、撮影パラメータ、映像投影パラメータ、仮想平面パラメータによって映像歪み補正パラメータ演算部84’が映像歪み補正パラメータ84a’を演算して、映像データ歪み補正部85’が映像データ11a’に対して映像歪み補正処理(テクスチャマッピング処理)を行う。また、この照明システムは、カメラ装置5によって撮影した撮影画像データ61aを撮像画像データ表示部86によって表示させると共に、映像投影範囲抽出設定部91’の抽出条件に従って撮影画像データ61aから映像範囲と非映像範囲とを分別して、投影範囲パラメータ82a’を映像データ補正部13’に与える。この映像範囲と非映像範囲とは、映像投影範囲修正部101’によって、ユーザの操作に応じた修正が可能となる。そして、照明システムは、映像データ歪み補正部85’が補正した映像歪み補正データ75a’に対して、映像データ補正部13’が投影範囲パラメータ82a’に従ってトリミング(補正)処理をして映像範囲を示す映像補正データ13a’を作成することができる。
 なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
 本発明に係る光投影装置によれば、ユーザの操作に従って投影光を投影する投影範囲のうちの投影光が投影される投影範囲と非投影範囲を設定するので、簡単な操作によってユーザが希望する形状で光を投影することができる。

Claims (19)

  1.  任意の空間と、その空間内に設定された物体に光を投影する光投影装置であって、
     投影光を特定する投影光データを生成する投影光データ生成手段と、
     ユーザの操作に従って、光を投影する投影範囲と、光を投影しない非投影範囲を設定する投影範囲設定手段と、
     前記投影範囲設定手段により設定された投影範囲に光を投影するように投影光データを補正する投影データ補正手段と、
     前記投影データ補正手段により補正された投影光補正データの描画処理を行う投影光補正データ描画手段と、
     前記投影光データ描画手段により生成された投影光描画データを用いて光を投影する光投影手段と
     を備えることを特徴とする光投影装置。
  2.  前記投影光データ生成手段は、投影光の照度、輝度、光度、光束、色温度、演色性を含む要素を特定することを特徴とする請求項1に記載の光投影装置。
  3.  前記投影光データ生成手段は、前記投影範囲設定手段が設定した前記投影範囲をさらに分割し、当該分割した投影範囲ごとに光の特性を指定した投影光データを生成することを特徴とする請求項1又は請求項2に記載の光投影装置。
  4.  ユーザの操作に従って任意の形状を描画入力する形状描画入力手段を備え、
     前記投影範囲設定手段は、前記形状描画入力手段で入力された形状を投影範囲とすることを特徴とする請求項1乃至請求項3の何れか一項に記載の光投影装置。
  5.  格子状に形成される基準画像を生成する基準画像データを生成する基準画像データ生成手段と、
     前記基準画像データ生成手段により生成された基準画像データの描画処理を行う基準画像描画手段と、
     前記基準画像描画手段により描画された基準画像描画データを用いて光を投影する基準画像投影手段と、
     前記基準画像描画手段により描画された基準画像描画データを表示する表示手段とを備え、
     光を投影する対象空間及び物体に対して、前記基準画像を投影することを特徴とする請求項1乃至請求項4の何れか一項に記載の光投影装置。
  6.  前記基準画像投影手段の位置姿勢及び仕様を含むパラメータを入力する基準画像投影パラメータ入力手段と、
     前記投影範囲設定手段によって投影範囲を設定するユーザの操作位置を含むパラメータを入力する操作位置パラメータ入力手段と、
     前記基準画像投影手段から投影される基準画像の表示状態を把握させるために、当該基準画像投影手段の投影領域において仮想的に設定した仮想平面領域の位置姿勢と大きさとを含むパラメータを入力する仮想平面パラメータ入力手段と、
     前記基準画像投影手段の位置姿勢及び仕様を含むパラメータ、前記操作位置を含むパラメータ及び前記仮想平面領域の位置姿勢と大きさとを含むパラメータに基づいて、ユーザが基準画像を視認した場合に前記仮想平面上において当該基準画像を歪みなく観察させるために前記基準画像投影手段から投影される基準画像を歪ませるように前記基準画像データを補正する基準画像歪み補正手段と
     を備えることを特徴とする請求項5に記載の光投影装置。
  7.  前記基準画像投影手段から投影される基準画像を表示するための平面スクリーンと、
     前記平面スクリーンに表示された基準画像を撮影する撮影手段と、
     前記撮影手段により撮影された撮影データと、前記基準画像データ生成手段により生成された基準画像とを一致させるように前記基準画像投影手段から投影される基準画像を歪ませる基準画像歪み補正手段と
     を備えることを特徴とする請求項6に記載の光投影装置。
  8.  前記投影範囲を特定する条件を入力する投影範囲識別条件設定手段と、
     前記投影範囲識別条件設定手段で入力された条件に従って投影範囲を識別する投影範囲識別手段とを備え、
     前記投影範囲識別手段により識別された投影範囲に対応して投影光データを補正し、前記光投影手段から光を投影することを特徴とする請求項1乃至請求項7の何れか一項に記載の光投影装置。
  9.  前記光投影手段の投影範囲を含む空間を撮影範囲とする撮影手段と、
     前記撮影手段により撮影された撮影データを表示する撮影データ表示手段と、
     前記撮影手段の位置姿勢及び仕様を含むパラメータを入力する撮影パラメータ入力手段と、
     前記光投影手段の位置姿勢及び仕様を含むパラメータを入力する光投影パラメータ入力手段と、
     前記光投影手段の投影範囲の状態を把握するために、仮想的に設定した仮想平面領域の位置姿勢と大きさとを含むパラメータを入力する仮想平面入力手段と、
     前記撮影手段の位置姿勢及び仕様を含むパラメータ、前記光投影手段の位置姿勢及び仕様を含むパラメータ及び前記仮想平面領域の位置姿勢と大きさとを含むパラメータに基づいて、前記仮想平面上において前記投影光が前記撮影手段の撮影範囲と一致するように、前記投影光データを補正する投影光データ補正手段と
     を備えることを特徴とする請求項1乃至請求項8の何れか一項に記載の光投影装置。
  10.  前記投影範囲を抽出する条件を設定する投影範囲抽出設定手段と、
     前記投影範囲抽出設定手段により設定された条件に従って前記撮影手段により生成された撮影データを解析して、前記投影範囲と当該投影範囲以外の非投影範囲とを分別する分別手段とを備え、
     前記投影光データ補正手段は、前記分別手段により分別された投影範囲と非投影範囲とに基づいて、前記投影光データを補正すること
     を特徴とする請求項9に記載の光投影装置。
  11.  ユーザの操作に従って、前記投影範囲の境界を修正する投影範囲修正手段を備えることを特徴とする請求項1乃至請求項10の何れか一項に記載の光投影装置。
  12.  前記投影光データを保存する投影光データ保存手段と、
     前記投影光データ保存手段に保存された投影光データの、少なくとも出力順序又は出力条件の何れかを設定する投影光データ出力設定手段と、
     前記投影光データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って前記投影光データ保存手段に保存された投影光データを出力する投影光データ更新手段と
     を備えることを特徴とする請求項1乃至請求項11の何れか一項に記載の光投影装置。
  13.  前記投影光データ補正手段により投影光データを補正するための投影範囲パラメータを保存する投影範囲パラメータ保存手段と、
     前記投影範囲パラメータ保存手段に保存された投影範囲パラメータの、少なくとも出力順序又は出力条件の何れかを設定する投影範囲出力設定手段と、
     前記投影範囲出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って前記投影範囲パラメータ保存手段に保存された投影範囲パラメータを出力する投影範囲パラメータ更新手段と
     を備えることを特徴とする請求項1乃至請求項12の何れか一項に記載の光投影装置。
  14.  前記投影光データ補正手段により補正された投影光補正データを保存する投影光補正データ保存手段と、
     前記投影光補正データ保存手段に保存された投影光データの、少なくとも出力順序又は出力条件の何れかを設定する投影光補正光データ出力設定手段と、
     前記投影光補正データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って前記投影光補正データ保存手段に保存された投影光データを出力する投影光データ更新手段と
     を備えることを特徴とする請求項1乃至請求項13の何れか一項に記載の光投影装置。
  15.  前記基準画像データを保存する基準画像データ保存手段と、
     前記基準画像データ保存手段に保存された基準画像データの、少なくとも出力順序又は出力条件の何れかを設定する基準画像データ出力設定手段と、
     前記基準画像データ出力設定手段により設定された少なくとも出力順序又は出力条件の何れか一方に従って前記基準画像データ保存手段に保存された基準画像データを出力する基準画像更新手段と
     を備えることを特徴とする請求項5に記載の光投影装置。
  16.  前記投影光補正データ描画手段により生成された投影光描画データを保存する投影光描画データ保存手段と、
     前記投影光描画データ保存手段に保存された投影光描画データを外部記憶媒体に記憶して、当該外部記憶媒体に記憶された投影光描画データを前記光投影手段に出力する外部記憶手段と
     を備えることを特徴とする請求項1乃至請求項15の何れか一項に記載の光投影装置。
  17.  前記光投影手段を複数備えたことを特徴とする請求項1乃至請求項16の何れか一項に記載の光投影装置。
  18.  前記投影光データは、映像を表す映像データであり、
     前記投影範囲設定手段は、映像が投影される映像投影範囲と非投影範囲を設定し、
     前記投影光データ補正手段は、前記映像投影範囲に映像を投影するように映像データを補正し、
     前記投影光補正データ描画手段は、補正された映像データの描画処理を行い、
     前記光投影手段は、前記映像投影範囲に映像を投影すること
     を特徴とする請求項1乃至請求項17の何れか一項に記載の光投影装置。
  19.  請求項1~請求項18の何れかに記載の構成を備えた照明装置。
PCT/JP2009/052533 2008-02-22 2009-02-16 光投影装置、照明装置 WO2009104550A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN200980105743.2A CN101946117B (zh) 2008-02-22 2009-02-16 光投影装置、照明装置
EP09711747.7A EP2246610A4 (en) 2008-02-22 2009-02-16 LIGHT PROJECTION DEVICE AND LIGHTING DEVICE
KR1020107018070A KR101187500B1 (ko) 2008-02-22 2009-02-16 광 투영 장치, 조명 장치
US12/867,576 US8899760B2 (en) 2008-02-22 2009-02-16 Light projection apparatus and lighting apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008042019 2008-02-22
JP2008-042019 2008-02-22

Publications (1)

Publication Number Publication Date
WO2009104550A1 true WO2009104550A1 (ja) 2009-08-27

Family

ID=40985431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052533 WO2009104550A1 (ja) 2008-02-22 2009-02-16 光投影装置、照明装置

Country Status (6)

Country Link
US (1) US8899760B2 (ja)
EP (1) EP2246610A4 (ja)
JP (2) JP4341723B2 (ja)
KR (1) KR101187500B1 (ja)
CN (1) CN101946117B (ja)
WO (1) WO2009104550A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290354A (ja) * 2008-05-27 2009-12-10 Panasonic Electric Works Co Ltd 照明装置、空間演出システム
WO2010137496A1 (ja) * 2009-05-26 2010-12-02 パナソニック電工株式会社 情報提示装置
WO2014199629A1 (ja) * 2013-06-14 2014-12-18 株式会社デンソー 車両用表示装置
JP2015001621A (ja) * 2013-06-14 2015-01-05 株式会社デンソー 車両用表示装置
JP2015025716A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用表示装置
JP2015025715A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用表示装置
JP2015062001A (ja) * 2013-09-23 2015-04-02 株式会社デンソー 車両用表示装置
JP2015068858A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 情報処理装置及びその制御方法、プログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5578844B2 (ja) * 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5724064B2 (ja) * 2010-05-06 2015-05-27 パナソニックIpマネジメント株式会社 光投影装置
JP5212521B2 (ja) * 2011-07-07 2013-06-19 株式会社ニコン 画像表示装置
JP5643153B2 (ja) 2011-05-23 2014-12-17 パナソニック株式会社 光投影装置
US10229538B2 (en) * 2011-07-29 2019-03-12 Hewlett-Packard Development Company, L.P. System and method of visual layering
JP5853173B2 (ja) * 2011-12-16 2016-02-09 パナソニックIpマネジメント株式会社 光照射システム
US9600091B2 (en) 2012-01-05 2017-03-21 Seiko Epson Corporation Display device and display control method
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
JP6028372B2 (ja) * 2012-04-05 2016-11-16 カシオ計算機株式会社 表示制御装置、画像処理装置、画像制御方法及びプログラム
TWI511551B (zh) * 2012-04-12 2015-12-01 Acer Inc 攝影裝置及其影像拍攝方法
US9217636B2 (en) 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
CN102841090B (zh) * 2012-08-15 2015-03-25 谱尼测试科技股份有限公司 一种明胶及其制品中六价铬的检测方法
JP5987584B2 (ja) * 2012-09-18 2016-09-07 株式会社リコー 画像処理装置、映像投影システムおよびプログラム
JP6304618B2 (ja) 2013-11-05 2018-04-04 パナソニックIpマネジメント株式会社 照明装置
US20150193915A1 (en) * 2014-01-06 2015-07-09 Nvidia Corporation Technique for projecting an image onto a surface with a mobile device
JP6381235B2 (ja) * 2014-03-07 2018-08-29 キヤノン株式会社 投影装置、画像投影方法及びプログラム
JP2016001354A (ja) * 2014-06-11 2016-01-07 パナソニックIpマネジメント株式会社 投影領域設定装置および当該投影領域設定装置を用いた作業検知システム
JP6410079B2 (ja) * 2014-06-26 2018-10-24 パナソニックIpマネジメント株式会社 光投影装置及びそれを用いた照明装置
JP6507518B2 (ja) * 2014-08-11 2019-05-08 セイコーエプソン株式会社 画像処理装置及び撮像表示システム
JP6624541B2 (ja) * 2014-09-12 2019-12-25 パナソニックIpマネジメント株式会社 光投影装置及びそれを用いた照明装置
TWI549516B (zh) 2014-10-03 2016-09-11 宏碁股份有限公司 電子裝置與投影畫面調整方法
WO2016076874A1 (en) 2014-11-13 2016-05-19 Hewlett-Packard Development Company, L.P. Image projection
JP2016161882A (ja) * 2015-03-04 2016-09-05 パナソニックIpマネジメント株式会社 光投影装置
JP6721951B2 (ja) * 2015-07-03 2020-07-15 シャープ株式会社 画像表示装置、画像表示制御方法、および、画像表示システム
KR101665418B1 (ko) 2015-08-17 2016-10-12 한국항공우주산업 주식회사 리플렉터를 이용한 레이저 장치 검증방법
JP6615541B2 (ja) * 2015-09-02 2019-12-04 株式会社バンダイナムコアミューズメント 投影システム
JP6642032B2 (ja) * 2016-01-21 2020-02-05 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
CN106713879A (zh) * 2016-11-25 2017-05-24 重庆杰夫与友文化创意有限公司 避障投影方法及其装置
US20190349556A1 (en) * 2017-02-01 2019-11-14 Sharp Kabushiki Kaisha Projection suitability detection system, projection suitability detection method, and non-transitory medium
JP7145444B2 (ja) * 2018-06-20 2022-10-03 パナソニックIpマネジメント株式会社 投影システム、投影調整プログラム及び投影方法
JP7347205B2 (ja) 2019-12-26 2023-09-20 セイコーエプソン株式会社 投写システムの制御方法、投写システム及び制御プログラム
WO2021215124A1 (ja) * 2020-04-24 2021-10-28 富士フイルム株式会社 制御方法、投影装置、及び制御プログラム
JP7099497B2 (ja) * 2020-07-28 2022-07-12 セイコーエプソン株式会社 画像生成方法、画像生成システム、及びプログラム
JP7163943B2 (ja) * 2020-09-10 2022-11-01 セイコーエプソン株式会社 情報生成方法、情報生成システム、及びプログラム
JP7322910B2 (ja) * 2021-02-24 2023-08-08 セイコーエプソン株式会社 情報処理装置及び情報処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05249428A (ja) * 1992-03-05 1993-09-28 Koudo Eizou Gijutsu Kenkyusho:Kk 投影システム
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2006338181A (ja) 2005-05-31 2006-12-14 Fuji Xerox Co Ltd 立体表示装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421165B2 (en) * 1996-02-07 2002-07-16 Light & Sound Design Ltd. Programmable light beam shape altering device using programmable micromirrors
TW346729B (en) * 1996-06-24 1998-12-01 Matsushita Electric Ind Co Ltd Digital convergence system
JP3509652B2 (ja) * 1999-08-23 2004-03-22 日本電気株式会社 プロジェクタ装置
US6386711B1 (en) * 2000-08-14 2002-05-14 Eastman Kodak Company Digital projector with scanner
US20030025649A1 (en) * 2000-09-08 2003-02-06 Wynne Willson Peter David Image projection apparatus
JP2003283964A (ja) * 2002-03-26 2003-10-03 Olympus Optical Co Ltd 映像表示装置
JP4445693B2 (ja) * 2002-05-17 2010-04-07 日本電気株式会社 プロジェクタの投射面色補正方法、プロジェクタの投射面色補正システムおよびプロジェクタの投射面色補正用プログラム
JP4009850B2 (ja) 2002-05-20 2007-11-21 セイコーエプソン株式会社 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
JP2004072553A (ja) * 2002-08-08 2004-03-04 Digital Zuu:Kk 映像歪み補正方法及び同方法用プログラム
JP4490074B2 (ja) * 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
US6916098B2 (en) * 2003-05-14 2005-07-12 Infocus Corporation Preset key for a projection device
JP2005033703A (ja) * 2003-07-11 2005-02-03 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3735624B2 (ja) * 2003-09-26 2006-01-18 Necビューテクノロジー株式会社 投影表示装置
KR101233911B1 (ko) * 2003-12-05 2013-02-15 쓰리엠 이노베이티브 프로퍼티즈 컴파니 광각 투사 렌즈 및 투사 디스플레이 장치용 광학 엔진
JP2005258162A (ja) 2004-03-12 2005-09-22 Tetsuya Akiba 映像表示方法及び室内装飾方法
US7948448B2 (en) * 2004-04-01 2011-05-24 Polyvision Corporation Portable presentation system and methods for use therewith
JP2005352172A (ja) 2004-06-10 2005-12-22 Sony Corp 画像投射装置及びその制御方法
US7684007B2 (en) 2004-08-23 2010-03-23 The Boeing Company Adaptive and interactive scene illumination
WO2006024254A1 (de) 2004-08-30 2006-03-09 Bauhaus-Universität Weimar Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
EP1987679B1 (en) 2006-02-21 2010-05-12 Panasonic Electric Works Co., Ltd. Image display apparatus and image distortion correction method of the same
JP2007271771A (ja) 2006-03-30 2007-10-18 Fuji Xerox Co Ltd 画像表示システム及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05249428A (ja) * 1992-03-05 1993-09-28 Koudo Eizou Gijutsu Kenkyusho:Kk 投影システム
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2006338181A (ja) 2005-05-31 2006-12-14 Fuji Xerox Co Ltd 立体表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2246610A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290354A (ja) * 2008-05-27 2009-12-10 Panasonic Electric Works Co Ltd 照明装置、空間演出システム
WO2010137496A1 (ja) * 2009-05-26 2010-12-02 パナソニック電工株式会社 情報提示装置
JP5328907B2 (ja) * 2009-05-26 2013-10-30 パナソニック株式会社 情報提示装置
WO2014199629A1 (ja) * 2013-06-14 2014-12-18 株式会社デンソー 車両用表示装置
JP2015001621A (ja) * 2013-06-14 2015-01-05 株式会社デンソー 車両用表示装置
US10298890B2 (en) 2013-06-14 2019-05-21 Denso Corporation Vehicle display device
JP2015025716A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用表示装置
JP2015025715A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用表示装置
JP2015062001A (ja) * 2013-09-23 2015-04-02 株式会社デンソー 車両用表示装置
JP2015068858A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 情報処理装置及びその制御方法、プログラム

Also Published As

Publication number Publication date
JP2009223331A (ja) 2009-10-01
KR20100113124A (ko) 2010-10-20
US8899760B2 (en) 2014-12-02
CN101946117B (zh) 2014-03-12
EP2246610A1 (en) 2010-11-03
JP4341723B2 (ja) 2009-10-07
EP2246610A4 (en) 2014-07-02
JP2009225432A (ja) 2009-10-01
CN101946117A (zh) 2011-01-12
KR101187500B1 (ko) 2012-10-02
US20100315825A1 (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP4341723B2 (ja) 光投影装置、照明装置
CN106062862B (zh) 用于沉浸式和交互式多媒体生成的系统和方法
US7468742B2 (en) Interactive presentation system
JP5624530B2 (ja) コマンド発行装置、方法及びプログラム
US9521276B2 (en) Portable projection capture device
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
US20120069180A1 (en) Information presentation apparatus
US20140139668A1 (en) Projection capture system and method
US20090168027A1 (en) Projector system employing depth perception to detect speaker position and gestures
TWI390326B (zh) Lighting device
CN109698947A (zh) 投影仪和投影仪的控制方法
CN107239177A (zh) 显示系统、显示装置、信息处理装置以及信息处理方法
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP5724064B2 (ja) 光投影装置
JP2019146155A (ja) 画像処理装置、画像処理方法およびプログラム
JP2006268582A (ja) ジェスチャによる情報機器の制御方法および制御システム
US20200184222A1 (en) Augmented reality tools for lighting design
JP2011170296A (ja) 光投影装置
US11747478B2 (en) Stage mapping and detection using infrared light
JP5162393B2 (ja) 照明装置
JP2021105639A5 (ja)
KR102044928B1 (ko) 가상공간 내 복수의 디스플레이 배치방법
US20230206566A1 (en) Method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object implementing the target object using the same
KR102245223B1 (ko) 비정형 투사면에 다층구조 빔프로젝션 콘텐츠 전시를 위한 영상 처리 시스템 및 그 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980105743.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09711747

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20107018070

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12867576

Country of ref document: US

Ref document number: 2987/KOLNP/2010

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2009711747

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE