WO2016103560A1 - 投影装置 - Google Patents

投影装置 Download PDF

Info

Publication number
WO2016103560A1
WO2016103560A1 PCT/JP2015/005689 JP2015005689W WO2016103560A1 WO 2016103560 A1 WO2016103560 A1 WO 2016103560A1 JP 2015005689 W JP2015005689 W JP 2015005689W WO 2016103560 A1 WO2016103560 A1 WO 2016103560A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
unit
person
image
control unit
Prior art date
Application number
PCT/JP2015/005689
Other languages
English (en)
French (fr)
Inventor
史雄 村松
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2016565872A priority Critical patent/JP6613458B2/ja
Publication of WO2016103560A1 publication Critical patent/WO2016103560A1/ja
Priority to US15/432,340 priority patent/US10345686B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen

Definitions

  • the present disclosure relates to a projection apparatus that projects an image.
  • Patent Document 1 discloses a photographing projection device that projects an image following a moving body.
  • the photographing and projecting apparatus includes a camera that shoots an object and a projector that projects a projection image on the photographed object with a relative position and posture fixed.
  • the photographing projection device is supported by a turning device that performs pan driving control and tilt driving control in the photographing direction by the camera and the projection direction by the projector.
  • the present disclosure provides a projection apparatus that can effectively perform guidance such as guidance and advertisement according to the movement of an object when projecting a projected image to show it on an object such as a person.
  • the projection device includes first and second detection units, a projection unit, a drive unit, and a control unit.
  • the first detection unit detects a specific object.
  • the projection unit projects a projection image.
  • the drive unit drives the projection unit to change the projection direction for projecting the projection image.
  • the second detection unit detects the state of the object detected by the first detection unit.
  • the control unit controls at least one of the projection unit and the drive unit so that the projection image follows the object.
  • the projection image has guidance information including content for guiding the object.
  • a control part changes the content of the information contained in the guidance information of the projection image projected according to a target object according to the state of the target object detected by the 2nd detection part.
  • the projection device in the present disclosure changes the guidance information in the projection image according to the state of the target object, when projecting the projection image to show the target object such as a person, guidance or movement is performed according to the movement of the target object. Information such as advertisements can be effectively provided.
  • FIG. 1 is an image diagram in which the projector apparatus according to Embodiment 1 projects a projected image on a wall surface.
  • FIG. 2 is an image diagram in which the projector device projects a projection image on the floor surface.
  • FIG. 3 is a block diagram showing an electrical configuration of the projector apparatus.
  • FIG. 4A is a block diagram illustrating an electrical configuration of the distance detection unit.
  • FIG. 4B is a diagram for explaining an infrared image captured by the distance detection unit.
  • FIG. 5 is a block diagram showing an optical configuration of the projector apparatus.
  • FIG. 6 is an explanatory diagram for explaining an outline of the operation of the projector device in the first embodiment.
  • FIG. 7 is a flowchart showing the flow of guidance projection processing in the first embodiment.
  • FIG. 1 is an image diagram in which the projector apparatus according to Embodiment 1 projects a projected image on a wall surface.
  • FIG. 2 is an image diagram in which the projector device projects a projection image on the floor surface.
  • FIG. 8 is a diagram showing a display data table of the guidance projection process in the first embodiment.
  • FIG. 9A is an explanatory diagram for explaining guidance projection processing of the projector device in the second embodiment.
  • FIG. 9B is an explanatory diagram for explaining guidance projection processing of the projector device in the second embodiment.
  • FIG. 10 is a diagram showing a display data table of guidance projection processing in the second embodiment.
  • FIG. 11A is an explanatory diagram for explaining an overview of the seat guidance system in the third embodiment.
  • FIG. 11B is an explanatory diagram for explaining an overview of the seat guidance system in the third embodiment.
  • FIG. 11C is an explanatory diagram for explaining an overview of the seat guidance system in the third embodiment.
  • FIG. 12 is a block diagram showing the configuration of the seat guidance system.
  • FIG. 13 is a flowchart showing the flow of guidance projection processing in the third embodiment.
  • FIG. 14 is a diagram showing a display data table of guidance projection processing in the third embodiment.
  • FIG. 15A is an explanatory diagram for describing guidance projection processing of the projector device in the fourth embodiment.
  • FIG. 15B is an explanatory diagram for explaining guidance projection processing of the projector device in the fourth embodiment.
  • FIG. 15C is an explanatory diagram for explaining guidance projection processing of the projector device in the fourth embodiment.
  • FIG. 15D is an explanatory diagram for describing guidance projection processing of the projector device in the fourth embodiment.
  • FIG. 16 is a flowchart showing a flow of guidance projection processing in the fourth embodiment.
  • FIG. 17 is a diagram showing a display data table of guidance projection processing in the fourth embodiment.
  • FIG. 1 is an image diagram in which the projector device 100 projects a projection image on the wall surface 140.
  • FIG. 2 is an image diagram in which the projector device 100 projects a projection image on the floor surface 150.
  • the projector device 100 is fixed to the housing 120 together with the drive unit 110.
  • Wirings electrically connected to the components constituting the projector device 100 and the driving unit 110 are connected to a power source via the casing 120 and the wiring duct 130. As a result, power is supplied to the projector device 100 and the drive unit 110.
  • the projector device 100 has an opening 101. Projector apparatus 100 projects a projected image through opening 101.
  • the driving unit 110 can be driven to change the projection direction of the projector device 100.
  • the drive unit 110 can drive the main body 100b of the projector device 100 in the pan direction (horizontal direction) and the tilt direction (vertical direction).
  • the drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the wall surface 140 as shown in FIG. Thereby, the projector device 100 can project the projection image 141 onto the wall surface 140.
  • the drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the floor 150 as shown in FIG. Thereby, the projector device 100 can project the projection image 151 onto the floor surface 150.
  • the driving unit 110 may be driven based on a user's manual operation, or may be automatically driven according to a detection result of a predetermined sensor. Further, the projection image 141 projected onto the wall surface 140 and the projection image 151 projected onto the floor surface 150 may have different contents or the same.
  • FIG. 3 is a block diagram showing an electrical configuration of the projector apparatus 100.
  • the projector device 100 is equipped with a user interface device 200.
  • the projector device 100 can execute various controls on the projection image in accordance with a human operation or a human standing position.
  • the projector device 100 includes a user interface device 200 and a projection unit 250.
  • the projection unit 250 includes a light source unit 300, an image generation unit 400, and a projection optical system 500.
  • the structure of each part which comprises the projector apparatus 100 is demonstrated in order.
  • the user interface device 200 includes a control unit 210, a memory 220, a distance detection unit 230, and an imaging unit 240.
  • the imaging unit 240 is an example of a first detection unit that detects a specific object.
  • the distance detection unit 230 is an example of a second detection unit that detects the state of the detected object.
  • the control unit 210 is a semiconductor element that controls the entire projector device 100. That is, the control unit 210 includes each unit (the imaging unit 240, the distance detection unit 230, and the memory 220) that configures the user interface device 200, and each unit that configures the projection unit 250 (the light source unit 300, the image generation unit 400, the projection optical system). 500). Further, the control unit 210 can perform digital zoom control for reducing and enlarging the projected image by video signal processing.
  • the control unit 210 may be configured only by hardware, or may be realized by combining hardware and software.
  • the memory 220 is a storage element that stores various types of information.
  • the memory 220 includes a flash memory or a ferroelectric memory.
  • the memory 220 stores a control program or the like for controlling the projector device 100 (including the user interface device 200).
  • the memory 220 stores various information supplied from the control unit 210. Further, the memory 220 stores data such as a projection size setting for displaying a projection image and a focus value table corresponding to distance information to the projection plane (the wall surface 140 or the floor surface 150).
  • the imaging unit 240 is configured by, for example, a CCD (Charge-Coupled-Device) camera, and captures an RGB image using visible light.
  • the RGB image captured by the imaging unit 240 is output to the control unit 210.
  • the distance detector 230 is composed of, for example, a TOF (Time-of-Flight) sensor, and detects a linear distance to the opposing surface.
  • a TOF Time-of-Flight
  • FIG. 4A is a block diagram illustrating an electrical configuration of the distance detection unit 230. As shown in FIG.
  • the distance detection unit 230 includes an infrared light source unit 231 that irradiates infrared detection light, an infrared light reception unit 232 that receives infrared detection light reflected by the opposing surface, and a sensor control unit. 233.
  • the infrared light source unit 231 irradiates the infrared detection light through the opening 101 so as to be diffused over the entire surface.
  • the infrared light source unit 231 uses, for example, infrared light having a wavelength of 850 nm to 950 nm as infrared detection light.
  • the sensor control unit 233 stores the phase of the infrared detection light emitted by the infrared light source unit 231 in the internal memory of the sensor control unit 233.
  • a plurality of pixels arranged on the imaging surface of the infrared light receiving unit 232 are detected as reflected light at different timings as infrared light. Receives light. Since the light is received at different timings, the phase of the infrared detection light received by the infrared light receiving unit 232 is different for each pixel.
  • the sensor control unit 233 stores the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 in the internal memory.
  • the sensor control unit 233 reads the phase of the infrared detection light emitted by the infrared light source unit 231 and the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 from the internal memory.
  • the sensor control unit 233 determines the distance from the distance detection unit 230 to the facing surface based on the phase difference between the infrared detection light emitted by the distance detection unit 230 and the infrared detection light received by the infrared light reception unit 232. Is measured to generate distance information (distance image).
  • the facing surfaces are the wall surface 140, the floor surface 150, the surfaces of objects (for example, persons 61 to 63) described later, and the like.
  • FIG. 4B is a diagram for explaining the distance information acquired by the distance detection unit 230 (sensor control unit 233).
  • the distance detection unit 230 detects the distance for each pixel constituting the infrared image by the received infrared detection light.
  • the control part 210 can obtain the detection result of the distance with respect to the whole field angle of the infrared image by the infrared detection light received by the distance detection part 230 for each pixel.
  • the X axis is taken in the horizontal direction of the infrared image
  • the Y axis is taken in the vertical direction.
  • the Z axis is taken in the detected distance direction.
  • the control unit 210 can acquire the XYZ triaxial coordinates (x, y, z) for each pixel constituting the infrared image. That is, the control unit 210 can acquire distance information (distance image) based on the detection result of the distance detection unit 230.
  • the control unit 210 acquires distance information at predetermined time intervals (for example, 1/60 seconds).
  • the TOF sensor is exemplified as the distance detection unit 230, but the present disclosure is not limited to this. That is, as in a random dot pattern, a known pattern may be projected and a distance may be calculated from the deviation of the pattern, or a parallax obtained by a stereo camera may be used.
  • FIG. 5 is a block diagram showing an optical configuration of projector device 100.
  • the light source unit 300 supplies light necessary for generating a projection image to the image generation unit 400.
  • the image generation unit 400 supplies the generated projection image to the projection optical system 500.
  • the projection optical system 500 performs optical conversion such as focusing and zooming on the projection image supplied from the image generation unit 400.
  • the projection optical system 500 faces the opening 101, and a projection image is projected from the opening 101.
  • the light source unit 300 includes a semiconductor laser 310, a dichroic mirror 330, a ⁇ / 4 plate 340, a phosphor wheel 360, and the like.
  • the semiconductor laser 310 is a solid light source that emits S-polarized blue light having a wavelength of 440 nm to 455 nm, for example. S-polarized blue light emitted from the semiconductor laser 310 is incident on the dichroic mirror 330 via the light guide optical system 320.
  • the dichroic mirror 330 has, for example, a high reflectivity of 98% or more for S-polarized blue light having a wavelength of 440 nm to 455 nm, while P-polarized blue light having a wavelength of 440 nm to 455 nm and green having a wavelength of 490 nm to 700 nm. It is an optical element having a high transmittance of 95% or more for light to red light regardless of the polarization state.
  • the dichroic mirror 330 reflects the S-polarized blue light emitted from the semiconductor laser 310 in the direction of the ⁇ / 4 plate 340.
  • the ⁇ / 4 plate 340 is a polarizing element that converts linearly polarized light into circularly polarized light or converts circularly polarized light into linearly polarized light.
  • the ⁇ / 4 plate 340 is disposed between the dichroic mirror 330 and the phosphor wheel 360.
  • the S-polarized blue light incident on the ⁇ / 4 plate 340 is converted into circularly-polarized blue light and then irradiated onto the phosphor wheel 360 via the lens 350.
  • the phosphor wheel 360 is a flat plate configured to be capable of high-speed rotation. On the surface of the phosphor wheel 360, a B region which is a diffuse reflection surface region, a G region coated with a phosphor emitting green light, and an R region coated with a phosphor emitting red light. A plurality of and are formed.
  • the circularly polarized blue light applied to the region B of the phosphor wheel 360 is diffusely reflected and reenters the ⁇ / 4 plate 340 as circularly polarized blue light.
  • the circularly polarized blue light incident on the ⁇ / 4 plate 340 is converted into P-polarized blue light and then incident on the dichroic mirror 330 again. At this time, since the blue light incident on the dichroic mirror 330 is P-polarized light, it passes through the dichroic mirror 330 and enters the image generation unit 400 via the light guide optical system 370.
  • the blue light applied to the G region or R region of the phosphor wheel 360 excites the phosphor applied on the G region or R region to emit green light or red light.
  • Green light or red light emitted from the G region or the R region is incident on the dichroic mirror 330.
  • the green light or red light incident on the dichroic mirror 330 passes through the dichroic mirror 330 and enters the image generation unit 400 via the light guide optical system 370.
  • the image generation unit 400 generates a projection image corresponding to the video signal supplied from the control unit 210.
  • the image generation unit 400 includes a DMD (Digital-Mirror-Device) 420 and the like.
  • the DMD 420 is a display element in which a large number of micromirrors are arranged in a plane.
  • the DMD 420 deflects each of the arranged micromirrors according to the video signal supplied from the control unit 210 to spatially modulate the incident light. Blue light, green light, and red light are emitted from the light source unit 300 in a time-sharing manner.
  • the DMD 420 repeatedly receives blue light, green light, and red light that are emitted in a time division manner through the light guide optical system 410 in order.
  • the DMD 420 deflects each of the micromirrors in synchronization with the timing at which light of each color is emitted. Thereby, the image generation part 400 produces
  • the DMD 420 deflects the micromirror according to the video signal into light that travels to the projection optical system 500 and light that travels outside the effective range of the projection optical system 500. Thereby, the image generation unit 400 can supply the generated projection image to the projection optical system 500.
  • Projection optical system 500 includes optical members such as zoom lens 510 and focus lens 520.
  • the projection optical system 500 enlarges the light traveling from the image generation unit 400 and projects it onto the projection surface (the wall surface 140 or the floor surface 150).
  • the control unit 210 can control the projection area with respect to the projection plane so as to obtain a desired zoom value by adjusting the position of the zoom lens 510.
  • the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view becomes narrower, thereby narrowing the projection area.
  • the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view is widened to widen the projection area.
  • the control unit 210 can adjust the focus of the projection image by adjusting the position of the focus lens 520 based on predetermined zoom tracking data so as to follow the movement of the zoom lens 510.
  • a configuration using the DLP (Digital-Light-Processing) method using the DMD 420 is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector apparatus 100 may employ a liquid crystal configuration.
  • the projector device 100 may adopt a three-light source configuration including various light sources of blue light, green light, and red light, or may adopt a three-plate configuration having the DMD 420 for each color of RGB. I do not care.
  • the blue light source for generating the projection image and the infrared light source for measuring the distance are described as separate units, but the present disclosure is not limited thereto. That is, a unit in which a blue light source for generating a projection image and an infrared light source for measuring a distance may be integrated. If the three light source method is adopted, a unit in which the light sources of the respective colors and the light source of infrared light are integrated may be used.
  • FIG. 6 is an explanatory diagram for explaining an outline of the operation of the projector device 100 according to the present embodiment.
  • Projector apparatus 100 detects a specific person using distance information (distance image) from distance detection unit 230 or a captured image from imaging unit 240, and follows the detected movement of the person. Then, a predetermined projection image is projected in the vicinity of the person. As shown in FIG. 6, the projector device 100 is installed, for example, in a passage leading to the entrance of the store, etc., and guides the surrounding people 61 to 63, such as guidance to the store, advertisement, and presentation of visitors. Project the projected image.
  • the projected image includes, for example, an arrow that guides the movement of the person, a message that welcomes the person, a text of a promotional advertisement, an image that produces the movement of the person such as a red carpet.
  • the projected image may be a still image or a moving image.
  • a person 61 who is near the projector apparatus 100 and is heading toward the projector apparatus 100 is heading toward the store, and therefore welcomes the person 61 such as “welcome”. Project a message.
  • the person 62 who is far away from the projector apparatus 100 and moves away from the projector apparatus 100 is considered not to be interested in the store, the person 62 projects a message for calling attention to the person 62.
  • contents that are easily accepted by the person are projected, and guidance such as guidance to the store and advertisement can be effectively performed by the projected image.
  • the projected image follow-up operation of projector apparatus 100 will be described with reference to FIGS. 1 to 4 and FIG.
  • the imaging unit 240 images, for example, the floor surface 150 and the wall surface 140 of the passage illustrated in FIG. 6, and the distance detection unit 230 detects distance information of an area captured by the imaging unit 240. (See FIGS. 3, 4A and 4B).
  • the control unit 210 detects a specific person based on the captured image.
  • the specific person is, for example, one of the persons 61 to 63 shown in FIG. 6, and is a target to be projected following the projected image. In the present embodiment, it is assumed that one person is an object to be projected following one projection by one projector apparatus 100.
  • the control unit 210 detects the position and traveling direction of the detected person based on the captured image from the imaging unit 240 and the distance information from the distance detection unit 230.
  • the drive unit 110 projects the main body 100b of the projector device 100 in the pan direction or tilt so as to project the projection image at a projection position that is a predetermined distance away on the extension line in the person's traveling direction.
  • Drive in the direction see FIGS. 1 and 2).
  • the control unit 210 detects the position and traveling direction of the person every predetermined period (for example, 1/60 seconds), sets the projection position, and controls the drive unit 110 to cause the person to follow the projection image.
  • the guidance projection process is a process for projecting the projection image by changing the guidance content in the projection image according to the state of the person.
  • FIG. 7 is a flowchart showing a flow of guidance projection processing according to the present embodiment. This flow is executed by the control unit 210 of each projector apparatus 100 (see FIG. 3).
  • control unit 210 determines whether or not a specific person has been detected (S100). For example, the person is detected by face authentication in a captured image captured by the imaging unit 240. When a plurality of persons are shown in the captured image, an individual may be specified by detailed face authentication, or one person may be selected at random.
  • a person may be detected using the distance detection unit 230.
  • basic distance information indicating the distance of the background such as the floor 150 is stored in the memory 220 in advance.
  • the control unit 210 detects the person based on a change amount of the acquired distance information from the basic distance information.
  • the distance detection unit 230 is used to determine the distance between the detected person and the own device (the projector device 100 that performs this processing), and the floor 150. The position of a person on the background such as is detected (S102).
  • control unit 210 detects the traveling direction of the person (S104).
  • the imaging unit 240 may be used, or the moving direction of the person may be detected by performing vector analysis on the captured image. Further, the eyes of a person may be recognized by image analysis of the captured image.
  • the control unit 210 selects display data indicating the content to be displayed in the projection image based on the detected person's state including the distance and the traveling direction (S106).
  • the state of the object is the state of a person
  • the state of the person includes the distance between the person and the own device and the traveling direction of the person.
  • the control unit 210 selects display data to be projected as a projection image with reference to the display data table D1 shown in FIG. Details of the display data will be described later.
  • the control unit 210 controls the driving unit 110 according to the detected distance and traveling direction, and sets the projection position of the projection image (S108).
  • the drive unit 110 drives the projection unit 250 in the pan direction and the tilt direction together with the main body 100b of the projector device 100, and directs the projection direction to the set projection position.
  • the projected position of the projected image is set at a position that is a predetermined distance away from the position of the person on the extended line in the direction of movement of the person on the floor 150 so that the person can easily see the projected position.
  • the projection position may be the wall surface 140, for example, a position that is a predetermined distance away from the position of the person and may be set to a position that matches the height of the person's eyes.
  • control unit 210 projects a projection image that displays the display data selected in step S108 (S110), and ends this process.
  • the control unit 210 controls the image generation unit 400 to generate a projection image, controls the projection optical system 500 to adjust the focus of the projection image to the projection position, and projects the projection image.
  • the control unit 210 repeatedly executes the above guide projection processing in a predetermined period (for example, 0.1 second).
  • FIG. 8 shows a display data table D1 referred to in the guidance projection process.
  • the display data table D1 is a table of display data recorded in association with the state of a person, and is stored in the memory 220 in advance.
  • the display data table D1 includes welcome text data D11, alert text data D14, and arrow image data D12 and D13 as display data.
  • the welcome text data D11 includes, for example, a text that welcomes and welcomes a store such as “Welcome”.
  • the alert text data D14 includes, for example, text of a message content that prompts the store to alert the customer, such as “I am doing here, please drop in”.
  • the arrow image data D12 and D13 are image data of an arrow graphic.
  • Each display data is an example of guidance information for guiding a person (object) in a projection image.
  • step S106 the control unit 210 reads the display data table D1 stored in the memory 220, and selects display data associated with the state of the person detected in steps S102 and S104 from the display data table D1.
  • the distance from the aircraft detected in step S102 is closer than a predetermined reference distance (for example, the distance from the aircraft to a predetermined position on the floor 150), and the traveling direction detected in step S104 is directed toward the aircraft. If the direction is coming, the control unit 210 selects the welcome text data D11. Also, when the distance to the aircraft is closer than the reference distance and the traveling direction is away from the aircraft, or the distance to the aircraft is farther than the reference distance and the traveling direction is toward the aircraft. In the case of the direction, the control unit 210 selects the arrow image data D12 and D13. Further, when the distance from the own device is longer than the reference distance and the traveling direction is away from the own device, the control unit 210 selects the alert text data D14.
  • a predetermined reference distance for example, the distance from the aircraft to a predetermined position on the floor 150
  • the traveling direction detected in step S104 is directed toward the aircraft. If the direction is coming, the control unit 210 selects the welcome text data D11. Also, when the distance to the aircraft is closer
  • the control unit 210 When projecting the display data selected in step S108, the control unit 210 generates a projection image with the orientation aligned so that it can be easily seen by the following person. For example, when the welcome text data D11 or the alert text data D14 is selected, the projection image is generated by aligning the direction of the text so that the text is easy to read for the persons 61 and 62. When the arrow image data D13 is selected, the projection image is generated by aligning the direction of the arrow graphic so that the tip of the arrow graphic faces one of the passages.
  • the display data D11 to D14 in the display data table D1 are examples, and may be display data including other guidance contents.
  • a message for thanking the customer such as “Thank you for visiting” may be displayed.
  • a projection image having contents matched to the state of the visitor to the store (visitor's position, distance, traveling direction) is projected.
  • the guidance information such as text and images in the projected image is appropriately switched in conjunction with the movement of the projection position by the driving unit 110 according to the state of the visitor's position and the like, and guidance such as guidance and advertisement is effective. Can be done automatically.
  • projector device 100 includes distance detection unit 230, imaging unit 240, projection unit 250, drive unit 110, and control unit 210.
  • the imaging unit 240 detects a specific object.
  • the projection unit 250 projects a projection image.
  • the drive unit 110 drives the projection unit 250 to change the projection direction for projecting the projection image.
  • the control unit 210 controls the drive unit 110 so that the projected image follows the object.
  • the projection image has display data D11 to D14 including contents for guiding the object.
  • the distance detection unit 230 detects the state of the object detected by the imaging unit 240.
  • the control unit 210 changes the contents of the information included in the display data D11 to D14 of the projection image to be projected following the target according to the state of the target detected by the distance detection unit 230.
  • the state of the object in the present embodiment is information relating to the passing operation of the persons 61 to 63 as objects, and more specifically, the distance between the persons 61 to 63 and the projector device 100, and This is the traveling direction of the persons 61-63.
  • the display data D11 to D14 in the projected image is changed according to the states (distance and traveling direction) of the persons 61 to 63, so that the projected images are shown to the persons 61 to 63. Therefore, guidance such as guidance and advertisement can be effectively performed according to the movement of the persons 61 to 63 when projecting. Further, it is possible to provide a projected image with high visibility according to the movement of the persons 61 to 63.
  • the display data is changed based on the distance between the person and the projector device 100 and the traveling direction of the person, but in the present embodiment, the moving speed of the person and the traveling direction of the person are changed. Change the display data based on. That is, the state of the object in the present embodiment is information relating to the movement of the person who is the object, and more specifically, the moving speed of the person and the traveling direction of the person.
  • the projector apparatus according to the present embodiment is configured similarly to the projector apparatus 100 according to the first embodiment (see FIGS. 1 to 5).
  • the state of the person includes the traveling direction and the moving speed
  • the projector device according to the present embodiment performs the same guidance projection processing as that of the first embodiment on the traveling direction and moving speed of the target person. This is detected (see FIG. 7).
  • FIG. 9A and 9B are explanatory diagrams for explaining the guide projection processing according to the present embodiment.
  • FIG. 10 shows a display data table D2 for the main guidance projection process.
  • the control unit 210 performs a process of detecting the moving speed of a person between step S104 and step S106, for example.
  • the moving speed of the person may be detected based on, for example, a change in the distance information for every predetermined period, or may be detected by vector analysis in the captured image of the imaging unit 240.
  • the control unit 210 determines whether the person to be followed is running or walking based on whether or not the detected moving speed is faster than a predetermined reference speed (for example, 1 km / h).
  • step S106 the control unit 210 selects display data using the display data table D2 shown in FIG. 10, and in step S108, the projection image of the display data selected from the display data table D2 is given to the target person. Project to show.
  • the display data table D2 the display data displayed in the projection image and the selection conditions based on the moving speed and the traveling direction of the person are managed in association with each other.
  • the control unit 210 displays the display data in the display data table D2.
  • Text data D21 is selected from the inside.
  • the text data D21 includes text that describes details of a call to the store to be guided, and includes, for example, information related to the sale of the store to be guided.
  • the target person 61 since the target person 61 is heading to the store, there is a possibility that he / she is interested in the store. Therefore, by projecting a projected image that is called into the store to be guided, the person 61 is more interested in the store. Further, since the person 61 is walking and moving at a slow speed, it is expected that even the detailed guidance contents can be read.
  • the control unit 210 selects text data from the display data of the display data table D2.
  • Select D22 includes text that describes in detail the content of the guidance for calling attention to stop a person moving away from the store, and includes, for example, information on appeal points of the store to be guided.
  • the target person 62 is away from the store, so the store is alerted. Since the person 62 is walking, it is expected that he can read even detailed guidance contents.
  • the control unit 210 displays the display data in the display data table D2.
  • the image data D23 is selected from the inside.
  • the image data D23 includes an effect image that directs entry to the guided store, and includes, for example, image data such as a red carpet leading to the guided store.
  • the target person 61 ' since the target person 61 'is rushing toward the store, there is a possibility that the subject person 61' has a willingness to enter the store. Therefore, the person 61 'is called in by projecting an effect image for directing the store to be guided. In addition, since the moving speed of the person 61 'is fast, an effect is provided so that the user can experience the presence of entering the store instead of the detailed guidance contents.
  • the control unit 210 selects the display data from the display data table D2.
  • Image data D24 is selected.
  • the image data D24 includes text and images of guidance contents that call a person away from the store, and includes, for example, image data of an inverted arrow graphic indicating a U-turn and image data of an X mark graphic.
  • the target person 62 ' is away from the store, so the store is alerted. Since the moving speed of the person 62 ′ is fast, the guidance contents that are likely to remain in the impression at a glance are displayed instead of the detailed guidance contents.
  • the target person moves away from his / her own device, display data with contents that thank the store may be selected instead of the text data D22 and the image data D24.
  • the content to be projected may be changed depending on whether the moving speed of the target person is slow or fast. For example, the content such as the effect in the projected image may be switched.
  • the projection image is switched according to the moving speed of the target person, and the projected image with realistic content or content that is easy to read is easy to see for the target person. Is projected. For this reason, guidance such as guidance and advertisement by the projected image can be effectively performed.
  • a projected image for guiding a store to a target person is projected.
  • the target person is searching for a seat in a movie theater or the like.
  • a projection image for guiding a person to the seat location is projected.
  • the target state in the present embodiment is information related to the operation of searching for the seat of the person who is the target, and more specifically, the distance to the person's seat and the person in the correct column. Whether or not.
  • FIG. 11A to FIG. 11C are explanatory diagrams for explaining the outline of the seat guidance system according to the present embodiment.
  • FIG. 12 is a block diagram showing the configuration of the seat guidance system.
  • the seat guidance system includes a projector device 100A, a ticket reader 700, and an imaging unit 750.
  • the projector device 100A is installed on the ceiling of a movie theater, and illuminates the passage and seat 7 of the movie theater.
  • the ticket reader 700 and the imaging unit 750 are installed at the entrance of a movie theater or the like.
  • the seat guidance system guidance processing for guiding the person 64 entering the movie theater to the seat indicated by the seat number of the ticket C1 possessed by the person 64 by the projection image is performed.
  • the target person 64 is looking for a seat
  • the person 64 enters the theater area from the entrance of the movie theater and causes the ticket reader 700 near the entrance to read the ticket C1.
  • the seat guidance system reads the ticket C1 and images the person 64 using the imaging unit 750 to acquire information about the person 64 and the seat number.
  • the projector device 100A in the seat guidance system projects a projection image for guiding the person 64 to the seat location indicated by the ticket C1 based on the acquired information about the person 64.
  • the content to be projected is changed according to the state of the person 64.
  • the projector device 100A in the seat guidance system further includes a communication unit 160 in addition to the same configuration as the projector device 100 (not shown in FIG. 12).
  • the communication unit 160 includes a communication antenna and performs wireless communication with the ticket reader 700. Note that communication with the ticket reader 700 may be connected by wire.
  • the memory 220 of the projector device 100A stores in advance seat position information in which the positions of a plurality of seats in the movie theater and the seat numbers of the respective seats are associated with each other.
  • the seat position information for example, when the projector apparatus 100A is installed, the control unit 210 acquires distance information of a plurality of seats in the movie theater using the distance detection unit 230, and seat number information of each seat from the communication unit 160. Generated by associating them. In the present embodiment, it is assumed that the seat number of a movie theater is specified by the seat number arranged along each row, such as “S row 2”.
  • the ticket reader 700 includes a reading unit 710, a control unit 720, and a communication unit 730.
  • the reading unit 710 is configured by a barcode reader, for example, and reads the barcode printed on the ticket C1. Seat number information indicating a seat number is recorded in the barcode of the ticket C1, and the reading unit 710 acquires the seat number information from the barcode of the ticket C1.
  • QR code registered trademark
  • QR code may be used for recording and reading the seat number information.
  • the communication unit 730 is an interface for transmitting and receiving various signals to and from the communication unit 160 of the projector device 100A, and includes a communication antenna.
  • the communication unit 730 converts the signal output from the control unit 720 into a signal in a predetermined format, and wirelessly transmits the converted signal from the communication antenna.
  • the control unit 720 controls the entire operation of the ticket reader 700.
  • the control unit 720 includes, for example, a CPU and an MPU, and realizes its function by executing a predetermined program. Note that the function of the control unit 720 may be realized by a dedicated electronic circuit.
  • the imaging unit 750 is configured with a CCD camera or the like, and the imaging unit 750 is installed to monitor a person using the ticket reader 700, and images the vicinity of the ticket reader 700.
  • the imaging unit 750 is connected to the control unit 720 of the ticket reader 700 and outputs image data generated by imaging to the control unit 720. Note that the communication between the imaging unit 750 and the ticket reader 700 may not be wired communication but may be wireless communication.
  • the control unit 720 acquires image data from the imaging unit 750.
  • the control unit 720 extracts the feature amount of the face of the person 64 and the entire body from the acquired image data, generates person information, and associates the seat number information read by the reading unit 710 with the person information.
  • Control unit 720 transmits the person information associated with the seat number information to projector device 100A via communication unit 730.
  • the projector apparatus 100A When the projector apparatus 100A receives the person information from the ticket reader 700 via the communication unit 160, the projector apparatus 100A performs guidance projection processing for guiding the person of the received person information to the seat of the seat number information associated with the person information. Execute. Hereinafter, the guidance projection processing according to the present embodiment will be described.
  • FIG. 13 is a flowchart showing a flow of guidance projection processing according to the present embodiment.
  • FIG. 14 shows a display data table D3 for the main guidance projection process. This flow is executed by the control unit 210 of the projector device 100A.
  • the guidance projection process shown in FIG. 13 is started after the projector device 100A receives the person information from the ticket reader 700.
  • the control unit 210 determines whether or not the person 64 of the person information received from the ticket reader 700 has been detected (S200). In step S ⁇ b> 200, the control unit 210 captures the surroundings of the installation position using the imaging unit 240, and performs face authentication or personal authentication based on the feature amount of the entire body based on the person information received from the ticket reader 700 in the captured image. The person 64 is detected.
  • control unit 210 detects the person 64 (YES in S200), for example, the distance detection unit 230 is used to detect the position of the detected person 64 (S202). Further, the control unit 210 detects the traveling direction of the person 64 (S204). The position of the person and the direction of travel are detected in the same manner as in steps S102 and S104 of the guidance projection processing according to the first embodiment.
  • control unit 210 reads the seat position information stored in the memory 220, specifies the seat position of the seat number information associated with the person information received from the ticket reader 700, and detects the person detected in step S202.
  • the position of 64 is compared with the position of the specified seat (S206).
  • control unit 210 determines whether or not the person 64 is in a correct column, that is, a column that matches the column of seat number information based on the comparison result in step S206 (S208).
  • the control unit 210 determines that the person 64 is not in the correct line (NO in S208), the person 64 may misidentify his / her seat. Therefore, the projection image of the content for guiding the correct seat position information to the person 64 is projected by the process of step S212. That is, referring to the display data table D3, information indicating the correct column number and the direction in which the column is located is projected (S212).
  • the display data table D3 associates the display data of the projection image with the distance from the position of the person to the seat and the selection condition based on whether or not the person is in the correct column.
  • the control unit 210 selects display data D33 from the display data table D3.
  • the display data D33 includes an arrow image indicating the direction and text indicating the correct column.
  • the text indicating the correct column is recognized with reference to the seat number information from the ticket reader 700.
  • the control unit 210 controls the drive unit 110 to direct the projection direction of the projection unit 250 to a position separated by a predetermined distance on the extension line in the traveling direction of the person 64, and the arrow image in the display data D33 is displayed.
  • a projection image of the display data D33 is generated so as to face the correct column. For example, as illustrated in FIG. 11C, the control unit 210 projects a projection image of the display data D33, and returns to the process of step S202.
  • control unit 210 determines that the person 64 is in the correct column (YES in S208)
  • the control unit 210 determines that the person 64 is in the correct seat (seat having the seat number indicated by the seat number information) based on the comparison result in step S206. It is determined whether it is in the vicinity (S210). The determination process in step S210 is performed based on, for example, whether the distance between the position of the person 64 detected in step S202 and the seat position specified in step S206 is less than a predetermined threshold.
  • step S214 assists or guides the person 64 to reach the correct seat. That is, the display data D32 is selected from the display data table D3, and information on the correct seat direction is projected (S214). For example, as illustrated in FIG. 11B, the control unit 210 projects the projection image of the display data D32, and the process returns to step S202.
  • the control unit 210 determines that the person 64 is in the vicinity of the correct seat (YES in S210), there is a high possibility that the person 64 is facing the correct seat near the correct seat. Therefore, the operation until the person 64 is finally seated is assisted or produced. That is, the display data D31 is selected from the display data table D3, and the spotlight is projected onto the correct seat (S216). Specifically, the control unit 210 controls the drive unit 110 to direct the projection unit 250 to the position of the seat of the person 64 based on the seat position information. For example, as illustrated in FIG. The spotlight of the display data D31 is projected.
  • control unit 210 determines whether or not the person 64 is seated in the correct seat, for example, by acquiring a captured image from the imaging unit 240 and performing image analysis (S218). For example, the control unit 210 determines that the person 64 is seated by detecting that the person 64 does not move from the correct seat position for a certain period in the captured image.
  • control unit 210 determines that the person 64 is not seated in the correct seat (NO in S218), the control unit 210 returns to the process of step S202.
  • control unit 210 determines that the person 64 is seated in the correct seat (YES in S218), the guide projection process is terminated.
  • projector apparatus 100A detects person 64 looking for a seat in a movie theater in step S200, and detects detected person 64 in steps S202 and S204. Detect state. Based on the detected state of the person 64, the projector device 100A changes the content to be guided using the projection image.
  • the control unit 210 determines whether or not the above case is applicable, and if so, first projects the seat position information similar to step S214, and the person 64 follows the projection image within a predetermined period. It may be determined whether or not to change the traveling direction. If it is determined that the person 64 does not change the traveling direction within a predetermined period, the information on the restroom and the store is also projected in consideration of the possibility that the person 64 is heading for another destination. May be.
  • the fourth embodiment will be described below with reference to the drawings.
  • the projection image for guiding the seat to the target person is projected.
  • the target vehicle the driving person
  • a projection image for guiding an empty section of the parking lot is projected on the target vehicle.
  • the target state in the present embodiment is information related to an operation for searching for an empty section of a vehicle (a driving person) that is an object, and more specifically, a distance to an empty section of the vehicle, And there are many empty sections around the vehicle.
  • FIGS. 15A to 15D are explanatory diagrams for explaining the guide projection processing of the projector device according to the present embodiment.
  • projector device 100 is installed on the ceiling of a multi-story parking lot so that it can illuminate the passage and parking section of the multi-story parking lot.
  • the memory 220 of the projector apparatus 100 stores empty section information indicating the presence / absence of an empty section where the vehicle is not parked and the position of the empty section in the parking section around the installation position of the projector device 100.
  • the empty partition information is updated periodically (for example, every minute).
  • the control unit 210 of the projector device 100 may periodically capture the parking area around the installation position using the imaging unit 240 and acquire the empty area information by the vehicle image recognition.
  • the free space information may be acquired by communication with an external server to be managed.
  • FIG. 16 is a flowchart showing a flow of guidance projection processing according to the present embodiment.
  • FIG. 17 shows a display data table D4 for the main guidance projection process.
  • the display data table D4 the display data displayed in the projection image and the selection condition based on the distance from the target vehicle to the empty area and the number of empty areas are managed in association with each other.
  • the vehicle 65 acquires a parking ticket at the entrance of the parking lot and enters the parking lot area. And the control part 210 judges whether the specific vehicle 65 was detected (S300).
  • the control unit 210 captures the parking ticket acquisition information and the surroundings of the installation position using the imaging unit 240, and detects the presence of the vehicle 65 moving in the parking lot passage by image analysis of the captured image. To do.
  • the controller 210 may recognize the detected vehicle number of the license plate of the vehicle 65. Thereby, the vehicle 65 to be followed can be detected with certainty.
  • the control unit 210 detects the vehicle 65 (YES in S300), for example, the distance detection unit 230 is used to detect the detected position of the vehicle 65 (S302). Furthermore, the controller 210 detects the traveling direction of the vehicle 65 (S304). Detection of the position and traveling direction of the vehicle 65 is performed in the same manner as the detection of the position and traveling direction of the person in the guidance projection processing according to the first to third embodiments.
  • control unit 210 reads the vacant partition information from the memory 220, and determines whether or not the number of vacant partitions in the parking lot is greater than a predetermined number based on the vacant partition information (S306).
  • the controller 210 determines that the parking lot has many empty sections (YES in S306), whether the distance from the position of the vehicle 65 detected in step S302 to the position of the nearest empty section is closer than a predetermined distance. Is determined (S308).
  • the distance from the position of the vehicle 65 to the position of the empty section may be measured by a linear distance, or may be calculated by a route length along a route through which the vehicle can pass.
  • control unit 210 determines that the distance from the position of the vehicle 65 to the empty section is short (YES in S308), the process ends.
  • the location of the empty section is easily grasped by the driver of the vehicle 65 or the like, so that the projection image is not collected and displayed.
  • the control unit 210 selects the display data D42 from the display data table D4 and indicates that there is no space in the vicinity. Information is projected (S310).
  • the display data D42 includes text such as “This area is full”. For example, the projected image is projected at a position separated by a predetermined distance in front of the vehicle 65.
  • a projection image such as an arrow image for guiding to a place with many empty sections may be projected.
  • a projected image with content for guiding that there is an empty section in another place for example, another floor.
  • the control unit 210 returns to the process of step S302 after projecting the projection image of the display data D42.
  • the controller 210 determines that there are not many empty spaces in the parking lot (NO in S306), the distance from the position of the vehicle 65 detected in step S302 to the position of the closest empty space is a predetermined distance. It is judged whether it is closer (S312).
  • the control unit 210 determines that the distance from the position of the vehicle 65 to the empty section is not short (NO in S312), the control unit 210 selects the display data D43 from the display data table D4, and determines the position where the empty section exists, that is, the direction. A projection image for guidance is projected (S314).
  • the display data D43 is, for example, an arrow image.
  • the control unit 210 generates a projection image by matching the direction of the display data D43 with the position of the empty section based on the empty section information.
  • the empty section in the parking lot is far from the position of the vehicle 65 and the remaining space is small, so the vehicle 65 is guided to the empty section.
  • the control unit 210 returns to the process of step S302 after projecting the projection image of the display data D43.
  • control unit 210 selects the display data D41 from the display data table D4 and applies the spotlight toward the empty section. Projecting is performed (S316).
  • control unit 210 determines whether or not the vehicle 65 is parked in an empty section by acquiring a captured image from the imaging unit 240 and performing image analysis, for example (S318). For example, the control unit 210 determines that the vehicle 65 is parked by detecting that the vehicle 65 does not move from the empty section for a certain period in the captured image.
  • control unit 210 determines that the vehicle 65 is not parked in the empty section (NO in S318), the control unit 210 returns to the process of step S302.
  • control unit 210 determines that the vehicle 65 is parked in the empty section (YES in S318), the guide projection process is terminated.
  • the projector device 100 detects the vehicle 65 looking for an empty section of the parking lot in step S300, and detects the vehicle 65 detected in steps S302 and S304. Detect the state of. Based on the detected state of the vehicle 65, the projector device 100 changes the content to be guided using the projection image.
  • step S300 the vehicle body of the vehicle 65 is detected.
  • a person such as a driver who is on the vehicle 65 may be detected.
  • the line of sight of the person may be recognized, and the projection position of the projection image may be adjusted according to the recognized line of sight.
  • Embodiments 1 to 4 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, substitutions, additions, omissions, and the like are performed. In addition, the constituent elements described in the first to fourth embodiments can be combined to form a new embodiment.
  • a person and a vehicle are cited as examples of the object that follows the projection image.
  • the object is not limited to this. Any mobile object that can be a target of guidance, such as a transportation tool such as an aircraft, may be used.
  • the vehicle is not limited to an automobile, and may be a motorbike or a motorcycle.
  • the state of the object in the first embodiment is the distance between the object and the own device and the traveling direction of the object.
  • the state of the object in the second embodiment is the moving speed of the object and the object. The direction of movement.
  • the state of the object in the third embodiment is the distance to the seat of the object and whether or not the object is in the correct row.
  • the state of the object in the fourth embodiment is the state of the object. It was the distance to the empty area and the number of empty areas around the object.
  • the state of the object is not limited to the state of the object in the first to fourth embodiments.
  • the state of the object is information on the movement of the object. That is, in the first embodiment and the second embodiment, the information is related to the movement operation of the object. In the third embodiment, the information is related to the operation of searching for the seat of the target object. It was information about the operation of searching for an empty space for an object.
  • the state of the object may not be information regarding the movement operation of the object. For example, information related to the movement of a person, such as the movement of a person standing or sitting, the movement of a person moving their head or limbs, and the movement of a target object, such as movement of a target object. May be.
  • the state of the target object is information related to the motion of the target object.
  • the present invention is not limited to this. It may be a change in the temperature of the object, a change in the pattern of the object, or the like.
  • Guidance information includes information that affects the movement of the object, such as information related to guidance for guiding the object to a specific location or direction, or information related to a warning that stops the object or reduces the moving speed. Is mentioned. However, the present invention is not limited to this, and may be information simply provided to the subject that does not affect the movement of the subject.
  • the projector apparatuses according to Embodiments 1 to 4 include an imaging unit 240 as an example of a first detection unit that detects a specific target, and detects a state of the target detected by the first detection unit.
  • the distance detection unit 230 is provided as an example of the two detection units.
  • the present invention is not limited thereto, and for example, the distance detection unit 230 may be provided as an example of the first detection unit, or the imaging unit 240 may be provided as an example of the second detection unit.
  • the first and second detection units may be combined to be configured with only one of the distance detection unit 230 and the imaging unit 240. That is, the detection of a specific object and the detection of the state of the object may be performed by only one of the distance detection unit 230 and the imaging unit 240.
  • the distance detection unit 230 and the imaging unit 240 are fixed with the projection direction of the projection unit 250 aligned and fixed, the distance detection unit 230 and the imaging unit 240 are not limited to this. May be installed in a different position.
  • the projection unit 250 is driven by the drive unit 110 to change the projection direction in which the projection image is projected, thereby changing the projection position of the projection image so that the projection image follows the object. did.
  • the present invention is not limited to this, and the projection position of the projection image may be changed so that the projection image follows the object, for example, by the control of the projection unit 250 by the control unit 210.
  • the relative position between the projection image and the object is changed by setting the projection angle of view wider than the actual projection image and moving the projection image within the range of the projection angle of view.
  • the projected image may follow the object.
  • the drive unit 110 is not always necessary. It is possible to change the projection position of the projection image so as to follow the target object only by controlling the projection unit 250 by the control unit 210 without depending on the driving unit 110. Further, the control unit 210 may control both the projection unit 250 and the drive unit 110 to change the projection position of the projection image so that the object follows.
  • the projected image is projected at a position separated by a predetermined distance in the direction of movement of the person or in front of the vehicle body, but the position where the projected image is projected is not limited to this.
  • the projection position may be changed so as to be farther from the object as the object moves faster. Further, the projection position of the projection image may be changed so as to lead the movement of the object.
  • the cinema seats are guided using the projection image.
  • the seats are not limited to the cinema seats, for example, concert halls and multipurpose halls, ball games halls and arena seats, Reservation seats in restaurants, aircraft and ship seats, etc. may be guided.
  • the destination to be guided to the object is a seat or an empty section, but the destination to be guided to the object is not limited to this.
  • the destination may be a specific event venue or a specific exhibition booth in a museum or exhibition hall.
  • the target person may be guided to the parking area where the person's vehicle is parked as a destination.
  • the projection apparatus according to the present disclosure can be applied to various uses for projecting a projection image onto a projection surface.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 プロジェクタ装置(100)は、距離検出部(230)と、撮像部(240)と、投影部(250)と、駆動部と、制御部(210)とを備える。撮像部(240)は、特定の対象物を検出する。投影部(250)は、投影画像を投影する。駆動部は、投影画像を投影する投影方向を変更するように投影部(250)を駆動する。距離検出部(230)は、撮像部(240)によって検出された対象物の状態を検出する。制御部(210)は、投影画像が対象物を追従するように、投影部(250)及び駆動部の少なくとも一方を制御する。投影画像は、対象物を案内するための内容を含む表示データを有する。制御部(210)は、距離検出部(230)によって検出された対象物の状態に応じて、対象物に追従して投影する投影画像の表示データに含まれる情報の内容を変更する。

Description

投影装置
 本開示は、画像を投影する投影装置に関する。
 特許文献1は、移動体に追従して画像を投影する撮影投影装置を開示する。撮影投影装置は、筐体内に、物体の撮影を行なうカメラと、撮影した物体への投影用画像の投影を行なうプロジェクタとを、相対的な位置及び姿勢を固定して搭載する。撮影投影装置は、カメラによる撮影方向及びプロジェクタによる投影方向のパン駆動制御及びチルト駆動制御を行なう旋回装置に支持される。カメラの撮影画像における対象物の大きさと位置が略一定になるように、旋回装置でパン及びチルト駆動制御を行うことにより、移動体の撮影及び当該移動体への画像の投影を容易に継続できる。
特開2007-312026号公報
 本開示は、投影画像を人物などの対象物に見せるために投影する際に、対象物の移動に応じて誘導や宣伝などの案内を効果的に行うことができる投影装置を提供する。
 本開示における投影装置は、第1及び第2の検出部と、投影部と、駆動部と、制御部とを備える。第1の検出部は、特定の対象物を検出する。投影部は、投影画像を投影する。駆動部は、投影画像を投影する投影方向を変更するように投影部を駆動する。第2の検出部は、第1の検出部によって検出された対象物の状態を検出する。制御部は、投影画像が対象物を追従するように、投影部及び駆動部の少なくとも一方を制御する。投影画像は、対象物を案内するための内容を含む案内情報を有する。制御部は、第2の検出部によって検出された対象物の状態に応じて、対象物に追従して投影する投影画像の案内情報に含まれる情報の内容を変更する。
 本開示における投影装置は、対象物の状態に応じて投影画像における案内情報を変更するので、投影画像を人物などの対象物に見せるために投影する際に、対象物の移動に応じて誘導や宣伝などの案内を効果的に行うことができる。
図1は、実施の形態1におけるプロジェクタ装置が壁面に投影画像を投影するイメージ図である。 図2は、プロジェクタ装置が床面に投影画像を投影するイメージ図である。 図3は、プロジェクタ装置の電気的構成を示すブロック図である。 図4Aは、距離検出部の電気的構成を示すブロック図である。 図4Bは、距離検出部により撮像された赤外画像を説明するための図である。 図5は、プロジェクタ装置の光学的構成を示すブロック図である。 図6は、実施の形態1におけるプロジェクタ装置の動作の概要を説明するための説明図である。 図7は、実施の形態1における案内投影処理の流れを示すフローチャートである。 図8は、実施の形態1における案内投影処理の表示データテーブルを示す図である。 図9Aは、実施の形態2におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図9Bは、実施の形態2におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図10は、実施の形態2における案内投影処理の表示データテーブルを示す図である。 図11Aは、実施の形態3における座席案内システムの概要を説明するための説明図である。 図11Bは、実施の形態3における座席案内システムの概要を説明するための説明図である。 図11Cは、実施の形態3における座席案内システムの概要を説明するための説明図である。 図12は、座席案内システムの構成を示すブロック図である。 図13は、実施の形態3における案内投影処理の流れを示すフローチャートである。 図14は、実施の形態3における案内投影処理の表示データテーブルを示す図である。 図15Aは、実施の形態4におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図15Bは、実施の形態4におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図15Cは、実施の形態4におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図15Dは、実施の形態4におけるプロジェクタ装置の案内投影処理を説明するための説明図である。 図16は、実施の形態4における案内投影処理の流れを示すフローチャートである。 図17は、実施の形態4における案内投影処理の表示データテーブルを示す図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、出願人は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態1)
 本開示にかかる投影装置の具体的な実施例として、プロジェクタ装置100を説明する。
 図1及び図2を用いて、プロジェクタ装置100による画像投影動作の概要を説明する。図1は、プロジェクタ装置100が壁面140に投影画像を投影するイメージ図である。図2は、プロジェクタ装置100が床面150に投影画像を投影するイメージ図である。
 図1及び図2に示すように、プロジェクタ装置100は、駆動部110とともに筐体120に固定されている。プロジェクタ装置100及び駆動部110を構成する各部と電気的に接続される配線は、筐体120及び配線ダクト130を介して電源と接続される。これにより、プロジェクタ装置100及び駆動部110に対して電力が供給される。プロジェクタ装置100は、開口部101を有している。プロジェクタ装置100は、開口部101を介して投影画像の投影を行う。
 駆動部110は、プロジェクタ装置100の投影方向を変更するよう駆動することができる。駆動部110は、プロジェクタ装置100の本体100bをパン方向(水平方向)とチルト方向(垂直方向)に駆動することができる。駆動部110は、図1に示すようにプロジェクタ装置100の投影方向を壁面140の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、壁面140に対して投影画像141を投影することができる。同様に、駆動部110は、図2に示すようにプロジェクタ装置100の投影方向を床面150の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、床面150に対して投影画像151を投影することができる。駆動部110は、ユーザーのマニュアル操作に基づいて駆動してもよいし、所定のセンサの検出結果に応じて自動的に駆動してもよい。また、壁面140に投影する投影画像141と、床面150に投影する投影画像151とは、内容を異ならせてもよいし、同一のものにしてもよい。
 図3は、プロジェクタ装置100の電気的構成を示すブロック図である。図3に示すように、プロジェクタ装置100は、ユーザーインターフェース装置200を搭載している。これにより、プロジェクタ装置100は、人の操作或いは、人の立ち位置に応じた、投影画像に対する各種制御を実行することが可能となる。
 以下、プロジェクタ装置100の構成及び動作について詳細を説明する。
 <1.プロジェクタ装置の構成>
 プロジェクタ装置100は、ユーザーインターフェース装置200と投影部250とを備えている。投影部250は、光源部300、画像生成部400、投影光学系500を備えている。以下、順にプロジェクタ装置100を構成する各部の構成について説明する。
 ユーザーインターフェース装置200は、制御部210、メモリ220、距離検出部230、及び撮像部240を備えている。撮像部240は、特定の対象物を検出する第1の検出部の一例である。距離検出部230は、検出された対象物の状態を検出する第2の検出部の一例である。
 制御部210は、プロジェクタ装置100全体を制御する半導体素子である。すなわち、制御部210は、ユーザーインターフェース装置200を構成する各部(撮像部240、距離検出部230、メモリ220)及び、投影部250を構成する各部(光源部300、画像生成部400、投影光学系500)の動作を制御する。また、制御部210は、投影画像を映像信号処理により縮小・拡大するデジタルズーム制御を行うことができる。制御部210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組合せることにより実現してもよい。
 メモリ220は、各種の情報を記憶する記憶素子である。メモリ220は、フラッシュメモリや強誘電体メモリなどで構成される。メモリ220は、プロジェクタ装置100(ユーザーインターフェース装置200を含む)を制御するための制御プログラム等を記憶する。また、メモリ220は、制御部210から供給された各種の情報を記憶する。更に、メモリ220は、投影画像を表示させたい投影サイズの設定や、投影面(壁面140や床面150)までの距離情報に応じたフォーカス値のテーブルなどのデータを記憶している。
 撮像部240は、例えばCCD(Charge―Coupled―Device)カメラなどで構成され、可視光によるRGB画像を撮像する。撮像部240によって撮像されたRGB画像は、制御部210に出力される。
 距離検出部230は、例えば、TOF(Time-of-Flight)センサから構成され、対向する面までの直線的な距離を検出する。距離検出部230が壁面140と対向しているときは、距離検出部230から壁面140までの距離を検出する。同様に、距離検出部230が床面150と対向しているときは、距離検出部230から床面150までの距離を検出する。図4Aは、距離検出部230の電気的構成を示すブロック図である。図4Aに示すように、距離検出部230は、赤外検出光を照射する赤外光源部231と、対向する面で反射した赤外検出光を受光する赤外受光部232と、センサ制御部233とから構成される。赤外光源部231は、開口部101を介して、赤外検出光を周囲一面に拡散されるように照射する。赤外光源部231は、例えば、850nm~950nmの波長の赤外光を、赤外検出光として用いる。センサ制御部233は、赤外光源部231が照射した赤外検出光の位相をセンサ制御部233の内部メモリに記憶しておく。対向する面が距離検出部230から等距離になく、傾きや形状を有する場合、赤外受光部232の撮像面上に配列された複数の画素は、それぞれ別々のタイミングで反射光として赤外検出光を受光する。別々のタイミングで受光するため、赤外受光部232で受光する赤外検出光は、各画素で位相が異なってくる。センサ制御部233は、赤外受光部232が各画素で受光した赤外検出光の位相を内部メモリに記憶する。
 センサ制御部233は、赤外光源部231が照射した赤外検出光の位相と、赤外受光部232が各画素で受光した赤外検出光の位相とを、内部メモリから読出す。センサ制御部233は、距離検出部230が照射した赤外検出光と、赤外受光部232が受光した赤外検出光との位相差に基づいて、距離検出部230から対向する面までの距離を測定して、距離情報(距離画像)を生成する。なお、対向する面とは、壁面140、床面150、後述する対象物(例えば人物61~63)の表面などである。
 図4Bは、距離検出部230(センサ制御部233)により取得された距離情報を説明するための図である。距離検出部230は、受光した赤外検出光による赤外画像を構成する画素の一つ一つについて、距離を検出する。これにより、制御部210は、距離検出部230が受光した赤外検出光による赤外画像の画角全域に対する距離の検出結果を画素単位で得ることができる。以下の説明では、図4Bに示すように、赤外画像の横方向にX軸をとり、縦方向にY軸をとる。そして、検出した距離方向にZ軸をとる。制御部210は、距離検出部230の検出結果に基づいて、赤外画像を構成する各画素について、XYZの三軸の座標(x、y、z)を取得できる。すなわち、制御部210は、距離検出部230の検出結果に基づいて、距離情報(距離画像)を取得できる。制御部210は、所定の時間間隔(例えば1/60秒)毎に、距離情報を取得する。
 上記では、距離検出部230としてTOFセンサを例示したが、本開示はこれに限定されない。すなわち、ランダムドットパターンのように、既知のパターンを投光してそのパターンのズレから距離を算出するものであっても良いし、ステレオカメラによる視差を利用したものであってもよい。
 続いて、プロジェクタ装置100に搭載された部材のうち、ユーザーインターフェース装置200以外の部材である光源部300、画像生成部400、投影光学系500の構成について、図5を用いて説明する。図5は、プロジェクタ装置100の光学的構成を示すブロック図である。図5に示すように、光源部300は、投影画像を生成するために必要な光を、画像生成部400に対して供給する。画像生成部400は生成した投影画像を投影光学系500に供給する。投影光学系500は、画像生成部400から供給された投影画像に対してフォーカシング、ズーミング等の光学的変換を行う。投影光学系500は、開口部101と対向しており、開口部101から投影画像が投影される。
 まず、光源部300の構成について説明する。図5に示すように、光源部300は、半導体レーザー310、ダイクロイックミラー330、λ/4板340、蛍光体ホイール360などを備えている。
 半導体レーザー310は、例えば、波長440nm~455nmのS偏光の青色光を発光する固体光源である。半導体レーザー310から出射されたS偏光の青色光は、導光光学系320を介してダイクロイックミラー330に入射される。
 ダイクロイックミラー330は、例えば、波長440nm~455nmのS偏光の青色光に対しては98%以上の高い反射率を有する一方、波長440nm~455nmのP偏光の青色光及び、波長490nm~700nmの緑色光~赤色光に対しては偏光状態に関わらず95%以上の高い透過率を有する光学素子である。ダイクロイックミラー330は、半導体レーザー310から出射されたS偏光の青色光を、λ/4板340の方向に反射する。
 λ/4板340は、直線偏光を円偏光に変換又は、円偏光を直線偏光に変換する偏光素子である。λ/4板340は、ダイクロイックミラー330と蛍光体ホイール360との間に配置される。λ/4板340に入射したS偏光の青色光は、円偏光の青色光に変換された後、レンズ350を介して蛍光体ホイール360に照射される。
 蛍光体ホイール360は、高速回転が可能なように構成された平板である。蛍光体ホイール360の表面には、拡散反射面の領域であるB領域と、緑色光を発光する蛍光体が塗付されたG領域と、赤色光を発光する蛍光体が塗付されたR領域とが複数形成されている。蛍光体ホイール360のB領域に照射された円偏光の青色光は拡散反射されて、円偏光の青色光として再びλ/4板340に入射する。λ/4板340に入射した円偏光の青色光は、P偏光の青色光に変換された後、再びダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した青色光は、P偏光であるためダイクロイックミラー330を透過して、導光光学系370を介して画像生成部400に入射する。
 蛍光体ホイール360のG領域又はR領域に照射された青色光は、G領域又はR領域上に塗付された蛍光体を励起して緑色光又は赤色光を発光させる。G領域又はR領域上から発光された緑色光又は赤色光は、ダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した緑色光又は赤色光は、ダイクロイックミラー330を透過して、導光光学系370を介して画像生成部400に入射する。
 蛍光体ホイール360は高速回転しているため、光源部300から画像生成部400へは、青色光、緑色光、赤色光が時分割されて出射する。
 画像生成部400は、制御部210から供給される映像信号に応じた投影画像を生成する。画像生成部400は、DMD(Digital-Mirror-Device)420などを備えている。DMD420は、多数のマイクロミラーを平面に配列した表示素子である。DMD420は、制御部210から供給される映像信号に応じて、配列したマイクロミラーのそれぞれを偏向させて、入射する光を空間的に変調させる。光源部300からは、青色光、緑色光、赤色光が時分割で出射されてくる。DMD420は、導光光学系410を介して、時分割に出射されてくる青色光、緑色光、赤色光を順に繰返し受光する。DMD420は、それぞれの色の光が出射されてくるタイミングに同期して、マイクロミラーのそれぞれを偏向させる。これにより、画像生成部400は、映像信号に応じた投影画像を生成する。DMD420は、映像信号に応じて、投影光学系500に進行させる光と、投影光学系500の有効範囲外へと進行させる光とにマイクロミラーを偏向させる。これにより、画像生成部400は、生成した投影画像を、投影光学系500に対して供給することができる。
 投影光学系500は、ズームレンズ510やフォーカスレンズ520などの光学部材を備える。投影光学系500は、画像生成部400から進行してきた光を拡大して投影面(壁面140や床面150)へ投影する。制御部210は、ズームレンズ510の位置を調整することで、所望のズーム値になるよう投影面に対して投影領域を制御できる。ズーム値を大きくする場合、制御部210は、ズームレンズ510の位置を画角が狭くなる方向へ移動させて、投影領域を狭くする。一方、ズーム値を小さくする場合、制御部210は、ズームレンズ510の位置を画角が広くなる方向に移動させて、投影領域を広くする。また、制御部210は、ズームレンズ510の移動に追従するよう、所定のズームトラッキングデータに基づきフォーカスレンズ520の位置を調整することで、投影画像のフォーカスを合わせることができる。
 上記では、プロジェクタ装置100の一例として、DMD420を用いたDLP(Digital―Light-Processing)方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、液晶方式による構成を採用しても構わない。
 上記では、プロジェクタ装置100の一例として、蛍光体ホイール360を用いた光源を時分割させる単板方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、青色光、緑色光、赤色光の各種光源を備えた三光源方式による構成を採用しても構わないし、DMD420をRGBの各色別に持つ三板方式による構成を採用しても構わない。
 上記では、投影画像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを別ユニットとする構成を説明したが、本開示はこれに限定されない。すなわち、投影画像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを統合したユニットとしても構わない。三光源方式を採用するのであれば、各色の光源と赤外光の光源とを統合したユニットとしても構わない。
 <2.動作>
 2-1.動作の概要
 本実施の形態に係るプロジェクタ装置100の投影動作の概要について、図6を用いて説明する。図6は、本実施の形態に係るプロジェクタ装置100の動作の概要を説明するための説明図である。
 本実施の形態に係るプロジェクタ装置100は、距離検出部230からの距離情報(距離画像)や撮像部240からの撮像画像を用いて特定の人物を検出し、検出した人物の動きに追従して、その人物の近傍に所定の投影画像を投影する。図6に示すように、プロジェクタ装置100は、例えば店舗の入口に続く通路などに設置され、周囲にいる人物61~63に対して店舗への誘導や宣伝、来客の演出などの案内を行うための投影画像を投影する。投影画像は、例えば人物の移動を誘導する矢印や、人物を歓迎するメッセージ及び宣伝広告のテキスト、レッドカーペットなどの人物の移動を演出する画像を含む。投影画像は静止画であってもよいし、動画であってもよい。
 ここで、図6に示すような通路を往来する人々はそれぞれ自由に移動し、各人の興味も移動中に移り変わるので、店舗を案内する際に受容れられやすい事柄は、それぞれの人毎に変化する。そこで、本実施の形態では、投影の対象となる人物の位置、進行方向、店舗との距離などを、人物の状態として検出する。そして、検出した状態に応じた案内内容の投影画像を選択するとともに、人物にとって見やすい位置に投影画像を追従させる。
 例えば、図6に示すように、プロジェクタ装置100の近くにいて、プロジェクタ装置100に向かってきている人物61は、店舗の方向に向かってきているので、人物61に対して「ようこそ」などの歓迎メッセージを投影する。一方、プロジェクタ装置100の遠くにいて、プロジェクタ装置100から遠ざかっていく人物62は、店舗に対して興味を示していないと考えられるので、人物62に対して注意喚起を促すメッセージを投影する。これにより、人物の移動に応じて、その人物にとって受容れられやすい内容が投影され、投影画像によって店舗への誘導や宣伝などの案内を効果的に行うことができる。
 2-2.動作の詳細
 以下、本実施の形態に係るプロジェクタ装置100の動作の詳細について説明する。
 2-2-1.投影画像の追従動作
 まず、本実施の形態に係るプロジェクタ装置100の投影画像の追従動作について、図1~4及び図6を用いて説明する。本実施の形態では、通路の天井170に3台のプロジェクタ装置100が設けられている。まず、各プロジェクタ装置100において、撮像部240は、例えば図6に示す通路の床面150や壁面140を撮像し、距離検出部230は、撮像部240で撮像される領域の距離情報を検出する(図3、図4A及び図4B参照)。制御部210は、撮像された撮像画像に基づいて特定の人物を検知する。特定の人物は、例えば図6に示す人物61~63のうちの1人であり、投影画像を追従して投影する対象となる。本実施の形態では、1台のプロジェクタ装置100で一度に追従して投影する対象の人物を1人とする。
 各プロジェクタ装置100において、制御部210は、撮像部240からの撮像画像及び距離検出部230からの距離情報に基づいて、検知した人物の位置及び進行方向を検出する。駆動部110は、制御部210の駆動制御に従って、人物の進行方向の延長線上で所定距離だけ前方に離れた投影位置に投影画像を投影するように、プロジェクタ装置100の本体100bをパン方向やチルト方向に駆動する(図1及び図2参照)。制御部210は、所定期間(例えば1/60秒)毎に人物の位置及び進行方向を検出して投影位置を設定し、駆動部110を駆動制御して投影画像を人物に追従させる。
 2-2-2.案内投影処理
 次に、本実施の形態に係るプロジェクタ装置100の案内投影処理の流れについて、図6~図8を用いて説明する。案内投影処理は、人物の状態に応じて投影画像における案内内容を変更して、投影画像を投影する処理である。図7は、本実施の形態に係る案内投影処理の流れを示すフローチャートである。本フローは、各プロジェクタ装置100の制御部210によって実行される(図3参照)。
 まず、制御部210は、特定の人物を検知したか否かを判断する(S100)。人物は、例えば撮像部240によって撮像された撮像画像における顔認証によって検知される。撮像画像に複数の人物が写っている場合、詳細な顔認証により個人を特定してもよいし、ランダムに1人の人物を選んでもよい。
 なお、ステップS100の処理において、距離検出部230を用いて人物を検知してもよい。例えば、まず、床面150などの背景の距離を示す基本距離情報を予めメモリ220に記憶しておく。制御部210は、背景上に人物がいる状態の距離情報を取得したときに、取得した距離情報の基本距離情報からの変化量に基づいて人物を検知する。
 制御部210は、人物を検知したと判断した場合(S100でYES)、距離検出部230を用いて、検知した人物と自機(本処理を行うプロジェクタ装置100)との距離、及び床面150などの背景上の人物の位置を検出する(S102)。
 次に、制御部210は、人物の進行方向を検出する(S104)。ステップS104の処理では撮像部240を用いてもよく、撮像画像においてベクトル解析を行って人物の進行方向を検出してもよい。また、撮像画像の画像解析によって、人物の目線を認識してもよい。
 次に、制御部210は、検出した距離及び進行方向を含む人物の状態に基づいて、投影画像において表示する内容を示す表示データを選択する(S106)。本実施の形態において、対象物の状態とは人物の状態であり、人物の状態は、人物と自機との距離、及び人物の進行方向を含む。具体的に、制御部210は、図8に示す表示データテーブルD1を参照して、投影画像として投影する表示データを選択する。表示データの詳細については後述する。
 次に、制御部210は、検出した距離及び進行方向に応じて駆動部110を制御し、投影画像の投影位置を設定する(S108)。駆動部110は、プロジェクタ装置100の本体100bとともに投影部250をパン方向やチルト方向に駆動して、投影方向を設定された投影位置に向ける。投影画像の投影位置は、人物にとって見やすいように、例えば床面150において人物の進行方向の延長線上で、人物の位置から所定距離だけ前方に離れた位置に設定される。また、投影位置は壁面140でもよく、例えば人物の位置から所定距離だけ前方に離れた位置であり且つ人物の目線の高さに合わせた位置に設定されてもよい。
 次に、制御部210は、ステップS108で選択した表示データを表示する投影画像を投影して(S110)、本処理を終了する。ステップS104の処理において、制御部210は、画像生成部400を制御して投影画像を生成し、投影光学系500を制御して投影画像の焦点を投影位置に合わせて、投影画像を投影する。
 制御部210は、以上の案内投影処理を所定の期間(例えば0.1秒)で繰返し実行する。
 2-2-3.表示データについて
 次に、図7のステップS106において選択する表示データについて、図8を用いて説明する。
 図8は、案内投影処理において参照される表示データテーブルD1を示す。表示データテーブルD1は、人物の状態に関連付けて記録された表示データのテーブルであり、予めメモリ220に格納されている。表示データテーブルD1は、表示データとして、歓迎テキストデータD11と、注意喚起テキストデータD14と、矢印画像データD12、D13とを含む。歓迎テキストデータD11は、例えば「ようこそ」などの入店を歓迎し、迎え入れる内容のテキストを含む。注意喚起テキストデータD14は、例えば「こちらでは○○を行っております、どうぞお立ち寄り下さい」などの店舗への注意喚起を促すメッセージ内容のテキストを含む。矢印画像データD12、D13は、矢印図形の画像データである。各表示データは、投影画像において人物(対象物)を誘導するための案内情報の一例である。
 表示データテーブルD1では、投影画像において表示される表示データと、人物の距離及び進行方向に基づく選択条件とが、関連付けて管理される。ステップS106において、制御部210は、メモリ220に格納された表示データテーブルD1を読出して、表示データテーブルD1から、ステップS102、S104で検出した人物の状態に関連付けられた表示データを選択する。
 例えば、ステップS102で検出した自機との距離が所定の基準距離(例えば自機から床面150の所定位置までの距離)よりも近くて、且つステップS104で検出した進行方向が自機に向かってくる方向である場合、制御部210は、歓迎テキストデータD11を選択する。また、自機との距離が基準距離よりも近くて且つ進行方向が自機から遠ざかる方向である場合、又は自機との距離が基準距離よりも遠くて且つ進行方向が自機に向かってくる方向である場合、制御部210は、矢印画像データD12、D13を選択する。また、自機との距離が基準距離よりも遠くて且つ進行方向が自機から遠ざかる方向である場合、制御部210は、注意喚起テキストデータD14を選択する。
 制御部210は、ステップS108において選択した表示データを投影するとき、追従する人物にとって見やすいように、向きを揃えて投影画像を生成する。例えば、歓迎テキストデータD11や注意喚起テキストデータD14を選択した場合、テキストが人物61、62にとって読みやすいように、テキストの向きを揃えて投影画像を生成する。また、矢印画像データD13を選択した場合、通路の一方に矢印図形の先端が向くように、矢印図形の向きを揃えて投影画像を生成する。
 なお、表示データテーブルD1の各表示データD11~D14は一例であり、他の案内内容を含む表示データであってもよい。例えば、注意喚起テキストデータD14に代えて、「ご来店ありがとうございました」などの来店を感謝するメッセージを表示してもよい。
 以上のように、本実施の形態では、店舗への訪問客の状態(訪問客の位置、距離、進行方向)に合わせた内容を有する投影画像が投影される。訪問客の位置などの状態に応じて、駆動部110によって投影位置を移動することと連動して、投影画像におけるテキストや画像などの案内情報が適切に切替わり、誘導や宣伝などの案内を効果的に行うことができる。
 <3.効果等>
 以上のように、本実施の形態において、プロジェクタ装置100は、距離検出部230と、撮像部240と、投影部250と、駆動部110と、制御部210とを備える。撮像部240は、特定の対象物を検出する。投影部250は、投影画像を投影する。駆動部110は、投影画像を投影する投影方向を変更するように投影部250を駆動する。制御部210は、投影画像が対象物を追従するように、駆動部110を制御する。投影画像は、対象物を案内するための内容を含む表示データD11~D14を有する。距離検出部230は、撮像部240によって検出された対象物の状態を検出する。制御部210は、距離検出部230によって検出された対象物の状態に応じて、対象物に追従して投影する投影画像の表示データD11~D14に含まれる情報の内容を変更する。
 本実施の形態における対象物の状態とは、対象物である人物61~63の通行の動作に関する情報であって、より具体的には、人物61~63のプロジェクタ装置100との距離、及び、人物61~63の進行方向である。本実施の形態に係るプロジェクタ装置100によれば、人物61~63の状態(距離、進行方向)に応じて投影画像における表示データD11~D14を変更するので、投影画像を人物61~63に見せるために投影する際に、人物61~63の移動に応じて誘導や宣伝などの案内を効果的に行うことができる。また、人物61~63の移動に応じて視認性の高い投影画像を提供できる。
 (実施の形態2)
 以下、図面を用いて、実施の形態2を説明する。実施の形態1に係るプロジェクタ装置100では、人物とプロジェクタ装置100との距離及び人物の進行方向に基づいて表示データを変更したが、本実施の形態では、人物の移動速度及び人物の進行方向に基づいて表示データを変更する。すなわち、本実施の形態における対象物の状態とは、対象物である人物の移動の通行に関する情報であって、より具体的には、人物の移動速度及び人物の進行方向である。
 以下、実施の形態1に係るプロジェクタ装置100と同様の構成、動作の説明は適宜、省略して、本実施の形態に係るプロジェクタ装置を説明する。
 本実施の形態に係るプロジェクタ装置は、実施の形態1に係るプロジェクタ装置100と同様に構成される(図1~図5参照)。本実施の形態において、人物の状態は進行方向及び移動速度を含み、本実施の形態に係るプロジェクタ装置は、実施の形態1と同様の案内投影処理を、対象の人物の進行方向及び移動速度を検出して行う(図7参照)。以下、図7、図9A、図9B及び図10を用いて本実施の形態に係る案内投影処理を説明する。図9A及び図9Bは、本実施の形態に係る案内投影処理を説明するための説明図である。図10は、本案内投影処理の表示データテーブルD2を示す。
 図7に示す案内投影処理において、本実施の形態では、制御部210は例えばステップS104とステップS106との間で、人物の移動速度を検出する処理を行う。人物の移動速度は、例えば距離情報の所定期間毎の変化に基づいて検出されてもよいし、撮像部240の撮像画像におけるベクトル解析によって検出されてもよい。制御部210は、検出した移動速度が所定の基準速度(例えば時速1km)よりも速いか否かに基づいて、追従対象の人物が走っているか、又は歩いているかを判定する。
 また、制御部210は、ステップS106において、図10に示す表示データテーブルD2を用いて表示データを選択し、ステップS108において、表示データテーブルD2から選択した表示データの投影画像を、対象の人物に見せるように投影する。表示データテーブルD2では、投影画像において表示される表示データと、人物の移動速度及び進行方向に基づく選択条件とが、関連付けて管理される。
 例えば、図9Aに示す人物61のように、検出した人物61が、上記の基準速度よりも遅い移動速度で且つ自機に向かってくる場合、制御部210は、表示データテーブルD2の表示データの中からテキストデータD21を選択する。テキストデータD21は、案内する店舗への呼込みを詳細に記載するテキストを含み、例えば、案内する店舗のセールに関する情報を含む。
 この場合、対象の人物61は店舗に向かってきているので、店舗に対して興味がある可能性がある。そこで、案内する店舗に呼込むような内容の投影画像を投影することで、人物61の店舗に対する興味をより引立てる。また、人物61は歩いていて、移動速度が遅いので、詳細な案内内容であっても、読むことができると期待される。
 また、図9Aに示す人物62のように、検出した人物62が、基準速度よりも遅い移動速度で且つ自機から遠ざかる場合、制御部210は、表示データテーブルD2の表示データの中からテキストデータD22を選択する。テキストデータD22は、店舗から遠ざかる人を呼止めるような注意喚起の案内内容を詳細に記載するテキストを含み、例えば、案内する店舗のアピールポイントに関する情報を含む。
 この場合、対象の人物62は店舗から遠ざかっているので、店舗への注意喚起を行う。人物62は歩いているので、詳細な案内内容であっても、読むことができると期待される。
 また、図9Bに示す人物61’のように、検出した人物61’が、基準速度以上の速い移動速度で且つ自機に向かってくる場合、制御部210は、表示データテーブルD2の表示データの中から画像データD23を選択する。画像データD23は、案内する店舗への入店を演出する演出画像を含み、例えば、案内する店舗へと続くレッドカーペットなどの画像データを含む。
 この場合、対象の人物61’は勢い良く店舗に向かってきているので、店舗に入店する意欲を有する可能性がある。そこで、案内する店舗への入店を演出する演出画像を投影することで、人物61’を呼込む。また、人物61’の移動速度が速いので、詳細な案内内容に代えて入店の臨場感を体感できるような演出を行う。
 また、図9Bに示す人物62’のように、検出した人物62’が、基準速度以上の速い移動速度で且つ自機から遠ざかる場合、制御部210は、表示データテーブルD2の表示データの中から画像データD24を選択する。画像データD24は、店舗から遠ざかる人を呼止めるような案内内容のテキストや画像を含み、例えば、Uターンを示すような反転矢印図形の画像データや×印図形の画像データを含む。
 この場合、対象の人物62’は店舗から遠ざかっているので、店舗への注意喚起を行う。人物62’の移動速度が速いので、詳細な案内内容に代えて、一目で印象に残りやすい案内内容を表示する。
 なお、対象の人物が自機から遠ざかる場合、テキストデータD22や画像データD24に代えて、来店を感謝する内容の表示データを選択してもよい。このとき、対象の人物の移動速度が遅い場合と速い場合とで、投影する内容を変更してもよく、例えば投影画像における演出などの内容を切替えてもよい。
 本実施の形態に係るプロジェクタ装置100によれば、対象の人物の移動速度に応じて投影画像が切替わり、臨場感のある内容や読応えのある内容の投影画像が、対象の人物にとって見やすいタイミングで投影される。そのため、投影画像による誘導や宣伝などの案内を効果的に行うことができる。
 (実施の形態3)
 以下、図面を用いて、実施の形態3を説明する。実施の形態1、2では、対象の人物に店舗を案内するための投影画像を投影したが、本実施の形態では、映画館などで対象の人物が座席を探索している状態で、対象の人物に座席の場所を案内するための投影画像を投影する。すなわち、本実施の形態における対象の状態とは、対象物である人物の座席を探索する動作に関する情報であって、より具体的には、人物の座席までの距離、及び、人物が正しい列にいるか否かである。
 以下、実施の形態1及び2に係るプロジェクタ装置100と同様の構成、動作の説明は適宜、省略して、本実施の形態に係るプロジェクタ装置、及びそれを備えた座席案内システムを説明する。
 <1.構成>
 1-1.座席案内システムの概要
 まず、本実施の形態に係るプロジェクタ装置を備えた座席案内システムの概要について、図11A~図11C及び図12を用いて説明する。図11A~図11Cは、本実施の形態に係る座席案内システムの概要を説明するための説明図である。図12は、座席案内システムの構成を示すブロック図である。
 本実施の形態に係る座席案内システムは、図12に示すように、プロジェクタ装置100Aと、チケットリーダ700と、撮像部750とを構える。プロジェクタ装置100Aは、例えば図11A~図11Cに示すように、映画館の天井などに設置され、映画館の通路や座席7を照らす。チケットリーダ700及び撮像部750は、映画館の入口などに設置される。
 座席案内システムでは、映画館に入場する人物64を、人物64が所持するチケットC1の座席番号が示す座席にまで、投影画像により誘導する案内処理を行う。まず、対象の人物64が座席を探している状態であるとき、人物64は映画館の入口から映画館の領域に入り、入口付近のチケットリーダ700にチケットC1を読込ませる。座席案内システムは、チケットC1を読取るとともに、撮像部750を用いて人物64を撮像して、人物64と座席番号に関する情報を取得する。座席案内システムにおけるプロジェクタ装置100Aは、取得された人物64に関する情報に基づいて、人物64をチケットC1が示す座席の場所に案内するための投影画像を投影する。本実施の形態では、人物64を座席にまで適切に誘導するために、人物64の状態に応じて、投影する内容を変更する。
 1-2.座席案内システムの構成
 次に、座席案内システムの詳細な構成について、図12を用いて説明する。
 座席案内システムにおけるプロジェクタ装置100Aは、プロジェクタ装置100と同様の構成(図12では省略)に加えて、通信部160をさらに備える。通信部160は通信アンテナを備え、チケットリーダ700と無線通信を行う。なお、チケットリーダ700との通信は有線で接続されてもよい。
 また、プロジェクタ装置100Aのメモリ220には、映画館の複数の座席の位置と各座席の座席番号とを関連付けた座席位置情報が、予め格納されている。座席位置情報は、例えばプロジェクタ装置100Aの設置時などに、制御部210が、距離検出部230を用いて映画館の複数の座席の距離情報を取得し、通信部160から各座席の座席番号情報を取得し、それらを関連付けることによって生成される。なお、本実施の形態において、映画館の座席番号は、例えば「S列2番」などのように、各列に沿って並んだ座席の番号で指定されるものとする。
 チケットリーダ700は、読取部710と、制御部720と、通信部730とを備える。
 読取部710は、例えばバーコードリーダで構成され、チケットC1に印刷されたバーコードを読取る。チケットC1のバーコードには、座席番号を示す座席番号情報が記録されており、読取部710は、チケットC1のバーコードから座席番号情報を取得する。なお、座席番号情報の記録及び読取りはQRコード(登録商標)を用いてもよい。
 通信部730は、プロジェクタ装置100Aの通信部160との間で各種信号を送受信するためのインタフェースであり、通信アンテナを備える。通信部730は、制御部720から出力される信号を所定の形式の信号に変換して、変換した信号を通信アンテナから無線送信する。
 制御部720は、チケットリーダ700の動作全体を制御する。制御部720は、例えばCPUやMPUで構成され、所定のプログラムを実行することによってその機能を実現する。なお、制御部720の機能は、専用に設計された電子回路により実現されてもよい。
 撮像部750は、CCDカメラなどで構成され、撮像部750は、チケットリーダ700を利用する人物を監視するために設置され、チケットリーダ700の近傍を撮像する。撮像部750は、チケットリーダ700の制御部720に接続され、撮像により生成した画像データを制御部720に出力する。なお、撮像部750とチケットリーダ700との通信は有線通信でなくてもよく、無線通信であってもよい。
 <2.動作>
 2-1.座席案内システムの動作
 座席案内システムにおいて、チケットリーダ700の読取部710が人物64のチケットC1から座席番号情報を読取ると、制御部720は、撮像部750から画像データを取得する。制御部720は、取得した画像データから人物64の顔や身体全体の特徴量を抽出して人物情報を生成し、読取部710によって読取られた座席番号情報と人物情報とを関連付ける。制御部720は、座席番号情報と関連付けた人物情報を、通信部730を介してプロジェクタ装置100Aに送信する。
 プロジェクタ装置100Aは、通信部160を介して、チケットリーダ700から人物情報を受信すると、受信した人物情報の人物を、人物情報に関連付けられた座席番号情報の座席に案内するための案内投影処理を実行する。以下、本実施の形態に係る案内投影処理について説明する。
 2-2.座席の案内投影処理
 本実施の形態に係る案内投影処理について、図12~図14を用いて説明する。図13は、本実施の形態に係る案内投影処理の流れを示すフローチャートである。図14は、本案内投影処理の表示データテーブルD3を示す。本フローは、プロジェクタ装置100Aの制御部210によって実行される。
 図13に示す案内投影処理は、プロジェクタ装置100Aが、チケットリーダ700から人物情報を受信した後で開始される。
 制御部210は、チケットリーダ700から受信した人物情報の人物64を検知したか否かを判断する(S200)。ステップS200において、制御部210は、撮像部240を用いて設置位置の周囲を撮像し、撮像画像において、チケットリーダ700から受信した人物情報に基づいて顔認証や身体全体の特徴量による個人認証を行って、人物64を検知する。
 制御部210は、人物64を検知した場合(S200でYES)、例えば距離検出部230を用いて、検知した人物64の位置を検出する(S202)。さらに、制御部210は、人物64の進行方向を検出する(S204)。人物の位置及び進行方向の検出は、実施の形態1に係る案内投影処理のステップS102、S104の処理と同様に行われる。
 次に、制御部210は、メモリ220に格納された座席位置情報を読出して、チケットリーダ700から受信した人物情報に関連付けられた座席番号情報の座席の位置を特定し、ステップS202で検出した人物64の位置と、特定した座席の位置とを比較する(S206)。
 次に、制御部210は、ステップS206の比較結果に基づいて、人物64が正しい列、つまり座席番号情報の列と一致する列にいるか否かを判断する(S208)。
 制御部210は、人物64が正しい列にいないと判断した場合(S208でNO)、人物64は自身の座席を誤認している可能性がある。そのため、ステップS212の処理により、人物64に正しい座席の位置情報を案内する内容の投影画像を投影する。すなわち、表示データテーブルD3を参照して、正しい列番号とその列の位置する方向とを示す情報を投影する(S212)。
 具体的には、図14に示すように、表示データテーブルD3は、投影画像の表示データと、人物の位置から座席までの距離及び人物が正しい列にいるか否かに基づく選択条件とを、関連付けて管理する。ステップS212において、まず、制御部210は、表示データテーブルD3から表示データD33を選択する。表示データD33は、方向を示す矢印画像と正しい列を示すテキストを含む。正しい列を示すテキストは、チケットリーダ700からの座席番号情報を参照して認識される。次に、制御部210は、駆動部110を制御して、人物64の進行方向の延長線上で所定距離だけ離れた位置に、投影部250の投影方向を向けるとともに、表示データD33における矢印画像が正しい列に向くように、表示データD33の投影画像を生成する。制御部210は、例えば図11Cに示すように、表示データD33の投影画像を投影し、ステップS202の処理に戻る。
 一方、制御部210は、人物64が正しい列にいると判断した場合(S208でYES)、ステップS206の比較結果に基づいて、人物64が正しい座席(座席番号情報が示す座席番号の座席)の近傍にいるか否かを判断する(S210)。ステップS210の判断処理は、例えば、ステップS202で検出した人物64の位置と、ステップS206で特定した座席の位置との間の距離が所定の閾値未満であるか否かに基づいて行われる。
 制御部210は、人物64が正しい座席の近傍にいないと判断した場合(S210でNO)、人物64は自身の座席に正しく向かっている可能性が高い。そのため、ステップS214の処理により、人物64が正しい座席に到達することを補助、あるいは誘導する。すなわち、表示データテーブルD3から表示データD32を選択して、正しい座席の方向の情報を投影する(S214)。制御部210は、例えば図11Bに示すように、表示データD32の投影画像を投影し、ステップS202の処理に戻る。
 一方、制御部210は、人物64が正しい座席の近傍にいると判断した場合(S210でYES)、人物64は正しい座席付近で正しい座席に向かっている可能性が高い。そのため、人物64が最終的に着席するまでの動作を補助、あるいは演出する。すなわち、表示データテーブルD3から表示データD31を選択して、正しい座席にスポットライトを投影する(S216)。具体的に、制御部210は、座席位置情報に基づいて、人物64の座席の位置に投影部250を向けるように駆動部110を制御し、例えば図11Aに示すように、人物64の座席に表示データD31のスポットライトを投影する。
 次に、制御部210は、例えば撮像部240から撮像画像を取得して画像解析を行うことにより、人物64が正しい座席に着席したか否かを判断する(S218)。例えば、制御部210は、撮像画像において、人物64が正しい座席の位置から一定期間、移動しないことを検出することによって、人物64の着席を判断する。
 制御部210は、人物64が正しい座席に着席していないと判断した場合(S218でNO)、ステップS202の処理に戻る。
 一方、制御部210は、人物64が正しい座席に着席したと判断した場合(S218でYES)、本案内投影処理を終了する。
 以上のように、本実施の形態に係る案内投影処理において、プロジェクタ装置100Aは、ステップS200で、映画館の座席を探している人物64を検知し、ステップS202、S204で、検知した人物64の状態を検出する。プロジェクタ装置100Aは、検出した人物64の状態に基づいて、投影画像を用いて案内する内容を変更する。
 なお、人物64の進行方向が正しい座席への方向とは異なり(S208でNO)、且つ人物64の位置が正しい座席から遠い場合、人物64は化粧室等に向かうために退席している可能性がある。そこで、制御部210に、上記の場合に該当するか否かを判断させ、該当する場合には、まずステップS214と同様の座席の位置情報を投影し、所定期間以内に人物64が投影画像に従って進行方向を変えるか否かを判断させてもよい。そして、所定期間以内に人物64が進行方向を変えないと判断した場合には、人物64が他の目的地に向かっている可能性を考慮して、化粧室や売店の案内情報も併せて投影してもよい。
 (実施の形態4)
 以下、図面を用いて、実施の形態4を説明する。実施の形態3では、対象の人物に対して座席を案内する投影画像を投影したが、本実施の形態では、対象物の状態として対象の車両(運転する人物)が駐車場の空き区画を探索している状態で、対象の車両に対して駐車場の空き区画を案内する投影画像を投影する。すなわち、本実施の形態における対象の状態とは、対象物である車両(運転する人物)の空き区画を探索する動作に関する情報であって、より具体的には、車両の空き区画までの距離、及び、車両の周囲の空き区画の多さである。
 以下、実施の形態1~3に係るプロジェクタ装置と同様の構成、動作の説明は適宜、省略して、本実施の形態に係るプロジェクタ装置を説明する。
 図15A~図15Dは、本実施の形態に係るプロジェクタ装置の案内投影処理を説明するための説明図である。本実施の形態において、プロジェクタ装置100は、例えば図15A~図15Dに示すように、立体駐車場の天井などに、立体駐車場の通路や駐車区画を照らすことができるように設置される。プロジェクタ装置100のメモリ220には、プロジェクタ装置100の設置位置の周囲の駐車区画において、車両が駐車していない空き区画の存在の有無及び空き区画の位置を示す空き区画情報が記憶されている。空き区画情報は、定期的(例えば1分毎)に更新される。例えば、プロジェクタ装置100の制御部210は、撮像部240を用いて設置位置の周囲の駐車区画を定期的に撮像し、車両の画像認識によって空き区画情報を取得してもよいし、空き区画を管理する外部サーバとの通信によって空き区画情報を取得してもよい。
 次に、本実施の形態に係る案内投影処理について、図15~図17を用いて説明する。図16は、本実施の形態に係る案内投影処理の流れを示すフローチャートである。図17は、本案内投影処理の表示データテーブルD4を示す。表示データテーブルD4では、投影画像において表示される表示データと、対象の車両から空き区画までの距離及び空き区画の多さに基づく選択条件とが、関連付けて管理される。
 まず、対象の車両65が空き区画を探している状態であるとき、車両65は駐車場の入口で駐車券を取得し、駐車場の領域内に進入する。そして、制御部210は、特定の車両65を検知したか否かを判断する(S300)。ステップS300において、制御部210は、駐車券の取得情報や、撮像部240を用いて設置位置の周囲を撮像し、撮像画像の画像解析によって、駐車場の通路を移動する車両65の存在を検知する。このとき、制御部210は、検知した車両65のナンバープレートの車両番号を認識してもよい。これにより、追従対象の車両65を確実に検知することができる。
 制御部210は、車両65を検知した場合(S300でYES)、例えば距離検出部230を用いて、検知した車両65の位置を検出する(S302)。さらに、制御部210は、車両65の進行方向を検出する(S304)。車両65の位置及び進行方向の検出は、実施の形態1~3に係る案内投影処理の人物の位置及び進行方向の検出と同様に行われる。
 次に、制御部210は、メモリ220から空き区画情報を読出して、空き区画情報に基づいて、駐車場の空き区画の区画数が、所定数よりも多いか否かを判断する(S306)。
 制御部210は、駐車場の空き区画が多いと判断した場合(S306でYES)、ステップS302で検出した車両65の位置から最も近い空き区画の位置までの距離が、所定距離よりも近いか否かを判断する(S308)。車両65の位置から空き区画の位置までの距離は、直線距離で測定されてもよいし、車両が通行可能な経路に沿った経路長で演算されてもよい。
 制御部210は、車両65の位置から空き区画までの距離が近いと判断した場合(S308でYES)、本処理を終了する。
 このような場合、図15Aに示すように、空き区画の所在は車両65の運転手等が視認することで容易に把握されるため、取り立てて投影画像を表示しない。
 一方、制御部210は、車両65の位置から空き区画までの距離が近くないと判断した場合(S308でNO)、表示データテーブルD4から表示データD42を選択して、付近に空きがない旨の情報を投影する(S310)。表示データD42は、例えば「この辺りは満車」などのテキストを含む。投影画像は、例えば車両65の車体前方で所定距離だけ離れた位置に投影される。
 このような場合、図15Cに示すように、駐車場において空き区画は多いが遠くにあり、車両65の位置の近くにはないので、付近には空きがないことを案内する。なお、表示データD42の投影画像に加えて、又はこれに代えて、空き区画が多い場所に案内するための矢印画像などの投影画像を投影してもよい。このとき、さらに、別の場所(例えば別の階)には空き区画が有ることを案内する内容の投影画像を表示してもよい。
 制御部210は、表示データD42の投影画像を投影した後に、ステップS302の処理に戻る。
 また、制御部210は、駐車場の空き区画が多くないと判断した場合にも(S306でNO)、ステップS302で検出した車両65の位置から最も近い空き区画の位置までの距離が、所定距離よりも近いか否かを判断する(S312)。
 制御部210は、車両65の位置から空き区画までの距離が近くないと判断した場合(S312でNO)、表示データテーブルD4から表示データD43を選択して、空き区画のある位置、すなわち方向を案内するための投影画像を投影する(S314)。表示データD43は、例えば矢印画像である。制御部210は、空き区画情報に基づいて、表示データD43の向きを空き区画の位置に合わせて投影画像を生成する。
 このような場合、図15Dに示すように、駐車場において空き区画が、車両65の位置から遠くにあり、且つ残り少ないので、その空き区画へ車両65を案内する。このとき、さらに、空き区画が残りわずかであることを案内する内容の投影画像を表示してもよい。
 制御部210は、表示データD43の投影画像を投影した後に、ステップS302の処理に戻る。
 一方、制御部210は、車両65の位置から空き区画までの距離が近いと判断した場合(S312でYES)、表示データテーブルD4から表示データD41を選択して、空き区画に向けてスポットライトを投影する(S316)。
 このような場合、図15Bに示すように、駐車区画に駐車された車両が密集していると、その中にある空き区画の所在がわかりにくい。そこで、スポットライトを投影することで、車両65の運転手等が空き区画を発見することを支援する。
 次に、制御部210は、例えば撮像部240から撮像画像を取得して画像解析を行うことにより、車両65が空き区画に駐車したか否かを判断する(S318)。例えば、制御部210は、撮像画像において、車両65が空き区画から一定期間、移動しないことを検出することによって、車両65の駐車を判断する。
 制御部210は、車両65が空き区画に駐車していないと判断した場合(S318でNO)、ステップS302の処理に戻る。
 一方、制御部210は、車両65が空き区画に駐車したと判断した場合(S318でYES)、本案内投影処理を終了する。
 以上のように、本実施の形態に係る案内投影処理において、プロジェクタ装置100は、ステップS300で、駐車場の空き区画を探している車両65を検知し、ステップS302、S304で、検知した車両65の状態を検出する。プロジェクタ装置100は、検出した車両65の状態に基づいて、投影画像を用いて案内する内容を変更する。
 なお、ステップS300では、車両65の車体を検知したが、これに代えて、例えば車両65に乗車している運転手等の人物を検知してもよい。このとき、例えば人物の目線を認識して、認識した目線に合わせて投影画像の投影位置を調整してもよい。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~4を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置換、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1~4で説明した各構成要素を組合せて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1~4では、投影画像を追従させる対象物の一例として、人物及び車両を挙げたが、これに限らず、対象物は、人物、ペットなどの生物、又は、車両、鉄道、船舶、航空機などの運送用具など、案内の対象となりうる移動体であればよい。また、車両としては、自動車に限らず、原動機付自転車、自動二輪車などであってもよい。
 実施の形態1における対象物の状態は、対象物と自機との距離、及び、対象物の進行方向であり、実施の形態2における対象物の状態は、対象物の移動速度、及び、対象物の進行方向であった。また、実施の形態3における対象物の状態は、対象物の座席までの距離、及び、対象物が正しい列に居るか否かであり、実施の形態4における対象物の状態は、対象物の空き区画までの距離、及び、対象物の周囲の空き区画の多さであった。しかし、対象物の状態は、それら実施の形態1~4における対象物の状態に限らない。
 例えば、実施の形態1~4では、対象物の状態が、いずれも対象物の移動の動作に関する情報であった。すなわち、実施の形態1及び実施の形態2では、対象物の通行の動作に関する情報であり、実施の形態3では、対象物の座席を探索する動作に関する情報であり、実施の形態4では、対象物の空き区画を探索する動作に関する情報であった。しかし、対象物の状態は、対象物の移動の動作に関する情報でなくてもよい。例えば人物が立ったり座ったりする動作や、人物が頭部や四肢を動かす動作のような、対象者がポーズや姿勢を変えたりする動作、すなわち、対象物の移動を伴わない動作に関する情報であってもよい。
 また、実施の形態1~4では、対象物の状態が、対象物の動作に関する情報であったが、これに限らず、対象物の動作に関しない情報、すなわち、対象物の色の変化、対象物の温度の変化、対象物の模様の変化などであってもよい。
 実施の形態1~4では、投影画像として、宣伝広告などのテキスト矢印などの記号、レッドカーペットなどの画像などが投影されたが、投影画像はこれらに限られず、対象物を案内するための内容を含む案内情報を有している投影画像であればよい。案内情報としては、対象物を特定の場所や方向に誘導するための誘導に関する情報や、対象物を停止させたり移動速度を落とさせたりする警告に関する情報など、対象物の移動に関して影響をもたらす情報が挙げられる。しかし、これに限らず、対象物の移動に関して影響をもたらさない、単に対象者へ提供するための情報であってもよい。
 実施の形態1~4に係るプロジェクタ装置は、特定の対象物を検出する第1の検出部の一例として撮像部240を備え、第1の検出部によって検出された対象物の状態を検出する第2の検出部の一例として距離検出部230を備えた。しかし、これに限らず、例えば第1の検出部の一例として距離検出部230を備えてもよいし、第2の検出部の一例として撮像部240を備えてもよい。また、第1及び第2の検出部を兼用して、距離検出部230や撮像部240のいずれか一方のみで構成してもよい。つまり、特定の対象物の検出と、その対象物の状態の検出を、距離検出部230や撮像部240のいずれか一方のみで合わせて行ってもよい。
 また、距離検出部230や撮像部240は、投影部250の投影方向と向きを揃えて固定されたが、これに限らず、例えば距離検出部230や撮像部240をプロジェクタ装置100の設置位置とは別の位置に設置してもよい。
 実施の形態1~4では、駆動部110によって投影部250を駆動することで投影画像を投影する投影方向を変更し、これにより投影画像が対象物を追従するように投影画像の投影位置を変更した。しかし、これに限らず、例えば制御部210による投影部250の制御によって、投影画像が対象物を追従するように投影画像の投影位置を変更してもよい。具体例として、実際に投影する投影画像よりも投影画角を広く設定し、且つ投影画角の範囲内で投影画像を移動させることで、投影画像と対象物との相対的な位置を変更して、投影画像が対象物を追従するようにしてもよい。また、別の具体例として、デジタルズーム制御により投影画像の投影サイズを変更することにより、例えば矢印画像の矢の先端と対象者との相対的な位置を変更して、投影画像が部分的に対象物を追従するようにしてもよい。これら具体例の場合、駆動部110は必ずしも必要ではない。駆動部110によらず、制御部210による投影部250の制御のみによって、対象物を追従するように投影画像の投影位置を変更することが可能である。さらに、制御部210によって投影部250と駆動部110の両方を制御して、対象物が追従するように投影画像の投影位置を変更してもよい。
 実施の形態1~4では、投影画像を、人物の進行方向や車両の車体前方で所定距離だけ離れた位置に投影画像を投影したが、投影画像を投影する位置はこれに限らない。例えば、対象物の移動速度に応じて、例えば速く移動するほど対象物に対し投影位置が遠くなるように変化させてもよい。また、対象物の移動を先導するように、投影画像の投影位置を変化させてもよい。
 実施の形態3に係る座席案内システムでは、投影画像を用いて映画館の座席を案内したが、映画館の座席に限らず、例えばコンサートホールや多目的ホールの座席、球技場やアリーナの観覧席、レストランの予約席、航空機や船舶の座席などを案内してもよい。
 実施の形態3、4では、対象物に案内する目的地は、座席や空き区画であったが、対象物に案内する目的地は、これに限らない。例えば、目的地は、特定のイベント会場の場所であってもよいし、博物館や展示場における特定の展示ブースであってもよい。また、対象の人物に、その人物の車両が駐車された駐車区画を目的地として案内してもよい。
 本開示における投影装置は、投影面へと投影画像を投影する種々の用途に適用可能である。
61,62,63,64 人物
65 車両
100,100A プロジェクタ装置
101 開口部
110 駆動部
120 筐体
130 配線ダクト
140 壁面
141,151 投影画像
150 床面
160 通信部
200 ユーザーインターフェース装置
210 制御部
220 メモリ
230 距離検出部
231 赤外光源部
232 赤外受光部
233 センサ制御部
240 撮像部
250 投影部
300 光源部
310 半導体レーザー
320 導光光学系
330 ダイクロイックミラー
340 λ/4板
350 レンズ
360 蛍光体ホイール
370 導光光学系
400 画像生成部
410 導光光学系
420 DMD
500 投影光学系
700 チケットリーダ
710 読取部
720 制御部
730 通信部
750 撮像部
D1~D4 表示データテーブル
D11~D43 表示データ

Claims (10)

  1.  特定の対象物を検出する第1の検出部と、
     投影画像を投影する投影部と、
     前記投影画像を投影する投影方向を変更するように前記投影部を駆動する駆動部と、
     前記第1の検出部によって検出された対象物の状態を検出する第2の検出部と、
     前記投影画像が前記対象物を追従するように、前記投影部及び前記駆動部の少なくとも一方を制御する制御部とを備え、
     前記投影画像は、前記対象物を案内するための内容を含む案内情報を有し、
     前記制御部は、前記第2の検出部によって検出された対象物の状態に応じて、前記対象物に追従して投影する投影画像の案内情報に含まれる情報の内容を変更する、投影装置。
  2.  前記第1の検出部によって検出された前記対象物の状態とは、前記対象物の動作に関する情報である、
    請求項1に記載の投影装置。
  3.  前記対象物の動作に関する情報とは、前記対象物の移動の動作に関する情報である、
    請求項2に記載の投影装置。
  4.  前記対象物が、前記第2の検出部に近づいているとき、
     前記制御部は、前記投影部に、前記対象物を誘導することを示す案内情報を有する投影画像を投影させる、
    請求項1~3のいずれか1項に記載の投影装置。
  5.  前記対象物が、前記第2の検出部から遠ざかっているとき、
     前記制御部は、前記投影部に、前記対象物に注意喚起を促す内容の案内情報を有する投影画像を投影させる、
    請求項1~4のいずれか1項に記載の投影装置。
  6.  前記制御部は、
     所定の目的地の位置を示す位置情報に基づいて、前記投影部に、前記目的地の位置及び前記対象物から目的地への方向の少なくとも一方を示す案内情報を有する投影画像を、前記対象物に追従して投影させる、
    請求項1~5のいずれか1項に記載の投影装置。
  7. 前記対象物が、前記目的地の近傍にいるとき、
     前記制御部は、前記投影部に、前記目的地を照らすスポットライトを投影させる、
    請求項6に記載の投影装置。
  8.  前記第1及び第2の検出部の少なくとも一方は、前記対象物までの距離を検出する距離検出部を含む、
    請求項1~7のいずれか1項に記載の投影装置。
  9.  前記第1及び第2の検出部の少なくとも一方は、前記対象物の撮影画像を撮像する撮像部を含む、
    請求項1~8のいずれか1項に記載の投影装置。
  10.  特定の対象物を検出する第1の検出部と、
     投影画像を投影する投影部と、
     前記第1の検出部によって検出された対象物の状態を検出する第2の検出部と、
     前記投影画像が前記対象物を追従するように、前記投影部を制御する制御部とを備え、
     前記投影画像は、前記対象物を案内するための内容を含む案内情報を有し、
     前記制御部は、前記第2の検出部によって検出された対象物の状態に応じて、前記対象物に追従して投影する投影画像の案内情報に含まれる情報の内容を変更する、投影装置。
PCT/JP2015/005689 2014-12-25 2015-11-16 投影装置 WO2016103560A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016565872A JP6613458B2 (ja) 2014-12-25 2015-11-16 投影装置
US15/432,340 US10345686B2 (en) 2014-12-25 2017-02-14 Projector device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-263641 2014-12-25
JP2014263641 2014-12-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/432,340 Continuation US10345686B2 (en) 2014-12-25 2017-02-14 Projector device

Publications (1)

Publication Number Publication Date
WO2016103560A1 true WO2016103560A1 (ja) 2016-06-30

Family

ID=56149634

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/005689 WO2016103560A1 (ja) 2014-12-25 2015-11-16 投影装置

Country Status (3)

Country Link
US (1) US10345686B2 (ja)
JP (1) JP6613458B2 (ja)
WO (1) WO2016103560A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018125689A (ja) * 2017-01-31 2018-08-09 株式会社木村技研 投射システム及び投射方法
WO2019013014A1 (ja) * 2017-07-12 2019-01-17 三菱電機株式会社 快適度表示装置
JP2019020109A (ja) * 2017-07-12 2019-02-07 三菱電機ビルテクノサービス株式会社 快適度表示装置
WO2019044104A1 (ja) * 2017-08-31 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN110070381A (zh) * 2018-01-24 2019-07-30 北京京东金融科技控股有限公司 用于检测货柜商品状态的系统、方法及装置
JP2020080127A (ja) * 2018-11-14 2020-05-28 オムロン株式会社 通知情報表示システム
WO2020145232A1 (ja) * 2019-01-08 2020-07-16 清水建設株式会社 情報表示システム及び情報表示方法
JP2021052314A (ja) * 2019-09-25 2021-04-01 三菱電機インフォメーションシステムズ株式会社 表示切換制御装置、表示切換制御プログラム、表示システム、及び表示切換制御方法
WO2021199179A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 座席案内装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2021199234A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 認証制御装置、認証システム、認証制御方法及び記録媒体
JPWO2022044241A1 (ja) * 2020-08-28 2022-03-03
WO2023079763A1 (ja) * 2021-11-08 2023-05-11 三菱造船株式会社 車両案内システム、船舶および車両案内方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055178A (ja) * 2015-09-07 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019058521A1 (ja) * 2017-09-22 2019-03-28 popIn株式会社 プロジェクタおよびプロジェクタシステム
KR102004991B1 (ko) * 2017-12-22 2019-10-01 삼성전자주식회사 이미지 처리 방법 및 그에 따른 디스플레이 장치
CN108255341A (zh) * 2018-01-19 2018-07-06 广东小天才科技有限公司 一种拍照搜题方法、系统及手持拍照设备
TWI680439B (zh) * 2018-06-11 2019-12-21 視銳光科技股份有限公司 智慧安全警示系統的運作方法
US10576893B1 (en) * 2018-10-08 2020-03-03 Ford Global Technologies, Llc Vehicle light assembly
BR112022011685A2 (pt) * 2019-12-16 2022-09-06 Inventio Ag Dispositivo de interface homem-máquina para sistemas de edifício
US11915571B2 (en) * 2020-06-02 2024-02-27 Joshua UPDIKE Systems and methods for dynamically monitoring distancing using a spatial monitoring platform
CN113840176B (zh) * 2020-06-24 2023-05-23 京东方科技集团股份有限公司 电子设备及其控制方法
WO2022045463A1 (ko) * 2020-08-27 2022-03-03 주식회사 아이젠 빛을 이용한 정보출력수단이 마련된 전기차 충전장치
CN115641727B (zh) * 2022-10-18 2023-06-16 重庆交通大学 基于视频识别的车位管理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216765A (ja) * 2002-01-18 2003-07-31 Fujitsu General Ltd 受付案内処理装置および受付案内処理システム
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
WO2010044204A1 (ja) * 2008-10-15 2010-04-22 パナソニック株式会社 光投射装置
JP2011134172A (ja) * 2009-12-25 2011-07-07 Seiko Epson Corp 避難誘導装置及び避難誘導システム
JP2011221214A (ja) * 2010-04-08 2011-11-04 Seiko Epson Corp 画像形成装置
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950583A (ja) * 1995-08-04 1997-02-18 Hitachi Ltd 座席誘導システム
JP2003006795A (ja) * 2001-06-20 2003-01-10 Ishikawajima Harima Heavy Ind Co Ltd 駐車場誘導装置
JP3784796B2 (ja) 2003-10-10 2006-06-14 央 杉山 移動体付随情報表示装置
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
JP4611932B2 (ja) 2006-05-17 2011-01-12 日本電信電話株式会社 移動体追従撮影投影装置
JP2009276561A (ja) 2008-05-14 2009-11-26 Sanyo Electric Co Ltd 投写型映像表示装置及び映像表示システム
JP2011170658A (ja) * 2010-02-19 2011-09-01 Seiko Epson Corp 画像形成装置
JP2011248548A (ja) 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP5627418B2 (ja) 2010-11-29 2014-11-19 キヤノン株式会社 映像表示装置及び方法
JP2013178718A (ja) * 2012-02-29 2013-09-09 Casio Comput Co Ltd 駐車支援システム
US9508137B2 (en) * 2014-05-02 2016-11-29 Cisco Technology, Inc. Automated patron guidance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216765A (ja) * 2002-01-18 2003-07-31 Fujitsu General Ltd 受付案内処理装置および受付案内処理システム
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
WO2010044204A1 (ja) * 2008-10-15 2010-04-22 パナソニック株式会社 光投射装置
JP2011134172A (ja) * 2009-12-25 2011-07-07 Seiko Epson Corp 避難誘導装置及び避難誘導システム
JP2011221214A (ja) * 2010-04-08 2011-11-04 Seiko Epson Corp 画像形成装置
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7032752B2 (ja) 2017-01-31 2022-03-09 株式会社木村技研 投射システム及び投射方法
WO2018143301A1 (ja) * 2017-01-31 2018-08-09 株式会社木村技研 投射システム及び投射方法
JP2018125689A (ja) * 2017-01-31 2018-08-09 株式会社木村技研 投射システム及び投射方法
WO2019013014A1 (ja) * 2017-07-12 2019-01-17 三菱電機株式会社 快適度表示装置
JP2019020109A (ja) * 2017-07-12 2019-02-07 三菱電機ビルテクノサービス株式会社 快適度表示装置
US11315295B2 (en) 2017-07-12 2022-04-26 Mitsubishi Electric Corporation Comfort level display apparatus that generates correlation information between user comfort levels and temperature changes
JP7037432B2 (ja) 2017-07-12 2022-03-16 三菱電機ビルテクノサービス株式会社 快適度表示装置
CN111033606A (zh) * 2017-08-31 2020-04-17 索尼公司 信息处理装置、信息处理方法和程序
WO2019044104A1 (ja) * 2017-08-31 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2019044104A1 (ja) * 2017-08-31 2020-08-13 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11460994B2 (en) 2017-08-31 2022-10-04 Sony Corporation Information processing apparatus and information processing method
CN110070381A (zh) * 2018-01-24 2019-07-30 北京京东金融科技控股有限公司 用于检测货柜商品状态的系统、方法及装置
JP7059902B2 (ja) 2018-11-14 2022-04-26 オムロン株式会社 注意喚起情報表示システム及び通知情報表示システム
JP2020080127A (ja) * 2018-11-14 2020-05-28 オムロン株式会社 通知情報表示システム
JP2020112867A (ja) * 2019-01-08 2020-07-27 清水建設株式会社 情報表示システム及び情報表示方法
WO2020145232A1 (ja) * 2019-01-08 2020-07-16 清水建設株式会社 情報表示システム及び情報表示方法
US11954241B2 (en) 2019-01-08 2024-04-09 Shimizu Corporation Information display system and information display method
JP7244279B2 (ja) 2019-01-08 2023-03-22 清水建設株式会社 情報表示システム及び情報表示方法
JP2021052314A (ja) * 2019-09-25 2021-04-01 三菱電機インフォメーションシステムズ株式会社 表示切換制御装置、表示切換制御プログラム、表示システム、及び表示切換制御方法
WO2021199179A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 座席案内装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JPWO2021199179A1 (ja) * 2020-03-30 2021-10-07
JP7359293B2 (ja) 2020-03-30 2023-10-11 日本電気株式会社 座席案内装置、システム、方法及びプログラム
WO2021199234A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 認証制御装置、認証システム、認証制御方法及び記録媒体
WO2022044241A1 (ja) * 2020-08-28 2022-03-03 三菱電機株式会社 表示制御装置及び表示制御方法
JPWO2022044241A1 (ja) * 2020-08-28 2022-03-03
JP7204056B2 (ja) 2020-08-28 2023-01-13 三菱電機株式会社 表示制御装置及び表示制御方法
WO2023079763A1 (ja) * 2021-11-08 2023-05-11 三菱造船株式会社 車両案内システム、船舶および車両案内方法

Also Published As

Publication number Publication date
JP6613458B2 (ja) 2019-12-04
US20170160626A1 (en) 2017-06-08
US10345686B2 (en) 2019-07-09
JPWO2016103560A1 (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6613458B2 (ja) 投影装置
US10122976B2 (en) Projection device for controlling a position of an image projected on a projection surface
JP6186599B1 (ja) 投影装置
US10194125B2 (en) Projection apparatus
CN107925756B (zh) 用于显示依赖地点的内容的系统和方法
US9508137B2 (en) Automated patron guidance
US10447979B2 (en) Projection device for detecting and recognizing moving objects
US10999565B2 (en) Projecting device
US11526072B2 (en) Information processing apparatus and method, and projection imaging apparatus and information processing method
US10884127B2 (en) System and method for stereo triangulation
US20160286186A1 (en) Projection apparatus
JP6167308B2 (ja) 投影装置
JP2017163532A (ja) 投影装置
JP2015230478A (ja) コンテンツ提示システム、コンテンツ提示方法及びプログラム
JP6307706B2 (ja) 投影装置
US20240038107A1 (en) Pedestrian guidance device, pedestrian guidance method, and computer-readable recording medium
JP2017174222A (ja) 案内出力装置、案内出力方法及びプログラム
JP2023139361A (ja) 投影システム、投影方法及びプログラム
CN115834847A (zh) 投影系统、投影方法以及记录介质
KR20160109479A (ko) 뒷모습 디스플레이 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15872138

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016565872

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15872138

Country of ref document: EP

Kind code of ref document: A1