WO2017051655A1 - 投写型表示装置及び投写制御方法 - Google Patents

投写型表示装置及び投写制御方法 Download PDF

Info

Publication number
WO2017051655A1
WO2017051655A1 PCT/JP2016/074840 JP2016074840W WO2017051655A1 WO 2017051655 A1 WO2017051655 A1 WO 2017051655A1 JP 2016074840 W JP2016074840 W JP 2016074840W WO 2017051655 A1 WO2017051655 A1 WO 2017051655A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
range
unit
projection display
state
Prior art date
Application number
PCT/JP2016/074840
Other languages
English (en)
French (fr)
Inventor
広大 藤田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680053527.8A priority Critical patent/CN108027515A/zh
Priority to JP2017541486A priority patent/JP6236577B2/ja
Publication of WO2017051655A1 publication Critical patent/WO2017051655A1/ja
Priority to US15/910,009 priority patent/US20180187397A1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3155Modulator illumination systems for controlling the light source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/61Specially adapted for utility vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a projection display device and a projection control method.
  • Vehicle HUD Head-up Display
  • a windshield of a vehicle including automobiles, construction machinery, and agricultural machinery, or a combiner placed near the windshield as a screen, and projects light onto the screen to display an image.
  • the user can cause the driver to visually recognize an image based on the light projected from the HUD as a real image on the screen or as a virtual image in front of the screen.
  • Patent Document 1 describes a HUD for construction machinery.
  • the projection position of image light is variable so that a virtual image can be visually recognized stably even when a person with a different line of sight rides.
  • Patent Document 2 describes a HUD for construction machinery.
  • this HUD detects that the construction machine is in a posture suitable for high place work, a virtual image is displayed on the upper part of the windshield, and when it is detected that the construction machine is in a posture suitable for low place work, A virtual image is displayed at the bottom of the windshield.
  • Patent Document 3 describes a HUD that controls a projection position based on an arm position of a construction machine or the like and an operator's line of sight.
  • the HUD includes a semi-transparent spherical reflector having a size sufficient to cover the entire field of view required for the operator's work, and a projection unit in which the projection direction for projecting light onto the semi-transparent spherical reflector is variable. By combining with, the virtual image can be seen in a wide range.
  • Patent Document 4 describes a display device that can visually recognize a virtual image over a wide range using three projection units that project image light.
  • Patent Document 5 describes a display device that can visually recognize a virtual image over a wide range using two projection units that project image light.
  • the projection range of the image light by each of the two projection units is set to partially overlap.
  • an operator's line of sight movement is frequently performed particularly in the vertical direction, unlike a vehicle whose main purpose is transportation such as automobiles. Also, unlike a vehicle whose main purpose is transportation, the range of movement of the line of sight of the operator in the vertical direction is wide. Further, in the construction machine, the operator's line of sight moves in accordance with the movement of the power shovel or bucket to be operated. For these reasons, in a working machine having a windshield in front of the operator seat, it is preferable that an image such as a virtual image or a real image is visible in a wide range of the windshield.
  • Patent Document 4 and Patent Document 5 if a plurality of projection units are used, the manufacturing cost of the working machine can be reduced. In a working machine, it is important to improve the fuel consumption, but if the number of projection units is increased, there is a concern about the influence on the fuel consumption. In patent document 4 and patent document 5, the subject of the fuel consumption improvement in the case of using a some projection part is not recognized.
  • Patent Document 1 and Patent Document 2 are not assumed to use a plurality of projection units.
  • the present invention has been made in view of the above circumstances, and can prevent an increase in the manufacturing cost of the vehicle and improve the fuel consumption of the vehicle while making it possible to visually recognize an image over a wide range of the windshield of the vehicle.
  • An object is to provide a projection display apparatus and a projection control method.
  • a projection display apparatus includes a plurality of projection display units capable of spatially modulating light emitted from a light source based on image information and projecting the spatially modulated image light onto a projection surface of a vehicle.
  • the projection range of image light by each of the plurality of projection display units is aligned in one direction, and one end of the one direction in one projection range of two adjacent projection ranges in the one direction is the above.
  • the image light for each of the plurality of projection display units and an object position detection unit that detects the position of the object in front of the projection plane on the projection plane, overlapping with the other projection range of the two projection ranges.
  • a unit control unit that controls either a first state to be projected or a second state in which projection of the image light is stopped, wherein the unit control unit detects the object position. Based on the position in the one direction of the first object detected by the each of the plurality of projection display units and controls to either of the first state and the second state.
  • the projection control method of the present invention is a projection control method using a plurality of projection display units capable of spatially modulating light emitted from a light source based on image information and projecting the spatially modulated image light onto a projection surface of a vehicle.
  • the projection range of the image light by each of the plurality of projection display units is aligned in one direction, and one end of the one direction in one projection range of two adjacent projection ranges in the one direction is the 2
  • An object position detecting step for detecting the position of the object in front of the projection plane on the projection plane, and the image light is projected on each of the plurality of projection display units.
  • a projection display apparatus and a projection control method capable of visually recognizing an image over a wide range of a windshield of a vehicle, preventing an increase in the manufacturing cost of the vehicle, and improving the fuel consumption of the vehicle. Can be provided.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a construction machine 100 equipped with a HUD 10 that is an embodiment of a projection display device of the present invention. It is a figure which shows the structural example in the cab in the construction machine 100 shown in FIG. It is a schematic diagram which shows the internal structure of the unit 2 which comprises HUD10 shown in FIG. It is a schematic diagram which shows the internal structure of the unit 3 which comprises HUD10 shown in FIG. It is a schematic diagram which shows the internal structure of the unit 4 which comprises HUD10 shown in FIG. It is a schematic diagram for demonstrating an example of the state transition of the range 5D set to the windshield 5. FIG. It is a schematic diagram for demonstrating another example of the state transition of the range 5D set to the windshield 5. FIG.
  • FIG. It is a schematic diagram for demonstrating another example of the state transition of the range 5D set to the windshield 5.
  • FIG. It is a schematic diagram which shows schematic structure of construction machine 100A which is a modification of construction machine 100 shown in FIG.
  • FIG. It is a schematic diagram which shows the internal structure of the unit 2A of HUD10A mounted in the construction machine 100A shown in FIG.
  • FIG. It is a schematic diagram for demonstrating the example of the state transition of the range 5D by HUD10A.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a construction machine 100 equipped with a HUD 10 which is an embodiment of a projection display device of the present invention.
  • a work machine such as a construction machine or an agricultural machine
  • a vehicle such as an automobile, a train, an aircraft, or a ship.
  • the HUD 10 includes a unit 2 disposed above the driver's seat 1 in the driver's cab, a unit 3 disposed behind the driver's seat 1 in the driver's cab, and a unit 4 disposed below the seat surface of the driver's seat 1 in the driver's cab. And comprising.
  • the units 2 to 4 are provided in the cab of the construction machine 100 so as to be separated in the direction of gravity (vertical direction in FIG. 1). Each unit projects image light on the condition that a virtual image is visible in front of the windshield 5 of the construction machine 100.
  • the operator of the construction machine 100 can visually recognize information such as pictures and characters for supporting the operation of the construction machine 100 by viewing the image light projected onto the windshield 5 and reflected here.
  • the windshield 5 has a function of reflecting the image light projected from each of the units 2 to 4 and simultaneously transmitting the light from the outside (external environment). For this reason, the operator can visually recognize the virtual image based on the image light projected from each of the units 2 to 4 superimposed on the scenery of the outside world.
  • the units 2 to 4 are provided in the cab of the construction machine 100 so as to be separated in the direction of gravity, a virtual image can be presented to the operator over a wide range of the windshield 5.
  • FIG. 2 is a diagram illustrating a configuration example in the cab of the construction machine 100 illustrated in FIG.
  • FIG. 2 shows a front view of the windshield 5 as viewed from the driver's seat 1.
  • the construction machine 100 is a hydraulic excavator provided with an arm 21 and a bucket 22 as movable parts that are movable in at least one direction (hereinafter, referred to as a vertical direction) in the front center part of the machine body.
  • the construction machine 100 performs construction work by moving the arm 21 and the bucket 22.
  • Other construction machines having movable parts movable in one direction include mini excavators, bulldozers, wheel loaders and the like.
  • the driver's cab is surrounded by transparent windows such as a windshield 5 as a front window, a right side window 23, and a left side window 24.
  • the cab includes at least a left operation lever 25 for operating bending and extension of the arm 21, a right operation lever 26 for operating excavation / release of the bucket 22, and the like around the driver seat 1.
  • the windshield 5 is assigned with three projection ranges of a first projection range 5A, a second projection range 5B, and a third projection range 5C. These projection ranges are arranged in the direction of gravity (up and down in FIG. 2). Are arranged side by side. A range 5D that is a combination of these three projection ranges constitutes the projection plane of the construction machine 100.
  • one end in the gravitational direction in one of the two projection ranges adjacent in the gravitational direction overlaps the other projection range of the two projection ranges.
  • the lower end of the first projection range 5A in the gravity direction overlaps with the second projection range 5B.
  • the upper end of the second projection range 5B in the direction of gravity overlaps with the first projection range 5A.
  • the lower end of the second projection range 5B in the gravity direction overlaps with the third projection range 5C
  • the upper end in the direction of gravity in the third projection range 5C overlaps with the second projection range 5B.
  • two adjacent projection ranges in the three projection ranges are assumed to overlap with each other in the direction of gravity, but one of the two adjacent projection ranges in the three projection ranges.
  • One end of the projection range in the gravitational direction may be in contact with one end in the gravitational direction of the other projection range of the two projection ranges.
  • FIG. 2 a configuration in which the first projection range 5A, the second projection range 5B, and the third projection range 5C are arranged without gaps in the direction of gravity, in other words, the lower end of the first projection range 5A and the second projection range 5A.
  • the upper end of the projection range 5B may be brought into contact with the lower end of the second projection range 5B and the upper end of the third projection range 5C may be brought into contact with each other.
  • one end (edge) on the other projection range side in one direction of one projection range and one projection range side in one direction of the other projection range A configuration in which one end (end edge) of the one projection area is in contact is defined as one end of the one projection range overlapping the other projection range.
  • the first projection range 5A is a range in which the image light projected from the unit 2 is projected, and simultaneously reflects the image light and transmits light from the outside (external environment).
  • the second projection range 5B is a range in which the image light projected from the unit 3 is projected, and simultaneously reflects the image light and transmits light from the outside (external environment).
  • the third projection range 5C is a range in which the image light projected from the unit 4 is projected, and simultaneously reflects the image light and transmits light from the outside (outside).
  • FIG. 3 is a schematic diagram showing an internal configuration of the unit 2 constituting the HUD 10 shown in FIG.
  • the unit 2 includes a light source unit 40, a drive unit 45, a projection optical system 46, a diffusion plate 47, a reflection mirror 48, a magnifying mirror 49, and a system control unit 60 that controls the light source unit 40 and the drive unit 45.
  • the light source unit 40 includes a light source controller 40A, an R light source 41r that is a red light source that emits red light, a G light source 41g that is a green light source that emits green light, and a B light source that is a blue light source that emits blue light. 41b, dichroic prism 43, collimator lens 42r provided between R light source 41r and dichroic prism 43, collimator lens 42g provided between G light source 41g and dichroic prism 43, B light source 41b and dichroic prism A collimator lens 42 b provided between the light source 43 and the light modulation element 44.
  • the dichroic prism 43 is an optical member for guiding light emitted from each of the R light source 41r, the G light source 41g, and the B light source 41b to the same optical path. That is, the dichroic prism 43 transmits the red light that has been collimated by the collimator lens 42 r and emits the red light to the light modulation element 44. The dichroic prism 43 reflects the green light that has been collimated by the collimator lens 42 g and emits it to the light modulation element 44. Further, the dichroic prism 43 reflects the blue light that has been collimated by the collimator lens 42 b and emits it to the light modulation element 44.
  • the optical member having such a function is not limited to the dichroic prism. For example, a cross dichroic mirror may be used.
  • Each of the R light source 41r, the G light source 41g, and the B light source 41b uses a light emitting element such as a laser or an LED (Light Emitting Diode).
  • the light source of the light source unit 40 includes three light sources, that is, an R light source 41r, a G light source 41g, and a B light source 41b, but the number of light sources is one, two, or four or more. There may be.
  • the light source control unit 40A sets the light emission amounts of the R light source 41r, the G light source 41g, and the B light source 41b to a predetermined light emission amount pattern, and the R light source 41r, the G light source 41g, and the B light source are set according to the light emission amount pattern. Control is performed to sequentially emit light from the light source 41b.
  • the light modulation element 44 spatially modulates the light emitted from the dichroic prism 43 based on the image information, and the light (red image light, blue image light, and green image light) corresponding to the image data for projection that is image information. Is emitted to the projection optical system 46.
  • LCOS Liquid crystal on silicon
  • DMD Digital Micromirror Device
  • MEMS Micro Electro Mechanical Systems
  • the drive unit 45 drives the light modulation element 44 in accordance with the projection image data input from the system control unit 60, and emits light (red image light, blue image light, and green image light) according to the projection image data.
  • the light is emitted to the projection optical system 46.
  • the projection optical system 46 is an optical system for projecting the light emitted from the light modulation element 44 of the light source unit 40 onto the diffusion plate 47.
  • the optical system is not limited to a lens, and a scanner can also be used.
  • the light emitted from the scanning scanner may be diffused by the diffusion plate 47 to form a surface light source.
  • the reflection mirror 48 reflects the light diffused by the diffusion plate 47 toward the magnifier 49.
  • the magnifying mirror 49 enlarges an image based on the light reflected by the reflecting mirror 48 and projects it on the first projection range 5A of the windshield 5.
  • the object position detection unit 70 detects the position in the range 5D of the object in front of the range 5D in FIG. 2 (in the example of FIG. 2, the bucket 22 as the first object in the center front of the machine body of the construction machine 100) Information indicating the position of the detected object is output to the main control unit 80.
  • Examples of the method for detecting an object in front of the range 5D include the following first detection method and second detection method, but are not limited to these methods.
  • An image pickup unit including an image pickup element is mounted on the construction machine 100, and image feature information of the bucket 22 in the front center part of the machine body of the construction machine 100 is set in advance. Then, the range 5D is imaged by the imaging unit, and the captured image data obtained by the imaging is matched with the image feature information of the bucket 22 to detect the position of the bucket 22 in the range 5D.
  • the position of the bucket 22 is uniquely determined by the operation signals of the left operation lever 25 and the right operation lever 26. Therefore, the object position detection unit 70 detects the position of the bucket 22 in the range 5D based on the operation signal for operating the left operation lever 25 and the right operation lever 26 of the construction machine 100.
  • the system control unit 60 When receiving the image light projection command from the main control unit 80, the system control unit 60 projects the image light based on the projection image data onto the first projection range 5A, and when receiving the image light projection stop command, the light source unit 40. Is stopped or in a standby state, and projection of image light onto the first projection range 5A is stopped.
  • the main control unit 80 performs overall control of the entire HUD 10 and can communicate with each of the unit 3 and the unit 4. Detailed functions of the main controller 80 will be described later.
  • FIG. 4 is a schematic diagram showing an internal configuration of the unit 3 constituting the HUD 10 shown in FIG. In FIG. 4, the same components as those in FIG.
  • the unit 3 has a configuration in which the object position detection unit 70 and the main control unit 80 are deleted from the unit 2 shown in FIG. 3 and the system control unit 60 is changed to a system control unit 61.
  • the system control unit 61 of the unit 3 controls the drive unit 45 and the light source control unit 40A in the unit 3 to project image light based on the projection image data onto the second projection range 5B.
  • the system control unit 61 can communicate with the main control unit 80 of the unit 2 wirelessly or by wire. Upon receiving an image light projection command from the main control unit 80, the system control unit 61 converts the image data for projection received from the main control unit 80 into The image light based is projected on the second projection range 5B. When receiving the image light projection stop command from the main control unit 80, the system control unit 61 controls the light source unit 40 to stop or in a standby state to stop the projection of the image light onto the second projection range 5B.
  • FIG. 5 is a schematic diagram showing an internal configuration of the unit 4 constituting the HUD 10 shown in FIG. In FIG. 5, the same components as those in FIG.
  • the unit 4 has a configuration in which the object position detection unit 70 and the main control unit 80 are deleted from the unit 2 shown in FIG. 3 and the system control unit 60 is changed to a system control unit 62.
  • the system control unit 62 of the unit 4 controls the drive unit 45 and the light source control unit 40A in the unit 4 to project image light based on the projection image data onto the third projection range 5C.
  • the system control unit 62 can communicate with the main control unit 80 of the unit 2 wirelessly or by wire. Upon receiving an image light projection command from the main control unit 80, the system control unit 62 converts the image data for projection received from the main control unit 80 into The image light based is projected on the third projection range 5C. When receiving the image light projection stop command from the main control unit 80, the system control unit 62 controls the light source unit 40 to stop or in a standby state, and stops the projection of the image light to the third projection range 5C.
  • the light source unit 40, the projection optical system 46, the diffusion plate 47, the reflection mirror 48, and the magnifying glass 49 in the unit 2 are projection display units that project image light based on the projection image data to the first projection range 5A. Constitute.
  • the light source unit 40, the projection optical system 46, the diffusing plate 47, the reflection mirror 48, and the magnifying glass 49 in the unit 3 are projection display units that project image light based on the projection image data to the second projection range 5B. Constitute.
  • the light source unit 40, the projection optical system 46, the diffuser plate 47, the reflection mirror 48, and the magnifying glass 49 in the unit 4 are projection display units that project image light based on the projection image data to the third projection range 5C. Constitute.
  • the main control unit 80 generates projection image data to be transmitted to the system control unit 60, the system control unit 61, and the system control unit 62.
  • This projection image data includes operation support data such as icons and characters for providing work support to the operator of the construction machine 100.
  • the operator basically works while looking at the vicinity of the bucket 22. Therefore, it is preferable to concentrate the information to be presented to the operator in the vicinity of the bucket 22 because the movement of the line of sight is reduced.
  • the main control unit 80 generates projection image data for displaying work support icons and characters around the bucket 22 based on the position of the bucket 22 detected by the object position detection unit 70. .
  • the projection image data includes projection image data corresponding to the first projection range 5A, projection image data corresponding to the second projection range 5B, and projection image data corresponding to the third projection range 5C. It is generated separately.
  • the data corresponding to the overlapping range of the first projection range 5A and the second projection range 5B is the projection image data corresponding to the first projection range 5A and the projection corresponding to the second projection range 5B.
  • the same image data is included in the image data.
  • the data corresponding to the overlapping range of the second projection range 5B and the third projection range 5C is the projection image data corresponding to the second projection range 5B and the projection image corresponding to the third projection range 5C.
  • the same data is included in each data.
  • the main control unit 80 performs three projection displays based on the position of the object (bucket 22) in front of the range 5D detected by the object position detection unit 70 in one direction (vertical direction in FIG. 2) in the range 5D.
  • Each of the units is in one of a first state in which image light is projected (hereinafter referred to as a projection-on state) and a second state in which projection of image light is stopped (hereinafter referred to as a projection-off state). Control to the state.
  • the main control unit 80 constitutes a unit control unit.
  • the main control unit 80 includes a first projection range, which is an arbitrary projection range among the projection ranges of the image light by each of the three projection display units, and the object detected by the object position detection unit 70. In a state in which the first and second images overlap, either the first control or the second control is selectively performed based on the position in one direction of the object in the first projection range.
  • the first control is control in which the first projection display unit that projects image light in the first projection range is set in the projection on state, and the projection display units other than the first projection display unit are set in the projection off state.
  • the first projection display unit and the second projection display unit that projects image light onto the projection range adjacent to the first projection range are set in the projection on state, and the first projection display unit and the second projection display unit This is a control to turn off the projection units other than the projection display unit.
  • FIG. 6 is a schematic diagram for explaining the state transition of the range 5D set in the windshield 5.
  • the ends of the adjacent first projection range 5A and the second projection range 5B overlap each other, and the adjacent second projection range 5B and third projection range 5C are overlapped.
  • the edges of each other overlap.
  • the overlapping range d of the first projection range 5A and the second projection range 5B is a range from the lower end of the first projection range 5A in the gravitational direction to a predetermined distance.
  • the overlapping range d between the first projection range 5A and the second projection range 5B is a range from the upper end in the direction of gravity in the second projection range 5B to a predetermined distance.
  • the overlapping range d of the second projection range 5B and the third projection range 5C is a range from the lower end in the direction of gravity in the second projection range 5B to a predetermined distance.
  • the overlapping range d between the second projection range 5B and the third projection range 5C is a range from the upper end in the direction of gravity in the third projection range 5C to a predetermined distance.
  • the predetermined distance is, for example, 1 cm to 10 cm.
  • a range is desirable.
  • the display size of each of the first projection range 5A, the second projection range 5B, and the third projection range 5C is larger or smaller than 25 inches, it is determined in advance according to the size of the display size. It is desirable to increase or decrease the distance.
  • (projection on) and (projection off) are indicated in each projection range.
  • the projection range in which (Projection On) is described indicates a state in which the projection display unit that projects image light is operating in this projection range and image light is being projected.
  • the projection range in which (projection off) is described indicates a state in which the projection display unit that projects image light in this projection range is stopped or in a standby state, and projection of image light is stopped.
  • the main control unit 80 controls the projection display unit of the unit 2 to the projection on state, and performs the first control to control the projection display units of the unit 3 and the unit 4 to the projection off state.
  • the main control unit 80 moves the entire bucket 22 into the first projection range 5A based on the position of the bucket 22 detected by the object position detection unit 70. And the bucket 22 is determined to overlap the overlap range d of the first projection range 5A and the second projection range 5B. In this state, the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main control unit 80 causes the entire bucket 22 to overlap the second projection range 5B based on the position of the bucket 22 detected by the object position detection unit 70. In addition, it is determined that the bucket 22 overlaps the overlapping range d between the first projection range 5A and the second projection range 5B. In this state, the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main control unit 80 determines that the entire bucket 22 is in the second projection range 5B based on the position of the bucket 22 detected by the object position detection unit 70. It is determined that there is a bucket 22 that overlaps and outside the overlapping range d of the first projection range 5A and the second projection range 5B and the overlapping range d of the second projection range 5B and the third projection range 5C. In this state, the main control unit 80 performs the first control for controlling the projection display unit of the unit 3 to the projection-on state and controlling the projection display units of the unit 2 and the unit 4 to the projection-off state.
  • FIG. 7 is a schematic diagram for explaining another example of the state transition in the range 5D set in the windshield 5.
  • FIG. 7 is a schematic diagram for explaining another example of the state transition in the range 5D set in the windshield 5.
  • the configuration of the range 5D in FIG. 7 is the same as that in FIG. 6, but in FIG. 7, the range from the lower end LA in the gravity direction to a predetermined distance in the first projection range 5A is the threshold range e2.
  • the second projection range 5B a range from the upper end LB1 in the gravity direction to a predetermined distance is set as a threshold range e1.
  • a range from the lower end LB2 in the gravity direction to a predetermined distance is set as a threshold range e4.
  • a range from the upper end LC in the gravity direction to a predetermined distance is set as a threshold range e3.
  • the above-described predetermined distances in FIG. 7 are all the same value, and the range including the threshold range e1 and the threshold range e2 is the same as the overlapping range of the first projection range 5A and the second projection range 5B. ing. Similarly, the combined range of the threshold range e3 and the threshold range e4 is the same as the overlapping range of the second projection range 5B and the third projection range 5C.
  • the main control unit 80 controls the projection display unit of the unit 2 to the projection on state, and performs first control for controlling the projection display units of the unit 3 and the unit 4 to the projection off state.
  • the main control unit 80 moves the entire bucket 22 into the first projection range 5A based on the position of the bucket 22 detected by the object position detection unit 70. And the bucket 22 is determined to overlap the threshold range e2 of the first projection range 5A.
  • the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main controller 80 overlaps the entire bucket 22 with the second projection range 5B based on the position of the bucket 22 detected by the object position detector 70. In addition, it is determined that the bucket 22 overlaps the threshold range e1 of the second projection range 5B. In this state, the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main control unit 80 determines that the entire bucket 22 is in the second projection range 5B based on the position of the bucket 22 detected by the object position detection unit 70. It is determined that the bucket 22 is outside the threshold range e1 and the threshold range e4 of the second projection range 5B. In this state, the main control unit 80 performs the first control for controlling the projection display unit of the unit 3 to the projection-on state and controlling the projection display units of the unit 2 and the unit 4 to the projection-off state.
  • FIG. 8 is a schematic diagram for explaining still another example of the state transition in the range 5D set in the windshield 5.
  • the lower end LA of the first projection range 5A and the upper end LB1 of the second projection range 5B are in contact
  • the lower end LB2 of the second projection range 5B and the upper end LC of the third projection range 5C are in contact. Is shown.
  • the range from the lower end LA in the gravity direction to a predetermined distance is defined as a threshold range f1.
  • a range from the upper end LB1 in the gravity direction to a predetermined distance is set as a threshold range f2.
  • a range from the lower end LB2 in the gravity direction to a predetermined distance is set as a threshold range f3.
  • a range from the upper end LC in the gravity direction to a predetermined distance is set as a threshold range f4.
  • the distances in the gravity direction of the threshold ranges f1 to f4 are all the same.
  • the main control unit 80 controls the projection display unit of the unit 2 to the projection on state, and performs first control for controlling the projection display units of the unit 3 and the unit 4 to the projection off state.
  • the main control unit 80 moves the entire bucket 22 into the first projection range 5A based on the position of the bucket 22 detected by the object position detection unit 70. And the bucket 22 is determined to overlap the threshold range f1 of the first projection range 5A.
  • the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main control unit 80 overlaps the entire bucket 22 with the second projection range 5B based on the position of the bucket 22 detected by the object position detection unit 70. In addition, it is determined that the bucket 22 overlaps the threshold range f2 of the second projection range 5B. In this state, the main control unit 80 performs the second control for controlling the projection display units of the unit 2 and the unit 3 to the projection-on state and controlling the projection display unit of the unit 4 to the projection-off state.
  • the main controller 80 determines that the entire bucket 22 is in the second projection range 5B based on the position of the bucket 22 detected by the object position detector 70. It is determined that the buckets 22 overlap and are outside the threshold range f2 and the threshold range f3 of the second projection range 5B. In this state, the main control unit 80 performs the first control for controlling the projection display unit of the unit 3 to the projection-on state and controlling the projection display units of the unit 2 and the unit 4 to the projection-off state.
  • the main control unit 80 controls only the projection display unit corresponding to the projection range to the projection-on state when the entire bucket 22 is in the arbitrary projection range. Instead, depending on the position of the bucket 22 in the arbitrary projection range, the projection display unit corresponding to the projection range adjacent to the arbitrary projection range is also controlled to be in the projection-on state.
  • the projection display unit corresponding to the second projection range 5B returns from the start-up or standby state.
  • the icon when an icon is displayed near the lower end of the bucket 22, the icon is displayed by each of the image light projected from the unit 2 and the image light projected from the unit 3. It becomes. Even when the icon moves further down following the bucket 22, the projection display unit corresponding to the first projection range 5A operates while the upper end of the bucket 22 is in the overlapping range d. ing. For this reason, even when an icon is displayed near the upper end of the bucket 22, this icon can always be displayed, and work support can be performed satisfactorily.
  • a virtual image can be viewed over a wide range using three projection display units, a virtual image can be viewed over a wide range with one projection display unit using a semitransparent spherical reflector. Compared with the structure which enables, the manufacturing cost increase of HUD10 can be prevented.
  • the operator Sufficient work support can be provided.
  • three projection ranges are set for the windshield 5. However, there may be a plurality of projection ranges.
  • the unit 4 may be deleted from the HUD 10.
  • the plurality of projection ranges set on the windshield 5 are arranged in the direction of gravity (vertical direction), but the plurality of projection ranges set on the windshield 5 are orthogonal to the direction of gravity. You may arrange in (horizontal direction).
  • a unit for projecting image light in each projection range may be provided in the cab of the construction machine 100 so as to be separated in the lateral direction.
  • the object position detection unit 70 and the main control unit 80 are provided in the unit 2, but the control unit including the object position detection unit 70 and the main control unit 80 is provided as a separate unit.
  • the control unit may be configured to control the system control units of the units 2 to 4 in an integrated manner.
  • the units 2 to 4 project the image light under the condition that the virtual image can be viewed, but at least one of the units 2 to 4 projects the image light under the condition that the real image can be viewed. It is good also as what to do.
  • FIG. 9 is a schematic diagram showing a schematic configuration of a construction machine 100A that is a modification of the construction machine 100 shown in FIG. In FIG. 9, the same components as those in FIG.
  • a construction machine 100A shown in FIG. 9 includes, in addition to the configuration of the construction machine 100, an imaging unit 110 that images a subject with an imaging element above the operator of the construction machine 100. Further, the HUD 10 is changed to the HUD 10A. The HUD 10A is obtained by changing the unit 2 in the HUD 10 to the unit 2A.
  • the imaging unit 110 images a range including the range 5D of the windshield 5.
  • the imaging unit 110 is connected to the unit 2A configuring the HUD 10A wirelessly or by wire, and transfers captured image data obtained by imaging a subject to the unit 2A.
  • FIG. 10 is a schematic diagram showing the internal configuration of the unit 2A of the HUD 10A mounted on the construction machine 100A shown in FIG. 10, the same components as those in FIG. 3 are denoted by the same reference numerals.
  • the main controller 80 is changed to the main controller 80A, and the object position detector 70 is changed to the object position detector 70A.
  • object position detection parts detect the position of the movable part (bucket 22) of the construction machine 100 as a 1st object, and the position (for example, a person, an obstruction, etc.) other than this movable part as a 2nd object. Is detected.
  • object position detection parts acquire the picked-up image data imaged by the imaging part 110, and based on the acquired picked-up image data, the position of the 1st object and the position of the 2nd object by well-known image recognition processing Is detected.
  • the main control unit 80A has the following functions in addition to the functions of the main control unit 80 of the HUD 10. That is, when the main control unit 80 determines that the second object is in the projection range of the image light by the projection display unit that is controlled to the projection off state, the main display unit 80 sets the projection display unit to the projection on state. Control.
  • FIG. 11 is a schematic diagram for explaining an example of state transition in the range 5D by the HUD 10A.
  • the range 5D is the same as that in FIG. 6, and the ends of the adjacent first projection range 5A and the second projection range 5B overlap each other, and the adjacent second projection range 5B and third projection range are overlapped. The ends with 5C overlap.
  • a range where the first projection range 5A and the second projection range 5B overlap and a range where the second projection range 5B and the third projection range 5C overlap each other are represented as overlapping ranges d. It is said.
  • the state D1 is changed to the state D2, and the object 200 other than the bucket 22 is detected by the object position detection unit 70A.
  • the main control unit 80A causes the second projection range 5B and the third projection range 5C corresponding to the projection display unit in which at least a part of the object 200 is controlled to be in the projection off state. It is determined whether it is in any one.
  • the main control unit 80A determines that at least a part of the object 200 is in the third projection range 5C, and the third projection range 5C.
  • the projection display unit corresponding to the range 5C is controlled to the projection on state.
  • the main control unit 80A generates projection image data including information to be notified to the operator according to the content of the detected object 200 (for example, an icon for warning if the object 200 is a person). This is transmitted to the system control unit 62 of the unit 4.
  • the image light based on the projection image data is projected from the unit 4 to the third projection range 5C, and the warning icon 210 is displayed as a virtual image near the object 200 in the third projection range 5C (state) D3).
  • the projection display unit is controlled to be in the projection off state, when an object is detected in the projection range corresponding to the projection display unit, the projection display unit is It can be operated. For this reason, the operator can easily recognize a person or an obstacle other than the bucket 22. Further, the warning icon 210 allows the operator to recognize the danger caused by the object, and it is possible to support the work accurately while saving energy.
  • the disclosed projection display device includes a plurality of projection display units that can spatially modulate light emitted from a light source based on image information and project the spatially modulated image light onto a projection surface of a vehicle.
  • the projection range of image light by each of the plurality of projection display units is aligned in one direction, and one end of the one direction in one projection range of two adjacent projection ranges in the one direction is the above.
  • the image light for each of the plurality of projection display units and an object position detection unit that detects the position of the object in front of the projection plane on the projection plane, overlapping with the other projection range of the two projection ranges.
  • a unit controller that controls the first state to be projected and the second state in which projection of the image light is stopped, and the unit controller detects the object position. Based on the position in the one direction of the first object detected by the part, each of the plurality of projection display units and controls to either of the first state and the second state.
  • the unit control unit includes a first projection range that is an arbitrary projection range of the image light projection ranges of the plurality of projection display units, and the object position detection unit. In the state where the entire detected first object overlaps, either the first control or the second control is selected based on the position of the first object in the first direction in the first projection range.
  • the first control controls the first projection display unit capable of projecting image light to the first projection range to the first state, and projects other than the first projection display unit.
  • the display unit is controlled to the second state, and the second control is a second unit capable of projecting image light to a projection range adjacent to the first projection display unit and the first projection range.
  • the projection display unit Controlled, the projection display units other than the first projection display unit and the second projection display unit can be made to control to the second state.
  • the unit control unit is configured such that when the first object overlaps a range from the end in the one direction to the predetermined distance in the first projection range.
  • the projection control unit capable of projecting image light in a projection range adjacent to the first projection range on the side close to the first object performs the second control as the second projection display unit, and performs the first control. When the object is outside the range, the first control can be performed.
  • one end of the one direction in one of the two projection ranges adjacent in the one direction is in contact with one end of the one direction of the other projection range of the two projection ranges. Can be.
  • two adjacent projection ranges in the one direction may have end portions overlapping in the one direction.
  • the unit control unit detects the position of the second object different from the first object by the object position detection unit, and controls to the second state.
  • the projection display unit can be controlled to the first state.
  • the object position detection unit may detect the position of an object based on captured image data obtained by imaging the projection plane with an image sensor.
  • the one direction may be a gravity direction.
  • the vehicle can be a construction machine.
  • the construction machine performs a construction work by a movable part movable in the one direction, and the object position detection unit of the disclosed projection display apparatus is configured such that the position of the first object is the position of the movable part. The position can be detected.
  • the movable part may be a bucket.
  • the disclosed projection control method is a projection control method using a plurality of projection display units capable of spatially modulating light emitted from a light source based on image information and projecting the spatially modulated image light onto a projection surface of a vehicle.
  • the projection range of the image light by each of the plurality of projection display units is aligned in one direction, and one end of the one direction in one projection range of two adjacent projection ranges in the one direction is the 2
  • An object position detecting step for detecting the position of the object in front of the projection plane on the projection plane, and the image light is projected on each of the plurality of projection display units.
  • the unit control step is detected by a first projection range, which is an arbitrary projection range among the projection ranges of image light by each of the plurality of projection display units, and the object position detection step.
  • the first control and the second control are selectively performed based on the position of the first object in the first projection range in the one direction in a state where the entire first object is overlapped.
  • the first control controls the first projection display unit capable of projecting image light to the first projection range to the first state, and performs projection display other than the first projection display unit.
  • the unit is controlled to the second state, and the second control includes image light in one of the projection ranges adjacent to the first projection display unit and the first projection range.
  • the projection display unit of the projection display units other than the first and state control said first projection display unit and the second projection display unit can be made to control to the second state.
  • the unit control step may be configured such that the range from the end in the one direction to the predetermined distance in the first projection range overlaps the first object.
  • the projection control unit capable of projecting image light in a projection range adjacent to the first projection range on the side close to the first object is used as the second projection display unit to perform the second control, and the first object When the value is outside the range, the first control can be performed.
  • one end in the one direction in one of the two projection ranges adjacent in the one direction is in contact with one end in the one direction of the other projection range of the two projection ranges. Can be.
  • two adjacent projection ranges in the one direction may have end portions overlapping in the one direction.
  • the position of a second object different from the first object is detected by the object position detection step, and the projection display is controlled to the second state.
  • the projection display unit can be controlled to the first state.
  • the object position detection step may detect the position of the object based on captured image data obtained by imaging the projection plane with an image sensor.
  • the one direction may be a gravity direction.
  • the vehicle can be a construction machine.
  • the construction machine performs a construction work by a movable part movable in the one direction, and the object position detecting step includes the position of the first object as the position of the first object. The position can be detected.
  • the movable part may be a bucket.
  • the present invention is particularly convenient and effective when applied to work machines such as construction machines and agricultural machines.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Instrument Panels (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本発明は、乗り物のウインドシールドの広範囲に渡って画像を視認可能としながら、乗り物の製造コスト増大を防ぎ、かつ、乗り物の燃費を改善することのできる投写型表示装置と投写制御方法を提供する。ウインドシールド(5)を有する建設機械(100)に搭載される投写型表示装置は、ウインドシールド(5)の第一の投写範囲(5A)でバケット(22)を検知した場合、第一の投写範囲(5A)に画像光を投写し、第二の投写範囲(5B)と第三の投写範囲(5C)への画像光の投写を停止する第一の制御を行う。また、投写型表示装置は、ウインドシールド(5)の第一の投写範囲(5A)と第二の投写範囲(5B)の重なる位置でバケット(22)を検知した場合、第一の投写範囲(5A)と第二の投写範囲(5B)にそれぞれ画像光を投写し、第三の投写範囲(5C)への画像光の投写を停止する第二の制御を行う。

Description

投写型表示装置及び投写制御方法
 本発明は、投写型表示装置及び投写制御方法に関する。
 自動車や建設機械や農作機械を含む乗り物のウインドシールドや、ウインドシールドの手前付近に配置されるコンバイナをスクリーンとして用い、これに光を投写して画像を表示させる乗り物用のHUD(Head-up Display)が知られている。このHUDによれば、利用者は、HUDから投写された光に基づく画像を、スクリーン上で実像として、又は、スクリーン前方において虚像として、運転者に視認させることができる。
 特許文献1には、建設機械用のHUDが記載されている。このHUDは、視線の高さが違う人間が乗っても虚像を安定して視認させることができるように、画像光の投写位置を可変としている。
 特許文献2には、建設機械用のHUDが記載されている。このHUDは、建設機械が高所作業に適した姿勢であることを検知した場合、ウインドシールドの上部に虚像を表示させ、建設機械が低所作業に適した姿勢であることを検知した場合、ウインドシールドの下部に虚像を表示させている。
 特許文献3には、建設機械のアーム位置等と操作者の視線とに基づいて投写位置を制御するHUDが記載されている。このHUDは、操作者の作業に必要とされる全視野をカバーするに充分な大きさを有する半透明球面反射鏡と、この半透明球面反射鏡に光を投写する投写方向が可変の投写部とを組み合わせることで、広範囲で虚像を視認できるようにしている。
 特許文献4には、画像光を投写する3つの投写部を用いて広範囲で虚像を視認させることのできる表示装置が記載されている。
 特許文献5には、画像光を投写する2つの投写部を用いて広範囲で虚像を視認させることのできる表示装置が記載されている。この2つの投写部の各々による画像光の投写範囲は一部重複するよう設定されている。
特開2012-071825号公報 特開2009-173195号公報 特開2002-146846号公報 特開2013-148901号公報 特開2013-137355号公報
 建設機械や農作機械等の作業用機械においては、自動車等の輸送を主目的とする乗り物とは違い、操作者の視線移動が特に縦方向において頻繁に行われる。また、輸送を主目的とする乗り物と違って操作者の縦方向における視線の移動範囲は広い。また、建設機械では、操作対象となるパワーショベルやバケットの動きに合わせて操作者の視線が動くことになる。このような事情から、操作席前方にウインドシールドがある作業用機械においては、このウインドシールドの広範囲にて虚像や実像等の画像を視認できるようにすることが好ましい。
 特許文献3に記載のHUDによれば、広範囲で画像を視認可能となる。しかし、半透明球面反射鏡の光学設計は難しく、また、半透明球面反射鏡として大きいものを利用する必要がある、投写部による画像光の投写方向を可変にする機構が必要になる等の理由から、作業用機械の製造コストが高くなる。
 そこで、特許文献4及び特許文献5のように、複数の投写部を用いれば、作業用機械の製造コストを抑えることができる。作業用機械においては燃費をよくすることが重要であるが、投写部の数を増やすと、それだけ燃費への影響が懸念される。特許文献4及び特許文献5では、複数の投写部を用いる場合の燃費改善という課題については認識されていない。
 また、特許文献1及び特許文献2は、複数の投写部を用いることは想定されていない。
 ここでは作業用機械を例に説明したが、輸送を主目的とする自動車や航空機や船舶等の乗り物に搭載されるHUDにおいても、広範囲にて画像を視認可能にする要求が高まる可能性がある。この場合は、上述したように複数の投写部を用いることが有効と考えられるため、作業用機械と同様に燃費への影響が懸念されるという課題が生じる。
 本発明は、上記事情に鑑みてなされたものであり、乗り物のウインドシールドの広範囲に渡って画像を視認可能としながら、乗り物の製造コスト増大を防ぎ、かつ、乗り物の燃費を改善することのできる投写型表示装置と投写制御方法を提供することを目的とする。
 本発明の投写型表示装置は、光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを有する投写型表示装置であって、上記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲と重複しており、上記投写面前方の物体の上記投写面における位置を検知する物体位置検知部と、上記複数の投写表示ユニットの各々について、上記画像光を投写させる第一の状態と上記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御部と、を備え、上記ユニット制御部は、上記物体位置検知部により検知された第一の物体の上記一方向での位置に基づいて、上記複数の投写表示ユニットの各々を上記第一の状態と上記第二の状態のいずれかに制御するものである。
 本発明の投写制御方法は、光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを用いた投写制御方法であって、上記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲と重複しており、上記投写面前方の物体の上記投写面における位置を検知する物体位置検知ステップと、上記複数の投写表示ユニットの各々について、上記画像光を投写させる第一の状態と上記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御ステップと、を備え、上記ユニット制御ステップでは、上記物体位置検知ステップにより検知された第一の物体の上記一方向での位置に基づいて、上記複数の投写表示ユニットの各々を上記第一の状態と上記第二の状態のいずれかに制御するものである。
 本発明によれば、乗り物のウインドシールドの広範囲に渡って画像を視認可能としながら、乗り物の製造コスト増大を防ぎ、かつ、乗り物の燃費を改善することのできる投写型表示装置と投写制御方法を提供することができる。
本発明の投写型表示装置の一実施形態であるHUD10を搭載する建設機械100の概略構成を示す模式図である。 図1に示す建設機械100における運転室内の構成例を示す図である。 図1に示すHUD10を構成するユニット2の内部構成を示す模式図である。 図1に示すHUD10を構成するユニット3の内部構成を示す模式図である。 図1に示すHUD10を構成するユニット4の内部構成を示す模式図である。 ウインドシールド5に設定された範囲5Dの状態遷移の一例を説明するための模式図である。 ウインドシールド5に設定された範囲5Dの状態遷移の別の例を説明するための模式図である。 ウインドシールド5に設定された範囲5Dの状態遷移の更に別の例を説明するための模式図である。 図1に示す建設機械100の変形例である建設機械100Aの概略構成を示す模式図である。 図10に示す建設機械100Aに搭載されるHUD10Aのユニット2Aの内部構成を示す模式図である。 HUD10Aによる範囲5Dの状態遷移の例を説明するための模式図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の投写型表示装置の一実施形態であるHUD10を搭載する建設機械100の概略構成を示す模式図である。
 図1に示すHUD10は、建設機械や農作機械等の作業用機械、自動車、電車、航空機、又は船舶等の乗り物に搭載して用いられる。
 HUD10は、運転室内において運転席1の上方に配置されるユニット2と、運転室内において運転席1後方に配置されるユニット3と、運転室内において運転席1の座面下方に配置されるユニット4と、を備える。
 ユニット2~4は、建設機械100の運転室内に、重力方向(図1の上下方向)に離間して設けられている。各ユニットは、建設機械100のウインドシールド5の前方において虚像を視認可能な条件で画像光を投写する。
 建設機械100の操作者は、ウインドシールド5に投写され、ここで反射された画像光を見ることで、建設機械100の操作を支援するための絵や文字等の情報を視認することができる。また、ウインドシールド5は、ユニット2~4の各々から投写された画像光を反射すると同時に、外部(外界)からの光を透過する機能を持つ。このため、操作者は、ユニット2~4の各々から投写された画像光に基づく虚像を外界の景色に重ねて視認することができる。
 HUD10では、ユニット2~4が、建設機械100の運転室内に、重力方向に離間して設けられていることにより、ウインドシールド5の広範囲にわたり操作者に虚像を提示することができる。
 図2は、図1に示す建設機械100における運転室内の構成例を示す図である。図2は、ウインドシールド5を運転席1から見た正面図を示している。
 建設機械100は、機体前方中央部に、少なくとも一方向(以下では垂直方向とする)に移動可能な可動部としてのアーム21及びバケット22を備える油圧ショベルである。建設機械100は、アーム21及びバケット22の可動により建設作業を行うものである。一方向に移動可能な可動部を有する建設機械としては、他にミニショベル、ブルド―ザ、ホィ―ルローダー等がある。
 運転室は、フロントウィンドウとしてのウインドシールド5、右サイドウィンドウ23、左サイドウィンドウ24等の透明ウィンドウに取り囲まれている。運転室は、少なくとも、アーム21の曲げ伸ばしを操作するための左操作レバー25、及び、バケット22の掘削・開放を操作するための右操作レバー26等を運転席1周りに備える。
 ウインドシールド5には、第一の投写範囲5A、第二の投写範囲5B、第三の投写範囲5Cの3つの投写範囲が割り当てられており、これらの投写範囲は、重力方向(図2の上下方向)に並んで配置されている。これら3つの投写範囲を合わせた範囲5Dが、建設機械100の投写面を構成する。
 この3つの投写範囲のうち、重力方向において隣り合う2つの投写範囲の一方の投写範囲における重力方向の一端は、この2つの投写範囲の他方の投写範囲と重複している。
 具体的には、重力方向において隣り合う第一の投写範囲5Aと第二の投写範囲5Bに着目すると、第一の投写範囲5Aにおける重力方向の下端は、第二の投写範囲5Bと重複しており、第二の投写範囲5Bにおける重力方向の上端は、第一の投写範囲5Aと重複している。
 また、重力方向において隣り合う第二の投写範囲5Bと第三の投写範囲5Cに着目すると、第二の投写範囲5Bにおける重力方向の下端は、第三の投写範囲5Cと重複しており、第三の投写範囲5Cにおける重力方向の上端は、第二の投写範囲5Bと重複している。
 なお、図2の例では、3つの投写範囲のうちの隣り合う2つの投写範囲は重力方向において端部同士が重なるものとしているが、3つの投写範囲のうちの隣り合う2つの投写範囲の一方の投写範囲における重力方向の一端は、この2つの投写範囲の他方の投写範囲の重力方向の一端と接している構成としてもよい。
 つまり、図2において、第一の投写範囲5Aと第二の投写範囲5Bと第三の投写範囲5Cを重力方向に隙間なく並べた構成、言い換えると、第一の投写範囲5Aの下端と第二の投写範囲5Bの上端を接触させ、第二の投写範囲5Bの下端と第三の投写範囲5Cの上端を接触させた構成としてもよい。
 本明細書においては、一方向に並ぶ2つの投写範囲において、一方の投写範囲の一方向における他方の投写範囲側の一端(端縁)と、他方の投写範囲の一方向における一方の投写範囲側の一端(端縁)とが接触する構成を、この一方の投写範囲の一端がこの他方の投写範囲と重複しているものとして定義する。
 第一の投写範囲5Aは、ユニット2から投写された画像光が投写される範囲であり、この画像光を反射すると同時に、外部(外界)からの光を透過する。
 第二の投写範囲5Bは、ユニット3から投写された画像光が投写される範囲であり、この画像光を反射すると同時に、外部(外界)からの光を透過する。
 第三の投写範囲5Cは、ユニット4から投写された画像光が投写される範囲であり、この画像光を反射すると同時に、外部(外界)からの光を透過する。
 図3は、図1に示すHUD10を構成するユニット2の内部構成を示す模式図である。
 ユニット2は、光源ユニット40と、駆動部45と、投写光学系46と、拡散板47と、反射ミラー48と、拡大鏡49と、光源ユニット40及び駆動部45を制御するシステム制御部60と、物体位置検知部70と、メイン制御部80と、を備えている。
 光源ユニット40は、光源制御部40Aと、赤色光を出射する赤色光源であるR光源41rと、緑色光を出射する緑色光源であるG光源41gと、青色光を出射する青色光源であるB光源41bと、ダイクロイックプリズム43と、R光源41rとダイクロイックプリズム43の間に設けられたコリメータレンズ42rと、G光源41gとダイクロイックプリズム43の間に設けられたコリメータレンズ42gと、B光源41bとダイクロイックプリズム43の間に設けられたコリメータレンズ42bと、光変調素子44と、を備えている。
 ダイクロイックプリズム43は、R光源41r、G光源41g、及びB光源41bの各々から出射される光を同一光路に導くための光学部材である。すなわち、ダイクロイックプリズム43は、コリメータレンズ42rによって平行光化された赤色光を透過させて光変調素子44に出射する。また、ダイクロイックプリズム43は、コリメータレンズ42gによって平行光化された緑色光を反射させて光変調素子44に出射する。さらに、ダイクロイックプリズム43は、コリメータレンズ42bによって平行光化された青色光を反射させて光変調素子44に出射する。このような機能を持つ光学部材としては、ダイクロイックプリズムに限らない。例えば、クロスダイクロイックミラーを用いてもよい。
 R光源41r、G光源41g、及びB光源41bは、それぞれ、レーザ、LED(Light Emitting Diode)等の発光素子が用いられる。本実施形態では、光源ユニット40の光源として、R光源41rとG光源41gとB光源41bの3つの光源を含むものとしているが、光源の数は1つ、2つ、又は、4つ以上であってもよい。
 光源制御部40Aは、R光源41r、G光源41g、及びB光源41bの各々の発光量を予め決められた発光量パターンに設定し、この発光量パターンに従ってR光源41r、G光源41g、及びB光源41bから光を順次出射させる制御を行う。
 光変調素子44は、ダイクロイックプリズム43から出射された光を画像情報に基づいて空間変調し、画像情報である投写用画像データに応じた光(赤色画像光、青色画像光、及び緑色画像光)を投写光学系46に出射する。
 光変調素子44としては、例えば、LCOS(Liquid crystal on silicon)、DMD(Digital Micromirror Device)、MEMS(Micro Electro Mechanical Systems)素子、及び液晶表示素子等を用いることができる。
 駆動部45は、システム制御部60から入力される投写用画像データにしたがって光変調素子44を駆動し、投写用画像データに応じた光(赤色画像光、青色画像光、及び緑色画像光)を投写光学系46に出射させる。
 投写光学系46は、光源ユニット40の光変調素子44から出射された光を、拡散板47に投写するための光学系である。この光学系は、レンズに限らず、スキャナを用いることもできる。例えば、走査型スキャナから出射された光を拡散板47で拡散させて面光源化してもよい。
 反射ミラー48は、拡散板47で拡散された光を拡大鏡49側に反射させる。
 拡大鏡49は、反射ミラー48で反射されてきた光に基づく像を拡大させてウインドシールド5の第一の投写範囲5Aに投写する。
 物体位置検知部70は、図2の範囲5D前方の物体(図2の例では、建設機械100の機体前方中央部にある第一の物体としてのバケット22)の範囲5Dにおける位置を検知し、検知した物体の位置を示す情報をメイン制御部80に出力する。
 範囲5D前方の物体の検知方法は、例えば以下に示す第一の検知方法、第二の検知方法が挙げられるが、これらの方法に限らない。
(第一の検知方法)
 撮像素子を含む撮像部を建設機械100に搭載しておき、建設機械100の機体前方中央部にあるバケット22の画像特徴情報を予め設定しておく。そして、撮像部により範囲5Dを撮像し、撮像により得られた撮像画像データに対してバケット22の画像特徴情報によるマッチングを行って、範囲5Dにおけるバケット22の位置を検知する。
(第二の検知方法)
 バケット22の位置は、左操作レバー25及び右操作レバー26の操作信号によって一意に決まる。このため、物体位置検知部70は、建設機械100の左操作レバー25及び右操作レバー26を操作する操作信号に基づいて、範囲5Dにおけるバケット22の位置を検知する。
 システム制御部60は、メイン制御部80から画像光投写指令を受けると、投写用画像データに基づく画像光を第一の投写範囲5Aに投写させ、画像光投写停止指令を受けると、光源ユニット40を停止又はスタンバイ状態に制御して、画像光の第一の投写範囲5Aへの投写を停止させる。
 メイン制御部80は、HUD10全体を統括制御するものであり、ユニット3とユニット4の各々と通信可能となっている。メイン制御部80の詳しい機能は後述する。
 図4は、図1に示すHUD10を構成するユニット3の内部構成を示す模式図である。図4において図3と同じ構成要素には同一符号を付してある。
 ユニット3は、図3に示したユニット2において物体位置検知部70及びメイン制御部80を削除し、システム制御部60をシステム制御部61に変更した構成である。
 ユニット3のシステム制御部61は、ユニット3内の駆動部45及び光源制御部40Aを制御して、投写用画像データに基づく画像光を第二の投写範囲5Bに投写させる。
 システム制御部61は、ユニット2のメイン制御部80と無線又は有線により通信可能となっており、メイン制御部80から画像光投写指令を受けると、メイン制御部80から受信した投写用画像データに基づく画像光を第二の投写範囲5Bに投写させる。システム制御部61は、メイン制御部80から画像光投写停止指令を受けると、光源ユニット40を停止又はスタンバイ状態に制御して、画像光の第二の投写範囲5Bへの投写を停止させる。
 図5は、図1に示すHUD10を構成するユニット4の内部構成を示す模式図である。図5において図3と同じ構成要素には同一符号を付してある。
 ユニット4は、図3に示したユニット2において物体位置検知部70及びメイン制御部80を削除し、システム制御部60をシステム制御部62に変更した構成である。
 ユニット4のシステム制御部62は、ユニット4内の駆動部45及び光源制御部40Aを制御して、投写用画像データに基づく画像光を第三の投写範囲5Cに投写させる。
 システム制御部62は、ユニット2のメイン制御部80と無線又は有線により通信可能となっており、メイン制御部80から画像光投写指令を受けると、メイン制御部80から受信した投写用画像データに基づく画像光を第三の投写範囲5Cに投写させる。システム制御部62は、メイン制御部80から画像光投写停止指令を受けると、光源ユニット40を停止又はスタンバイ状態に制御して、画像光の第三の投写範囲5Cへの投写を停止させる。
 ユニット2内の光源ユニット40、投写光学系46、拡散板47、反射ミラー48、及び、拡大鏡49は、投写用画像データに基づく画像光を第一の投写範囲5Aに投写する投写表示ユニットを構成する。
 ユニット3内の光源ユニット40、投写光学系46、拡散板47、反射ミラー48、及び、拡大鏡49は、投写用画像データに基づく画像光を第二の投写範囲5Bに投写する投写表示ユニットを構成する。
 ユニット4内の光源ユニット40、投写光学系46、拡散板47、反射ミラー48、及び、拡大鏡49は、投写用画像データに基づく画像光を第三の投写範囲5Cに投写する投写表示ユニットを構成する。
 メイン制御部80は、システム制御部60、システム制御部61、及びシステム制御部62に送信する投写用画像データを生成する。この投写用画像データは、建設機械100の操作者に対し、作業支援を行うためのアイコンや文字等の操作支援データを含むものである。
 建設機械100では、基本的には、操作者がバケット22の近傍を見ながら作業を行う。したがって、操作者に提示すべき情報については、バケット22の近傍に集中させるのが、目線の移動が少なくなり好ましい。
 そこで、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づき、バケット22の周囲に、作業支援のためのアイコンや文字を表示させるための投写用画像データを生成する。
 投写用画像データは、第一の投写範囲5Aに対応する投写用画像データと、第二の投写範囲5Bに対応する投写用画像データと、第三の投写範囲5Cに対応する投写用画像データとに分けて生成される。
 なお、第一の投写範囲5Aと第二の投写範囲5Bとの重複範囲に対応するデータは、第一の投写範囲5Aに対応する投写用画像データと、第二の投写範囲5Bに対応する投写用画像データとにそれぞれ同じものが含まれる。第二の投写範囲5Bと第三の投写範囲5Cとの重複範囲に対応するデータは、第二の投写範囲5Bに対応する投写用画像データと、第三の投写範囲5Cに対応する投写用画像データとにそれぞれ同じものが含まれる。
 また、メイン制御部80は、物体位置検知部70により検知された範囲5D前方の物体(バケット22)の範囲5Dにおける一方向(図2の上下方向)での位置に基づいて、3つの投写表示ユニットの各々を、画像光を投写させる第一の状態(以下では、投写オン状態という)と、画像光の投写を停止させる第二の状態(以下では、投写オフ状態という)とのいずれかの状態に制御する。メイン制御部80はユニット制御部を構成する。
 具体的には、メイン制御部80は、3つの投写表示ユニットの各々による画像光の投写範囲のうちの任意の投写範囲である第一の投写範囲と、物体位置検知部70により検知された物体の全体とが重なる状態において、第一の投写範囲における物体の一方向の位置に基づき、第一の制御と第二の制御のいずれかを選択的に行う。
 第一の制御は、第一の投写範囲に画像光を投写する第一の投写表示ユニットを投写オン状態にし、第一の投写表示ユニット以外の投写表示ユニットを投写オフ状態にする制御である。
 第二の制御は、第一の投写表示ユニット及び第一の投写範囲の隣の投写範囲に画像光を投写する第二の投写表示ユニットを投写オン状態にし、第一の投写表示ユニット及び第二の投写表示ユニット以外の投写ユニットを投写オフ状態にする制御である。
 図6~図8を参照して、メイン制御部80が行う第一の制御と第二の制御の具体例を説明する。
 図6は、ウインドシールド5に設定された範囲5Dの状態遷移を説明するための模式図である。
 範囲5Dは、前述したように、隣り合う第一の投写範囲5Aと第二の投写範囲5Bとの端部同士が重なっており、隣り合う第二の投写範囲5Bと第三の投写範囲5Cとの端部同士が重なっている。
 図6において、第一の投写範囲5Aと第二の投写範囲5Bとが重っている範囲及び第二の投写範囲5Bと第三の投写範囲5Cとが重なっている範囲を、それぞれ重複範囲dとしている。
 第一の投写範囲5Aと第二の投写範囲5Bとの重複範囲dは、第一の投写範囲5Aにおける重力方向の下端から予め決められた距離までの範囲である。また、第一の投写範囲5Aと第二の投写範囲5Bとの重複範囲dは、第二の投写範囲5Bにおける重力方向の上端から予め決められた距離までの範囲である。
 第二の投写範囲5Bと第三の投写範囲5Cとの重複範囲dは、第二の投写範囲5Bにおける重力方向の下端から予め決められた距離までの範囲である。また、第二の投写範囲5Bと第三の投写範囲5Cとの重複範囲dは、第三の投写範囲5Cにおける重力方向の上端から予め決められた距離までの範囲である。第一の投写範囲5A、第二の投写範囲5B、及び第三の投写範囲5Cのそれぞれの表示サイズが25インチ(55cm×31cm)の場合、上記予め決められた距離は、例えば1cm~10cmの範囲が望ましい。第一の投写範囲5A、第二の投写範囲5B、及び第三の投写範囲5Cのそれぞれの表示サイズが25インチより大きい場合または小さい場合は、その表示サイズの大小に応じて上記予め決められた距離も増減することが望ましい。
 図6において、各投写範囲には、(投写オン)と(投写オフ)の表記がなされている。(投写オン)が記載された投写範囲は、この投写範囲に画像光を投写する投写表示ユニットが動作しており、画像光の投写が行われている状態を示す。(投写オフ)が記載された投写範囲は、この投写範囲に画像光を投写する投写表示ユニットが停止又はスタンバイ状態となっており、画像光の投写が停止されている状態を示す。
 状態A1において、物体位置検知部70によりバケット22の位置が検知されると、メイン制御部80は、この位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aと第二の投写範囲5Bの重複範囲d外にバケット22があると判定する。そして、この状態では、メイン制御部80は、ユニット2の投写表示ユニットを投写オン状態に制御し、ユニット3及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 状態A1からバケット22が下方向に移動して状態A2になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aと第二の投写範囲5Bとの重複範囲dにバケット22が重なっていると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらにバケット22が下方向に移動して状態A3になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第一の投写範囲5Aと第二の投写範囲5Bとの重複範囲dにバケット22が重なると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらに、バケット22が下方向に移動して状態A4になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第一の投写範囲5Aと第二の投写範囲5Bの重複範囲d及び第二の投写範囲5Bと第三の投写範囲5Cとの重複範囲d外にバケット22があると判定する。この状態では、メイン制御部80は、ユニット3の投写表示ユニットを投写オン状態に制御し、ユニット2及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 図7は、ウインドシールド5に設定された範囲5Dの状態遷移の別の例を説明するための模式図である。
 図7における範囲5Dの構成は図6と同じであるが、図7では、第一の投写範囲5Aにおいて、重力方向における下端LAから予め決められた距離までの範囲を閾値範囲e2としている。また、第二の投写範囲5Bにおいて、重力方向における上端LB1から予め決められた距離までの範囲を閾値範囲e1としている。また、第二の投写範囲5Bにおいて、重力方向における下端LB2から予め決められた距離までの範囲を閾値範囲e4としている。また、第三の投写範囲5Cにおいて、重力方向における上端LCから予め決められた距離までの範囲を閾値範囲e3としている。
 図7における上記の予め決められた距離は全て同じ値としており、閾値範囲e1と閾値範囲e2を合わせた範囲は、第一の投写範囲5Aと第二の投写範囲5Bの重複範囲と同じになっている。同様に、閾値範囲e3と閾値範囲e4を合わせた範囲は、第二の投写範囲5Bと第三の投写範囲5Cの重複範囲と同じになっている。
 状態B1において、物体位置検知部70によりバケット22の位置が検知されると、メイン制御部80は、この位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aにおける閾値範囲e2外にバケット22があると判定する。この状態では、メイン制御部80は、ユニット2の投写表示ユニットを投写オン状態に制御し、ユニット3及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 状態B1からバケット22が下方向に移動して状態B2になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aの閾値範囲e2にバケット22が重なっていると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらにバケット22が下方向に移動して状態B3になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第二の投写範囲5Bの閾値範囲e1にバケット22が重なると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらに、バケット22が下方向に移動して状態B4になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第二の投写範囲5Bの閾値範囲e1及び閾値範囲e4外にバケット22があると判定する。この状態では、メイン制御部80は、ユニット3の投写表示ユニットを投写オン状態に制御し、ユニット2及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 図8は、ウインドシールド5に設定された範囲5Dの状態遷移の更に別の例を説明するための模式図である。図8では、第一の投写範囲5Aの下端LAと第二の投写範囲5Bの上端LB1が接触し、第二の投写範囲5Bの下端LB2と第三の投写範囲5Cの上端LCが接触する例を示している。
 また、図8では、第一の投写範囲5Aにおいて、重力方向における下端LAから予め決められた距離までの範囲を閾値範囲f1としている。また、第二の投写範囲5Bにおいて、重力方向における上端LB1から予め決められた距離までの範囲を閾値範囲f2としている。また、第二の投写範囲5Bにおいて、重力方向における下端LB2から予め決められた距離までの範囲を閾値範囲f3としている。また、第三の投写範囲5Cにおいて、重力方向における上端LCから予め決められた距離までの範囲を閾値範囲f4としている。閾値範囲f1~f4の重力方向での距離は全て同じとしている。
 状態C1において、物体位置検知部70によりバケット22の位置が検知されると、メイン制御部80は、この位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aにおける閾値範囲f1外にバケット22があると判定する。この状態では、メイン制御部80は、ユニット2の投写表示ユニットを投写オン状態に制御し、ユニット3及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 状態C1からバケット22が下方向に移動して状態C2になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第一の投写範囲5Aにバケット22全体が重なり、かつ、第一の投写範囲5Aの閾値範囲f1にバケット22が重なっていると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらにバケット22が下方向に移動して状態C3になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第二の投写範囲5Bの閾値範囲f2にバケット22が重なると判定する。この状態では、メイン制御部80は、ユニット2及びユニット3の各々の投写表示ユニットを投写オン状態に制御し、ユニット4の投写表示ユニットを投写オフ状態に制御する第二の制御を行う。
 さらに、バケット22が下方向に移動して状態C4になると、メイン制御部80は、物体位置検知部70により検知されたバケット22の位置に基づいて、第二の投写範囲5Bにバケット22全体が重なり、かつ、第二の投写範囲5Bの閾値範囲f2及び閾値範囲f3外にバケット22があると判定する。この状態では、メイン制御部80は、ユニット3の投写表示ユニットを投写オン状態に制御し、ユニット2及びユニット4の各々の投写表示ユニットを投写オフ状態に制御する第一の制御を行う。
 図6~図8に示したように、メイン制御部80は、バケット22全体が任意の投写範囲に入っている状態では、この投写範囲に対応する投写表示ユニットだけを投写オン状態に制御するのではなく、この任意の投写範囲におけるバケット22の位置によっては、この任意の投写範囲の隣の投写範囲に対応する投写表示ユニットも投写オン状態に制御する。
 例えば、図6の状態A1のように、バケット22が第一の投写範囲5Aの下端からある程度離れている場合には、第一の投写範囲5Aに対応する投写表示ユニットだけが動作するため、HUD10全体の消費電力を抑制することができる。
 一方、図6の状態A2のように、バケット22が第一の投写範囲5Aの下端に近い位置にある場合には、第一の投写範囲5Aに対応する投写表示ユニットだけでなく、第一の投写範囲5Aの隣の第二の投写範囲5Bに対応する投写表示ユニットも動作する。
 図6の状態A2において、バケット22が更に下に移動し、バケット22の下端が第一の投写範囲5A外に出た時点で、第一の投写範囲5Aの隣の第二の投写範囲5Bに対応する投写表示ユニットを動作させることも考えられる。
 しかし、この方法では、第二の投写範囲5Bに対応する投写表示ユニットが起動又はスタンバイ状態から復帰して画像光を投写するまでのタイムラグにより、バケット22の周囲に表示される情報が一瞬乱れる可能性がある。例えば、バケット22の下端付近にアイコンを表示させているとすると、このアイコンは、一瞬消えてから再度表示されることになる。
 HUD10によれば、バケット22の下端が第一の投写範囲5Aの下端よりも少し手前の位置に来た時点で、第二の投写範囲5Bに対応する投写表示ユニットが起動又はスタンバイ状態から復帰する。
 このため、例えば、バケット22の下端付近にアイコンを表示させている場合には、このアイコンが、ユニット2から投写される画像光とユニット3から投写される画像光とのそれぞれによって表示されることとなる。また、バケット22に追従してアイコンが更に下に移動していった場合でも、バケット22の上端が重複範囲dに入っている間は第一の投写範囲5Aに対応する投写表示ユニットが動作している。このため、バケット22の上端付近にアイコンを表示させている場合でも、このアイコンを常時表示させておくことができ、作業支援を良好に行うことができる。
 このように、HUD10によれば、3つの投写表示ユニットの各々を必要なときにだけ動作させることで省エネを実現することができる。また、作業支援のための情報が見えなくなる状況を防いで作業支援を良好に行うことができる。
 また、HUD10によれば、3つの投写表示ユニットを用いて広範囲に渡って虚像を視認可能とすることができるため、半透明球面反射鏡を用いて1つの投写表示ユニットで広範囲にて虚像を視認可能にする構成と比較して、HUD10の製造コスト増大を防ぐことができる。
 また、HUD10によれば、ウインドシールド5の広範囲に画像光を投写させることができるため、操作対象となるバケット等の動きに合わせて操作者の縦方向における視線移動が大きくなっても、操作者に十分な作業支援を行うことができる。
 以上の説明では、ウインドシールド5に設定される投写範囲を3つとしたが、この投写範囲は複数であればよい。例えば、HUD10においてユニット4を削除した構成としてもよい。
 また、以上の説明では、ウインドシールド5に設定される複数の投写範囲を重力方向(縦方向)に並べるものとしたが、ウインドシールド5に設定される複数の投写範囲を重力方向と直交する方向(横方向)に並べてもよい。この場合、建設機械100の運転室内には、各投写範囲に画像光を投写するユニットを横方向で離間して設ける構成とすればよい。
 また、以上の説明では、ユニット2内に物体位置検知部70及びメイン制御部80が設けられているが、物体位置検知部70及びメイン制御部80を含む制御ユニットを別体として有し、この制御ユニットが、ユニット2~4のシステム制御部を統括制御する構成としてもよい。
 さらに、以上の説明では、ユニット2~4がいずれも虚像を視認可能な条件で画像光を投写するものとしたが、ユニット2~4の少なくとも1つが実像を視認可能な条件で画像光を投写するものとしてもよい。
 図9は、図1に示す建設機械100の変形例である建設機械100Aの概略構成を示す模式図である。図9において図1と同じ構成には同一符号を付して説明を省略する。
 図9に示す建設機械100Aは、建設機械100の構成に加えて、建設機械100の操作者上方に撮像素子により被写体を撮像する撮像部110を備えている。また、HUD10がHUD10Aに変更されている。HUD10Aは、HUD10においてユニット2をユニット2Aに変更したものとなっている。
 撮像部110は、ウインドシールド5の範囲5Dを含む範囲を撮像する。撮像部110は、HUD10Aを構成するユニット2Aと無線又は有線により接続されており、被写体を撮像することで得られた撮像画像データをユニット2Aに転送する。
 図10は、図9に示す建設機械100Aに搭載されるHUD10Aのユニット2Aの内部構成を示す模式図である。図10において図3と同じ構成には同一符号を付してある。ユニット2Aは、メイン制御部80をメイン制御部80Aに変更し、物体位置検知部70を物体位置検知部70Aに変更したものである。
 物体位置検知部70Aは、第一の物体として建設機械100の可動部(バケット22)の位置を検知し、第二の物体として、この可動部以外の物体(例えば人物や障害物等)の位置を検知する。
 物体位置検知部70Aは、撮像部110で撮像された撮像画像データを取得し、取得した撮像画像データに基づいて、公知の画像認識処理により、第一の物体の位置と第二の物体の位置を検知する。
 メイン制御部80Aは、HUD10のメイン制御部80の機能に加え、次の機能を有する。すなわち、メイン制御部80は、投写オフ状態に制御している投写表示ユニットによる画像光の投写範囲に第二の物体が入っていると判定した場合には、その投写表示ユニットを投写オン状態に制御する。
 次に、図11を参照して、投写オフ状態に制御している投写表示ユニットによる画像光の投写範囲で第二の物体が検知された場合の処理例を説明する。
 図11は、HUD10Aによる範囲5Dの状態遷移の例を説明するための模式図である。
 範囲5Dは、図6と同じであり、隣り合う第一の投写範囲5Aと第二の投写範囲5Bとの端部同士が重なっており、隣り合う第二の投写範囲5Bと第三の投写範囲5Cとの端部同士が重なっている。
 図11において、第一の投写範囲5Aと第二の投写範囲5Bとが重っている範囲及び第二の投写範囲5Bと第三の投写範囲5Cとが重なっている範囲を、それぞれ重複範囲dとしている。
 状態D1においては、バケット22全体が第一の投写範囲5Aにあり、かつ、バケット22が重複範囲d外にあるため、第一の投写範囲5Aに対応する投写表示ユニットのみが投写オン状態に制御される。
 この状態D1から状態D2に遷移し、物体位置検知部70Aにより、バケット22以外の物体200が検知される。物体200が検知されると、メイン制御部80Aは、物体200の少なくとも一部が、投写オフ状態に制御している投写表示ユニットに対応する第二の投写範囲5Bと第三の投写範囲5Cのいずれかに入っているか否かを判定する。
 状態D2では、物体200が第三の投写範囲5Cに入っているため、メイン制御部80Aは、物体200の少なくとも一部が第三の投写範囲5Cに入っていると判定し、第三の投写範囲5Cに対応する投写表示ユニットを投写オン状態に制御する。また、メイン制御部80Aは、検知された物体200の内容に応じて操作者に通知すべき情報(例えば物体200が人物であれば、危険を警告するアイコン等)を含む投写用画像データを生成し、これをユニット4のシステム制御部62に送信する。
 これにより、ユニット4からこの投写用画像データに基づく画像光が第三の投写範囲5Cに投写され、第三の投写範囲5Cの物体200近傍にて、警告アイコン210が虚像として表示される(状態D3)。
 以上のように、HUD10Aによれば、投写オフ状態に制御している投写表示ユニットであっても、この投写表示ユニットに対応する投写範囲に物体が検知された場合には、この投写表示ユニットを動作させることができる。このため、操作者は、バケット22以外の人物や障害物等を容易に認識することができる。また、警告アイコン210によって物体による危険等を操作者に認識させることができ、省エネを図りながら、的確な作業支援が可能となる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
 開示された投写型表示装置は、光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを有する投写型表示装置であって、上記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲と重複しており、上記投写面前方の物体の上記投写面における位置を検知する物体位置検知部と、上記複数の投写表示ユニットの各々について、上記画像光を投写させる第一の状態と上記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御部と、を備え、上記ユニット制御部は、上記物体位置検知部により検知された第一の物体の上記一方向での位置に基づいて、上記複数の投写表示ユニットの各々を上記第一の状態と上記第二の状態のいずれかに制御するものである。
 開示された投写型表示装置は、上記ユニット制御部は、上記複数の投写表示ユニットの各々による画像光の投写範囲のうちの任意の投写範囲である第一の投写範囲と上記物体位置検知部により検知された第一の物体の全体とが重なる状態において、上記第一の投写範囲における上記第一の物体の上記一方向の位置に基づき、第一の制御と第二の制御のいずれかを選択的に行い、上記第一の制御は、上記第一の投写範囲に画像光を投写可能な第一の投写表示ユニットを上記第一の状態に制御し、上記第一の投写表示ユニット以外の投写表示ユニットを上記第二の状態に制御するものであり、上記第二の制御は、上記第一の投写表示ユニット及び上記第一の投写範囲の隣の投写範囲に画像光を投写可能な第二の投写表示ユニットを上記第一の状態に制御し、上記第一の投写表示ユニット及び上記第二の投写表示ユニット以外の投写表示ユニットを上記第二の状態に制御するものとすることができる。
 開示された投写型表示装置は、上記ユニット制御部は、上記第一の投写範囲における上記一方向の端から予め決められた距離までの範囲と上記第一の物体とが重なる場合には、上記第一の投写範囲の上記第一の物体に近い側隣にある投写範囲に画像光を投写可能な投写表示ユニットを上記第二の投写表示ユニットとして上記第二の制御を行い、上記第一の物体が上記範囲の外側にある場合には上記第一の制御を行うものとすることができる。
 開示された投写型表示装置は、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲の上記一方向の一端と接しているものとすることができる。
 開示された投写型表示装置は、上記一方向において隣り合う2つの投写範囲は上記一方向において端部同士が重なっているものとすることができる。
 開示された投写型表示装置は、上記ユニット制御部は、上記物体位置検知部により上記第一の物体とは異なる第二の物体の位置が検知され、上記第二の状態に制御している投写表示ユニットによる画像光の投写範囲に上記第二の物体が入っている場合には、その投写表示ユニットを上記第一の状態に制御するものとすることができる。
 開示された投写型表示装置は、上記物体位置検知部は、撮像素子により上記投写面を撮像して得られる撮像画像データに基づいて物体の位置を検知するものとすることができる。
 開示された投写型表示装置は、上記一方向は重力方向であるものとすることができる。
 開示された投写型表示装置は、上記乗り物は建設機械とすることができる。
 上記建設機械は、上記一方向に移動可能な可動部により建設作業を行うものであり、開示された投写型表示装置の上記物体位置検知部は、上記第一の物体の位置として上記可動部の位置を検知するものとすることができる。
 開示された投写型表示装置は、上記可動部は、バケットであるものとすることができる。
 開示された投写制御方法は、光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを用いた投写制御方法であって、上記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲と重複しており、上記投写面前方の物体の上記投写面における位置を検知する物体位置検知ステップと、上記複数の投写表示ユニットの各々について、上記画像光を投写させる第一の状態と上記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御ステップと、を備え、上記ユニット制御ステップでは、上記物体位置検知ステップにより検知された第一の物体の上記一方向での位置に基づいて、上記複数の投写表示ユニットの各々を上記第一の状態と上記第二の状態のいずれかに制御するものである。
 開示された投写制御方法は、上記ユニット制御ステップは、上記複数の投写表示ユニットの各々による画像光の投写範囲のうちの任意の投写範囲である第一の投写範囲と上記物体位置検知ステップにより検知された第一の物体の全体とが重なる状態において、上記第一の投写範囲における上記第一の物体の上記一方向の位置に基づき、第一の制御と第二の制御のいずれかを選択的に行い、上記第一の制御は、上記第一の投写範囲に画像光を投写可能な第一の投写表示ユニットを上記第一の状態に制御し、上記第一の投写表示ユニット以外の投写表示ユニットを上記第二の状態に制御するものであり、上記第二の制御は、上記第一の投写表示ユニット及び上記第一の投写範囲の隣の投写範囲のうちの一方の投写範囲に画像光を投写可能な第二の投写表示ユニットを上記第一の状態に制御し上記第一の投写表示ユニット及び上記第二の投写表示ユニット以外の投写表示ユニットを上記第二の状態に制御するものとすることができる。
 開示された投写制御方法は、上記ユニット制御ステップは、上記第一の投写範囲における上記一方向の端から予め決められた距離までの範囲と上記第一の物体とが重なる場合には、上記第一の投写範囲の上記第一の物体に近い側隣にある投写範囲に画像光を投写可能な投写表示ユニットを上記第二の投写表示ユニットとして上記第二の制御を行い、上記第一の物体が上記範囲の外側にある場合には上記第一の制御を行うものとすることができる。
 開示された投写制御方法は、上記一方向において隣り合う2つの投写範囲の一方の投写範囲における上記一方向の一端は上記2つの投写範囲の他方の投写範囲の上記一方向の一端と接しているものとすることができる。
 開示された投写制御方法は、上記一方向において隣り合う2つの投写範囲は上記一方向において端部同士が重なっているものとすることができる。
 開示された投写制御方法は、上記ユニット制御ステップは、上記物体位置検知ステップにより上記第一の物体とは異なる第二の物体の位置が検知され、上記第二の状態に制御している投写表示ユニットによる画像光の投写範囲に上記第二の物体が入っている場合には、その投写表示ユニットを上記第一の状態に制御するものとすることができる。
 開示された投写制御方法は、上記物体位置検知ステップは、撮像素子により上記投写面を撮像して得られる撮像画像データに基づいて物体の位置を検知するものとすることができる。
 開示された投写制御方法は、上記一方向は重力方向であるものとすることができる。
 開示された投写制御方法は、上記乗り物は建設機械であるものとすることができる。
 開示された投写制御方法は、上記建設機械は、上記一方向に移動可能な可動部により建設作業を行うものであり、上記物体位置検知ステップは、上記第一の物体の位置として上記可動部の位置を検知するものとすることができる。
 開示された投写制御方法は、上記可動部は、バケットであるものとすることができる。
 本発明は、特に、建設機械や農作機械等の作業用機械に適用して利便性が高く、有効である。
2,3,4 ユニット
5 ウインドシールド
10,10A HUD
40 光源ユニット
45 駆動部
60,61,62 システム制御部
70 物体位置検知部
80 メイン制御部
100,100A 建設機械

Claims (22)

  1.  光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを有する投写型表示装置であって、
     前記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、前記一方向において隣り合う2つの投写範囲の一方の投写範囲における前記一方向の一端は前記2つの投写範囲の他方の投写範囲と重複しており、
     前記投写面前方の物体の前記投写面における位置を検知する物体位置検知部と、
     前記複数の投写表示ユニットの各々について、前記画像光を投写させる第一の状態と前記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御部と、を備え、
     前記ユニット制御部は、前記物体位置検知部により検知された第一の物体の前記一方向での位置に基づいて、前記複数の投写表示ユニットの各々を前記第一の状態と前記第二の状態のいずれかに制御する投写型表示装置。
  2.  請求項1記載の投写型表示装置であって、
     前記ユニット制御部は、前記複数の投写表示ユニットの各々による画像光の投写範囲のうちの任意の投写範囲である第一の投写範囲と前記物体位置検知部により検知された第一の物体の全体とが重なる状態において、前記第一の投写範囲における前記第一の物体の前記一方向の位置に基づき、第一の制御と第二の制御のいずれかを選択的に行い、
     前記第一の制御は、前記第一の投写範囲に画像光を投写可能な第一の投写表示ユニットを前記第一の状態に制御し、前記第一の投写表示ユニット以外の投写表示ユニットを前記第二の状態に制御するものであり
     前記第二の制御は、前記第一の投写表示ユニット及び前記第一の投写範囲の隣の投写範囲に画像光を投写可能な第二の投写表示ユニットを前記第一の状態に制御し、前記第一の投写表示ユニット及び前記第二の投写表示ユニット以外の投写表示ユニットを前記第二の状態に制御するものである投写型表示装置。
  3.  請求項2記載の投写型表示装置であって、
     前記ユニット制御部は、前記第一の投写範囲における前記一方向の端から予め決められた距離までの範囲と前記第一の物体とが重なる場合には、前記第一の投写範囲の前記第一の物体に近い側の隣にある投写範囲に画像光を投写可能な投写表示ユニットを前記第二の投写表示ユニットとして前記第二の制御を行い、前記第一の物体が前記範囲の外側にある場合には前記第一の制御を行う投写型表示装置。
  4.  請求項1~3のいずれか1項記載の投写型表示装置であって、
     前記一方向において隣り合う2つの投写範囲の一方の投写範囲における前記一方向の一端は前記2つの投写範囲の他方の投写範囲の前記一方向の一端と接している投写型表示装置。
  5.  請求項1~3のいずれか1項記載の投写型表示装置であって、
     前記一方向において隣り合う2つの投写範囲は前記一方向において端部同士が重なっている投写型表示装置。
  6.  請求項1~5のいずれか1項記載の投写型表示装置であって、
     前記ユニット制御部は、前記物体位置検知部により前記第一の物体とは異なる第二の物体の位置が検知され、前記第二の状態に制御している投写表示ユニットによる画像光の投写範囲に前記第二の物体が入っている場合には、当該投写表示ユニットを前記第一の状態に制御する投写型表示装置。
  7.  請求項6記載の投写型表示装置であって、
     前記物体位置検知部は、撮像素子により前記投写面を撮像して得られる撮像画像データに基づいて物体の位置を検知する投写型表示装置。
  8.  請求項1~7のいずれか1項記載の投写型表示装置であって、
     前記一方向は重力方向である投写型表示装置。
  9.  請求項1~8のいずれか1項記載の投写型表示装置であって、
     前記乗り物は建設機械である投写型表示装置。
  10.  請求項9記載の投写型表示装置であって、
     前記建設機械は、前記一方向に移動可能な可動部により建設作業を行うものであり、
     前記物体位置検知部は、前記第一の物体の位置として前記可動部の位置を検知する投写型表示装置。
  11.  請求項10記載の投写型表示装置であって、
     前記可動部は、バケットである投写型表示装置。
  12.  光源から出射される光を画像情報に基づいて空間変調し、空間変調された画像光を乗り物の投写面に投写可能な複数の投写表示ユニットを用いた投写制御方法であって、
     前記複数の投写表示ユニットの各々による画像光の投写範囲は一方向に並び、かつ、前記一方向において隣り合う2つの投写範囲の一方の投写範囲における前記一方向の一端は前記2つの投写範囲の他方の投写範囲と重複しており、
     前記投写面前方の物体の前記投写面における位置を検知する物体位置検知ステップと、
     前記複数の投写表示ユニットの各々について、前記画像光を投写させる第一の状態と前記画像光の投写を停止する第二の状態とのいずれかの状態に制御するユニット制御ステップと、を備え、
     前記ユニット制御ステップでは、前記物体位置検知ステップにより検知された第一の物体の前記一方向での位置に基づいて、前記複数の投写表示ユニットの各々を前記第一の状態と前記第二の状態のいずれかに制御する投写制御方法。
  13.  請求項12記載の投写制御方法であって、
     前記ユニット制御ステップは、前記複数の投写表示ユニットの各々による画像光の投写範囲のうちの任意の投写範囲である第一の投写範囲と前記物体位置検知ステップにより検知された第一の物体の全体とが重なる状態において、前記第一の投写範囲における前記第一の物体の前記一方向の位置に基づき、第一の制御と第二の制御のいずれかを選択的に行い、
     前記第一の制御は、前記第一の投写範囲に画像光を投写可能な第一の投写表示ユニットを前記第一の状態に制御し、前記第一の投写表示ユニット以外の投写表示ユニットを前記第二の状態に制御するものであり、
     前記第二の制御は、前記第一の投写表示ユニット及び前記第一の投写範囲の隣の投写範囲のうちの一方の投写範囲に画像光を投写可能な第二の投写表示ユニットを前記第一の状態に制御し前記第一の投写表示ユニット及び前記第二の投写表示ユニット以外の投写表示ユニットを前記第二の状態に制御するものである投写制御方法。
  14.  請求項13記載の投写制御方法であって、
     前記ユニット制御ステップは、前記第一の投写範囲における前記一方向の端から予め決められた距離までの範囲と前記第一の物体とが重なる場合には、前記第一の投写範囲の前記第一の物体に近い側隣にある投写範囲に画像光を投写可能な投写表示ユニットを前記第二の投写表示ユニットとして前記第二の制御を行い、前記第一の物体が前記範囲の外側にある場合には前記第一の制御を行う投写制御方法。
  15.  請求項12~14のいずれか1項記載の投写制御方法であって、
     前記一方向において隣り合う2つの投写範囲の一方の投写範囲における前記一方向の一端は前記2つの投写範囲の他方の投写範囲の前記一方向の一端と接している投写制御方法。
  16.  請求項12~14のいずれか1項記載の投写制御方法であって、
     前記一方向において隣り合う2つの投写範囲は前記一方向において端部同士が重なっている投写制御方法。
  17.  請求項12~16のいずれか1項記載の投写制御方法であって、
     前記ユニット制御ステップは、前記物体位置検知ステップにより前記第一の物体とは異なる第二の物体の位置が検知され、前記第二の状態に制御している投写表示ユニットによる画像光の投写範囲に前記第二の物体が入っている場合には、当該投写表示ユニットを前記第一の状態に制御する投写制御方法。
  18.  請求項17記載の投写制御方法であって、
     前記物体位置検知ステップは、撮像素子により前記投写面を撮像して得られる撮像画像データに基づいて物体の位置を検知する投写制御方法。
  19.  請求項12~18のいずれか1項記載の投写制御方法であって、
     前記一方向は重力方向である投写制御方法。
  20.  請求項12~19のいずれか1項記載の投写制御方法であって、
     前記乗り物は建設機械である投写制御方法。
  21.  請求項20記載の投写制御方法であって、
     前記建設機械は、前記一方向に移動可能な可動部により建設作業を行うものであり、
     前記物体位置検知ステップは、前記第一の物体の位置として前記可動部の位置を検知する投写制御方法。
  22.  請求項21記載の投写制御方法であって、
     前記可動部は、バケットである投写制御方法。
PCT/JP2016/074840 2015-09-25 2016-08-25 投写型表示装置及び投写制御方法 WO2017051655A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680053527.8A CN108027515A (zh) 2015-09-25 2016-08-25 投影型显示装置及投影控制方法
JP2017541486A JP6236577B2 (ja) 2015-09-25 2016-08-25 投写型表示装置及び投写制御方法
US15/910,009 US20180187397A1 (en) 2015-09-25 2018-03-02 Projection type display device and projection control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015188458 2015-09-25
JP2015-188458 2015-09-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/910,009 Continuation US20180187397A1 (en) 2015-09-25 2018-03-02 Projection type display device and projection control method

Publications (1)

Publication Number Publication Date
WO2017051655A1 true WO2017051655A1 (ja) 2017-03-30

Family

ID=58385924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074840 WO2017051655A1 (ja) 2015-09-25 2016-08-25 投写型表示装置及び投写制御方法

Country Status (4)

Country Link
US (1) US20180187397A1 (ja)
JP (1) JP6236577B2 (ja)
CN (1) CN108027515A (ja)
WO (1) WO2017051655A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021587A1 (ja) * 2017-07-26 2019-01-31 富士フイルム株式会社 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
JP2020143559A (ja) * 2019-03-08 2020-09-10 日立建機株式会社 作業機械

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111752046B (zh) * 2015-10-15 2023-06-02 麦克赛尔株式会社 平视显示装置
JP6813268B2 (ja) * 2016-02-16 2021-01-13 株式会社小松製作所 作業車両
EP3584120B1 (en) * 2017-02-17 2021-04-14 Sumitomo Heavy Industries, Ltd. Work machine surroundings monitoring system
EP3974284A1 (de) * 2020-09-29 2022-03-30 Siemens Mobility GmbH Verfahren zum darstellen einer augmented reality und vorrichtungen zur anwendung des verfahrens

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356294A (ja) * 2000-04-05 2001-12-26 Mannesmann Vdo Ag カラーヘッドアップディスプレイ
JP2002019491A (ja) * 2000-07-11 2002-01-23 Mazda Motor Corp 車両の表示装置
JP2008055942A (ja) * 2006-08-29 2008-03-13 Hino Motors Ltd 夜間前方情報提供装置
JP2009173195A (ja) * 2008-01-25 2009-08-06 Sumitomo (Shi) Construction Machinery Manufacturing Co Ltd 建設機械用表示システム
JP2011180178A (ja) * 2010-02-26 2011-09-15 Equos Research Co Ltd ヘッドアップディスプレイ装置
JP2012030752A (ja) * 2010-08-02 2012-02-16 Denso Corp 車両用表示装置
WO2014103498A1 (ja) * 2012-12-28 2014-07-03 株式会社小松製作所 建設機械の表示システムおよびその制御方法
JP2015134521A (ja) * 2014-01-16 2015-07-27 三菱電機株式会社 車両情報表示制御装置
JP2016074410A (ja) * 2014-10-07 2016-05-12 株式会社デンソー ヘッドアップディスプレイ装置、ヘッドアップディスプレイ表示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952312B2 (en) * 2002-12-31 2005-10-04 3M Innovative Properties Company Head-up display with polarized light source and wide-angle p-polarization reflective polarizer
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
DE102012221310B4 (de) * 2012-11-22 2019-09-19 Sypro Optics Gmbh Anzeigeanordnung für ein Kraftfahrzeug, mit einem Bildgeber und einem Bildtrenner
WO2015060193A1 (ja) * 2013-10-22 2015-04-30 日本精機株式会社 車両情報投影システム及び投影装置
US20170357099A1 (en) * 2014-11-05 2017-12-14 Apple Inc. Overlay Display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356294A (ja) * 2000-04-05 2001-12-26 Mannesmann Vdo Ag カラーヘッドアップディスプレイ
JP2002019491A (ja) * 2000-07-11 2002-01-23 Mazda Motor Corp 車両の表示装置
JP2008055942A (ja) * 2006-08-29 2008-03-13 Hino Motors Ltd 夜間前方情報提供装置
JP2009173195A (ja) * 2008-01-25 2009-08-06 Sumitomo (Shi) Construction Machinery Manufacturing Co Ltd 建設機械用表示システム
JP2011180178A (ja) * 2010-02-26 2011-09-15 Equos Research Co Ltd ヘッドアップディスプレイ装置
JP2012030752A (ja) * 2010-08-02 2012-02-16 Denso Corp 車両用表示装置
WO2014103498A1 (ja) * 2012-12-28 2014-07-03 株式会社小松製作所 建設機械の表示システムおよびその制御方法
JP2015134521A (ja) * 2014-01-16 2015-07-27 三菱電機株式会社 車両情報表示制御装置
JP2016074410A (ja) * 2014-10-07 2016-05-12 株式会社デンソー ヘッドアップディスプレイ装置、ヘッドアップディスプレイ表示方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021587A1 (ja) * 2017-07-26 2019-01-31 富士フイルム株式会社 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
JP2020143559A (ja) * 2019-03-08 2020-09-10 日立建機株式会社 作業機械
WO2020183829A1 (ja) * 2019-03-08 2020-09-17 日立建機株式会社 作業機械
CN112639216A (zh) * 2019-03-08 2021-04-09 日立建机株式会社 作业机械
JP7012038B2 (ja) 2019-03-08 2022-01-27 日立建機株式会社 作業機械
CN112639216B (zh) * 2019-03-08 2022-12-16 日立建机株式会社 作业机械
US11952750B2 (en) 2019-03-08 2024-04-09 Hitachi Construction Machinery Co., Ltd. Work machine

Also Published As

Publication number Publication date
CN108027515A (zh) 2018-05-11
US20180187397A1 (en) 2018-07-05
JP6236577B2 (ja) 2017-11-22
JPWO2017051655A1 (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
JP6236577B2 (ja) 投写型表示装置及び投写制御方法
US10732408B2 (en) Projection type display device and projection display method
JP6271818B2 (ja) 投写型表示装置及び投写制御方法
JP6630855B2 (ja) 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム
US10412354B2 (en) Projection type display device and projection control method
US10336192B2 (en) Projection type display device and operation assistance method
JP6271819B2 (ja) 投写型表示装置及び投写制御方法
US10746988B2 (en) Projection display device, projection control method, and non-transitory computer readable medium storing projection control program
JP6432002B2 (ja) 投写型表示装置、投写制御方法、投写制御プログラム
WO2017033569A1 (ja) 投写型表示装置
WO2018056058A1 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
US20180178650A1 (en) Projection type display device and projection control method
JP6446595B2 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
WO2018225309A1 (ja) 虚像表示装置、中間像形成部および画像表示光生成ユニット
WO2018110045A1 (ja) 投写型表示装置、投写型表示装置の制御方法及び制御プログラム
JP2017116625A (ja) ヘッドアップディスプレイ装置、及び制御方法
JP2017116626A (ja) ヘッドアップディスプレイ装置、及び制御方法
JP2020148950A (ja) ヘッドアップディスプレイ装置
JP6927159B2 (ja) ヘッドアップディスプレイ装置
JP2017116627A (ja) ヘッドアップディスプレイ装置、及び制御方法
JP2017159745A (ja) 画像表示装置、画像表示方法及びプログラム
JP2020064126A (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16848443

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017541486

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16848443

Country of ref document: EP

Kind code of ref document: A1