WO2018225281A1 - 提示装置 - Google Patents

提示装置 Download PDF

Info

Publication number
WO2018225281A1
WO2018225281A1 PCT/JP2017/036977 JP2017036977W WO2018225281A1 WO 2018225281 A1 WO2018225281 A1 WO 2018225281A1 JP 2017036977 W JP2017036977 W JP 2017036977W WO 2018225281 A1 WO2018225281 A1 WO 2018225281A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
behavior
projection pattern
unit
irradiation
Prior art date
Application number
PCT/JP2017/036977
Other languages
English (en)
French (fr)
Inventor
敬 春日
松原 勉
礼子 坂田
新作 福▲高▼
隆明 加瀬
寛 矢野
竜太郎 森園
実行 渡辺
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112017007499.1T priority Critical patent/DE112017007499B4/de
Priority to US16/613,004 priority patent/US11518300B2/en
Priority to CN201780091340.1A priority patent/CN110691716B/zh
Publication of WO2018225281A1 publication Critical patent/WO2018225281A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/415Inclination sensors
    • B62J45/4152Inclination sensors for sensing longitudinal inclination of the cycle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J6/00Arrangement of optical signalling or lighting devices on cycles; Mounting or supporting thereof; Circuits therefor
    • B62J6/22Warning or information lights
    • B62J6/26Warning or information lights warning or informing other road users, e.g. police flash lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K11/00Motorcycles, engine-assisted cycles or motor scooters with one or two wheels
    • B62K11/007Automatic balancing machines with single main ground engaging wheel or coaxial wheels supporting a rider
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Definitions

  • the present invention relates to a presentation device that irradiates a projection pattern according to the behavior of a vehicle.
  • the autonomous mobile device described in Patent Literature 1 includes a monitor that displays the current attention point forward in the traveling direction. A person located on the movement path of the autonomous mobile device can recognize the movement direction of the autonomous mobile device based on the attention point displayed on the display means.
  • Patent Document 1 In the conventional technology represented by Patent Document 1, there is a problem that the behavior of the vehicle cannot be grasped unless a person located around the vehicle is gazing at the display means of the vehicle. If the warning sound is used, the behavior of the vehicle can be grasped even if a person around the vehicle is not gazing at the vehicle. However, as described above, the warning sound is a noise other than the warning target person.
  • This invention solves the said subject, and it aims at obtaining the presentation apparatus which can grasp
  • a presentation device irradiates an estimation unit that estimates a vehicle behavior, an irradiation unit that irradiates a projection pattern toward the ground around the vehicle, and a projection pattern that corresponds to the vehicle behavior estimated by the estimation unit. And a control unit that controls the irradiation unit.
  • the projection pattern corresponding to the behavior of the vehicle is emitted toward the ground around the vehicle, it is possible to grasp the behavior of the vehicle without generating noise and gazing at the vehicle. .
  • FIG. 4A is a block diagram illustrating a hardware configuration that implements the functions of the presentation device according to Embodiment 1.
  • FIG. 4B is a block diagram illustrating a hardware configuration for executing software that implements the functions of the presentation device according to Embodiment 1.
  • 4 is a flowchart illustrating an operation of the presentation device according to the first embodiment.
  • FIG. 6 is a diagram illustrating an irradiation example of a projection pattern in the first embodiment.
  • FIG. 6 is a diagram illustrating an irradiation example of another projection pattern according to Embodiment 1.
  • FIG. It is a block diagram which shows another structure of the vehicle control system provided with the presentation apparatus which concerns on Embodiment 1.
  • It is a block diagram which shows the structure of the vehicle control system provided with the presentation apparatus which concerns on Embodiment 2 of this invention.
  • 10 is a flowchart illustrating an operation of the presentation device according to the second embodiment.
  • FIG. 10 is a diagram illustrating an irradiation example of a projection pattern in the second embodiment.
  • 10 is a flowchart illustrating an operation of a vehicle control system including a presentation device according to Embodiment 3.
  • FIG. 10 is a diagram illustrating an irradiation example
  • FIG. 1 is a main part plan view showing a vehicle control system provided with a presentation device according to Embodiment 1 of the present invention.
  • FIG. 2 is a side view of an essential part showing the vehicle control system including the presentation device according to the first embodiment.
  • the vehicle 1 is a vehicle that autonomously travels toward a preset point, and includes driving wheels 2a and 2b and driven wheels 3a and 3b.
  • the driving wheels 2a and 2b are driven to rotate by receiving a driving force from an electric motor (not shown).
  • the vehicle 1 travels in an arbitrary direction by controlling the driving wheels 2a and 2b independently of each other.
  • the driven wheels 3a and 3b are supported on the lower part of the vehicle so as to be rotatable around a vertical axis so as not to hinder the turning operation of the drive wheels 2a and 2b.
  • the pattern irradiation units 4a to 4d are irradiation units that irradiate the projection pattern toward the ground G.
  • the pattern irradiation units 4a to 4d are configured using a projection lamp or a laser.
  • the projection pattern is a pattern of visible light applied to the ground around the vehicle 1, and is realized by, for example, a graphic pattern having an arbitrary shape, a character pattern, or a combination thereof.
  • the pattern irradiation unit 4 a irradiates the projection pattern onto the right side ground G of the vehicle 1
  • the pattern irradiation unit 4 b irradiates the left side ground G of the vehicle 1 with the projection pattern.
  • the external sensor 5 is a sensor that detects a situation around the vehicle, and is, for example, a camera that detects a three-dimensional shape around the vehicle or captures an image around the vehicle. An obstacle in front of the traveling vehicle 1 is detected by the external sensor 5.
  • FIG. 3 is a block diagram illustrating a configuration of a vehicle control system including the presentation device A according to the first embodiment.
  • the vehicle control system shown in FIG. 3 includes an external sensor 5, a travel route setting unit 6, an input unit 7, a travel control unit 8, an internal sensor 9 and a presentation device A.
  • the travel route setting unit 6 sets a route on which the vehicle 1 travels. For example, the travel route setting unit 6 passes the relay point to the destination point while avoiding the obstacle based on the relay point, the destination point, the position of the known obstacle and the map information received by the input unit 7. The route to reach is calculated.
  • the travel control unit 8 controls the rotational drive of the drive wheels 2 a and 2 b so that the vehicle 1 travels along the route set by the travel route setting unit 6.
  • the inner world sensor 9 is a sensor that detects the behavior of the vehicle 1 and detects, for example, the traveling speed, acceleration, angular velocity, and inclination angle of the vehicle 1.
  • the presentation device A includes pattern irradiation units 4a to 4d, a vehicle behavior estimation unit 10, and an irradiation control unit 11.
  • the vehicle behavior estimation unit 10 is an estimation unit that estimates the behavior of the vehicle 1, and is at least one of control information of the vehicle 1 by the travel control unit 8, detection information of the external sensor 5, and detection information of the internal sensor 9.
  • the behavior of the vehicle 1 is estimated based on the above. Examples of the behavior of the vehicle 1 include a collision of the vehicle 1 with an obstacle, a tilt of the vehicle 1, a fall due to acceleration / deceleration of the vehicle 1, a slip, a side slip, and a slip.
  • the irradiation control unit 11 is a control unit that controls the pattern irradiation units 4a to 4d so as to irradiate the projection pattern according to the behavior estimated by the vehicle behavior estimation unit 10.
  • FIG. 4A is a block diagram showing a hardware configuration for realizing the function of the presentation device A.
  • the processing circuit 100 is connected to the light emitting device 101.
  • FIG. 4B is a block diagram illustrating a hardware configuration for executing software that implements the functions of the presentation device A.
  • the processor 102 and the memory 103 are connected to the light emitting device 101.
  • the pattern irradiation units 4a to 4d of the presentation device A are light emitting devices 101, for example, projection lamps or lasers.
  • the presentation apparatus A includes a processing circuit for executing the processes from step ST1 to step ST8 shown in FIG.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.
  • the processing circuit 100 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (FPGA). Field-Programmable Gate Array) or a combination thereof.
  • the functions of the vehicle behavior estimation unit 10 and the irradiation control unit 11 may be realized by separate processing circuits, or these functions may be realized by a single processing circuit.
  • the processing circuit is the processor 102 shown in FIG. 4B
  • the functions of the vehicle behavior estimation unit 10 and the irradiation control unit 11 are realized by software, firmware, or a combination of software and firmware.
  • Software or firmware is described as a program and stored in the memory 103.
  • the processor 102 implements the functions of the respective units by reading and executing the program stored in the memory 103. That is, the presentation apparatus A includes a memory 103 for storing a program that, when executed by the processor 102, results from the processing from step ST1 to step ST8 shown in FIG.
  • These programs cause a computer to execute the procedures or methods of the vehicle behavior estimation unit 10 and the irradiation control unit 11.
  • the memory 103 may be, for example, a nonvolatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-EPROM), or a volatile memory.
  • a nonvolatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-EPROM), or a volatile memory.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically-EPROM
  • Magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs, and the like are applicable.
  • a part of each function of the vehicle behavior estimation unit 10 and the irradiation control unit 11 may be realized by dedicated hardware, and a part may be realized by software or firmware.
  • the processing circuit 100 as dedicated hardware realizes its function, and for the irradiation control unit 11, the processor 102 reads and executes a program stored in the memory 103. That function may be realized.
  • the processing circuit can realize each of the above functions by hardware, software, firmware, or a combination thereof.
  • FIG. 5 is a flowchart showing the operation of the presentation apparatus A, and shows a specific example of the projection pattern irradiation process.
  • the input unit 7 receives information necessary for calculating the travel route
  • the travel route setting unit 6 calculates the travel route based on the information received by the input unit 7, and travel control is performed. It is assumed that the unit 8 is driving the vehicle 1 according to the travel route.
  • the vehicle behavior estimation unit 10 acquires information on the inside and outside of the vehicle detected by the outside sensor 5 and the inside sensor 9 (step ST1).
  • Information on the inside and outside of the vehicle is also output from the external sensor 5 and the internal sensor 9 to the travel controller 8.
  • the traveling control unit 8 avoids a collision of the vehicle 1 with an obstacle, a tilt of the vehicle 1, a fall, a slip, a skid, a slip, etc. accompanying the acceleration / deceleration of the vehicle 1 based on information inside and outside the vehicle.
  • the travel of the vehicle 1 is controlled.
  • the vehicle behavior estimation unit 10 estimates the behavior of the vehicle 1 up to an arbitrary time after the current time (hereinafter referred to as future behavior of the vehicle 1) based on information inside and outside the vehicle (step ST2). For example, the vehicle behavior estimation unit 10 estimates a behavior such as acceleration, deceleration, or turning of the vehicle 1 controlled by the traveling control unit 8 as a future behavior of the vehicle 1.
  • the irradiation control unit 11 determines whether or not the future behavior of the vehicle 1 estimated by the vehicle behavior estimation unit 10 is an abnormal behavior such as a fall of the vehicle 1 (step ST3).
  • the abnormal behavior in addition to the fall of the vehicle 1, sliding on the slope of the vehicle 1, skidding, slipping of the drive wheels 2 a and 2 b can be considered.
  • the abnormal behavior of the vehicle 1 is not limited to the exemplified contents, and may be any behavior that may affect the periphery of the vehicle.
  • the irradiation control unit 11 sets the projection pattern corresponding to the future behavior of the vehicle 1 to the pattern irradiation units 4a to 4d (step ST4). For example, the irradiation control unit 11 selects the projection pattern corresponding to the future behavior of the vehicle 1 estimated by the vehicle behavior estimation unit 10 from the table data in which the behavior content and the projection pattern are associated, and the pattern irradiation units 4a to 4d. Set to. In the table data, information that the first projection pattern corresponds to the fall and the second projection pattern corresponds to the tilt is set, and is stored in a memory (not shown) provided in the presentation device A.
  • the pattern irradiators 4a to 4d irradiate the ground G with the projection pattern set by the irradiation controller 11 (step ST5). Even if the person around the vehicle is not gazing at the vehicle 1, the future behavior of the vehicle 1 can be grasped from the projection pattern irradiated on the ground G.
  • the vehicle behavior estimation unit 10 sequentially acquires information on the inside and outside of the vehicle from the external sensor 5 and the internal sensor 9 and estimates the future behavior of the vehicle 1 each time, thereby changing the future behavior of the vehicle 1. (Step ST6).
  • step ST6 If there is no change in the future behavior of the vehicle 1 (step ST6; NO), the process returns to step ST5 and projection pattern irradiation by the pattern irradiation units 4a to 4d is continued.
  • step ST6 when there is a change in the future behavior of the vehicle 1 (step ST6; YES), the irradiation controller 11 determines whether or not the change in the future behavior of the vehicle 1 has converged (step ST7). For example, when the future behavior estimated in step ST2 further deteriorates, the irradiation control unit 11 determines that the change in the future behavior of the vehicle 1 does not converge. Further, when the future behavior estimated in step ST ⁇ b> 2 is relaxed, the irradiation control unit 11 determines that the change in the future behavior of the vehicle 1 has converged.
  • the irradiation control part 11 When it determines with the change of the future behavior of the vehicle 1 not converging (step ST7; NO), the irradiation control part 11 returns to the process of step ST4, and it is a projection pattern according to the future behavior of the vehicle 1 estimated by step ST6. Are set in the pattern irradiation units 4a to 4d. If it is determined that the change in the future behavior of the vehicle 1 has converged (step ST7; YES), the irradiation control unit 11 controls the pattern irradiation units 4a to 4d so as to end the irradiation of the projection pattern. Thereby, the pattern irradiation units 4a to 4d end the irradiation of the projection pattern (step ST8).
  • the irradiation control unit 11 When the change in the future behavior of the vehicle 1 converges, the irradiation control unit 11 does not change the projection pattern, and continues irradiation of the previous projection pattern by the pattern irradiation units 4a to 4d for a preset time. You may let them.
  • step ST3 when the future behavior of the vehicle 1 is not an abnormal behavior (step ST3; NO), or when the processing of step ST8 is completed, the vehicle behavior estimation unit 10 travels the vehicle 1 based on information inside and outside the vehicle. It is determined whether or not the process ends (step ST9). For example, the vehicle behavior estimation unit 10 determines that the travel of the vehicle 1 is finished when it is estimated that the travel control of the vehicle 1 is finished based on the control information of the vehicle 1 input from the travel control unit 8.
  • step ST9 When it is determined by the vehicle behavior estimation unit 10 that the travel of the vehicle 1 is finished (step ST9; YES), the process of FIG. 5 is finished. When it is not determined by the vehicle behavior estimation unit 10 that the vehicle 1 has finished traveling (step ST9; NO), a series of processes from step ST1 is repeated.
  • FIG. 6 is a diagram illustrating an irradiation example of the projection pattern.
  • the pattern irradiators 4 b and 4 d irradiate the projection pattern 14 to the left ground and the rear ground of the vehicle 1.
  • the contour lines 20a to 20h are contour lines indicating the altitude of the ground, the position of the contour line 20a is the lowest, the position of the contour line 20h is the highest, and the ground becomes higher as going from the contour line 20a to the contour line 20h.
  • the vehicle behavior estimation unit 10 estimates “the vehicle 1 falls to the left rear” as the future behavior of the vehicle 1 based on information inside and outside the vehicle.
  • the irradiation control unit 11 identifies a range around the vehicle that is expected to be affected by the abnormal behavior of the vehicle 1 estimated by the vehicle behavior estimation unit 10, and a projection pattern is applied to the ground in the identified range around the vehicle.
  • the pattern irradiation units 4a to 4d are controlled so as to be irradiated. For example, the irradiation control unit 11 selects a projection pattern in accordance with the future behavior of “the vehicle 1 falls to the left rear”, and further, the left rear range of the vehicle 1 that is expected to be affected by this future behavior. Is selected, and the specified range selects the pattern irradiation units 4b and 4d in the irradiation region.
  • the pattern irradiation unit 4 b irradiates the projection pattern on the ground on the left side of the vehicle 1
  • the pattern irradiation unit 4 d irradiates the projection pattern on the ground behind the vehicle 1.
  • the person 12 can intuitively recognize the danger of the vehicle 1 falling from the projection pattern irradiated on the left side ground of the vehicle 1.
  • the person 13 faces the direction in which the vehicle 1 does not enter the field of view, but can intuitively recognize the danger of the vehicle 1 falling from the projection pattern irradiated on the ground behind the vehicle 1. . As a result, the person 12 and the person 13 can retreat from the periphery of the vehicle 1.
  • FIG. 6 showed about the fall of the vehicle 1 accompanying the altitude change of the ground, it is not limited to this.
  • the projection pattern is similar to the above.
  • the irradiation control unit 11 causes the pattern irradiation unit 4a to change the display pattern of the projection pattern according to this tendency. ⁇ 4d may be controlled.
  • the irradiation control unit 11 determines the blinking speed of the projection pattern when the increase amount of the inclination of the vehicle 1 at the set interval is greater than or equal to a threshold value from the future behavior of the vehicle 1 sequentially estimated by the vehicle behavior estimation unit 10. Change.
  • the irradiation control unit 11 increases the light intensity of the projection pattern in order or changes the color to the attention color in order.
  • the pattern irradiation units 4a to 4d may be controlled. A person in the vicinity of the vehicle 1 can intuitively recognize the danger that the abnormal behavior of the vehicle 1 is affected by such a projection pattern.
  • the irradiation control unit 11 divides the range around the vehicle that is expected to be affected by the abnormal behavior of the vehicle 1 into a plurality of ranges according to the distance from the vehicle 1, and the projection pattern has a plurality of ranges.
  • the pattern irradiation units 4a to 4d may be controlled so as to change continuously in each case.
  • the irradiation control unit 11 irradiates a projection pattern of an acutely shaped figure in a range close to the vehicle 1, and continuously transforms the projection pattern into a rounded figure as the distance from the vehicle 1 increases.
  • a person in the vicinity of the vehicle 1 can intuitively recognize the danger that the abnormal behavior of the vehicle 1 is affected by such a projection pattern.
  • the projection pattern may be a character pattern or a combination of characters and graphics. That is, the display pattern of the projection pattern may be at least one of blinking speed, color, brightness, saturation, intensity, shape, size, addition of character information, and addition of graphic information.
  • FIG. 7 is a diagram showing an example of irradiation with another projection pattern.
  • the pattern irradiation units 4b and 4d irradiate the ground on the left side and the rear ground of the vehicle 1 with the projection patterns 14a to 14d.
  • the projection patterns 14a to 14d are irradiated to a plurality of ranges according to the distance from the vehicle 1.
  • the projection pattern 14a having the highest brightness is irradiated to the range closest to the vehicle 1 and expected to be most affected by the abnormal behavior of the vehicle 1.
  • the projected pattern 14b and the projected pattern 14c whose brightness decreases in order are irradiated, and the range is expected to be the farthest from the vehicle 1 and least susceptible to the abnormal behavior of the vehicle 1. Is irradiated with the projection pattern 14d having the lowest brightness. A person in the vicinity of the vehicle 1 can intuitively recognize whether or not the projection pattern is within a range easily affected by the abnormal behavior of the vehicle 1.
  • the display mode of the projection pattern to be changed is the blinking speed, color, brightness, saturation, intensity, shape, size, addition of character information and addition of graphic information. It may be at least one of them.
  • FIG. 8 is a block diagram illustrating a configuration of a vehicle control system including the presentation device A1, and illustrates the presentation device A1 mounted on the vehicle 1A that is remotely operated by the remote control terminal 22.
  • the vehicle control system shown in FIG. 8 includes an external sensor 5, a travel controller 8, an internal sensor 9, a transmitter / receiver 21, and a presentation device A1.
  • the transmission / reception unit 21 is a component that performs wireless communication or wired communication with the remote control terminal 22 and receives control information from the remote control terminal 22.
  • the remote control terminal 22 transmits control information corresponding to the operation of the operator 23 to the transmission / reception unit 21.
  • the traveling control unit 8 controls the rotational driving of the driving wheels 2a and 2b according to the control information received by the transmission / reception unit 21, so that the vehicle 1A travels.
  • Information outside the vehicle detected by the external sensor 5 is output to the travel control unit 8 and the transmission / reception unit 21.
  • the transmission / reception unit 21 transmits information outside the vehicle input from the external sensor 5 to the remote control terminal 22.
  • the operator 23 can perform remote control of the vehicle 1 ⁇ / b> A while referring to information outside the vehicle received by the remote control terminal 22. For example, when an obstacle is detected in the traveling direction of the vehicle 1A by the external sensor 5, the vehicle 1A can be remotely controlled so as to avoid the detected obstacle.
  • the presentation device A1 includes pattern irradiation units 4a to 4d, a vehicle behavior estimation unit 10A, and an irradiation control unit 11.
  • the vehicle behavior estimation unit 10 ⁇ / b> A is an estimation unit that estimates the behavior of the vehicle 1 ⁇ / b> A.
  • the vehicle behavior estimation unit 10 ⁇ / b> A obtains control information of the vehicle 1 acquired from the travel control unit 8 and information outside the vehicle detected by the external sensor 5 and the internal sensor 9.
  • the behavior of the vehicle 1A is estimated based on at least one of the detected in-vehicle information.
  • the irradiation control unit 11 controls the pattern irradiation units 4a to 4d so as to irradiate the projection pattern corresponding to the behavior of the vehicle 1A estimated by the vehicle behavior estimation unit 10A.
  • the estimation information of the behavior of the vehicle 1A estimated by the vehicle behavior estimation unit 10A is output to the travel control unit 8, and the travel control unit 8 controls the transmission / reception unit 21 to transmit the estimation information of the behavior of the vehicle 1A to the remote control terminal. 22 to send.
  • the operator 23 can perform remote control of the vehicle 1 ⁇ / b> A while referring to the behavior estimation information of the vehicle 1 ⁇ / b> A received by the remote control terminal 22.
  • the vehicle 1 according to the unevenness of the ground The operator can grasp the future behavior such as the inclination of the.
  • a person around the vehicle 1A can intuitively recognize the danger that the abnormal behavior of the vehicle 1A is affected by the projection pattern irradiated on the ground around the vehicle 1A.
  • Each function of the vehicle behavior estimation unit 10A and the irradiation control unit 11 in the presentation device A1 is realized by a processing circuit. That is, the presentation device A1 includes a processing circuit for executing these functions. As shown in FIGS. 4A and 4B, the processing circuit may be dedicated hardware or a processor that executes a program stored in a memory.
  • the presentation devices A and A1 have the vehicle behavior estimation units 10 and 10A that estimate the behavior of the vehicles 1 and 1A and the pattern irradiation that irradiates the projection pattern toward the ground around the vehicle.
  • the vehicle behavior estimation units 10 and 10A are based on the detection information acquired from the internal sensor 9 that detects the behavior of the vehicles 1 and 1A. Estimate abnormal behavior. Furthermore, the vehicle behavior estimation units 10 and 10A estimate the abnormal behavior of the vehicles 1 and 1A based on the detection information acquired from the external sensor 5 that detects the situation around the vehicle. As described above, by using the information inside and outside the vehicle obtained from the inner world sensor 9 and the outer world sensor 5, the vehicle behavior estimation units 10 and 10A can accurately estimate the abnormal behavior of the vehicles 1 and 1A.
  • the irradiation control unit 11 has this tendency when the abnormal behavior of the vehicles 1 and 1A estimated by the vehicle behavior estimation units 10 and 10A tends to deteriorate.
  • the pattern irradiators 4a to 4d are controlled so that the projection pattern display mode changes accordingly.
  • the display mode of the projection pattern is at least one of blinking speed, color, brightness, saturation, intensity, shape, size, addition of character information, and addition of graphic information.
  • the irradiation control unit 11 is expected to be affected by the abnormal behavior of the vehicles 1 and 1A estimated by the vehicle behavior estimation units 10 and 10A. And the pattern irradiators 4a to 4d are controlled so that the projection pattern is irradiated onto the ground in the range around the specified vehicle.
  • the irradiation control unit 11 further selects a plurality of ranges around the vehicle that are expected to be affected by the abnormal behavior of the vehicles 1 and 1A according to the distance from the vehicle 1.
  • the pattern irradiation units 4a to 4d are controlled so that the display pattern of the projection pattern continuously changes in each of the plurality of ranges.
  • FIG. FIG. 9 is a block diagram showing a configuration of a vehicle control system provided with presentation device B according to Embodiment 2 of the present invention. 9, the same components as those in FIGS. 3 and 8 are denoted by the same reference numerals, and the description thereof is omitted.
  • the vehicle control system shown in FIG. 9 is mounted on a vehicle 1A that is remotely controlled using a remote control terminal 22, and includes an external sensor 5, a travel controller 8, an internal sensor 9, a transmitter / receiver 21, a communication state monitor 24, and A presentation device B is provided.
  • the communication state monitoring unit 24 is a component that monitors the communication state between the transmission / reception unit 21 and the remote control terminal 22. For example, the communication state monitoring unit 24 monitors the communication state between the transmission / reception unit 21 and the remote control terminal 22 at regular intervals.
  • the presentation device B includes pattern irradiation units 4a to 4d, a vehicle behavior estimation unit 10A, and an irradiation control unit 11A.
  • the irradiation control unit 11A is a control unit that controls the pattern irradiation units 4a to 4d so as to irradiate the projection pattern corresponding to the behavior estimated by the vehicle behavior estimation unit 10A. Further, the irradiation control unit 11A controls the pattern irradiation units 4a to 4d to irradiate the projection pattern when the control of the vehicle 1A by the remote control terminal 22 becomes impossible.
  • Each function of the vehicle behavior estimation unit 10A and the irradiation control unit 11A in the presentation device B is realized by a processing circuit. That is, the presentation device B includes a processing circuit for executing these functions. As shown in FIGS. 4A and 4B, the processing circuit may be dedicated hardware or a processor that executes a program stored in a memory.
  • FIG. 10 is a flowchart showing the operation of the presentation apparatus B, and shows a specific example of the irradiation process of the projection pattern. It is assumed that traveling of vehicle 1A is controlled by remote control terminal 22 before the operation shown in FIG.
  • the irradiation control unit 11A acquires a communication state monitoring result from the communication state monitoring unit 24 (step ST1a). For example, the irradiation control unit 11A acquires the monitoring result every time the communication state monitoring unit 24 monitors the communication state at regular intervals.
  • the irradiation control unit 11A determines whether normal communication is possible between the transmission / reception unit 21 and the remote control terminal 22 based on the monitoring result of the communication state acquired from the communication state monitoring unit 24. (Step ST2a). If normal communication is possible (step ST2a; YES), the process returns to step ST1a and the monitoring of the communication state is continued.
  • the irradiation control unit 11A determines that control of the vehicle 1A by the remote control terminal 22 is disabled, and remote control is not possible. Projection patterns corresponding to certain are set in the pattern irradiation units 4a to 4d (step ST3a).
  • the pattern irradiators 4a to 4d irradiate the ground around the vehicle with the projection pattern set by the irradiation controller 11A (step ST4a).
  • the presentation device B According to the second embodiment, a person around the vehicle can grasp from the projection pattern that the remote control of the vehicle 1A is impossible, and evacuation from the periphery of the vehicle 1A. Can be urged.
  • FIG. 11 is a diagram illustrating an irradiation example of the projection pattern.
  • the person 12 faces the direction in which the vehicle 1A can be seen, but the person 13 faces the direction in which the vehicle 1A does not enter the field of view. ing.
  • the pattern irradiators 4a to 4d irradiate the ground around the vehicle 1A with the projection pattern 14. Since the vehicle 1A travels in the direction of arrow A, the irradiation control unit 11A may control the pattern irradiation unit 4c so that the projection pattern irradiated to the ground in front of the vehicle 1A is highlighted.
  • the person 12 can intuitively recognize that the vehicle 1A is uncontrollable by irradiating the projection pattern onto the ground in front of the vehicle 1A.
  • the person 13 is facing the direction in which the vehicle 1A itself does not enter the field of view, but intuitively recognizes that the vehicle 1A cannot be controlled by irradiating the projection pattern onto the ground in front of the vehicle 1A. can do.
  • the irradiation control unit 11A causes the pattern irradiation units 4a to 4d to emit the projection patterns when the remote control terminal 22 cannot control the vehicle 1A.
  • the irradiation control unit 11A causes the pattern irradiation units 4a to 4d to emit the projection patterns when the remote control terminal 22 cannot control the vehicle 1A.
  • FIG. 12 is a block diagram showing a configuration of a vehicle control system including a presentation device C according to Embodiment 3 of the present invention.
  • the vehicle control system shown in FIG. 12 is mounted on the vehicle 1 and includes an external sensor 5, a travel route setting unit 6, an input unit 7, a travel control unit 8, an internal sensor 9 and a presentation device C.
  • the presentation device C includes pattern irradiation units 4a to 4d, a vehicle behavior estimation unit 10, and an irradiation control unit 11B.
  • the irradiation control unit 11B is a control unit that controls the pattern irradiation units 4a to 4d so as to irradiate the projection pattern corresponding to the behavior estimated by the vehicle behavior estimation unit 10 as in the first embodiment. Further, when the vehicle behavior estimating unit 10 estimates that the vehicle 1 enters a deadlock state in which the vehicle 1 does not advance in any direction, the irradiation control unit 11B sends a projection pattern corresponding to the estimation result to the pattern irradiation units 4a to 4d. Irradiate.
  • Each function of the vehicle behavior estimation unit 10 and the irradiation control unit 11B in the presentation device C is realized by a processing circuit. That is, the presentation device C includes a processing circuit for executing these functions. As shown in FIGS. 4A and 4B, the processing circuit may be dedicated hardware or a processor that executes a program stored in a memory.
  • FIG. 13 is a flowchart showing the operation of the vehicle control system including the presentation device C.
  • the input unit 7 receives information necessary for calculating the travel route
  • the travel route setting unit 6 calculates the travel route based on the information received by the input unit 7, and travel control is performed. It is assumed that the unit 8 is driving the vehicle 1 according to the travel route.
  • the travel control unit 8 and the vehicle behavior estimation unit 10 obtain information on the inside and outside of the vehicle detected by the outside sensor 5 and the inside sensor 9 (step ST1b).
  • the traveling control unit 8 determines whether there is an obstacle around the vehicle 1 based on information outside the vehicle detected by the external sensor 5 (step ST2b).
  • the travel control unit 8 instructs the travel route setting unit 6 to calculate a route for avoiding the obstacle. That is, the traveling control unit 8 confirms whether or not the route can be changed to a route avoiding an obstacle (step ST3b).
  • the travel control unit 8 When the travel route setting unit 6 can calculate a route that avoids the obstacle, that is, when the travel route setting unit 6 can change to a route that avoids the obstacle (step ST3b; YES), the travel control unit 8 The travel route of the vehicle 1 is changed to the above calculated route (step ST4b).
  • the vehicle behavior estimation unit 10 determines whether or not the traveling of 1 is finished (step ST5b). For example, when it is estimated that the vehicle 1 approaches the destination point and the travel control by the travel control unit 8 is finished, the vehicle behavior estimation unit 10 determines that the travel of the vehicle 1 is finished.
  • step ST5b When it is determined by the vehicle behavior estimation unit 10 that the travel of the vehicle 1 is finished (step ST5b; YES), the process of FIG. 13 is finished.
  • step ST5b; NO When the vehicle behavior estimation unit 10 does not determine that the vehicle 1 has finished traveling (step ST5b; NO), a series of processes from step ST1b are repeated.
  • step ST3b when the travel route setting unit 6 cannot calculate a route that avoids the obstacle, that is, when it cannot be changed to a route that avoids the obstacle (step ST3b; NO), the travel control unit 8 However, the vehicle 1 is stopped by determining that a so-called deadlock state has occurred (step ST6b).
  • the vehicle behavior estimation unit 10 estimates that the vehicle 1 is in a deadlock state based on the control information of the vehicle 1 input from the travel control unit 8.
  • the irradiation control unit 11B sets projection patterns corresponding to the future behavior that the vehicle 1 is in a deadlock state in the pattern irradiation units 4a to 4d (step ST7b).
  • the pattern irradiation units 4a to 4d irradiate the projection pattern set by the irradiation control unit 11B toward the ground around the vehicle (step ST8b).
  • a person around the vehicle can grasp that the vehicle 1 is in a deadlock state by visually recognizing the projection pattern irradiated on the ground.
  • the traveling control unit 8 determines whether or not the situation around the vehicle has changed based on information outside the vehicle (step ST9b). For example, when an obstacle is detected around the vehicle 1 by the external sensor 5, it is determined that the situation around the vehicle has changed. If it is determined that there is no change in the situation around the vehicle (step ST9b; NO), the process returns to step ST8b and the projection pattern irradiation is continued. When it is determined that the situation around the vehicle has changed (step ST9b; YES), the travel control unit 8 instructs the travel route setting unit 6 to calculate a movable route. That is, the traveling control unit 8 confirms whether or not the route can be changed (step ST10b). For example, it is confirmed whether or not a route that can avoid an obstacle detected by the external sensor 5 can be calculated.
  • step ST10b When the travel route setting unit 6 can calculate the route, that is, when the route can be changed (step ST10b; YES), the irradiation control unit 11B controls the pattern irradiation units 4a to 4d to irradiate the projection pattern. End (step ST11b). Thereafter, the process proceeds to step ST4b.
  • step ST10b when the travel route setting unit 6 cannot calculate the route, that is, when the route cannot be changed (step ST10b; NO), the process returns to step ST7b and the projection pattern irradiation is continued.
  • FIG. 14 is a diagram illustrating an irradiation example of the projection pattern.
  • the person 33a and the person 33c face the direction in which the vehicle 1 does not enter the field of view.
  • the pattern irradiation units 4a to 4d irradiate the ground around the vehicle 1 with the projection patterns 34a to 34c.
  • the projection patterns 34a to 34c are irradiated to a plurality of ranges according to the distance from the vehicle 1.
  • the projection pattern 34 a having the highest brightness is irradiated in the range closest to the vehicle 1.
  • the projection pattern 34b whose brightness decreases in order is irradiated, and in the range farthest from the vehicle 1, the projection pattern 34c having the lowest brightness is irradiated.
  • the persons 33a to 33d around the vehicle 1 can intuitively recognize the deadlock state of the vehicle 1 by these projection patterns, and the persons 33a to 33d are urged to retreat from the vehicle periphery. If the person 33c and the person 33d retreat, the vehicle 1 can move forward, and if the person 33a and the person 33b retreat, the vehicle 1 can move backward, and the deadlock state is eliminated.
  • the irradiation control unit 11B causes the pattern irradiation units 4a to 4d to transmit the projection pattern according to the deadlock state of the vehicle 1 estimated by the vehicle behavior estimation unit 10 to the pattern irradiation units 4a to 4d. Irradiate.
  • the presenting device according to the present invention can be used for a vehicle control system, for example, because it can grasp the behavior of the vehicle without generating noise and not paying attention to the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車両(1)の挙動を推定する車両挙動推定部(10)と、車両周辺の地面に向けて投影パターンを照射するパターン照射部(4a~4d)と、車両挙動推定部(10)によって推定された車両(1)の挙動に応じて投影パターンを照射するようにパターン照射部(4a~4d)を制御する照射制御部(11)とを備える。

Description

提示装置
 この発明は、車両の挙動に応じた投影パターンを照射する提示装置に関する。
 従来から、疑似走行音または警告音を車外に出力して歩行者に車両の接近を伝える技術は知られている。ただし、疑似走行音または警告音を出力すると、車外の静粛性が損なわれるため、警告対象の歩行者以外には騒音となる。
 一方、疑似走行音または警告音を使用せずに、移動体の挙動を提示する技術も提案されている。例えば、特許文献1に記載された自律移動装置は、現在の注目点を進行方向前方に向けて表示するモニタを備える。自律移動装置の移動経路に位置する人間は、この表示手段に表示された注目点に基づいて自律移動装置の移動方向を認識することができる。
特開2004-118469号公報
 特許文献1に代表される従来の技術では、車両周囲に位置する人間が車両の表示手段を注視していないと、車両の挙動を把握できないという課題があった。
 なお、警告音を使用すれば、車両周囲の人間が車両を注視していなくても車両の挙動を把握できるが、前述したように、警告音は、警告対象の人間以外には騒音となる。
 この発明は上記課題を解決するもので、騒音を発生せずかつ車両を注視していなくても車両の挙動を把握することができる提示装置を得ることを目的とする。
 この発明に係る提示装置は、車両の挙動を推定する推定部と、車両周辺の地面に向けて投影パターンを照射する照射部と、推定部によって推定された車両の挙動に応じた投影パターンを照射するように照射部を制御する制御部とを備える。
 この発明によれば、車両の挙動に対応する投影パターンが車両周辺の地面に向けて照射されるので、騒音を発生せずかつ車両を注視していなくても車両の挙動を把握することができる。
この発明の実施の形態1に係る提示装置を備えた車両制御システムを示す要部平面図である。 実施の形態1に係る提示装置を備えた車両制御システムを示す要部側面図である。 実施の形態1に係る提示装置を備えた車両制御システムの構成を示すブロック図である。 図4Aは、実施の形態1に係る提示装置の機能を実現するハードウェア構成を示すブロック図である。図4Bは、実施の形態1に係る提示装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態1に係る提示装置の動作を示すフローチャートである。 実施の形態1における投影パターンの照射例を示す図である。 実施の形態1における別の投影パターンの照射例を示す図である。 実施の形態1に係る提示装置を備えた車両制御システムの別の構成を示すブロック図である。 この発明の実施の形態2に係る提示装置を備えた車両制御システムの構成を示すブロック図である。 実施の形態2に係る提示装置の動作を示すフローチャートである。 実施の形態2における投影パターンの照射例を示す図である。 この発明の実施の形態3に係る提示装置を備えた車両制御システムの構成を示すブロック図である。 実施の形態3に係る提示装置を備えた車両制御システムの動作を示すフローチャートである。 実施の形態3における投影パターンの照射例を示す図である。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る提示装置を備えた車両制御システムを示す要部平面図である。また、図2は、実施の形態1に係る提示装置を備えた車両制御システムを示す要部側面図である。車両1は、あらかじめ設定された地点に向けて自律走行する車両であり、駆動輪2a,2bおよび従動輪3a,3bを備える。駆動輪2a,2bは、図示しない電動機からの駆動力が伝達されて回転駆動する。駆動輪2aと駆動輪2bとを互いに独立して駆動制御することで、車両1が任意の方向に走行する。従動輪3a,3bは、駆動輪2a,2bの旋回動作を妨げないように鉛直方向の軸周りに回動可能に車両下部に支持されている。
 パターン照射部4a~4dは、地面Gに向けて投影パターンを照射する照射部である。例えば、パターン照射部4a~4dは、プロジェクションランプあるいはレーザを用いて構成される。投影パターンとは、車両1の周辺の地面に照射された可視光のパターンであり、例えば、任意の形状の図形パターン、文字パターンまたはこれらの組み合わせのパターンで実現される。
 図1および図2において、パターン照射部4aは、車両1の右側方の地面Gに投影パターンを照射し、パターン照射部4bは、車両1の左側方の地面Gに投影パターンを照射する。また、パターン照射部4cは、車両1の前方の地面Gに投影パターンを照射し、パターン照射部4dは、車両1の後方の地面Gに投影パターンを照射する。外界センサ5は、車両周辺の状況を検出するセンサであり、例えば、車両周辺の3次元形状を検出するか、または、車両周辺の映像を撮像するカメラである。外界センサ5によって、走行している車両1の前方の障害物が検出される。
 図3は、実施の形態1に係る提示装置Aを備えた車両制御システムの構成を示すブロック図である。図3において、図1および図2と同一の構成要素には同一符号を付して説明を省略する。図3に示す車両制御システムは、外界センサ5、走行経路設定部6、入力部7、走行制御部8、内界センサ9および提示装置Aを備える。
 走行経路設定部6は、車両1を走行させる経路を設定する。例えば、走行経路設定部6は、入力部7によって受け付けられた、中継地点、目的地点、既知の障害物の位置および地図情報に基づいて、障害物を回避しながら中継地点を通って目的地点に至る経路を算出する。走行制御部8は、走行経路設定部6から設定された経路に沿って車両1が走行するように駆動輪2a,2bの回転駆動を制御する。内界センサ9は、車両1の挙動を検出するセンサであり、例えば、車両1の走行速度、加速度、角速度および傾斜角を検出する。
 提示装置Aは、パターン照射部4a~4d、車両挙動推定部10および照射制御部11を備える。車両挙動推定部10は、車両1の挙動を推定する推定部であり、走行制御部8による車両1の制御情報、外界センサ5の検出情報、および内界センサ9の検出情報のうちの少なくとも一つに基づいて車両1の挙動を推定する。車両1の挙動には、車両1の障害物への衝突、車両1の傾斜、車両1の加減速に伴う転倒、滑落、横滑り、スリップなどが挙げられる。照射制御部11は、車両挙動推定部10によって推定された挙動に応じて投影パターンを照射するようにパターン照射部4a~4dを制御する制御部である。
 図4Aは、提示装置Aの機能を実現するハードウェア構成を示すブロック図である。図4Aにおいて、処理回路100は発光装置101と接続されている。図4Bは、提示装置Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Bにおいて、プロセッサ102およびメモリ103は、発光装置101と接続されている。提示装置Aのパターン照射部4a~4dは発光装置101であり、例えば、プロジェクションランプまたはレーザである。
 提示装置Aにおける車両挙動推定部10および照射制御部11の各機能は、処理回路により実現される。すなわち、提示装置Aは、図5に示すステップST1からステップST8までの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであっても、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 処理回路が図4Aに示す専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。
 車両挙動推定部10および照射制御部11のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
 処理回路が図4Bに示すプロセッサ102である場合、車両挙動推定部10および照射制御部11の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ103に記憶される。
 プロセッサ102は、メモリ103に記憶されたプログラムを読み出して実行することにより各部の機能を実現する。すなわち、提示装置Aは、プロセッサ102によって実行されるとき、図5に示すステップST1からステップST8までの処理が結果的に実行されるプログラムを記憶するためのメモリ103を備える。これらのプログラムは、車両挙動推定部10および照射制御部11の手順または方法を、コンピュータに実行させるものである。
 メモリ103には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 車両挙動推定部10および照射制御部11の各機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
 例えば、車両挙動推定部10については、専用のハードウェアとしての処理回路100がその機能を実現し、照射制御部11については、プロセッサ102がメモリ103に記憶されたプログラムを読み出して実行することによってその機能を実現してもよい。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能のそれぞれを実現することができる。
 次に動作について説明する。
 図5は、提示装置Aの動作を示すフローチャートであって、投影パターンの照射処理の具体例を示している。なお、図5に示す動作の前に、入力部7が走行経路の算出に必要な情報を受け付け、入力部7が受け付けた情報に基づいて走行経路設定部6が走行経路を算出し、走行制御部8が、走行経路に応じて車両1を走行させているものとする。
 まず、車両挙動推定部10が、外界センサ5と内界センサ9とによって検出された車両内外の情報を取得する(ステップST1)。車両内外の情報は、外界センサ5および内界センサ9から走行制御部8にも出力される。走行制御部8は、例えば、車両内外の情報に基づいて、車両1の障害物への衝突、車両1の傾斜、車両1の加減速に伴う転倒、滑落、横滑り、スリップなどを回避するように車両1の走行を制御する。
 車両挙動推定部10は、車両内外の情報に基づいて、現時点以降の任意の時点までの車両1の挙動(以下、車両1の将来挙動と記載する)を推定する(ステップST2)。
 例えば、車両挙動推定部10は、走行制御部8によって制御される車両1の加速、減速もしくは旋回といった挙動を、車両1の将来挙動として推定する。
 次に、照射制御部11は、車両挙動推定部10によって推定された車両1の将来挙動が車両1の転倒などの異常な挙動であるか否かを判定する(ステップST3)。異常な挙動には、車両1の転倒の他、車両1の斜面での滑落、横滑り、駆動輪2a,2bのスリップといったものが考えられる。なお、車両1の異常な挙動は、例示した内容に限定されるものではなく、車両周辺に影響を及ぼす可能性がある挙動であればよい。
 車両1の将来挙動が異常な挙動である場合(ステップST3;YES)、照射制御部11は、車両1の将来挙動に応じた投影パターンをパターン照射部4a~4dに設定する(ステップST4)。例えば、照射制御部11は、挙動内容と投影パターンを対応付けたテーブルデータから、車両挙動推定部10によって推定された車両1の将来挙動に対応する投影パターンを選択してパターン照射部4a~4dに設定する。上記テーブルデータには、転倒に第1の投影パターンが対応し、傾斜に第2の投影パターンが対応するといった情報が設定されており、提示装置Aが備える、図示しないメモリに記憶される。
 パターン照射部4a~4dは、照射制御部11から設定された投射パターンを地面Gに照射する(ステップST5)。車両周辺の人は、車両1を注視していなくても、地面Gに照射された投影パターンから、車両1の将来挙動を把握することができる。
 この後、車両挙動推定部10は、外界センサ5および内界センサ9から車両内外の情報を逐次取得してその都度車両1の将来挙動を推定することで、車両1の将来挙動に変化があるか否かを確認する(ステップST6)。
 車両1の将来挙動に変化がない場合(ステップST6;NO)、ステップST5の処理に戻り、パターン照射部4a~4dによる投影パターンの照射が継続される。
 一方、車両1の将来挙動に変化があった場合(ステップST6;YES)、照射制御部11は、車両1の将来挙動の変化が収束したか否かを判定する(ステップST7)。
 例えば、ステップST2で推定された将来挙動からさらに悪化する場合、照射制御部11は、車両1の将来挙動の変化が収束しないと判定する。また、ステップST2で推定された将来挙動から緩和した場合、照射制御部11は、車両1の将来挙動の変化が収束したと判定する。
 車両1の将来挙動の変化が収束しないと判定した場合(ステップST7;NO)、照射制御部11は、ステップST4の処理に戻り、ステップST6で推定された車両1の将来挙動に応じて投影パターンをパターン照射部4a~4dに設定する。
 車両1の将来挙動の変化が収束したと判定した場合(ステップST7;YES)、照射制御部11は、投影パターンの照射を終了するように、パターン照射部4a~4dを制御する。これにより、パターン照射部4a~4dは、投射パターンの照射を終了する(ステップST8)。なお、車両1の将来挙動の変化が収束した場合に、照射制御部11は、投影パターンを変更せず、予め設定された時間分だけパターン照射部4a~4dによる従前の投射パターンの照射を継続させてもよい。
 一方、車両1の将来挙動が異常な挙動ではない場合(ステップST3;NO)、またはステップST8の処理が完了した場合、車両挙動推定部10は、車両内外の情報に基づいて、車両1の走行が終了するか否かを判定する(ステップST9)。例えば、車両挙動推定部10は、走行制御部8から入力した車両1の制御情報に基づいて、車両1の走行制御が終了することが推定されると、車両1の走行が終了すると判定する。
 車両挙動推定部10によって車両1の走行が終了すると判定された場合(ステップST9;YES)、図5の処理が終了する。
 車両挙動推定部10によって車両1の走行が終了すると判定されなかった場合(ステップST9;NO)、ステップST1からの一連の処理が繰り返される。
 次に、投影パターンの照射の具体例について説明する。
 図6は、投影パターンの照射例を示す図である。図6において、車両1の周辺には人12および人13がおり、人12は、車両1を目視可能な方向を向いているが、人13は、車両1が視界に入らない方向を向いている。
 パターン照射部4b,4dは、車両1の左側方の地面および後方の地面に投影パターン14を照射している。等高線20a~20hは地面の高度を示す等高線であり、等高線20aの位置が最も低く、等高線20hの位置が最も高く、等高線20aから等高線20hに向かうにつれて地面が高くなる。
 車両1が矢印A方向に進行すると、従動輪3a側から地面の傾斜領域に乗り上げていくので、車両1は、右側が上がり、左側が下がった状態で傾斜する。この傾斜は、車両1に設けられた内界センサ9によって検出される。ここで、車両1が矢印A方向にさらに進行して車両1の傾斜が増加した場合、駆動輪2a,2bの回転駆動が制御されて車両1が右曲がりに操舵された場合、あるいは、これらの状態で車両1の進行速度が増加された場合を考える。これらのいずれかの場合、車両挙動推定部10は、車両内外の情報に基づいて、車両1の将来挙動として“車両1の左後方への転倒”を推定する。
 照射制御部11は、車両挙動推定部10によって推定された車両1の異常な挙動の影響を受けると予想される車両周辺の範囲を特定して、特定した車両周辺の範囲の地面に投影パターンが照射されるようにパターン照射部4a~4dを制御する。
 例えば、照射制御部11が、“車両1の左後方への転倒”という将来挙動に応じて投影パターンを選択し、さらに、この将来挙動の影響を受けると予想される車両1の左後方の範囲を特定し、特定した範囲が照射領域のパターン照射部4b,4dを選択する。
 パターン照射部4bは、投影パターンを車両1の左側方の地面に照射し、パターン照射部4dは、投影パターンを車両1の後方の地面に照射する。人12は、車両1の左側方の地面に照射された投影パターンから、車両1の転倒の危険性を直感的に認識することができる。また、人13は、車両1が視界に入らない方向を向いているが、車両1の後方の地面に照射された投影パターンから、車両1の転倒の危険性を直感的に認識することができる。これにより、人12と人13は車両1の周辺から退避することが可能となる。
 なお、図6は、地面の高度変化に伴う車両1の転倒について示したが、これに限定されるものではない。例えば、地面の高度変化に加えて地面の摩擦係数の低下による車両1の滑落、横滑り、平坦な地面における車両1のスリップによる走行制御不能といった様々な異常な挙動においても、上記と同様に投影パターンを車両周辺の地面に照射することで、騒音を発生せずかつ車両を注視していなくても車両の挙動を把握することができる。
 また、照射制御部11は、車両挙動推定部10によって順次推定された車両1の将来挙動が悪化する傾向にある場合、この傾向に応じて投影パターンの表示態様が変化するようにパターン照射部4a~4dを制御してもよい。
 例えば、照射制御部11は、車両挙動推定部10によって順次推定された車両1の将来挙動から、設定間隔での車両1の傾斜の増加量が閾値以上になった場合、投影パターンの点滅速度を変化させる。また、照射制御部11は、設定間隔での車両1の傾斜の増加量が閾値以上になった場合に、投影パターンの光の強度を順に強くするか、色が順に注意色に変化するようにパターン照射部4a~4dを制御してもよい。
 車両1の周辺にいる人は、このような投影パターンによって車両1の異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
 さらに、照射制御部11は、車両1の異常な挙動の影響を受けると予想される車両周辺の範囲を車両1からの距離に応じて複数の範囲に分け、投影パターンの形状が複数の範囲のそれぞれで連続的に変化するようにパターン照射部4a~4dを制御してもよい。
 例えば、照射制御部11は、車両1に近い範囲には、鋭角な形状の図形の投影パターンを照射させ、車両1から離れるにつれて、この投影パターンから丸みを帯びた図形に連続的に変形させる。車両1の周辺にいる人は、このような投影パターンによっても、車両1の異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
 投影パターンが図形パターンである場合を示したが、投影パターンは、文字パターンであってもよく、文字と図形を組み合わせたパターンであってもよい。
 すなわち、投影パターンの表示態様は、点滅の速度、色、明度、彩度、強度、形状、大きさ、文字情報の付加および図形情報の付加のうちの少なくとも一つであればよい。
 図7は、別の投影パターンの照射例を示す図である。図7において、車両1の周辺には人12および人13がおり、人12は、車両1を目視可能な方向を向いているが、人13は、車両1が視界に入らない方向を向いている。パターン照射部4b,4dは、車両1の左側方の地面および後方の地面に投影パターン14a~14dを照射している。投影パターン14a~14dは、車両1からの距離に応じた複数の範囲に照射される。
 例えば、車両1に最も近く、車両1の異常な挙動の影響を最も受けると予想される範囲には、明度が最も高い投影パターン14aが照射される。車両1から離れた範囲になるにつれて、明度が順に下がった投影パターン14b、投影パターン14cが照射され、車両1に最も遠く、車両1の異常な挙動の影響を最も受けにくいと予想される範囲には、明度が最も低い投影パターン14dが照射される。
 車両1の周辺にいる人は、このような投影パターンによって車両1の異常な挙動の影響を受けやすい範囲にいるか否かを直感的に認識することができる。
 投影パターンの明度を変化させる場合を示したが、変化させる投影パターンの表示態様は、点滅の速度、色、明度、彩度、強度、形状、大きさ、文字情報の付加および図形情報の付加のうちの少なくとも一つであればよい。
 これまで、車両1が自律移動する無人車両である場合を示したが、車両1は、遠隔操作によって走行が制御される車両であってもよい。
 図8は、提示装置A1を備えた車両制御システムの構成を示すブロック図であり、遠隔制御端末22によって遠隔操作される車両1Aに搭載された提示装置A1を示している。図8において、図3と同一の構成要素には同一符号を付して説明を省略する。
 図8に示す車両制御システムは、外界センサ5、走行制御部8、内界センサ9、送受信部21および提示装置A1を備える。
 送受信部21は、遠隔制御端末22との間で無線通信または有線通信を行う構成要素であり、遠隔制御端末22から制御情報を受信する。遠隔制御端末22は、オペレータ23の操作に応じた制御情報を送受信部21に送信する。
 走行制御部8は、送受信部21によって受信された制御情報に従って駆動輪2a,2bの回転駆動を制御することにより、車両1Aが走行する。
 また、外界センサ5によって検出された車両外の情報は、走行制御部8および送受信部21に出力される。送受信部21は、外界センサ5から入力した車両外の情報を遠隔制御端末22に送信する。オペレータ23は、遠隔制御端末22によって受信された車両外の情報を参照しながら、車両1Aの遠隔制御を行うことができる。例えば、外界センサ5によって車両1Aの進行方向に障害物が検出されると、検出された障害物を回避するように車両1Aを遠隔制御することができる。
 提示装置A1は、パターン照射部4a~4d、車両挙動推定部10Aおよび照射制御部11を備える。車両挙動推定部10Aは、車両1Aの挙動を推定する推定部であり、走行制御部8から取得した車両1の制御情報および外界センサ5によって検出された車両外の情報と、内界センサ9によって検出された車両内の情報のうちの少なくとも一つに基づいて車両1Aの挙動を推定する。
 照射制御部11は、車両挙動推定部10Aによって推定された車両1Aの挙動に応じた投影パターンを照射するようにパターン照射部4a~4dを制御する。
 車両挙動推定部10Aによって推定された車両1Aの挙動の推定情報は、走行制御部8に出力され、走行制御部8は、送受信部21を制御して車両1Aの挙動の推定情報を遠隔制御端末22に送信する。オペレータ23は、遠隔制御端末22によって受信された車両1Aの挙動の推定情報を参照しながら、車両1Aの遠隔制御を行うことができる。
 従来の遠隔制御車両では、実際に車両が走行している地面の状態をオペレータから把握することが困難であったが、実施の形態1に係る提示装置A1では、地面の凹凸に応じた車両1の傾斜などの将来挙動をオペレータが把握することができる。
 また、車両1Aの周辺の人は、自身の周りの地面に照射された投影パターンによって、車両1Aの異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
 提示装置A1における車両挙動推定部10Aおよび照射制御部11の各機能は、処理回路によって実現される。すなわち、提示装置A1は、これらの機能を実行するための処理回路を備える。処理回路は、図4Aおよび図4Bに示したように、専用のハードウェアであっても、メモリに格納されるプログラムを実行するプロセッサであってもよい。
 以上のように、実施の形態1に係る提示装置A,A1は、車両1,1Aの挙動を推定する車両挙動推定部10,10Aと、車両周辺の地面に向けて投影パターンを照射するパターン照射部4a~4dと、車両挙動推定部10によって推定された車両1,1Aの挙動に応じて投影パターンを照射するようにパターン照射部4a~4dを制御する照射制御部11とを備える。このように構成することで、車両1,1Aの挙動に対応する投影パターンが車両周辺の地面に向けて照射されるので、騒音を発生せずかつ車両1,1Aを注視していなくても車両1,1Aの挙動を把握することができる。
 実施の形態1に係る提示装置A,A1において、車両挙動推定部10,10Aは、車両1,1Aの挙動を検出する内界センサ9から取得された検出情報に基づいて、車両1,1Aの異常な挙動を推定する。さらに、車両挙動推定部10,10Aは、車両周辺の状況を検出する外界センサ5から取得された検出情報に基づいて、車両1,1Aの異常な挙動を推定する。このように内界センサ9および外界センサ5から得られた車両内外の情報を用いることで、車両挙動推定部10,10Aが車両1,1Aの異常な挙動を精度よく推定することができる。
 実施の形態1に係る提示装置A,A1において、照射制御部11は、車両挙動推定部10,10Aによって推定された車両1,1Aの異常な挙動が悪化する傾向にある場合に、この傾向に応じて投影パターンの表示態様が変化するようにパターン照射部4a~4dを制御する。投影パターンの表示態様は、点滅の速度、色、明度、彩度、強度、形状、大きさ、文字情報の付加および図形情報の付加のうちの少なくとも一つである。
 このように構成することで、車両周辺の人が、車両1,1Aの異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
 実施の形態1に係る提示装置A,A1において、照射制御部11は、車両挙動推定部10,10Aによって推定された車両1,1Aの異常な挙動の影響を受けると予想される車両周辺の範囲を特定して、特定した車両周辺の範囲の地面に投影パターンが照射されるようにパターン照射部4a~4dを制御する。
 このように構成することで、車両周辺の人が、車両1,1Aの異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
 実施の形態1に係る提示装置A,A1において、照射制御部11は、車両1,1Aの異常な挙動の影響を受けると予想される車両周辺の範囲をさらに車両1からの距離に応じて複数の範囲に分け、複数の範囲のそれぞれで投影パターンの表示態様が連続的に変化するようにパターン照射部4a~4dを制御する。このように構成することで、車両周辺の人が、車両1,1Aの異常な挙動の影響が及ぶ危険性を直感的に認識することができる。
実施の形態2.
 図9は、この発明の実施の形態2に係る提示装置Bを備えた車両制御システムの構成を示すブロック図である。図9において、図3および図8と同一の構成要素には同一符号を付して説明を省略する。図9に示す車両制御システムは、遠隔制御端末22を用いて遠隔制御される車両1Aに搭載され、外界センサ5、走行制御部8、内界センサ9、送受信部21、通信状態監視部24および提示装置Bを備える。
 通信状態監視部24は、送受信部21と遠隔制御端末22との間の通信状態を監視する構成要素である。例えば、通信状態監視部24は、送受信部21と遠隔制御端末22との間の通信状態を一定の時間ごとに監視する。
 提示装置Bは、パターン照射部4a~4d、車両挙動推定部10A、および照射制御部11Aを備える。照射制御部11Aは、実施の形態1と同様に、車両挙動推定部10Aによって推定された挙動に応じた投影パターンを照射するようにパターン照射部4a~4dを制御する制御部である。また、照射制御部11Aは、遠隔制御端末22による車両1Aの制御が不能になると、投影パターンを照射するようにパターン照射部4a~4dを制御する。
 提示装置Bにおける車両挙動推定部10Aおよび照射制御部11Aの各機能は、処理回路によって実現される。すなわち、提示装置Bは、これらの機能を実行するための処理回路を備える。処理回路は、図4Aおよび図4Bに示したように、専用のハードウェアであっても、メモリに格納されるプログラムを実行するプロセッサであってもよい。
 次に動作について説明する。
 図10は、提示装置Bの動作を示すフローチャートであって、投影パターンの照射処理の具体例を示している。なお、図10に示す動作の前に、遠隔制御端末22によって車両1Aの走行が制御されているものとする。
 まず、照射制御部11Aは、通信状態監視部24から通信状態の監視結果を取得する(ステップST1a)。例えば、照射制御部11Aは、通信状態監視部24によって一定時間ごとに通信状態が監視される度に、その監視結果を取得する。
 次に、照射制御部11Aは、通信状態監視部24から取得された通信状態の監視結果に基づいて、送受信部21と遠隔制御端末22との間で正常な通信が可能か否かを判定する(ステップST2a)。正常な通信が可能である場合(ステップST2a;YES)、ステップST1aの処理に戻って、通信状態の監視が継続される。
 通信が遮断されるなど通信状態に異常が判定された場合(ステップST2a;NO)、照射制御部11Aは、遠隔制御端末22による車両1Aの制御が不能になったと判定し、遠隔制御が不能であることに対応する投影パターンを、パターン照射部4a~4dに設定する(ステップST3a)。
 パターン照射部4a~4dは、照射制御部11Aによって設定された投影パターンを、車両周辺の地面に照射する(ステップST4a)。
 従来では、遠隔制御端末による車両の制御が不能になっても、車両周辺の人は、車両が暴走するまで、車両が制御不能であることを把握することができなかった。
 これに対して、実施の形態2に係る提示装置Bでは、車両周辺の人が、車両1Aの遠隔制御が不能であることを投影パターンによって把握することができ、車両1Aの周辺からの退避を促すことができる。
 次に、投影パターンの照射の具体例について説明する。
 図11は、投影パターンの照射例を示す図である。図11において、車両1Aの周辺には、人12および人13がおり、人12は、車両1Aを目視可能な方向を向いているが、人13は、車両1Aが視界に入らない方向を向いている。パターン照射部4a~4dは、遠隔制御端末22による遠隔制御が不能になると、車両1Aの周囲の地面に投影パターン14を照射する。車両1Aは矢印A方向に進行しているので、照射制御部11Aが、車両1Aの前方の地面に照射される投影パターンが強調表示されるようにパターン照射部4cを制御してもよい。
 人12は、車両1Aの前方の地面に投影パターンが照射されることによって、車両1Aが制御不能であることを直感的に認識することができる。また、人13は、車両1A自体が視界に入らない方向を向いているが、車両1Aの前方の地面に投影パターンが照射されることによって、車両1Aが制御不能であることを直感的に認識することができる。
 以上のように、実施の形態2に係る提示装置Bにおいて、照射制御部11Aが、遠隔制御端末22による車両1Aの制御が不能になると、投影パターンをパターン照射部4a~4dに照射させる。このように構成することで、車両1Aの遠隔制御が不能であることを投影パターンから把握することができる。
実施の形態3.
 図12は、この発明の実施の形態3に係る提示装置Cを備えた車両制御システムの構成を示すブロック図である。図12において、図3と同一の構成要素には同一符号を付して説明を省略する。図12に示す車両制御システムは、車両1に搭載され、外界センサ5、走行経路設定部6、入力部7、走行制御部8、内界センサ9および提示装置Cを備える。
 提示装置Cは、パターン照射部4a~4d、車両挙動推定部10および照射制御部11Bを備える。照射制御部11Bは、実施の形態1と同様に、車両挙動推定部10によって推定された挙動に応じた投影パターンを照射するようにパターン照射部4a~4dを制御する制御部である。さらに、照射制御部11Bは、車両挙動推定部10によって車両1がいずれの方向にも進めないデッドロック状態になると推定されると、この推定結果に応じた投影パターンをパターン照射部4a~4dに照射させる。
 提示装置Cにおける車両挙動推定部10および照射制御部11Bの各機能は、処理回路によって実現される。すなわち、提示装置Cは、これらの機能を実行するための処理回路を備える。処理回路は、図4Aおよび図4Bに示したように、専用のハードウェアであっても、メモリに格納されるプログラムを実行するプロセッサであってもよい。
 次に動作について説明する。
 図13は、提示装置Cを備えた車両制御システムの動作を示すフローチャートである。なお、図13に示す動作の前に、入力部7が走行経路の算出に必要な情報を受け付け、入力部7が受け付けた情報に基づいて走行経路設定部6が走行経路を算出し、走行制御部8が、走行経路に応じて車両1を走行させているものとする。
 まず、走行制御部8および車両挙動推定部10が、外界センサ5および内界センサ9によって検出された車両内外の情報を取得する(ステップST1b)。
 走行制御部8は、外界センサ5によって検出された車両外の情報に基づいて、車両1の周辺に障害物があるか否かを判定する(ステップST2b)。
 走行制御部8は、車両1の走行経路上に障害物があると判定された場合(ステップST2b;YES)、走行経路設定部6に指示して、障害物を回避する経路を算出させる。
 すなわち、走行制御部8は、障害物を回避した経路に変更可能であるか否かを確認する(ステップST3b)。
 走行経路設定部6が障害物を回避する経路を算出できた場合、すなわち、障害物を回避した経路に変更可能である場合(ステップST3b;YES)、走行制御部8は、走行経路設定部6が算出した上記経路に車両1の走行経路を変更する(ステップST4b)。
 車両1の走行経路上に障害物がないと判定されるか(ステップST2b;NO)、または、ステップST4bの処理が完了した場合、車両挙動推定部10は、車両内外の情報に基づいて、車両1の走行が終了するか否かを判定する(ステップST5b)。
 例えば、車両挙動推定部10は、車両1が目的地点に近付いて走行制御部8による走行制御が終了することが推定されると、車両1の走行が終了すると判定する。
 車両挙動推定部10によって車両1の走行が終了すると判定された場合(ステップST5b;YES)、図13の処理が終了する。
 車両挙動推定部10によって車両1の走行が終了すると判定されなかった場合(ステップST5b;NO)、ステップST1bからの一連の処理が繰り返される。
 一方、走行経路設定部6が障害物を回避する経路を算出できなかった場合、すなわち、障害物を回避した経路に変更不能である場合(ステップST3b;NO)、走行制御部8は、車両1がいずれの方向にも進めない、いわゆるデッドロック状態になったと判断して車両1を停止する(ステップST6b)。車両挙動推定部10は、走行制御部8から入力した車両1の制御情報に基づいて、車両1がデッドロック状態になると推定する。
 照射制御部11Bは、車両1がデッドロック状態になるという将来挙動に対応する投影パターンをパターン照射部4a~4dに設定する(ステップST7b)。
 パターン照射部4a~4dは、照射制御部11Bによって設定された投影パターンを、車両周辺の地面に向けて照射する(ステップST8b)。車両周辺の人は、地面上に照射された投影パターンを視認することによって、車両1がデッドロック状態になったことを把握することができる。
 走行制御部8は、車両外の情報に基づいて、車両周辺の状況に変化あったか否かを判定する(ステップST9b)。例えば、外界センサ5によって車両1の周辺に障害物が検出されると、車両周辺の状況に変化あったと判定される。
 車両周辺の状況に変化がないと判定されると(ステップST9b;NO)、ステップST8bに戻って投影パターンの照射が継続される。
 車両周辺の状況に変化があったと判定された場合(ステップST9b;YES)、走行制御部8は、走行経路設定部6に指示して移動可能な経路を算出させる。すなわち、走行制御部8は、経路変更が可能であるか否かを確認する(ステップST10b)。
 例えば、外界センサ5によって検出された障害物を回避可能な経路を算出可能か否かが確認される。
 走行経路設定部6が経路を算出できた場合、すなわち、経路変更が可能である場合(ステップST10b;YES)、照射制御部11Bは、パターン照射部4a~4dを制御して投影パターンの照射を終了させる(ステップST11b)。この後、ステップST4bの処理に移行する。一方、走行経路設定部6が経路を算出できなかった場合、すなわち、経路変更が不能である場合(ステップST10b;NO)、ステップST7bに戻って、投影パターンの照射が継続される。
 次に、投影パターンの照射の具体例について説明する。
 図14は、投影パターンの照射例を示す図である。図14において、車両1の周辺には壁などの障害物31,32があり、さらに人33a~33dがいる。人33aと人33cは、車両1が視界に入らない方向を向いている。パターン照射部4a~4dは、車両1の周囲の地面に投影パターン34a~34cを照射している。投影パターン34a~34cは、車両1からの距離に応じた複数の範囲に照射される。
 例えば、車両1に最も近い範囲には明度が最も高い投影パターン34aが照射される。車両1から離れた範囲になるにつれて、明度が順に下がった投影パターン34bが照射され、車両1に最も遠い範囲には明度が最も低い投影パターン34cが照射される。車両1の周辺にいる人33a~33dは、これらの投影パターンによって車両1のデッドロック状態を直感的に認識することができ、人33a~33dに対して、車両周辺からの退避が促される。人33cおよび人33dが退避すれば、車両1は前方に移動でき、人33aおよび人33bが退避すれば、車両1は後方に移動することができ、デッドロック状態が解消する。
 以上のように、実施の形態3に係る提示装置Cにおいて、照射制御部11Bは、車両挙動推定部10によって推定された車両1がデッドロック状態に応じた投影パターンをパターン照射部4a~4dに照射させる。このように構成することで、車両周辺の人が、投影パターンによって車両1のデッドロック状態を直感的に認識することができる。
 なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
 この発明に係る提示装置は、騒音を発生せずかつ車両を注視していなくても車両の挙動を把握することができるので、例えば、車両制御システムに利用可能である。
 1,1A 車両、2a,2b 駆動輪、3a,3b 従動輪、4a~4d パターン照射部、5 外界センサ、6 走行経路設定部、7 入力部、8 走行制御部、9 内界センサ、10,10A 車両挙動推定部、11,11A,11B 照射制御部、12,13,33a~33d 人、14,14a~14d,34a~34c 投影パターン、20a~20h 等高線、21 送受信部、22 遠隔制御端末、23 オペレータ、24 通信状態監視部、31,32 障害物、A,A1,B,C 提示装置、100 処理回路、101 発光装置、102 プロセッサ、103 メモリ。

Claims (9)

  1.  車両の挙動を推定する推定部と、
     車両周辺の地面に向けて投影パターンを照射する照射部と、
     前記推定部によって推定された車両の挙動に応じて投影パターンを照射するように前記照射部を制御する制御部と
     を備えたことを特徴とする提示装置。
  2.  前記推定部は、車両の挙動を検出する内界センサから取得された検出情報に基づいて、車両の異常な挙動を推定すること
     を特徴とする請求項1記載の提示装置。
  3.  前記推定部は、車両周辺の状況を検出する外界センサから取得された検出情報に基づいて、車両の異常な挙動を推定すること
     を特徴とする請求項1記載の提示装置。
  4.  前記制御部は、前記推定部によって推定された車両の異常な挙動が悪化する傾向にある場合、この傾向に応じて投影パターンの表示態様が変化するように前記照射部を制御すること
     を特徴とする請求項1記載の提示装置。
  5.  前記制御部は、前記推定部によって推定された車両の異常な挙動の影響を受けると予想される車両周辺の範囲を特定して、特定した車両周辺の範囲の地面に投影パターンが照射されるように前記照射部を制御すること
     を特徴とする請求項1記載の提示装置。
  6.  前記制御部は、車両の異常な挙動の影響を受けると予想される車両周辺の範囲をさらに車両からの距離に応じて複数の範囲に分け、前記複数の範囲のそれぞれで投影パターンの表示態様が連続的に変化するように前記照射部を制御すること
     を特徴とする請求項5記載の提示装置。
  7.  投影パターンの表示態様は、点滅の速度、色、明度、彩度、強度、形状、大きさ、文字情報の付加および図形情報の付加のうちの少なくとも一つであること
     を特徴とする請求項4から請求項6のうちのいずれか1項記載の提示装置。
  8.  前記制御部は、前記推定部によって遠隔制御端末による車両の制御が不能になった場合に、投影パターンを前記照射部に照射させること
     を特徴とする請求項1記載の提示装置。
  9.  前記制御部は、前記推定部によって推定された車両がいずれの方向にも進めない状態に応じた投影パターンを前記照射部に照射させること
     を特徴とする請求項1記載の提示装置。
PCT/JP2017/036977 2017-06-06 2017-10-12 提示装置 WO2018225281A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112017007499.1T DE112017007499B4 (de) 2017-06-06 2017-10-12 Darstellungseinrichtung
US16/613,004 US11518300B2 (en) 2017-06-06 2017-10-12 Presentation device
CN201780091340.1A CN110691716B (zh) 2017-06-06 2017-10-12 提示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-111276 2017-06-06
JP2017111276A JP6877247B2 (ja) 2017-06-06 2017-06-06 提示装置

Publications (1)

Publication Number Publication Date
WO2018225281A1 true WO2018225281A1 (ja) 2018-12-13

Family

ID=64567058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/036977 WO2018225281A1 (ja) 2017-06-06 2017-10-12 提示装置

Country Status (5)

Country Link
US (1) US11518300B2 (ja)
JP (1) JP6877247B2 (ja)
CN (1) CN110691716B (ja)
DE (1) DE112017007499B4 (ja)
WO (1) WO2018225281A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112498534A (zh) * 2019-08-26 2021-03-16 株式会社小糸制作所 区域标志灯

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10676022B2 (en) * 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
DE102020126251A1 (de) 2020-10-07 2022-04-07 Audi Aktiengesellschaft Kraftfahrzeug und Verfahren zum Betrieb einer Ausleuchteinrichtung eines Kraftfahrzeugs
GB2614060B (en) * 2021-12-17 2023-12-20 Hilo Ev Ltd Vehicle with lighting system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002079896A (ja) * 2000-09-06 2002-03-19 Auto Network Gijutsu Kenkyusho:Kk 走行状態報知装置
JP2003285685A (ja) * 2002-03-27 2003-10-07 Toyota Motor Corp 車両運転支援システム
JP2013147083A (ja) * 2012-01-18 2013-08-01 Hino Motors Ltd 車両の挙動伝達装置
JP2017074820A (ja) * 2015-10-13 2017-04-20 スズキ株式会社 車両の報知システム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59206533A (ja) 1983-05-11 1984-11-22 Caterpillar Mitsubishi Ltd 遠隔操縦可能な車輛における転倒防止装置
JP2945156B2 (ja) 1991-04-17 1999-09-06 石川島芝浦機械株式会社 自動走行作業車の制御装置
US5529138A (en) * 1993-01-22 1996-06-25 Shaw; David C. H. Vehicle collision avoidance system
JPH09160639A (ja) * 1995-12-12 1997-06-20 Mitsubishi Electric Corp 車両の走行制御装置
DE19722829A1 (de) * 1997-05-30 1998-12-10 Daimler Benz Ag Fahrzeug mit einem Abtastsystem
US7287884B2 (en) * 2002-02-07 2007-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle operation supporting device and vehicle operation supporting system
JP3758628B2 (ja) * 2002-09-25 2006-03-22 松下電工株式会社 自律移動装置
JP2007216747A (ja) * 2006-02-15 2007-08-30 Fujitsu Ten Ltd 車両横転検知装置及び乗員保護システム
JP2007295033A (ja) * 2006-04-20 2007-11-08 Toyota Motor Corp 遠隔操作制御装置およびその操作端末
DE102006050547A1 (de) * 2006-10-26 2008-04-30 Bayerische Motoren Werke Ag Verfahren zur Informationsdarstellung
JP5262057B2 (ja) * 2006-11-17 2013-08-14 株式会社豊田中央研究所 照射装置
JP4964195B2 (ja) * 2008-07-10 2012-06-27 パナソニック株式会社 車両用照明装置
US8629784B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US9889792B2 (en) * 2011-07-08 2018-02-13 Sl Corporation Automotive lamp
US10076995B2 (en) * 2011-12-07 2018-09-18 Sl Corporation Automotive lamp
DE102013211877A1 (de) * 2013-06-24 2015-01-08 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
WO2015145674A1 (ja) * 2014-03-27 2015-10-01 日産自動車株式会社 車両挙動伝達装置
WO2016027314A1 (ja) 2014-08-19 2016-02-25 三菱電機株式会社 路面照射装置
JP6300938B2 (ja) 2014-08-19 2018-03-28 三菱電機株式会社 路面照射装置
JP6214775B2 (ja) 2014-08-19 2017-10-18 三菱電機株式会社 後方路面照射装置
JP5941111B2 (ja) * 2014-09-30 2016-06-29 富士重工業株式会社 車両用前照灯装置
JP6768521B2 (ja) 2015-01-13 2020-10-14 マクセル株式会社 映像投射装置
US20160259034A1 (en) * 2015-03-04 2016-09-08 Panasonic Intellectual Property Management Co., Ltd. Position estimation device and position estimation method
KR101977090B1 (ko) * 2015-07-22 2019-05-10 엘지전자 주식회사 차량 제어 장치 및 이를 구비한 차량의 제어방법
DE102015115242A1 (de) * 2015-09-10 2017-03-16 Hella Kgaa Hueck & Co. Fahrzeug mit Lichtprojektionssystem und Verfahren zur Erzeugung eines Sicherheitsbereichs auf einer Bodenoberfläche
EP3369620B1 (en) * 2015-10-27 2023-09-20 Koito Manufacturing Co., Ltd. Vehicle
US10486742B2 (en) * 2016-08-01 2019-11-26 Magna Electronics Inc. Parking assist system using light projections

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002079896A (ja) * 2000-09-06 2002-03-19 Auto Network Gijutsu Kenkyusho:Kk 走行状態報知装置
JP2003285685A (ja) * 2002-03-27 2003-10-07 Toyota Motor Corp 車両運転支援システム
JP2013147083A (ja) * 2012-01-18 2013-08-01 Hino Motors Ltd 車両の挙動伝達装置
JP2017074820A (ja) * 2015-10-13 2017-04-20 スズキ株式会社 車両の報知システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112498534A (zh) * 2019-08-26 2021-03-16 株式会社小糸制作所 区域标志灯

Also Published As

Publication number Publication date
CN110691716B (zh) 2023-03-14
DE112017007499B4 (de) 2021-03-11
CN110691716A (zh) 2020-01-14
JP6877247B2 (ja) 2021-05-26
US20200164794A1 (en) 2020-05-28
DE112017007499T5 (de) 2020-04-02
US11518300B2 (en) 2022-12-06
JP2018203081A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
WO2018225281A1 (ja) 提示装置
US20210122364A1 (en) Vehicle collision avoidance apparatus and method
JP6938793B2 (ja) 画像座標を使用した自動トレーラ連結
US9902399B2 (en) Vehicle travelling control device for controlling a vehicle in traffic
US11492001B2 (en) Notification device
CN107651015B (zh) 辅助行车的方法、装置、计算机可读存储介质及车辆
CN108622091A (zh) 碰撞避免装置
KR20090125075A (ko) 반자동 주차 기계
JP2017033542A (ja) 情報表示装置
US10559206B2 (en) Mobile body spatial information calculation apparatus and collision avoidance system
JP2008195375A (ja) 車内情報表示装置およびそれに用いられる光照射装置
JP2006327527A (ja) 車両の走行安全装置
US20200070721A1 (en) Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
JP2020528187A (ja) 自律車両シナリオ評価および意図される車両アクションを通信するためのシステムおよび方法
JP2007091025A (ja) 車両の前方監視装置
KR20150135007A (ko) 장애물 회피가 가능한 차량 무인 주행장치 및 그 방법
CN110843666B (zh) 使用定向声音的自控车辆到行人通信
JPWO2019044571A1 (ja) 画像処理装置、および画像処理方法、プログラム、並びに移動体
WO2020031695A1 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
EP3957535A2 (en) In-vehicle acoustic monitoring method and system for driver and passenger
JP2006247803A (ja) 自律移動ロボット
US11299162B2 (en) Vehicle control device
JP2019151211A (ja) 運転支援装置、及び運転支援方法
JP2015219721A (ja) 動作支援システム及び物体認識装置
JP7059525B2 (ja) 駐車支援方法及び駐車支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17912801

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17912801

Country of ref document: EP

Kind code of ref document: A1