WO2021171699A1 - 車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム - Google Patents

車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム Download PDF

Info

Publication number
WO2021171699A1
WO2021171699A1 PCT/JP2020/040382 JP2020040382W WO2021171699A1 WO 2021171699 A1 WO2021171699 A1 WO 2021171699A1 JP 2020040382 W JP2020040382 W JP 2020040382W WO 2021171699 A1 WO2021171699 A1 WO 2021171699A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
projection
occupant
unit
projection control
Prior art date
Application number
PCT/JP2020/040382
Other languages
English (en)
French (fr)
Inventor
愛 保科
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to JP2020564275A priority Critical patent/JPWO2021171699A1/ja
Publication of WO2021171699A1 publication Critical patent/WO2021171699A1/ja
Priority to US17/891,169 priority patent/US20220388590A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J6/00Arrangement of optical signalling or lighting devices on cycles; Mounting or supporting thereof; Circuits therefor
    • B62J6/22Warning or information lights
    • B62J6/26Warning or information lights warning or informing other road users, e.g. police flash lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/34Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/44Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating braking action or preparation for braking, e.g. by detection of the foot approaching the brake pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/20Cycle computers as cycle accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/414Acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/415Inclination sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/25Information-providing devices intended to provide information to other road users, e.g. signs or flags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J6/00Arrangement of optical signalling or lighting devices on cycles; Mounting or supporting thereof; Circuits therefor
    • B62J6/05Direction indicators
    • B62J6/055Electrical means, e.g. lamps
    • B62J6/056Electrical means, e.g. lamps characterised by control means
    • B62J6/057Automatic activation, e.g. by sensors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V9/00Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters
    • F21V9/40Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters with provision for controlling spectral properties, e.g. colour, or intensity
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a vehicle projection control device, a vehicle projection system, a vehicle projection control method and a program.
  • Patent Document 1 A technique for projecting information acquired by a mobile terminal carried by a user such as a bicycle onto a road surface is known (see, for example, Patent Document 1).
  • Patent Document 1 Since the technology of Patent Document 1 projects information on the road surface, it is difficult to confirm the information from a position away from a bicycle or the like. Even when checking from the vicinity of a bicycle or the like, it may be difficult to check the information in a place where other pedestrians or bicycles are crowded.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to appropriately convey information to the periphery of the vehicle.
  • the vehicle projection control device includes a occupant detection unit that detects the boarding of a occupant of the vehicle and traveling information that acquires the traveling information of the vehicle.
  • the projection unit that projects the travel information acquired by the travel information acquisition unit in a direction corresponding to the body of the occupant of the vehicle. It is provided with a projection control unit for projecting onto.
  • the vehicle projection system includes the above-mentioned vehicle projection control device and a projection unit that projects information in a direction corresponding to the body of the occupant of the vehicle.
  • the vehicle projection control method detects a occupant by a occupant detection step for detecting the boarding of a occupant of a vehicle, a traveling information acquisition step for acquiring the traveling information of the vehicle, and a occupant detecting step.
  • a travel information acquisition step for acquiring the travel information of the vehicle
  • a projection control step that projects the travel information acquired by the travel information acquisition step onto a projection unit that projects an image in a direction corresponding to the body of the occupant of the vehicle operates as a vehicle projection control device. Let the computer do it.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle projection system according to the first embodiment.
  • FIG. 2 is a schematic view illustrating an example of a projection unit of the vehicle projection system according to the first embodiment.
  • FIG. 3 is a schematic view illustrating another example of the projection unit of the vehicle projection system according to the first embodiment.
  • FIG. 4 is a schematic view showing an example of an image projected by the projection unit.
  • FIG. 5 is a schematic view showing another example of the image projected by the projection unit.
  • FIG. 6 is a flowchart showing a processing flow in the vehicle projection system according to the first embodiment.
  • FIG. 7 is a block diagram showing a configuration example of the vehicle projection system according to the second embodiment.
  • FIG. 8 is a schematic view showing an example of an image projected by the projection unit.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle projection system according to the first embodiment.
  • FIG. 2 is a schematic view illustrating an example of a projection unit of the vehicle projection system
  • FIG. 9 is a schematic view showing another example of the image projected by the projection unit.
  • FIG. 10 is a block diagram showing a configuration example of the vehicle projection system according to the third embodiment.
  • FIG. 11 is a schematic view showing an example of the index.
  • FIG. 12 is a schematic diagram showing another example of the index.
  • FIG. 13 is a schematic diagram showing another example of the index.
  • FIG. 14 is a schematic view showing an example of an image projected by the projection unit.
  • FIG. 15 is a block diagram showing a configuration example of the vehicle projection system according to the fourth embodiment.
  • FIG. 16 is a schematic view showing an example of an image projected by the projection unit.
  • FIG. 17 is a schematic view showing another example of the image projected by the projection unit.
  • FIG. 1 is a block diagram showing a configuration example of the vehicle projection system 1 according to the first embodiment.
  • the vehicle projection system 1 projects the traveling information of the vehicle in a direction corresponding to the body of the occupant of the vehicle when the occupant on the vehicle is detected.
  • the vehicle includes, for example, a two-wheeled vehicle including a bicycle and a motorcycle, a kick skater, and the like.
  • the vehicle body is smaller in the vehicle width direction and the front-rear direction than, for example, a four-wheeled vehicle such as an automobile, and includes so-called personal mobility.
  • the vehicle may or may not be powered.
  • the running information of the vehicle is information indicating the running state of the vehicle.
  • the traveling information of the vehicle is preferably information to be notified to a third party in the vicinity of the vehicle in order to ensure the safety of the passenger of the vehicle and a third party in the vicinity of the vehicle.
  • the traveling information of the vehicle is, for example, information indicating that the vehicle is traveling, information indicating that the vehicle stops or decelerates, information indicating that the vehicle changes direction, and the like.
  • the direction corresponding to the body of the occupant of the vehicle is not directed to the vehicle and the road surface outside the occupant, but to the body of the occupant, a part of the vehicle, the loading platform towed by the vehicle, etc.
  • the vehicle projection system 1 includes a boarding sensor 10, a sensor unit 20, a projection unit 30, and a vehicle projection control device 50.
  • the boarding sensor 10 is a sensor that detects data capable of determining whether or not a occupant is on board the vehicle.
  • the boarding sensor 10 is arranged on the seat surface of a portion of the vehicle on which the occupant sits, such as the saddle of a bicycle, or on the floor surface of the vehicle, such as the board of a kick skater.
  • the boarding sensor 10 outputs the boarding sensor data to the occupant detection unit 51 of the vehicle projection control device 50.
  • the boarding sensor 10 is a sensor that detects whether or not the occupant is sitting on the seat surface.
  • the boarding sensor 10 is, for example, a pressure sensor, a contact sensor, or the like that detects a force acting on the seat surface.
  • the boarding sensor 10 detects a higher pressure than when the passenger is not seated.
  • the boarding sensor 10 is a sensor that detects whether or not the occupant is on the floor surface.
  • the boarding sensor 10 is, for example, a pressure sensor, a contact sensor, or the like that detects a force acting on the floor surface.
  • the boarding sensor 10 detects a higher pressure when the occupant is on the floor than when it is not present.
  • the boarding sensor 10 may be a camera that captures a range including the periphery of the seating surface of the vehicle.
  • the captured video data is the boarding sensor data.
  • the boarding sensor 10 may be a camera that captures a range including the periphery of the floor surface of the vehicle.
  • the captured video data is the boarding sensor data.
  • the sensor unit 20 is various sensors that detect various traveling information of the vehicle.
  • the sensor unit 20 is, for example, a sensor that detects information indicating whether or not the vehicle is traveling.
  • the sensor unit 20 is, for example, a sensor that detects information on the vehicle stopping or decelerating.
  • the sensor unit 20 is, for example, a sensor that detects information indicating a change in the direction of the vehicle.
  • the sensor unit 20 is a sensor that detects the amount of operation of each part of the vehicle, an acceleration sensor, a gyro sensor, or the like that detects the behavior of the vehicle.
  • the sensor unit 20 includes, for example, a sensor that detects the rotation of wheels, a sensor that detects the rotation of a motor that drives a vehicle, a speed sensor, an acceleration sensor, a sensor that detects the amount of steering motion, and a direction indicator. These include a sensor that detects the presence or absence of operation, a sensor that can detect the operation amount of braking operation, an acceleration sensor, a gyro sensor, and the like.
  • the sensor unit 20 may include, for example, a GPS (Global Positioning System) receiving unit that acquires the position information of the vehicle.
  • GPS Global Positioning System
  • the projection unit 30 is arranged so that information can be projected in a direction corresponding to the body of the occupant of the vehicle.
  • the projection unit 30 is installed in the vehicle.
  • the projection unit 30 is arranged so that information can be projected onto a position on the back of the occupant when the occupant is on board.
  • the projection unit 30 is, for example, a projector using a liquid crystal display or a projector using a laser light source.
  • the projection unit 30 projects an image showing information based on the image signal output by the projection control unit 54 of the vehicle projection control device 50.
  • the direction corresponding to the body of the occupant of the vehicle is the direction toward the back of the occupant.
  • projection unit 30 When the projection unit 30 is arranged at the rear of the vehicle, it projects toward the front.
  • projection may be paraphrased as projection.
  • FIG. 2 is a schematic view illustrating an example of the projection unit 30 of the vehicle projection system 1 according to the first embodiment.
  • FIG. 2 shows an example of installation of the projection unit 30 when the vehicle V is a two-wheeled vehicle.
  • the projection unit 30 is installed on the loading platform of the vehicle V toward the back MB of the passenger M.
  • the projection unit 30 can project the image 100 toward the back of the passenger.
  • FIG. 3 is a schematic view illustrating another example of the projection unit 30 of the vehicle projection system 1 according to the first embodiment.
  • FIG. 3 shows an example of installation of the projection unit 30 when the vehicle V is a kick skater.
  • the projection unit 30 is installed at the rear of the floor plate of the vehicle V toward the back MB of the passenger M.
  • the projection unit 30 can project the image 100 toward the back MB of the passenger M.
  • the vehicle projection control device 50 is, for example, an arithmetic processing unit composed of a CPU (Central Processing Unit) or the like.
  • the vehicle projection control device 50 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program.
  • the vehicle projection control device 50 includes a occupant detection unit 51, a traveling information acquisition unit 52, a projection information generation unit 53, and a projection control unit 54.
  • the vehicle projection control device 50 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the vehicle projection control device 50 and the like. In the present embodiment, the vehicle projection control device 50 will be described as being mounted on the vehicle, but it may be portable.
  • the passenger detection unit 51 detects the boarding of the occupant of the vehicle based on the boarding sensor data detected by the boarding sensor 10.
  • the occupant detection unit 51 detects boarding, for example, when the boarding sensor data indicates that the occupant has sat on the seat surface of the vehicle.
  • the occupant detection unit 51 detects boarding, for example, when the boarding sensor data indicates that the occupant is on the floor surface.
  • the passenger detection unit 51 outputs the detection result to the projection information generation unit 53 and the projection control unit 54 of the vehicle projection control device 50.
  • the travel information acquisition unit 52 acquires vehicle travel information based on the sensor data acquired from the sensor unit 20.
  • the traveling information acquisition unit 52 acquires, for example, information indicating that the vehicle is traveling from the sensor data. More specifically, the traveling information acquisition unit 52 provides information indicating that the vehicle is traveling, for example, a sensor that detects the rotation of the wheels and a sensor that detects the rotation of the motor that drives the vehicle in the sensor unit 20. , Speed sensor, acceleration sensor, sensor that detects the amount of steering movement, GPS receiver, etc. If the output of these sensors is non-zero or the value is changing, it indicates that the vehicle is running.
  • the traveling information acquisition unit 52 acquires, for example, information indicating that the vehicle is stopped or decelerated from the sensor data as the traveling information of the vehicle. More specifically, the traveling information acquisition unit 52 acquires information indicating that the vehicle is stopped or decelerated, for example, based on the braking operation of the vehicle or the output of the acceleration sensor or the gyro sensor in the sensor unit 20. Acquired as information indicating the behavior of the vehicle. When the operation amount of the braking operation of the vehicle indicates that the braking operation has been performed, or when the output of the acceleration sensor or the gyro sensor indicates the deceleration of the vehicle, it indicates that the vehicle is stopped or decelerated.
  • the traveling information acquisition unit 52 acquires, for example, information indicating that the direction of the vehicle is changed from the sensor data as the traveling information of the vehicle. More specifically, the traveling information acquisition unit 52 provides information indicating that the direction of the vehicle is changed, for example, a sensor that detects the operation of the direction indicator in the sensor unit 20, or an acceleration sensor or gyro sensor of the vehicle. Get based on the output of. When indicating that the direction indicator of the vehicle has been operated, it indicates that the vehicle has changed the direction. When the output of the accelerometer or gyro sensor has a predetermined inclination, it indicates that the vehicle is changing direction.
  • the projection information generation unit 53 generates video data to be projected from the detection result of the passenger detection unit 51 and the travel information acquired by the travel information acquisition unit 52.
  • the projection information generation unit 53 generates video data for projecting the travel information acquired by the travel information acquisition unit 52 when the passenger detection unit 51 is detecting the occupant.
  • the projection information generation unit 53 generates video data that is easily visible to a third party around the vehicle.
  • the projection information generation unit 53 outputs the generated video data to the projection control unit 54.
  • the projection information generation unit 53 generates, for example, video data in which an arrow appears to move, which is stored in a storage unit (not shown), as information indicating that the vehicle is running.
  • the projection information generation unit 53 may generate, for example, character video data or graphic video data, which is a concise message indicating that the vehicle is traveling.
  • the projection information generation unit 53 generates, for example, video data in which the movement of the arrow has stopped, which is stored in a storage unit (not shown) as information indicating the stop or deceleration of the vehicle for projection.
  • the projection information generation unit 53 may generate, for example, character video data or graphic video data, which is a simple message indicating that the vehicle is stopped or decelerated.
  • the projection information generation unit 53 generates, for example, video data of an arrow indicating the direction of changing the course of the vehicle stored in a storage unit (not shown) as information indicating the direction change of the vehicle for projection.
  • the projection information generation unit 53 may generate, for example, character video data or graphic video data, which is a simple message indicating a change in the direction of the vehicle.
  • FIG. 4 is a schematic view showing an example of an image projected by the projection unit 30.
  • FIG. 4 is an example of video data of a graphic showing the stop of the vehicle.
  • FIG. 5 is a schematic view showing another example of the image projected by the projection unit 30.
  • FIG. 5 is an example of video data of a graphic showing a course due to a change in the direction of the vehicle.
  • the projection control unit 54 projects the video data generated by the projection information generation unit 53 by the projection unit 30.
  • the projection control unit 54 corresponds to the body of the occupant of the vehicle via the projection unit 30 with the travel information acquired by the travel information acquisition unit 52 when the passenger detection unit 51 is detecting the occupant. Project in the direction. In other words, the projection control unit 54 projects the traveling information toward the occupant's back while the occupant is on board.
  • the projection control unit 54 when the passenger detection unit 51 detects the occupant and the travel information acquisition unit 52 acquires information indicating that the vehicle is traveling, the travel information acquisition unit 54 The traveling information acquired by the 52 may be projected in a direction corresponding to the body of the occupant of the vehicle via the projection unit 30. In other words, the projection control unit 54 may project the travel information toward the passenger's back while the passenger is on board and the vehicle is traveling.
  • the projection control unit 54 When the projection control unit 54 acquires information indicating that the traveling information acquisition unit 52 stops or decelerates the vehicle, the projection control unit 54 stops or decelerates in a direction corresponding to the body of the occupant of the vehicle via the projection unit 30. An image showing the above may be projected. In other words, the projection control unit 54 directs an image showing the stop or deceleration to the back of the occupant while the operation for stopping or decelerating the vehicle is being performed, that is, while the vehicle is decelerating. It may be projected.
  • the projection control unit 54 When the projection control unit 54 acquires information indicating that the traveling information acquisition unit 52 changes the direction of the vehicle, the projection control unit 54 may project an image indicating the direction of the change to the body of the occupant of the vehicle. good. In other words, the projection control unit 54 changes the direction from the time when the output of the acceleration sensor or the gyro sensor starts to show a predetermined acceleration or tilt while the projection control unit 54 shows the predetermined acceleration or tilt, that is, the vehicle is changing its direction. An image showing a stop or deceleration may be projected for a while.
  • FIG. 6 is a flowchart showing a processing flow in the vehicle projection system 1 according to the first embodiment.
  • the boarding sensor 10 While the vehicle projection system 1 is being activated, the boarding sensor 10 constantly detects the occupant's boarding in the vehicle and outputs the occupant sensor data to the occupant detection unit 51 of the vehicle projection control device 50. Further, during the activation of the vehicle projection system 1, the sensor unit 20 constantly detects the traveling state of the vehicle and outputs the detected sensor data to the traveling information acquisition unit 52 of the vehicle projection control device 50. During the activation of the vehicle projection system 1, the vehicle projection control device 50 repeatedly executes the processes of steps S101 to S105.
  • the vehicle projection control device 50 determines whether or not the travel information acquisition unit 52 has acquired the travel information of the vehicle to be projected (step S101). When it is determined that the travel information acquisition unit 52 has acquired the travel information of the vehicle to be projected (Yes in step S101), the process proceeds to step S102. If the travel information acquisition unit 52 does not determine that the travel information of the vehicle to be projected has been acquired (No in step S101), the process proceeds to step S105.
  • the vehicle projection control device 50 determines whether or not the occupant is on board (step S102). More specifically, when the passenger detection unit 51 detects that the occupant is in the vehicle based on the boarding sensor data (Yes in step S102), the process proceeds to step S103. If the occupant detection unit 51 does not detect that the occupant is on board based on the boarding sensor data (No in step S102), the process proceeds to step S105.
  • step S103 the vehicle projection control device 50 determines whether or not the vehicle is traveling. More specifically, when the travel information acquisition unit 52 indicates that the vehicle is traveling based on the sensor data (Yes in step S103), the process proceeds to step S104. When the travel information acquisition unit 52 indicates that the vehicle is not traveling based on the sensor data (No in step S103), the process proceeds to step S105.
  • the vehicle projection control device 50 projects the running information (step S104). More specifically, the projection information generation unit 53 generates video data for projection showing traveling information. The projection control unit 54 projects the generated video data for projection toward the body of the occupant of the vehicle via the projection unit 30. The vehicle projection control device 50 proceeds to step S105. The processing order of the processes of steps S101 to S103 may be changed.
  • the vehicle projection control device 50 determines whether or not to end the projection (step S105).
  • the vehicle projection control device 50 determines, for example, the end of projection based on the vehicle travel information acquired by the travel information acquisition unit 52.
  • the vehicle projection control device 50 starts projection based on the information indicating that the vehicle is stopped or decelerated, or when the acquisition of the information indicating that the vehicle is stopped or decelerated is completed.
  • a predetermined period has passed since the vehicle stopped, or the detection result of the occupant detection unit 51 indicates that the occupant has disembarked from the vehicle, it is determined that the projection is terminated.
  • the vehicle projection control device 50 starts projection based on the information indicating that the vehicle is to change the direction, when the acquisition of the information for indicating that the vehicle is to be changed is completed, or the vehicle. When a predetermined time has elapsed after the acquisition of the information indicating that the direction of the above is changed is completed, it is determined that the projection is finished. When the vehicle projection control device 50 determines that the projection is finished (Yes in step S105), the vehicle projection control device 50 ends the process. If the vehicle projection control device 50 does not determine that the projection is finished (No in step S105), the process of step S101 is executed again.
  • ⁇ Effect> As described above, in the present embodiment, when the occupant of the vehicle is detected, an image showing the traveling information of the vehicle is projected on the body of the occupant of the vehicle, for example, in the direction of the back of the occupant of the vehicle. Project in the appropriate direction. According to the present embodiment, the traveling information of the vehicle can be projected on a part of the body such as the back of the passenger or a part of the vehicle above the road surface. According to the present embodiment, a third party around the vehicle can confirm the traveling information of the vehicle even from a position away from the vehicle. According to the present embodiment, a third party around the vehicle can confirm the traveling information of the vehicle even in a place where other pedestrians, bicycles, and the like are crowded. As described above, according to the present embodiment, information can be appropriately transmitted to a third party around the vehicle.
  • the traveling information of the vehicle corresponds to the body of the occupant of the vehicle. Project in the direction.
  • the traveling information of the vehicle can be more appropriately transmitted to a third party around the vehicle. In this embodiment, it is possible to prevent unnecessary information from being projected when the vehicle remains stopped even while the passenger is in the vehicle. In addition, it is possible to prevent the information from being inadvertently projected when the passenger is not on board the vehicle.
  • an image showing the stop or deceleration is projected in the direction corresponding to the body of the occupant of the vehicle. According to the present embodiment, it is possible to appropriately inform a third party in the vicinity of the vehicle that the vehicle is stopped or decelerated. This embodiment can improve the safety of the occupants of the vehicle and third parties around the vehicle.
  • information indicating that the vehicle is stopped or decelerated is acquired based on the braking operation of the vehicle or the output of the vehicle acceleration sensor or the gyro sensor in the sensor unit 20.
  • accurate information can be projected based on accurate information indicating that the vehicle is stopped or decelerated.
  • the present embodiment when information indicating that the direction of the vehicle is changed is acquired, an image showing the direction of changing the direction corresponding to the body of the occupant of the vehicle is projected. According to the present embodiment, it is possible to appropriately inform a third party in the vicinity of the vehicle that the vehicle changes direction. This embodiment can improve the safety of the occupants of the vehicle and third parties around the vehicle.
  • information for indicating that the direction of the vehicle is changed is acquired based on the output of the vehicle acceleration sensor, the gyro sensor, or the like in the sensor unit 20. According to the present embodiment, accurate information can be projected based on accurate information indicating that the direction of the vehicle is changed.
  • FIG. 7 is a block diagram showing a configuration example of the vehicle projection system 1A according to the second embodiment.
  • FIG. 8 is a schematic view showing an example of an image projected by the projection unit 30.
  • FIG. 9 is a schematic view showing another example of the image projected by the projection unit 30.
  • the vehicle projection system 1A has the same basic configuration as the vehicle projection system 1 of the first embodiment. In the following description, the same components as those of the vehicle projection system 1 of the first embodiment are designated by the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted.
  • the point that the light amount sensor 40A is provided, the point that the vehicle projection control device 50A is provided with the light amount detection unit 55A, and the processing in the projection control unit 54A of the vehicle projection control device 50A are the first embodiments. different.
  • the light amount sensor 40A is a sensor that is placed in the vehicle and acquires the amount of light around the vehicle.
  • the light amount sensor 40A outputs the measured light amount sensor data to the light amount detection unit 55A.
  • the light amount detection unit 55A detects the amount of light around the vehicle.
  • the light amount detection unit 55A acquires light amount sensor data indicating the amount of light around the vehicle from the light amount sensor 40A.
  • the light amount detection unit 55A outputs the light amount detection result to the projection control unit 54A.
  • the projection control unit 54A changes the projection mode and projects according to the amount of light around the vehicle detected by the light amount detection unit 55A. More specifically, when the light amount detected by the light amount detecting unit 55A indicates that the periphery of the vehicle is bright, the projection control unit 54A projects the projected image data by changing the projection mode.
  • the brightness around the vehicle means, for example, the same level of brightness from sunrise to sunset.
  • the term “bright around the vehicle” means, for example, the brightness that allows the vehicle to travel without turning on the headlights.
  • the term “bright around the vehicle” includes, for example, brightening by lighting even at night.
  • the projection control unit 54A changes the color, brightness, and brightness of the video data to project video data in a mode emphasized so as to enhance visibility.
  • the projection control unit 54A may, for example, project video data in a mode in which the size of the video data is increased to enhance visibility.
  • the projection control unit 54A may, for example, project the video data in a mode in which the periphery of the video data is bordered and emphasized so as to enhance visibility.
  • the video data shown in FIG. 8 is a figure of a colored arrow, and shows an aspect of the video data projected at night.
  • the video data shown in FIG. 8 is not bordered.
  • the video data shown in FIG. 9 is a figure of an arrow that is colored and has a border around it, and shows an aspect of the video data projected in the daytime.
  • the present embodiment can be changed to a mode in which the visibility is improved when the periphery of the vehicle is bright and the visibility is higher than when the periphery of the vehicle is dark, and the traveling information can be projected. According to the present embodiment, information can be appropriately transmitted to a third party around the vehicle even when the surroundings of the vehicle are bright.
  • FIG. 10 is a block diagram showing a configuration example of the vehicle projection system 1B according to the third embodiment.
  • FIG. 11 is a schematic view showing an example of the index P.
  • FIG. 12 is a schematic view showing another example of the index P.
  • FIG. 13 is a schematic view showing another example of the index P.
  • FIG. 14 is a schematic view showing an example of an image projected by the projection unit 30.
  • the present embodiment differs from the first embodiment in that the camera 60B is provided, the vehicle projection control device 50B is provided with the index detection unit 56B, and the processing in the projection control unit 54B of the vehicle projection control device 50B. ..
  • the camera 60B is arranged in the vicinity of the projection unit 30 so that the projection direction of the projection unit 30 can be photographed.
  • the camera 60B is arranged in the vicinity of the projection unit 30 so that the projection range R of the projection unit 30 is included in the shooting range Q.
  • the camera 60B is arranged so that the direction corresponding to the body of the occupant of the vehicle is included in the photographing range Q.
  • the camera 60B outputs the captured shooting data to the index detection unit 56B.
  • the index detection unit 56B detects the index P indicating the projection range R in the projection direction of the projection unit 30. More specifically, when the occupant detection unit 51 detects that the occupant of the vehicle has boarded, the index detection unit 56B detects the index P in the shooting range Q from the shooting data taken by the camera 60B.
  • the index P is a mark indicating the projection range R.
  • the shape of the index P is predetermined and is a shape that does not misidentify other patterns or the like.
  • the index P is shown, for example, in a frame shape surrounding the projection range R, a diagram shape showing the projection range R in a plane shape, a dot shape in which the outer shape of the projection range R can be specified, and the like.
  • the point-shaped index P is mounted at, for example, at least two or four places as a predetermined number for defining the projection range R.
  • the two indexes P indicate the diagonal of a rectangular range having a predetermined aspect ratio.
  • three or four indicators P indicate a rectangular range defined by those points.
  • the index P is not limited to a rectangular shape, and may be any shape such as a polygonal shape, a circular shape, and an elliptical shape.
  • the index P will be described with reference to FIGS. 11 to 13.
  • 11 to 13 are examples of the dot-shaped index P.
  • the index P may be, for example, a figure in which five rectangular shapes are combined.
  • the index P may be, for example, a figure in which four rectangular shapes are arranged at four ends of a cross.
  • the index P may be, for example, a figure in which four rectangular shapes are arranged on the top of the square.
  • at least two or four such indexes P are mounted to define the projection range R.
  • the projection range R is defined by the three indices P indicating the three rectangular tops.
  • the color of each index is arbitrary, but it is preferably a color that can be easily distinguished from the color of clothes worn by the passenger, and a reflective material may be used.
  • the index P may be attached to, for example, clothing and a helmet worn by the passenger, and may be removable by a hook-and-loop fastener, a snap button, or the like.
  • the indicator P may be pre-attached to, for example, clothing such as a passenger vest sold with the vehicle.
  • the index P defines the projection range R with a shape and arrangement that enhances visibility.
  • the index P defines the projection range R in a shape and arrangement that is less likely to be deformed or hidden by the movement of the occupant.
  • the process of detecting the index P by the index detection unit 56B may replace the passenger detection unit 51 that detects the boarding of the occupant of the vehicle.
  • the fact that the index P is detected by the index detection unit 56B within the shooting range Q defined by the shooting angle of view of the camera 60B within a range having a size equal to or larger than a predetermined angle of view means that the passenger boarded the vehicle. This is to mean that there is.
  • the projection control unit 54B projects the traveling information into the projection range R defined by the index P detected by the index detection unit 56B.
  • the projection control unit 54B projects in the projection range R defined by the index P in the direction corresponding to the occupant's body.
  • the projection control unit 54B projects the traveling information on the back MB of the passenger M into the projection range R defined by the index P while the passenger M is on board.
  • the traveling information is projected in the range defined by the index P.
  • the traveling information can be projected in an appropriate range.
  • information can be more appropriately transmitted to a third party around the vehicle.
  • FIG. 15 is a block diagram showing a configuration example of the vehicle projection system 1C according to the fourth embodiment.
  • FIG. 16 is a schematic view showing an example of an image projected by the projection unit 30.
  • FIG. 17 is a schematic view showing another example of the image projected by the projection unit 30.
  • the point that the camera 60C is provided, the point that the vehicle projection control device 50C is provided with the head detection unit 57C, and the processing in the projection control unit 54C of the vehicle projection control device 50C are the first embodiments. different.
  • the camera 60C is arranged in the vicinity of the projection unit 30 so that the projection direction of the projection unit 30 can be photographed. More specifically, the camera 60C is arranged so as to include the head of the occupant of the vehicle in the photographing range Q. The camera 60C outputs the captured shooting data to the head detection unit 57C.
  • the head detection unit 57C detects the head of the occupant of the vehicle in the projection direction of the projection unit 30. More specifically, when the occupant detection unit 51 detects that the occupant of the vehicle has boarded, the head detection unit 57C detects the occupant's head in the imaging range Q from the imaging data captured by the camera 60C. ..
  • the head detection unit 57C may perform person recognition for detecting a person with respect to the captured shooting data, and may specify the head of the recognized person. In this case, the person recognition uses a recognition dictionary in which the image of the upper body of the person taken from behind is learned.
  • the head detection unit 57C may detect it as the head of the occupant.
  • the head detection unit 57C displays the head MH of the passenger M in the left-right direction in the shooting range Q of the shot image. Detect near the center line L.
  • the head detection unit 57C captures the head MH of the occupant M in the captured image.
  • the detection is performed at a position tilted to the left or right from the center line L or a position deviated from the center line L.
  • the process of detecting the occupant's head by the head detection unit 57C may replace the occupant detection unit 51 that detects the boarding of the occupant of the vehicle.
  • the fact that the head detection unit 57C detects the occupant's head within the shooting range Q defined by the shooting angle of view of the camera 60C within a range larger than a predetermined angle of view means that the occupant of the vehicle This is because it means that he boarded.
  • the projection control unit 54C changes the projection position of the travel information acquired by the travel information acquisition unit 52 based on the position of the head detected by the head detection unit 57C.
  • the projection control unit 54C When the projection control unit 54C indicates that the occupant's head is detected near the center line L in the left-right direction of the captured image based on the detection result of the head detection unit 57C, for example, the projection control unit 54C projects the traveling information in the projection range. It is projected onto the central part of R in the left-right direction.
  • the projection control unit 54C When the projection control unit 54C indicates that, for example, based on the detection result of the head detection unit 57C, the occupant's head is detected at a position tilted in the left-right direction of the captured image or at a position shifted.
  • the projection position of the running information is changed based on the position where the head is detected. Specifically, the projection control unit 54C shifts the projection position in the projection range R of the traveling information to the left or right so as to correspond to the positional deviation of the head.
  • the projection position of the traveling information is changed based on the detected position of the head.
  • the present embodiment can be appropriately projected to a position where the passenger is present. According to this embodiment, information can be more appropriately transmitted to a third party around the vehicle.
  • vehicle projection system 1 according to the present disclosure has been described so far, it may be implemented in various different forms other than the above-described embodiment.
  • Each component of the illustrated vehicle projection system 1 is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.
  • the configuration of the vehicle projection system 1 is realized, for example, by a program loaded in a memory as software.
  • a program loaded in a memory as software it has been described as a functional block realized by linking these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the projection control unit 54 enhances visibility according to the detected color of the projection target based on the detection result of the target detection unit that detects the color of the projection target, for example, the color of the garment of the passenger.
  • the color of the video data may be changed and projected. As a result, information can be appropriately transmitted to a third party around the vehicle regardless of the color of the projection target.
  • the projection unit 30 may be arranged at the front of the vehicle and projected in the direction corresponding to the occupant's body, that is, toward the rear.
  • the projection unit 30 may be arranged at the rear of the loading platform of the vehicle and projected in a direction corresponding to the occupant's body, that is, toward the front.
  • the vehicle projection control device, the vehicle projection system, the vehicle projection control method and the program of the present disclosure are for transmitting information to the periphery of the vehicle in, for example, a two-wheeled vehicle including a bicycle and a motorcycle, and a vehicle such as a kick skater. Can be used for.
  • Vehicle projection system 10 Boarding sensor 20 Sensor unit 30 Projection unit 50 Vehicle projection control device 51 Passenger detection unit 52 Driving information acquisition unit 53 Projection information generation unit 54 Projection control unit 100 Video M Passenger MB Back MH Head

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車両の周辺に適切に情報を伝えること。車両用投影制御装置(50)は、車両の搭乗者の搭乗を検出する搭乗者検出部(51)と、車両の走行情報を取得する走行情報取得部(52)と、搭乗者検出部(51)が搭乗者を検出しているときに、走行情報取得部(52)が取得した走行情報を、車両の搭乗者の身体に該当する方向に投影する投影制御部(54)と、を備える。

Description

車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム
 本発明は、車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラムに関する。
 自転車等のユーザが携帯する携帯端末が取得した情報を路面に投影する技術が知られている(例えば、特許文献1参照)。
特開2016-090318号公報
 特許文献1の技術では、路面に情報を投影するため、自転車等から離れた位置から情報を確認することが困難である。自転車等の近傍から確認する場合であっても、他の歩行者や自転車が密集している場所では、情報の確認が困難になるおそれがある。
 本開示は、上記に鑑みてなされたものであって、車両の周辺に適切に情報を伝えることを目的とする。
 上述した課題を解決し、目的を達成するために、本開示に係る車両用投影制御装置は、車両の搭乗者の搭乗を検出する搭乗者検出部と、前記車両の走行情報を取得する走行情報取得部と、前記搭乗者検出部が搭乗者を検出しているときに、前記走行情報取得部が取得した走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御部と、を備える。
 本開示に係る車両用投影システムは、上記の車両用投影制御装置と、前記車両の搭乗者の身体に該当する方向に情報を投影する投影部と、を備える。
 本開示に係る車両用投影制御方法は、車両の搭乗者の搭乗を検出する搭乗者検出ステップと、前記車両の走行情報を取得する走行情報取得ステップと、前記搭乗者検出ステップによって搭乗者を検出しているときに、前記走行情報取得ステップによって取得された走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御ステップと、を含む。
 本開示に係るプログラムは、車両の搭乗者の搭乗を検出する搭乗者検出ステップと、前記車両の走行情報を取得する走行情報取得ステップと、前記搭乗者検出ステップによって搭乗者を検出しているときに、前記走行情報取得ステップによって取得された走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御ステップと、を、車両用投影制御装置として動作するコンピュータに実行させる。
 本開示によれば、車両の周辺に適切に情報を伝えることができるという効果を奏する。
図1は、第一実施形態に係る車両用投影システムの構成例を示すブロック図である。 図2は、第一実施形態に係る車両用投影システムの投影部の一例を説明する概略図である。 図3は、第一実施形態に係る車両用投影システムの投影部の他の例を説明する概略図である。 図4は、投影部によって投影される映像の一例を示す概略図である。 図5は、投影部によって投影される映像の他の例を示す概略図である。 図6は、第一実施形態に係る車両用投影システムにおける処理の流れを示すフローチャートである。 図7は、第二実施形態に係る車両用投影システムの構成例を示すブロック図である。 図8は、投影部によって投影される映像の一例を示す概略図である。 図9は、投影部によって投影される映像の他の例を示す概略図である。 図10は、第三実施形態に係る車両用投影システムの構成例を示すブロック図である。 図11は、指標の一例を示す概略図である。 図12は、指標の他の例を示す概略図である。 図13は、指標の他の例を示す概略図である。 図14は、投影部によって投影される映像の一例を示す概略図である。 図15は、第四実施形態に係る車両用投影システムの構成例を示すブロック図である。 図16は、投影部によって投影される映像の一例を示す概略図である。 図17は、投影部によって投影される映像の他の例を示す概略図である。
 以下に添付図面を参照して、本開示に係る車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
<車両用投影システム>
 図1は、第一実施形態に係る車両用投影システム1の構成例を示すブロック図である。車両用投影システム1は、車両に搭乗している搭乗者を検出しているときに、車両の走行情報を、車両の搭乗者の身体に該当する方向に投影する。
 車両とは、例えば、自転車および自動二輪車を含む二輪車、および、キックスケータなどを含む。車両は、例えば、自動車などの四輪車に比べて、車体が車幅方向および前後方向に小さいものであり、いわゆる、パーソナルモビリティなどを含む。車両は、動力の有無は問わない。
 車両の走行情報とは、車両の走行状態を示す情報である。車両の走行情報は、車両の搭乗者と車両の周辺の第三者との安全を確保するために、車両の周辺の第三者に報知することが好ましい情報である。車両の走行情報は、例えば、車両が走行中であることを示す情報、車両が停止または減速を行うことを示す情報、および、車両が方向変更を行うことを示す情報などである。
 車両の搭乗者の身体に該当する方向とは、車両および搭乗者より外側の路面などに向けるものではなく、搭乗者の身体、車両の一部、車両がけん引する荷台などに向けることをいう。
 車両用投影システム1は、搭乗センサ10と、センサユニット20と、投影部30と、車両用投影制御装置50とを有する。
 搭乗センサ10は、車両に搭乗者が搭乗しているか否かを判定可能なデータを検出するセンサである。搭乗センサ10は、自転車のサドルのような、車両において搭乗者が座る部分の座面、または、キックスケータのボードのような、車両の床面などに配置されている。搭乗センサ10は、搭乗センサデータを、車両用投影制御装置50の搭乗者検出部51に出力する。
 より詳しくは、搭乗センサ10は、搭乗者が座面に座ったか否かを検出するセンサである。搭乗センサ10は、例えば、座面に作用する力を検出する、圧力センサ、または、接触センサなどである。搭乗センサ10は、搭乗者が運転者に座面に座った場合、着席していない状態に比べて、高い圧力を検出する。
 搭乗センサ10は、搭乗者が床面の上に存在するか否かを検出するセンサである。搭乗センサ10は、例えば、床面に作用する力を検出する、圧力センサ、または、接触センサなどである。搭乗センサ10は、搭乗者が床面の上に存在する場合、存在しない状態に比べて、高い圧力を検出する。
 搭乗センサ10は、車両の座面の周辺を含む範囲を撮影するカメラであってもよい。この場合、撮影された映像データが、搭乗センサデータである。また、撮影された映像データから、搭乗者が座面に座っているか否かが検出可能である。
 搭乗センサ10は、車両の床面の周辺を含む範囲を撮影するカメラであってもよい。この場合、撮影された映像データが、搭乗センサデータである。また、撮影された映像データから、搭乗者が床面の上に存在するか否かが検出可能である。
 センサユニット20は、車両の各種走行情報を検出する各種センサである。センサユニット20は、例えば、車両が走行中か否かを示す情報を検出するセンサである。センサユニット20は、例えば、車両が停止または減速を行う情報を検出するセンサである。センサユニット20は、例えば、車両の方向変更を示す情報を検出するセンサである。センサユニット20は、車両の各部の操作量を検出するセンサ、および、車両の挙動を検出する、加速度センサやジャイロセンサなどである。より詳しくは、センサユニット20は、例えば、車輪の回転を検出するセンサ、車両を駆動するモータの回転を検出するセンサ、速度センサ、加速度センサ、ステアリングの動作量を検出するセンサ、方向指示器の操作の有無を検出するセンサ、制動操作の操作量を検出可能なセンサ、および、加速度センサ、ジャイロセンサなどである。センサユニット20は、例えば、車両の位置情報を取得するGPS(Global Positioning System)受信部を含んでもよい。
 投影部30は、車両の搭乗者の身体に該当する方向に情報を投影可能に配置される。投影部30は、車両に設置されている。投影部30は、搭乗者が搭乗したときに、搭乗者の背中となる位置に対して情報を投影可能に配置されている。投影部30は、例えば、液晶を使用したプロジェクタ、または、レーザ光源を使用したプロジェクタである。投影部30は、車両用投影制御装置50の投影制御部54が出力した映像信号に基づいて情報を示す映像を投影する。本実施形態では、車両の搭乗者の身体に該当する方向とは、搭乗者の背中に向けた方向である。投影部30が、車両の後部に配置された場合、前方に向けて投影する。本開示において、投影は、投射と言い換えてもよい。
 図2は、第一実施形態に係る車両用投影システム1の投影部30の一例を説明する概略図である。図2は、車両Vが二輪車である場合における、投影部30の設置の一例を示す。図2では、投影部30は、車両Vの荷台に、搭乗者Mの背中MBに向けて設置されている。投影部30は、搭乗者の背中に向けて映像100を投影可能である。
 図3は、第一実施形態に係る車両用投影システム1の投影部30の他の例を説明する概略図である。図3は、車両Vがキックスケータである場合における、投影部30の設置の一例を示す。図3では、投影部30は、車両Vの床板の後部に、搭乗者Mの背中MBに向けて設置されている。投影部30は、搭乗者Mの背中MBに向けて映像100を投影可能である。
 図1に戻って、車両用投影制御装置50は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。車両用投影制御装置50は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。車両用投影制御装置50は、搭乗者検出部51と、走行情報取得部52と、投影情報生成部53と、投影制御部54とを有する。車両用投影制御装置50には図示しない内部メモリが含まれ、内部メモリは車両用投影制御装置50におけるデータの一時記憶などに用いられる。本実施形態では、車両用投影制御装置50は、車両に載置されているものとして説明するが、可搬型であってもよい。
 搭乗者検出部51は、搭乗センサ10が検出した搭乗センサデータに基づいて、車両の搭乗者の搭乗を検出する。搭乗者検出部51は、例えば、搭乗センサデータが、搭乗者が車両の座面に座ったことを示す場合、搭乗を検出する。搭乗者検出部51は、例えば、搭乗センサデータが、搭乗者が床面の上に存在することを示す場合、搭乗を検出する。搭乗者検出部51は、検出結果を、車両用投影制御装置50の投影情報生成部53と投影制御部54とへ出力する。
 走行情報取得部52は、センサユニット20から取得したセンサデータに基づいて、車両の走行情報を取得する。
 走行情報取得部52は、センサデータから、例えば、車両が走行中であることを示す情報を取得する。より詳しくは、走行情報取得部52は、車両が走行中であることを示す情報を、例えば、センサユニット20のうち、車輪の回転を検出するセンサ、車両を駆動するモータの回転を検出するセンサ、速度センサ、加速度センサ、ステアリングの動作量を検出するセンサ、GPS受信部などの出力に基づいて取得する。これらのセンサの出力が、ゼロではない場合、または、値が変化している場合、車両が走行中であることを示す。
 走行情報取得部52は、センサデータから、例えば、車両の停止または減速を行うことを示す情報を、車両の走行情報として取得する。より詳しくは、走行情報取得部52は、車両の停止または減速を行うことを示す情報を、例えば、センサユニット20のうち、車両の制動操作または、加速度センサやジャイロセンサの出力に基づいて取得した車両の挙動を示す情報として取得する。車両の制動操作の操作量が制動操作を行ったことを示す場合、または、加速度センサやジャイロセンサの出力が車両の減速を示している場合、車両が停止または減速を行っていることを示す。
 走行情報取得部52は、センサデータから、例えば、車両の方向変更を行うことを示す情報を、車両の走行情報として取得する。より詳しくは、走行情報取得部52は、車両の方向変更を行うことを示す情報を、例えば、センサユニット20のうち、方向指示器の操作を検出するセンサ、または、車両の加速度センサやジャイロセンサの出力に基づいて取得する。車両の方向指示器の操作を行ったことを示す場合、車両が方向変更を行うことを示す。加速度センサやジャイロセンサの出力が所定の傾きを有する場合、車両が方向変更を行っていることを示す。
 投影情報生成部53は、搭乗者検出部51の検出結果と、走行情報取得部52が取得した走行情報から、投影する映像データを生成する。投影情報生成部53は、搭乗者検出部51が搭乗者を検出しているときに、走行情報取得部52が取得した走行情報を投影する映像データを生成する。投影情報生成部53は、車両の周辺の第三者が視認しやすい映像データを生成する。投影情報生成部53は、生成した映像データを、投影制御部54に出力する。
 投影情報生成部53は、例えば、車両が走行中であることを示す情報として、図示しない記憶部に記憶された、矢印が動いて見える映像データを投影用に生成する。投影情報生成部53は、例えば、車両が走行中であることを示す、簡潔なメッセージである文字の映像データ、または、図形の映像データを生成してもよい。
 投影情報生成部53は、例えば、車両の停止または減速を示す情報として、図示しない記憶部に記憶された、矢印の動きが停止した映像データを投影用に生成する。投影情報生成部53は、例えば、車両の停止または減速を示す、簡潔なメッセージである文字の映像データ、または、図形の映像データを生成してもよい。
 投影情報生成部53は、例えば、車両の方向変更を示す情報として、図示しない記憶部に記憶された、車両の進路を変更する方向を示す矢印の映像データを投影用に生成する。投影情報生成部53は、例えば、車両の方向変更を示す、簡潔なメッセージである文字の映像データ、または、図形の映像データを生成してもよい。
 図4は、投影部30によって投影される映像の一例を示す概略図である。図4は、車両の停止を示す図形の映像データの一例である。
 図5は、投影部30によって投影される映像の他の例を示す概略図である。図5は、車両の方向変更による進路を示す図形の映像データの一例である。
 投影制御部54は、投影情報生成部53が生成した映像データを、投影部30によって投影させる。投影制御部54は、搭乗者検出部51が搭乗者を検出しているときに、走行情報取得部52が取得した走行情報を、投影部30を介して、車両の搭乗者の身体に該当する方向に投影する。言い換えると、投影制御部54は、搭乗者の搭乗中、走行情報を搭乗者の背中に向けて投影する。
 投影制御部54は、搭乗者検出部51が搭乗者を検出しており、かつ、走行情報取得部52は車両が走行中であることを示す情報を取得しているときに、走行情報取得部52が取得した走行情報を、投影部30を介して、車両の搭乗者の身体に該当する方向に投影してもよい。言い換えると、投影制御部54は、搭乗者が搭乗中であり、車両が走行中である間、走行情報を搭乗者の背中に向けて投影してもよい。
 投影制御部54は、走行情報取得部52が車両の停止または減速を行うことを示す情報を取得したときに、投影部30を介して、車両の搭乗者の身体に該当する方向に停止または減速を示す映像を投影してもよい。言い換えると、投影制御部54は、車両の停止または減速を行うための操作が行われている間、つまり、車両が減速している間、停止または減速を示す映像を搭乗者の背中に向けて投影してもよい。
 投影制御部54は、走行情報取得部52が車両の方向変更を行うことを示す情報を取得したときに、車両の搭乗者の身体に該当する方向に変更する方向を示す映像を投影してもよい。言い換えると、投影制御部54は、加速度センサまたはジャイロセンサの出力が所定の加速度や傾きを示し始めたときから、所定の加速度や傾きを示している間、すなわち、車両が方向変更をしている間、停止または減速を示す映像を投影してもよい。
<車両用投影システムにおける処理>
 次に、図6を用いて、車両用投影システム1の車両用投影制御装置50における処理の流れについて説明する。図6は、第一実施形態に係る車両用投影システム1における処理の流れを示すフローチャートである。
 車両用投影システム1の起動中、常時、搭乗センサ10が、車両への搭乗者の搭乗を検出して、搭乗者センサデータを、車両用投影制御装置50の搭乗者検出部51へ出力する。また、車両用投影システム1の起動中、常時、センサユニット20が車両の走行状態を検出して、検出したセンサデータを、車両用投影制御装置50の走行情報取得部52へ出力する。車両用投影システム1の起動中、車両用投影制御装置50によって、ステップS101ないしステップS105の処理が繰り返し実行される。
 車両用投影制御装置50は、走行情報取得部52によって、投影対象の車両の走行情報を取得したか否かを判定する(ステップS101)。走行情報取得部52によって、投影対象の車両の走行情報を取得したと判定する場合(ステップS101でYes)、ステップS102に進む。走行情報取得部52によって、投影対象の車両の走行情報を取得したと判定しない場合(ステップS101でNo)、ステップS105に進む。
 投影対象の車両の走行情報を取得したと判定する場合(ステップS101でYes)、車両用投影制御装置50は、搭乗者が搭乗中であるか否かを判定する(ステップS102)。より詳しくは、搭乗者検出部51によって、搭乗センサデータに基づいて、搭乗者が車両に搭乗中であることを検出した場合(ステップS102でYes)、ステップS103へ進む。搭乗者検出部51によって、搭乗センサデータに基づいて、搭乗者が搭乗中であることを検出しない場合(ステップS102でNo)、ステップS105へ進む。
 搭乗者が搭乗中であることを検出した場合(ステップS102でYes)、車両用投影制御装置50は、車両が走行中であるか否かを判定する(ステップS103)。より詳しくは、走行情報取得部52によって、センサデータに基づいて、車両が走行中であることを示す場合(ステップS103でYes)、ステップS104へ進む。走行情報取得部52によって、センサデータに基づいて、車両が走行中ではないことを示す場合(ステップS103でNo)、ステップS105へ進む。
 車両が走行中であることを示す場合(ステップS103でYes)、車両用投影制御装置50は、走行情報を投影する(ステップS104)。より詳しくは、投影情報生成部53によって、走行情報を示す投影用の映像データを生成する。投影制御部54によって、生成した投影用の映像データを、投影部30を介して、車両の搭乗者の身体の方向へ向けて投影する。車両用投影制御装置50は、ステップS105に進む。ステップS101からステップS103の処理は、処理順が入れ替わってもよい。
 車両用投影制御装置50は、投影を終了するか否かを判断する(ステップS105)。車両用投影制御装置50は、例えば、走行情報取得部52が取得した、車両の走行情報に基づいて、投影の終了を判断する。車両用投影制御装置50は、車両の停止または減速を行うことを示すための情報に基づいて投影を開始した場合、車両の停止または減速を行うことを示すための情報の取得が終了した場合、車両が停止した場合、車両が停止してから所定期間が経過した場合、または、搭乗者検出部51の検出結果が、搭乗者が車両から降車したことを示す場合、投影を終了すると判断する。車両用投影制御装置50は、車両の方向変更を行うことを示すための情報に基づいて投影を開始した場合、車両の方向変更を行うことを示すための情報の取得が終了した場合、または車両の方向変更を行うことを示すための情報の取得が終了してから所定時間が経過した場合、投影を終了すると判断する。車両用投影制御装置50は、投影を終了すると判断する場合(ステップS105でYes)、処理を終了する。車両用投影制御装置50は、投影を終了すると判断しない場合(ステップS105でNo)、ステップS101の処理を再度実行する。
<効果>
 上述したように、本実施形態では、車両の搭乗者を検出しているときに、車両の走行情報を示す映像を、例えば、車両の搭乗者の背中の方向など、車両の搭乗者の身体に該当する方向に投影する。本実施形態によれば、路面より上側で、搭乗者の背中などの身体の一部、または、車両の一部などに、車両の走行情報を投影できる。本実施形態によれば、車両の周辺の第三者は、車両から離れた位置からでも、車両の走行情報を確認できる。本実施形態によれば、車両の周辺の第三者は、他の歩行者や自転車などが密集している場所であっても、車両の走行情報を確認できる。このように、本実施形態によれば、車両の周辺の第三者に、適切に情報を伝えることができる。
 本実施形態では、車両の搭乗者を検出しており、かつ、車両が走行中であることを示す情報を取得しているときに、車両の走行情報を、車両の搭乗者の身体に該当する方向に投影する。本実施形態によれば、車両の走行情報を、車両の周辺の第三者に、より適切に伝えることができる。本実施形態は、車両に搭乗者が搭乗中でも、車両が停止したままであるような場合に、不必要な情報が投影されることを抑制できる。また、車両に搭乗者が搭乗していない場合に、不用意に情報が投影されることを抑制できる。
 本実施形態では、車両の停止または減速を行うことを示す情報を取得したときに、車両の搭乗者の身体に該当する方向に停止または減速を示す映像を投影する。本実施形態によれば、車両が停止または減速することを、車両の周辺の第三者に、適切に伝えることができる。本実施形態は、車両の搭乗者および車両の周辺の第三者の安全性を向上できる。
 本実施形態では、車両の停止または減速を行うことを示す情報を、センサユニット20のうち、車両の制動操作または車両の加速度センサやジャイロセンサの出力に基づいて取得する。本実施形態によれば、車両の停止または減速を行うことを示す、正確な情報に基づいて、正確な情報を投影できる。
 本実施形態では、車両の方向変更を行うことを示す情報を取得したときに、車両の搭乗者の身体に該当する方向に変更する方向を示す映像を投影する。本実施形態によれば、車両が方向変更することを、車両の周辺の第三者に、適切に伝えることができる。本実施形態は、車両の搭乗者および車両の周辺の第三者の安全性を向上できる。
 本実施形態では、車両の方向変更を行うことを示すための情報を、センサユニット20のうち、車両の加速度センサやジャイロセンサなどの出力に基づいて取得する。本実施形態によれば、車両の方向変更を行うことを示す、正確な情報に基づいて、正確な情報を投影できる。
[第二実施形態]
 図7ないし図9を参照しながら、本実施形態に係る車両用投影システム1Aについて説明する。図7は、第二実施形態に係る車両用投影システム1Aの構成例を示すブロック図である。図8は、投影部30によって投影される映像の一例を示す概略図である。図9は、投影部30によって投影される映像の他の例を示す概略図である。車両用投影システム1Aは、基本的な構成は第一実施形態の車両用投影システム1と同様である。以下の説明においては、第一実施形態の車両用投影システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態は、光量センサ40Aを備える点と、車両用投影制御装置50Aが光量検出部55Aを備える点と、車両用投影制御装置50Aの投影制御部54Aにおける処理とが、第一実施形態と異なる。
 光量センサ40Aは、車両に配置され、車両の周辺の光量を取得するセンサである。光量センサ40Aは、測定した光量センサデータを光量検出部55Aへ出力する。
 光量検出部55Aは、車両の周辺の光量を検出する。光量検出部55Aは、光量センサ40Aから、車両の周辺の光量を示す光量センサデータを取得する。光量検出部55Aは、光量検出結果を、投影制御部54Aへ出力する。
 投影制御部54Aは、光量検出部55Aが検出した車両の周辺の光量に応じて、投影態様を変更して投影する。より詳しくは、投影制御部54Aは、光量検出部55Aが検出した光量が、車両の周辺が明るいことを示す場合、投影する映像データの投影態様を変えて投影する。
 車両の周辺が明るいとは、例えば、日の出から日の入りまでと同程度の明るさをいう。車両の周辺が明るいとは、例えば、自動車が前照灯を点灯せずに走行可能な程度の明るさをいう。車両の周辺が明るいとは、例えば、夜間であっても、照明などによって明るくされていることも含む。
 投影制御部54Aは、車両の周辺が明るいとき、例えば、映像データの色彩、輝度、明度を変えて、視認性が高まるように強調した態様の映像データを投影する。投影制御部54Aは、車両の周辺が明るいとき、例えば、映像データの大きさを大きくして、視認性が高まるように強調した態様の映像データを投影してもよい。投影制御部54Aは、車両の周辺が明るいとき、例えば、映像データの周囲を縁取りして、視認性が高まるように強調した態様の映像データを投影してもよい。図8に示す映像データは、着色された矢印の図形であり、夜間に投影される映像データの態様を示す。図8に示す映像データは、縁取りがされていない。図9に示す映像データは、着色され、周囲を縁取りされた矢印の図形であり、昼間に投影される映像データの態様を示す。
 以上のように、本実施形態は、車両の周辺が明るいときに、車両の周辺が暗いときに比べて、視認性が高まるような態様に変更して、走行情報を投影できる。本実施形態によれば、車両の周辺が明るいときでも、車両の周辺の第三者に、適切に情報を伝えることができる。
[第三実施形態]
 図10ないし図14を参照しながら、本実施形態に係る車両用投影システム1Bについて説明する。図10は、第三実施形態に係る車両用投影システム1Bの構成例を示すブロック図である。図11は、指標Pの一例を示す概略図である。図12は、指標Pの他の例を示す概略図である。図13は、指標Pの他の例を示す概略図である。図14は、投影部30によって投影される映像の一例を示す概略図である。本実施形態は、カメラ60Bを備える点と、車両用投影制御装置50Bが指標検出部56Bを備える点と、車両用投影制御装置50Bの投影制御部54Bにおける処理とが、第一実施形態と異なる。
 カメラ60Bは、投影部30の近傍に、投影部30の投影方向を撮影可能なように配置されている。言い換えると、カメラ60Bは、投影部30の近傍に、投影部30の投影範囲Rを撮影範囲Qに含むように配置されている。より詳しくは、カメラ60Bは、車両の搭乗者の身体に該当する方向を撮影範囲Qに含むように配置されている。カメラ60Bは、撮影した撮影データを指標検出部56Bに出力する。
 指標検出部56Bは、投影部30の投影方向における投影範囲Rを示す指標Pを検出する。より詳しくは、搭乗者検出部51が車両の搭乗者が搭乗したことを検出すると、指標検出部56Bは、カメラ60Bが撮影した撮影データから、撮影範囲Qにおける指標Pを検出する。
 指標Pとは、投影範囲Rを示す目印である。指標Pの形状は、予め定められており、他の模様などを誤認しない形状である。指標Pは、例えば、投影範囲Rを囲う枠状、投影範囲Rを面状に示す図形状、及び、投影範囲Rの外形を特定可能な点状などで示される。点状の指標Pは、投影範囲Rを規定するために予め定められた数として、例えば少なくとも2か所ないし4か所装着される。例えば2か所の指標Pは、予め定められた縦横比の矩形範囲の対角を示す。例えば3か所または4か所の指標Pは、それらの点で規定される矩形範囲を示す。指標Pは、矩形状に限定されず、多角形状、円形状及び楕円形状など任意の形状でもよい。
 図11ないし図13を参照しながら、指標Pについて説明する。図11ないし図13は、点状の指標Pの例である。図11に示すように、指標Pは、例えば5つの矩形状を組み合わせた図形でもよい。図12に示すように、指標Pは、例えば4つの矩形状を十字の4つの端部に配置した図形でもよい。図13に示すように、指標Pは、例えば4つの矩形状を正方形の頂部に配置した図形でもよい。このような指標Pが、例えば少なくとも2か所ないし4か所装着されて、投影範囲Rが規定される。図14においては、3つの指標Pによって矩形状の3つの頂部を示すことによって投影範囲Rが規定される。各々の指標の色は任意であるが、搭乗者が着用する着衣などの色と判別容易な色であることが好ましく、反射素材を用いてもよい。
 指標Pは、例えば、搭乗者が着用する着衣及びヘルメットに装着されていてもよく、面ファスナおよびスナップボタンなどで取り外し可能としてもよい。指標Pは、例えば、車両とともに販売される、搭乗者用のベストのような着衣に予め装着されていてもよい。
 指標Pは、視認性が高くなるような形状および配置で投影範囲Rを規定する。指標Pは、搭乗者の動作によって変形したり隠れたりすることが少ない形状および配置で投影範囲Rを規定する。
 指標検出部56Bが指標Pを検出する処理は、車両の搭乗者の搭乗を検出する搭乗者検出部51を代替してもよい。指標検出部56Bによって、カメラ60Bの撮影画角によって規定される撮影範囲Q内に、画角の所定以上の大きさの範囲に指標Pが検出されたことは、車両に搭乗者が搭乗していることを意味するためである。
 投影制御部54Bは、指標検出部56Bが検出した指標Pで規定される投影範囲Rに、走行情報を投影する。本実施形態では、投影制御部54Bは、搭乗者の身体に該当する方向において、指標Pで規定される投影範囲Rに投影する。図14に示すように、投影制御部54Bは、搭乗者Mの搭乗中、走行情報を搭乗者Mの背中MBにおいて指標Pで規定される投影範囲Rに投影する。
 以上のように、本実施形態は、指標Pによって規定される範囲に走行情報を投影させる。本実施形態によれば、走行情報を適切な範囲に投影することができる。本実施形態によれば、車両の周辺の第三者に、より適切に情報を伝えることができる。
[第四実施形態]
 図15ないし図17を参照しながら、本実施形態に係る車両用投影システム1Cについて説明する。図15は、第四実施形態に係る車両用投影システム1Cの構成例を示すブロック図である。図16は、投影部30によって投影される映像の一例を示す概略図である。図17は、投影部30によって投影される映像の他の例を示す概略図である。本実施形態は、カメラ60Cを備える点と、車両用投影制御装置50Cが頭部検出部57Cを備える点と、車両用投影制御装置50Cの投影制御部54Cにおける処理とが、第一実施形態と異なる。
 カメラ60Cは、投影部30の近傍に、投影部30の投影方向を撮影可能なように配置されている。より詳しくは、カメラ60Cは、車両の搭乗者の頭部を撮影範囲Qに含むように配置されている。カメラ60Cは、撮影した撮影データを頭部検出部57Cに出力する。
 頭部検出部57Cは、投影部30の投影方向における車両の搭乗者の頭部を検出する。より詳しくは、搭乗者検出部51が車両の搭乗者が搭乗したことを検出すると、頭部検出部57Cは、カメラ60Cが撮影した撮影データから、撮影範囲Qにおける搭乗者の頭部を検出する。例えば、頭部検出部57Cは、撮影した撮影データに対して人物を検出する人物認識を行い、認識された人物の頭部を特定してもよい。この場合、人物認識は人物の上半身を後方から撮影した映像を学習させた認識辞書を用いる。頭部検出部57Cは、カメラ60Cが撮影した撮影データから、指標Pが装着されたヘルメットを検出した場合、搭乗者の頭部として検出してもよい。
 図16に示すように、例えば搭乗者Mが車両に対して傾かずに搭乗している場合、頭部検出部57Cは、搭乗者Mの頭部MHを撮影画像の撮影範囲Qにおいて左右方向の中心線L付近に検出する。
 図17に示すように、例えば搭乗者Mが車両に対して左右方向に傾いて、または、ずれて搭乗している場合、頭部検出部57Cは、搭乗者Mの頭部MHを撮影画像の撮影範囲Qにおいて中心線Lから左右方向に傾いた位置、または、ずれた位置に検出する。
 頭部検出部57Cが搭乗者の頭部を検出する処理は、車両の搭乗者の搭乗を検出する搭乗者検出部51を代替してもよい。頭部検出部57Cによって、カメラ60Cの撮影画角によって規定される撮影範囲Q内に、画角の所定以上の大きさの範囲に搭乗者の頭部が検出されたことは、車両に搭乗者が搭乗したことを意味するためである。
 投影制御部54Cは、頭部検出部57Cが検出した頭部の位置に基づき、走行情報取得部52が取得した走行情報の投影位置を変化させる。
 投影制御部54Cは、例えば、頭部検出部57Cの検出結果に基づいて、搭乗者の頭部が撮影画像の左右方向の中心線L付近に検出されたことを示す場合、走行情報を投影範囲Rの左右方向の中央部に投影させる。
 投影制御部54Cは、例えば、頭部検出部57Cの検出結果に基づいて、搭乗者の頭部が撮影画像の左右方向に傾いた位置、または、ずれた位置に検出されたことを示す場合、走行情報を頭部が検出された位置に基づいて、投影位置を変化させる。投影制御部54Cは、具体的には、頭部の位置ずれに対応するように、走行情報の投影範囲Rにおける投影位置を左右にシフトさせる。
 以上のように、本実施形態は、検出した頭部の位置に基づき、走行情報の投影位置を変化させる。本実施形態は、搭乗者の搭乗姿勢によって、走行情報を投影する投影光が搭乗者以外の範囲に投影されてしまうことを防止することができる。また、本実施形態は、搭乗者が存在する位置に適切に投影することができる。本実施形態によれば、車両の周辺の第三者に、より適切に情報を伝えることができる。
 さて、これまで本開示に係る車両用投影システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
 図示した車両用投影システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 車両用投影システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 上記において、投影制御部54は、例えば、搭乗者の衣服の色など、投影対象の色を検出する対象検出部の検出結果に基づいて、検出した投影対象の色に応じて、視認性が高まるように、映像データの色彩を変更して投影してもよい。これにより、投影対象の色によらず、車両の周辺の第三者に、適切に情報を伝えることができる。
 上記では、搭乗者の背中に投影するものとして説明したが、これに限定されない。例えば、搭乗者の腹部、搭乗者が背負っている荷物、荷台に積載している荷物、搭乗者が着用しているヘルメット、車両がけん引する箱形状の荷台などに投影してもよい。搭乗者の腹部に投影する場合、車両の前部に投影部30を配置して、搭乗者の身体に該当する方向、すなわち、後方に向けて投影すればよい。車両がけん引する箱形状の荷台に投影する場合、車両の荷台の後部に投影部30を配置して、搭乗者の身体に該当する方向、すなわち、前方に向けて投影すればよい。
 本開示の車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラムは、例えば、自転車および自動二輪車を含む二輪車、および、キックスケータなどの車両において、車両の周辺に情報を伝えるために使用可能である。
 1    車両用投影システム
 10   搭乗センサ
 20   センサユニット
 30   投影部
 50   車両用投影制御装置
 51   搭乗者検出部
 52   走行情報取得部
 53   投影情報生成部
 54   投影制御部
 100  映像
 M    搭乗者
 MB   背中
 MH   頭部

Claims (9)

  1.  車両の搭乗者の搭乗を検出する搭乗者検出部と、
     前記車両の走行情報を取得する走行情報取得部と、
     前記搭乗者検出部が搭乗者を検出しているときに、前記走行情報取得部が取得した走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御部と、
     を備える、車両用投影制御装置。
  2.  前記走行情報取得部は、前記車両が走行中であることを示す情報を取得し、
     前記投影制御部は、前記搭乗者検出部が搭乗者を検出しており、かつ、前記走行情報取得部は前記車両が走行中であることを示す情報を取得しているときに、前記走行情報取得部が取得した走行情報を、前記車両の搭乗者の身体に該当する方向に投影させる、
     請求項1に記載の車両用投影制御装置。
  3.  前記投影部の投影方向における投影範囲を示す指標を検出する指標検出部、をさらに備え、
     前記投影制御部は、前記指標検出部が検出した指標によって規定される範囲に、前記走行情報取得部が取得した走行情報を投影させる、
     請求項1または2に記載の車両用投影制御装置。
  4.  前記投影部の投影方向における前記車両の搭乗者の頭部を検出する頭部検出部、をさらに備え、
     前記投影制御部は、前記頭部検出部が検出した頭部の位置に基づき、前記走行情報取得部が取得した走行情報の投影位置を変化させる、
     請求項1から3のいずれか1項に記載の車両用投影制御装置。
  5.  前記走行情報取得部は、前記車両の走行情報として、前記車両の停止または減速を行うことを示す情報を取得し、
     前記投影制御部は、前記走行情報取得部が前記車両の停止または減速を行うことを示す情報を取得したときに、前記車両の搭乗者の身体に該当する方向に停止または減速を示す映像を投影させる、
     請求項1から4のいずれか1項に記載の車両用投影制御装置。
  6.  前記走行情報取得部は、前記車両の走行情報として、前記車両の方向変更を行うことを示す情報を取得し、
     前記投影制御部は、前記走行情報取得部が前記車両の方向変更を行うことを示す情報を取得したときに、前記車両の搭乗者の身体に該当する方向に変更する方向を示す映像を投影させる、
     請求項1から4のいずれか1項に記載の車両用投影制御装置。
  7.  請求項1から6のいずれか一項に記載の車両用投影制御装置と、
     前記車両の搭乗者の身体に該当する方向に情報を投影する投影部と、
     を備える、車両用投影システム。
  8.  車両の搭乗者の搭乗を検出する搭乗者検出ステップと、
     前記車両の走行情報を取得する走行情報取得ステップと、
     前記搭乗者検出ステップによって搭乗者を検出しているときに、前記走行情報取得ステップによって取得された走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御ステップと、
     を含む車両用投影制御方法。
  9.  車両の搭乗者の搭乗を検出する搭乗者検出ステップと、
     前記車両の走行情報を取得する走行情報取得ステップと、
     前記搭乗者検出ステップによって搭乗者を検出しているときに、前記走行情報取得ステップによって取得された走行情報を、前記車両の搭乗者の身体に該当する方向に映像を投影する投影部に投影させる投影制御ステップと、
     を、車両用投影制御装置として動作するコンピュータに実行させるプログラム。
PCT/JP2020/040382 2020-02-27 2020-10-28 車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム WO2021171699A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020564275A JPWO2021171699A1 (ja) 2020-02-27 2020-10-28
US17/891,169 US20220388590A1 (en) 2020-02-27 2022-08-19 Vehicle projection control device, vehicle projection system, vehicle projection control method, and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020031147 2020-02-27
JP2020-031147 2020-02-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/891,169 Continuation US20220388590A1 (en) 2020-02-27 2022-08-19 Vehicle projection control device, vehicle projection system, vehicle projection control method, and computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2021171699A1 true WO2021171699A1 (ja) 2021-09-02

Family

ID=77491412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040382 WO2021171699A1 (ja) 2020-02-27 2020-10-28 車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20220388590A1 (ja)
JP (1) JPWO2021171699A1 (ja)
WO (1) WO2021171699A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014013524A (ja) * 2012-07-05 2014-01-23 Mitsubishi Motors Corp 車両報知装置
JP2017061221A (ja) * 2015-09-24 2017-03-30 テイ・エス テック株式会社 跨座式シート
WO2018122887A1 (ja) * 2016-12-27 2018-07-05 川崎重工業株式会社 鞍乗型車両、車両外力情報記憶システム、及び外力関連情報記憶方法
US10239445B1 (en) * 2017-01-29 2019-03-26 Timothy W. Hendricks Projection assembly for a vehicle

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8686922B2 (en) * 1999-12-15 2014-04-01 American Vehicular Sciences Llc Eye-location dependent vehicular heads-up display system
JP5050735B2 (ja) * 2007-08-27 2012-10-17 マツダ株式会社 車両用運転支援装置
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP5204309B2 (ja) * 2009-09-15 2013-06-05 株式会社東芝 表示装置およびその制御方法
US20200067786A1 (en) * 2011-11-16 2020-02-27 Ip Optimum Limited System and method for a reconfigurable vehicle display
US8994558B2 (en) * 2012-02-01 2015-03-31 Electronics And Telecommunications Research Institute Automotive augmented reality head-up display apparatus and method
US9656602B2 (en) * 2013-12-13 2017-05-23 Intel Corporation Adaptive zone of safety
KR102281149B1 (ko) * 2014-10-22 2021-07-23 삼성전자주식회사 고 조도 환경 및 저 조도 환경에서 동작 가능한 시점 추적 장치 및 그 방법
KR20200011405A (ko) * 2016-07-01 2020-02-03 아이사이트 모빌 테크놀로지 엘티디 운전자 모니터링을 위한 시스템 및 방법
TWI653170B (zh) * 2017-11-01 2019-03-11 宏碁股份有限公司 駕駛提示方法與系統
US10746987B2 (en) * 2018-07-12 2020-08-18 Toyota Research Institute, Inc. Vehicle systems and methods for redirecting a driver's gaze towards an object of interest
US10882398B2 (en) * 2019-02-13 2021-01-05 Xevo Inc. System and method for correlating user attention direction and outside view
US10953942B2 (en) * 2019-02-22 2021-03-23 Shineon Safety Technologies Llc Bicycle light systems and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014013524A (ja) * 2012-07-05 2014-01-23 Mitsubishi Motors Corp 車両報知装置
JP2017061221A (ja) * 2015-09-24 2017-03-30 テイ・エス テック株式会社 跨座式シート
WO2018122887A1 (ja) * 2016-12-27 2018-07-05 川崎重工業株式会社 鞍乗型車両、車両外力情報記憶システム、及び外力関連情報記憶方法
US10239445B1 (en) * 2017-01-29 2019-03-26 Timothy W. Hendricks Projection assembly for a vehicle

Also Published As

Publication number Publication date
JPWO2021171699A1 (ja) 2021-09-02
US20220388590A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
US20200361484A1 (en) Vehicle system and vehicle
JP2021509876A (ja) 車両の内部状態の判別と応答
US8059867B2 (en) Detection system, informing system, actuation system and vehicle
CN100408383C (zh) 用于车辆的信息提供设备
KR101945809B1 (ko) 차량 보조 장치 및 차량
JP6690179B2 (ja) 挙動推定システム、及び挙動推定方法
JP2005309812A (ja) 車両周辺表示制御装置
US10959479B1 (en) Apparatus and warning system for intelligent helmet
JPWO2019188587A1 (ja) 運転権限移譲装置
JP4266762B2 (ja) 操作者判別装置及びマルチファンクションスイッチ
TW200538701A (en) Inclination sensor for travel means
JP6818788B2 (ja) 車両並びにその制御装置及び制御方法
WO2021171699A1 (ja) 車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム
CN114174116B (zh) 远程照明系统及其操作方法
JP2020090202A (ja) 鞍乗型車両の警告システムのための処理装置及び処理方法、鞍乗型車両の警告システム、及び、鞍乗型車両
JP5958260B2 (ja) 移動体の制御装置
JP4066892B2 (ja) 車両用警報装置
JP2010149577A (ja) 同軸二輪車
WO2020179656A1 (ja) 運転者監視装置
JP2007261312A (ja) 車両用前照灯制御装置
TWI538843B (zh) 智慧型自行車燈及其系統
JP6972952B2 (ja) 車両挙動認識装置および運転支援装置
JPH05300601A (ja) 車輌用安全確認指示装置
JP2021033403A (ja) 車載器および作業車両の運転支援システム
US11932266B2 (en) Rider-assistance system and control method for rider-assistance system

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020564275

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920782

Country of ref document: EP

Kind code of ref document: A1