WO2023229001A1 - 投影システム - Google Patents

投影システム Download PDF

Info

Publication number
WO2023229001A1
WO2023229001A1 PCT/JP2023/019463 JP2023019463W WO2023229001A1 WO 2023229001 A1 WO2023229001 A1 WO 2023229001A1 JP 2023019463 W JP2023019463 W JP 2023019463W WO 2023229001 A1 WO2023229001 A1 WO 2023229001A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
occupant
information
trajectory
projection area
Prior art date
Application number
PCT/JP2023/019463
Other languages
English (en)
French (fr)
Inventor
郁代 笹島
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Publication of WO2023229001A1 publication Critical patent/WO2023229001A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • the present invention relates to a projection system that displays a desired display inside a vehicle such as an automobile.
  • Patent Document 1 an in-car conversation support device described in Patent Document 1 is known.
  • This support device collects the sounds uttered by passengers in the rear seats using a sound collector and outputs them from speakers installed in the doors of the driver's or passenger's seats, thereby transmitting information from the rear seats to the driver's or passenger's seats. transmission is carried out.
  • the present invention has been made in view of the above problems, and it is an object of the present invention to provide a projection system that allows the receiver side of the information to easily recognize that the information has been transmitted.
  • the present invention is a projection system 1 that includes a projection section 4 provided in an interior 21 of a vehicle 2, and a control section 70 that controls the projection section 4 to display a desired display. , a primary projection process in which the acquired predetermined information is projected and displayed by the projection unit 4 onto a predetermined primary projection area of the room 21; and after displaying the predetermined information by the primary projection process, a trajectory projection process in which the projection unit 4 performs a trajectory display in a direction from the next projection area to a predetermined secondary projection area in the room 21; and after execution of the trajectory display by the trajectory projection process;
  • the present invention is characterized in that a secondary projection process is performed in which the predetermined information is projected and displayed by the projection unit onto the projection area.
  • the information projected in the primary projection area is transmitted to the secondary projection area which is the receiver. This can be easily recognized by the receiver.
  • FIG. 1 is a functional block diagram showing the configuration of a projection system according to a first embodiment of the present invention.
  • FIG. 1 is a schematic diagram of the interior of a vehicle equipped with a projection system according to a first embodiment.
  • FIG. 3 is a diagram illustrating an example of a state in which projection information is displayed in a primary projection area of a transmission source in the projection system according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a state in which projection information for selecting a destination is displayed in the projection system according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a state in which a trajectory display from a transmission source to a transmission destination is projected in the projection system according to the first embodiment.
  • FIG. 1 is a functional block diagram showing the configuration of a projection system according to a first embodiment of the present invention.
  • FIG. 1 is a schematic diagram of the interior of a vehicle equipped with a projection system according to a first embodiment.
  • FIG. 3 is a diagram
  • FIG. 3 is a diagram illustrating an example of a state in which an alarm is displayed on a transmission destination in the projection system according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a state in which information to be transmitted is projected onto a secondary projection area of a transmission destination in the projection system according to the first embodiment.
  • FIG. 2 is a functional block diagram showing the configuration of a projection system according to a second embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an example of a state in which externally acquired information is projected onto a primary projection area located at a specific location in the projection system according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which a trajectory display from a specific location to a destination is projected in the projection system according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which an alarm is displayed on a destination in the projection system according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which externally acquired information is projected onto a secondary projection area of a transmission destination in the projection system according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which externally acquired information is projected onto a primary projection area located at a specific location in a projection system according to a third embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an example of a state in which a trajectory display from a specific location to a destination is projected in the projection system according to the third embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which an alarm is displayed on a destination in the projection system according to the third embodiment.
  • FIG. 7 is a diagram illustrating an example of a state in which externally acquired information is projected onto a secondary projection area of a transmission destination in a projection system according to a third embodiment.
  • the projection system according to the first embodiment is a system that can visually recognize the state in which the information is moving from the source of the information toward the destination in the cabin of a vehicle by projecting a trajectory display, for example. It is.
  • FIG. 1 is a functional block diagram showing the configuration of a projection system according to the first embodiment
  • FIG. 2 is a schematic diagram of the interior of a vehicle in which the projection system according to the first embodiment is installed.
  • the projection system 1 includes a non-contact sensor 3 that measures a measurement target in a vehicle interior 21 of a vehicle 2, and a projection unit that is provided within the vehicle interior 21 and projects projection information PD onto a predetermined location of the vehicle interior 21.
  • the non-contact sensor 3 includes, for example, a visible light camera, an infrared camera, a TOF (Time of Flight) camera, a millimeter wave sensor, and the like.
  • the objects to be measured by the non-contact sensor 3 are the occupants 100 on board the vehicle 2 and the projection information PD displayed at a predetermined location in the vehicle interior 21 by the projection of the projector 4, and these two-dimensional or three-dimensional information Information is measured.
  • the non-contact sensor 3 is installed on the ceiling (roof) 22 of the vehicle 2, and measures the projection information PD displayed on the dashboard 23 and the hand movements of the occupant 100 on the projection information PD. do.
  • the measurement area measured by the non-contact sensor 3 may be a fixed area set in advance, or may be a variable area according to the movement of the occupant 100. Specifically, for example, if it is a fixed area, the measurement area may be an area where the projector 4 displays projection information PD (corresponding to the surface of the dashboard 23 on the passenger seat side in FIG. 2) as described later. .
  • the shape of the hand of the occupant 100 may be detected by image recognition, and the region including the hand may be set as the measurement region of the non-contact sensor 3 according to the movement thereof.
  • the projector 4 is configured as an example of a projection unit, and for example, a known projector using a liquid crystal device, a digital mirror device, etc. can be used.
  • the projector 4 is installed on the ceiling 22 of the vehicle 2, but there are also pillars 24 (A (front) pillar, B (center) pillar, C (rear) pillar) in the vehicle interior 21, A plurality of them may be installed at appropriate locations such as the D (rear) pillar) or the inner wall of the door 25.
  • the projector 4 projects and displays the projection information PD as a projector image on a predetermined location set in advance in the cabin 21 of the vehicle 2 under the control of the projection control device 6 .
  • Predetermined locations where the projection information PD is displayed include the ceiling 22 of the vehicle interior 21, the dashboard 23, inner walls such as the pillars 24 and doors 25, the glass surface of the window glass 26, the seat 27, the floor 28, and other locations within the vehicle interior 21. Various locations are targeted. Further, the projection information PD may be projected onto the surface of the body of the occupant 100 as necessary. The projection information PD is displayed by being projected onto the object surface existing at each of these locations.
  • the projection information PD may include light of a wavelength that is mixed with the color of the object surface so that the entire projection area becomes monochromatic, such as white, black, or gray.
  • the speaker 5 is configured as an example of a sounding section, and outputs sound information to the vehicle interior 21.
  • the speaker 5 is preferably directional, but may be a speaker generally mounted on the vehicle 2.
  • the speaker 5 outputs the sound of a navigation system (not shown in FIG. 1) and the sound of various contents (music, television, movies, games, etc.) to the vehicle interior 21, and also issues an alarm as described below.
  • the speakers 5 are installed inside the doors 25 of the passenger seat and the driver's seat, but the speaker 5 may be configured to include individual speakers 5 for each passenger 100 boarding the vehicle 2.
  • the projection control device 6 is composed of a computer that controls the overall operation of the projection system 1, and includes a control section 70 that includes a CPU (Central Processing Unit), etc., and a ROM (Read Only Memory), RAM (Random Access Memory), etc.
  • the storage unit 80 includes a memory and a hard disk.
  • the control unit 70 includes a sensor information acquisition unit 71 that acquires measurement information MD measured by the non-contact sensor 3, and a state analysis unit 72 that analyzes the state of the measurement target by image recognition based on the acquired measurement information MD.
  • Processing operation identification that specifies the processing operation to be executed based on the processing operation information according to the state of the measurement target stored in the processing operation storage unit 81 of the storage unit 80 and the state of the measurement target analyzed by the state analysis unit 72 section 73 and the information necessary for the specified processing operation to the output information storage section 82 of the storage section 80 or the Internet 90 (or to an in-vehicle system such as a navigation system or a communication system other than the Internet such as vehicle-to-vehicle communication, if necessary).
  • an output information acquisition unit 74 that acquires information from the output information acquisition unit 74; a projector control unit 75 that controls the plurality of projectors 4 in order to display each information acquired by the output information acquisition unit 74 as projection information PD; It includes a speaker control section 76 that controls the speaker 5 so as to output information related to sound among the information to the vehicle interior 21.
  • the projector control unit 75 also includes a first projection unit 75a that controls the projector 4 to project the projection information PD for the information transmission source onto the primary projection area, and a first projection unit 75a that controls the projector 4 to project the projection information PD for the information transmission source onto the secondary projection area.
  • the second projection unit 75b controls the projector 4 to project the image
  • the trajectory projection unit 75c controls the projector 4 to project a trajectory display from the primary projection area to the secondary projection area.
  • the storage unit 80 performs a processing operation (for example, storing the projection information of the next page) corresponding to the state of the measurement target (for example, swiping the finger on the projection information PD, tapping the finger on the projection information PD, etc.).
  • a processing operation storage unit 81 that stores information such as displaying a PD (switching to and displaying another projection information PD different from the current projection information PD, determining the contents of the projection information PD at a tap position, etc.), and projection information.
  • An output information storage section 82 stores various content information such as TV programs, movies, games, music, etc. that can be displayed as a PD, and information to be presented to the passenger 100 such as information regarding trajectory display and alarm display. Be prepared.
  • the sensor information acquisition unit 71 receives measurement information MD measured by the non-contact sensor 3 at a predetermined detection cycle, and passes it to the state analysis unit 72.
  • the state analysis unit 72 first determines whether the measurement information MD includes a measurement target by image recognition.
  • This image recognition method is arbitrary, and for example, known feature point calculation methods such as pattern matching, HOG (Histogram of Oriented Gradients), SIFT (Scale-Invariant Feature Transform), LBP (Local Binary Pattern), Haar-Like, etc. It is executed using
  • the movements of the recognized hand and fingers are analyzed. For example, if the fingertip moves continuously in the horizontal or vertical direction, it can be inferred that the occupant 100 is performing a swiping motion, and if the fingertip moves up and down in the height direction, it can be estimated that the occupant 100 is performing a tapping motion. It is possible to estimate that there are.
  • the measurement information MD measured by the non-contact sensor 3 also includes the projection information PD projected and displayed by the projector 4, any of the areas in which the projection information PD is displayed It is also analyzed whether the passenger's 100's fingertip moves at that position.
  • These analysis methods by the state analysis unit 72 are arbitrary, and for example, known methods such as the NN method (Nearest Neighbor algorithm), k-NN method (k-Nearest Neighbor algorithm), pattern matching method, etc. can be used.
  • the specified hand and finger movements include, for example, scrolling, pinch-in, pinch-out, long tap, flick, and drag.
  • the processing operation specifying unit 73 extracts and specifies information regarding the processing operation to be executed from the processing operation storage unit 81 based on the state of the measurement target analyzed by the state analysis unit 72. For example, when the state analysis unit 72 estimates that the occupant 100 has performed a swipe motion, the state analysis section 72 switches to the information on the next page of the currently projected projection information PD, and when it estimates that the occupant 100 has performed a tap motion, the state analysis section 72 switches to the information on the next page of the projection information PD that is currently being projected.
  • a processing operation such as determining the processing content displayed at the coordinates of the fingertip (for example, determining a destination, determining information to be sent to the destination) is specified.
  • the output information acquisition unit 74 acquires output information used in the processing operation specified by the processing operation identification unit 73. For example, when switching the projection information PD to the information of the next page, the projection information PD of the next page to be displayed after the switching is obtained from the output information storage unit 82 or the Internet 90 (information stored in a cache may be used). do. When performing a process of transmitting information from a transmission source to a transmission destination, information on a trajectory display from the transmission source to the transmission destination is acquired from the output information storage unit 82. When displaying an alarm as described below to the occupant 100, information on sound and light to be output as an alarm is acquired from the output information storage unit 82.
  • the projector control unit 75 controls the projector 4 to project the output information acquired by the output information acquisition unit 74 into the vehicle interior 21.
  • specific examples of each process performed by the first projection section 75a, second projection section 75b, and trajectory projection section 75c of the projector control section 75 will be described using FIGS. 3 to 7.
  • a plurality of passengers 100 including a first passenger 101 and a second passenger 102 are on board the vehicle 2, and the first passenger 101 sitting in the front passenger seat is the transmission source, and Regarding the case where the transmission destination is the second occupant 102 sitting on the right side, and information to be shared between the first occupant 101 and the second occupant 102 is transmitted from the first occupant 101 as the transmission source to the second occupant 102 as the destination. It shows.
  • FIG. 3 is a diagram illustrating an example of a state in which projection information is displayed in the primary projection area of the transmission source in the projection system according to the first embodiment.
  • the projection information PD is displayed on the dashboard 23 for presenting the projection information PD to the first occupant 101 who is the transmission source.
  • information such as a search screen of a search site on the Internet 90 is projected, and the first occupant 101 performs a swipe operation or a tap operation on the projected information PD displayed on the dashboard 23. Perform the desired operation.
  • the non-contact sensor 3 measures these movements and transmits measurement information MD to the projection control device 6.
  • Projection information PD (for example, search result information obtained from the Internet 90) to be projected onto the primary projection area is obtained through the processing of the sensor information acquisition section 71, state analysis section 72, processing operation identification section 73, and output information acquisition section 74 described above. Then, the first projection unit 75a of the projector control unit 75 controls the projector 4 to project the acquired projection information PD onto the dashboard 23, which is the primary projection area. In this way, the first occupant 101 can obtain desired information and display it on the dashboard 23.
  • the process executed by the first projection unit 75a corresponds to an example of the primary projection process.
  • FIG. 4 is a diagram showing an example of a state in which projection information for selecting a destination is displayed in the projection system according to the first embodiment.
  • the first occupant 101 shares the projection information PD acquired in FIG. 3 with the second occupant 102
  • the first occupant 101 performs an appropriate operation (for example, tapping a share button, a predetermined gesture for sharing processing, etc.: a predetermined action).
  • the unit 75a controls the projector 4 to project the destination designation screen onto the dashboard 23.
  • Information indicating the seat arrangement in the vehicle compartment 21 is displayed on the destination designation screen, and the first occupant 101 is seated in the seat arrangement corresponding to the destination (in the case of FIG.
  • the second occupant 102 is seated diagonally to the right).
  • a list of occupants 100 may be displayed on the destination designation screen, and the occupant 100 to be the destination may be selected from the list.
  • This tap operation is transmitted to the projection control device 6 via the non-contact sensor 3, and after being analyzed by the sensor information acquisition section 71 and the state analysis section 72, the processing operation specifying section 73 determines the selected seat arrangement. Identify the location information of the destination from the information.
  • the process in which the projection control device 6 receives the information selected on the destination designation screen corresponds to an example of the crew selection reception process.
  • FIG. 5 is a diagram showing an example of a state in which a trajectory display from a transmission source to a transmission destination is projected in the projection system according to the first embodiment. Based on the reception result on the destination designation screen in FIG. Output information is obtained.
  • the trajectory projection unit 75c of the projector control unit 75 controls the projector 4 to project the acquired trajectory display from the dashboard 23, which is the primary projection area, toward the periphery of the second occupant 102 sitting on the right side of the rear seat. do.
  • the peripheral area of the second occupant 102 includes an area where projection information PD to be presented to the second occupant 102 is projected as a secondary projection area.
  • the trajectory display extends from the dashboard 23, through the inner wall of the pillar 24 (A pillar and B pillar) and the window glass 26 on the left side of the first occupant 101, and from the left end over the seat 27 of the rear seat. The image is projected toward the second occupant 102.
  • the trajectory display can also be applied to the second passenger, for example, from the dashboard 23 to the floor 28, through the partition structure between the passenger seat and the driver's seat (for example, a center console, etc. (not shown in FIG. 5)).
  • the image may be projected toward the second occupant 102 or may be projected from the dashboard 23 through the pillar 24 and the ceiling 22 toward the second occupant 102 .
  • the process executed by the trajectory projection unit 75c corresponds to an example of trajectory projection processing.
  • the display mode of the trajectory display may be set as appropriate, such as a trajectory display consisting of a group of light spots, a line-shaped trajectory display, or an arrow-shaped trajectory display, for example.
  • the way the locus-shaped display lights up may be set as appropriate, such as a constantly lit display, a blinking display, a ripple display, or the like.
  • the locus-like display may be expressed such that the lighting speed or ripple interval increases as the distance from the source to the destination increases.
  • the information to be transmitted may itself be projected as if it were moving as a trajectory display.
  • the first projection unit 75a may stop projecting onto the primary projection area when starting projection of the trajectory display, may continue projection, or may continue projecting onto the primary projection area while projecting the trajectory display. It may also be possible to control the projection to stop.
  • the locus-like display may be a display mode in which the width direction dimension increases from the transmission source to the transmission destination.
  • FIG. 6 is a diagram showing an example of a state in which an alarm is displayed at a destination in the projection system according to the first embodiment.
  • the trajectory projection unit 75c is configured to project, for example, the headrest of the driver's seat, the back area of the seat, the thighs and arms of the second occupant 102, etc.
  • the projector 4 is controlled to project a light alarm onto a part of the body. It is desirable that the alarm be displayed in a manner that alerts the second occupant 102, such as flashing or vibration. Further, the projected alarm may display the information itself to be transmitted in a manner such as blinking or vibrating.
  • Whether the second occupant 102 is aware of the information transmission is determined by whether the second occupant 102 performs an instruction operation such as a predetermined gesture (predetermined action). For example, the second occupant 102 touches the trajectory display, touches the second display area, touches the alarm display if the alarm shown in FIG. It may be determined that the second occupant 102 is aware of the information transmission by measuring gestures such as pointing, touching a notice button, or notifying by voice using the non-contact sensor 3. After the trajectory display shown in FIG. 5 is projected, the alarm shown in FIG. 6 is projected until such a gesture of awareness is recognized.
  • a predetermined gesture predetermined action
  • the alarm process shown in FIG. 6 does not necessarily need to be executed. That is, if the second occupant 102 immediately performs a gesture of awareness as described above in response to the trajectory display of FIG. 5, and the gesture of awareness is recognized, the alarm process of FIG. 6 can be omitted.
  • FIG. 6 shows a state in which only an alarm is displayed
  • the projection information PD and trajectory of the dashboard 23 as shown in FIG. It may also be in a state where a state display is projected.
  • FIG. 7 is a diagram illustrating an example of a state in which information to be transmitted is projected onto a secondary projection area of a transmission destination in the projection system according to the first embodiment.
  • the process of recognizing this gesture of awareness corresponds to an example of the operation identification process.
  • the processing operation specifying unit 73 determines that notification by projecting information to the destination is valid.
  • the process of determining whether or not the notification by projection to the destination is valid corresponds to an example of the determination process.
  • the first projection unit 75a and the trajectory projection unit 75c stop projecting the projection information PD and the trajectory display of the dashboard 23 shown in FIG.
  • the second projection section 75b projects the thigh of the second occupant 102, which is the secondary projection area, and the plane placed on it.
  • the projector 4 is controlled to project the information transmitted from the transmission source onto a bag or the like (back of a vehicle seat or headrest).
  • the process executed by this second projection unit 75b corresponds to an example of secondary projection process. In this way, the second occupant 102 can refer to the information transmitted from the first occupant 101 and can share the information.
  • the speaker control unit 76 controls the speaker 5 to output sound information such as videos and music into the vehicle interior 21, and also projects an alarm such as the one described in FIG. 6, for example. However, if the second crew member 102 at the destination does not notice the information transmitted from the sender, a voice message (previously registered in the output information storage unit 82) is sent to the second crew member 102. The speaker 5 is controlled to issue an alarm using a voice such as.
  • the plurality of projectors 4 are disposed, for example, on the ceiling 22 of the vehicle interior 21 or on the side walls of the pillars 24 (A-pillar, B-pillar, C-pillar, D-pillar), and the first projection section 75a of the projector control section 75,
  • the second projection section 75b and the trajectory projection section 75c cooperate with each other to synchronize and execute the above-described primary projection processing, trajectory projection processing, and secondary projection processing.
  • the trajectory display is projected and displayed from the primary projection area to the secondary projection area
  • the information projected in the primary projection area of the transmission source is The passenger 100 at the destination can easily recognize that the information has been transmitted to the secondary projection area at the destination.
  • first projection section 75a, second projection section 75b, and trajectory projection section 75c of the projector control section 75 cooperate with each other to synchronize and control the plurality of projectors 4, the projection onto the primary projection area, Projection to the secondary projection area and projection of the trajectory display from the primary projection area to the secondary projection area can be smoothly performed.
  • a trajectory display is projected from the vicinity of the transmission source occupant 100 (the first occupant 101 in FIGS. 3 to 7) to the vicinity of the transmission destination occupant 100 (the second occupant 102 in FIGS. 3 to 7).
  • the transmission source crew member 100 can designate a desired crew member 100 from among the other crew members 100 as the transmission destination of the information. I can do it.
  • the trajectory display indicating the flow of information transmission is displayed in a display mode in which the width direction dimension increases from the primary projection area to the secondary projection area, the information transmission is displayed intuitively and easily understandable for the occupant 100. can do.
  • the projection of the trajectory display and the projection of the alarm continue until the gesture of awareness by the destination occupant 100 is recognized, that is, until the projection of the trajectory display and the projection of the alarm are instructed to end.
  • This allows the destination crew member 100 to reliably recognize that the information has been transmitted.
  • the destination occupant 100 that is, the person who instructs the end of the projection of the trajectory display or the projection of the alarm, can indicate his/her intention to recognize the information transmission by means of a so-called gesture, thereby causing the trajectory display to end. or end the alarm projection.
  • the notification by projection to the secondary projection area is effective. It can be determined that it does not function or is not functioning. In that case, it is possible to take measures such as not projecting the aforementioned trajectory display in vain, or displaying a separate alarm.
  • the occupant 100 who has not given an instruction to end the trajectory display can be prompted to check the secondary projection area and make a gesture of awareness. can.
  • the occupant 100 who has not given an instruction to end the trajectory display is prompted to check the secondary projection area and make a gesture of awareness. I can do it.
  • the projection system 1 projects and displays the received information at a predetermined location in the vehicle interior 21 when the in-vehicle communication system receives information transmitted from a system outside the vehicle.
  • the movement of the received information from the predetermined location toward the projection area corresponding to each occupant can be visually recognized by projecting a trajectory display. Note that in this second embodiment, explanations that overlap with those in the first embodiment will be omitted.
  • FIG. 8 is a functional block diagram showing the configuration of a projection system according to the second embodiment.
  • the configuration shown in FIG. 8 differs from the configuration of FIG. 1 in the first embodiment in that the storage unit 80 further includes a registered information storage unit 83 and the processing operation specifying unit 73 is registered in the registered information storage unit 83.
  • the output information acquisition section 74 specifies a desired processing operation for the occupant 100 based on the information, and the output information acquisition section 74 uses a server outside the vehicle or vehicle-to-vehicle communication to perform an operation inside the vehicle interior 21 based on the information registered in the registered information storage section 83.
  • the objective is to obtain output information (hereinafter referred to as externally obtained information OD) to be projected onto the externally obtained information OD.
  • externally obtained information OD output information
  • the first projection unit 75a projects the externally acquired information OD in a primary projection area that is relatively easily visible to the occupant 100, such as the inner wall of the pillar 24 or the ceiling 22 (hereinafter referred to as a specific location). ), and when the externally acquired information OD is acquired, the projector 4 is controlled so that the first projection unit 75a projects and displays the externally acquired information OD on a primary projection area located at a specific location. do. Accordingly, when the externally acquired information OD is acquired, the trajectory projection unit 75c performs a process of projecting a trajectory display indicating the movement of information from the primary projection area located at a specific location toward the secondary projection area. , the second projection unit 75b controls the projector 4 to project and display the externally acquired information OD onto the secondary projection area.
  • the registration information storage unit 83 stores desired request information (more specifically, "When driving after entering city X, I would like to display shopping information for city X from a predetermined server in the passenger compartment 21"). (conditions such as region, category, keyword, etc.) are registered and set, and the vehicle 2 is running in that state.
  • this registration setting can be done in advance from a smartphone or computer before departure, but it can also be done in the passenger compartment 21, so that the first occupant 101 in the front passenger seat and the second occupant 102 on the right side of the rear seat can be registered.
  • This can be done by any crew member 100, including:
  • the request information also includes various request information such as local tourist information, information on gas stations, parking lots, restaurants, etc., weather information, traffic congestion information, accident information, and emergency disaster alerts. It will be done.
  • FIG. 9 is a diagram illustrating an example of a state in which externally acquired information is projected onto a primary projection area located at a specific location in the projection system according to the second embodiment.
  • the sensor information acquisition unit 71 acquires the position information of the vehicle 2 from a GPS sensor (not shown in FIG. 8) used in a navigation system, etc., and the position of the vehicle 2 is registered by the state analysis unit 72 and the processing operation identification unit 73. If it is determined that the registration settings of the information storage unit 83 are satisfied, that is, in the above example, the vehicle 2 is traveling in the X city area, so the necessary externally acquired information OD is first retrieved based on the request information.
  • the output information acquisition unit 74 acquires external acquisition information OD based on the conditions registered and set in the registration information storage unit 83.
  • the output information acquisition unit 74 acquires the shopping information of City X as the externally acquired information OD.
  • Such externally acquired information OD can be acquired from a server outside the vehicle by an on-vehicle communication system through appropriate communication (not shown) other than the Internet, such as the Internet 90 or vehicle-to-vehicle communication.
  • the projector 4 is controlled to project the externally acquired information OD onto the inner wall of the computer.
  • the processing by the first projection unit 75a corresponds to an example of primary projection processing.
  • FIG. 10 is a diagram showing an example of a state in which a trajectory display from a specific location to a destination is projected in the projection system according to the second embodiment.
  • the first occupant 101 specifies the destination by selecting the destination from the destination designation screen, and based on this, the trajectory projection unit 75c selects the destination from the primary projection area.
  • the first projection unit 75a projects the externally acquired information onto the primary projection area located at a specific location.
  • the projector 4 is configured such that when a predetermined period of time (for example, several seconds to several tens of seconds) has elapsed after projecting the OD, the trajectory projection unit 75c projects a trajectory display from the primary projection area to the secondary projection area.
  • trajectory projection unit 75c corresponds to an example of trajectory projection processing.
  • FIG. 11 is a diagram showing an example of a state in which an alarm is displayed on a destination in the projection system according to the second embodiment.
  • the trajectory projecting section 75c may be configured to, for example, The projector 4 is controlled to project a light alarm onto a part of the body such as the thigh or arm of the patient 102.
  • the alarm display method and display mode are the same as those described in the first embodiment.
  • the externally acquired information OD and trajectory display of the B pillar 24 as shown in FIG. It may be in a projected state.
  • FIG. 12 is a diagram illustrating an example of a state in which externally acquired information is projected onto the secondary projection area of the transmission destination in the projection system according to the second embodiment.
  • the first occupant 102 when the gesture of awareness performed by the second occupant 102 is recognized and it is determined that notification by projecting information to the transmission destination is effective, the first occupant 102
  • the projection unit 75a and the trajectory projection unit 75c stop projecting the externally acquired information OD and the trajectory display on the B-pillar 24 shown in FIG. 10, and also stop projecting the alarm shown in FIG.
  • the second projection section 75b projects the thigh of the second occupant 102, which is a secondary projection area, toward the second occupant 102.
  • the projector 4 is controlled to project the externally acquired information OD onto a bag or the like (the back of a vehicle seat or a headrest) having a flat surface placed thereon.
  • the method and manner of displaying the externally acquired information OD on the secondary projection area are the same as the method and manner of displaying the projection information PD on the secondary projection area described in the first embodiment. In this way, the second occupant 102 can refer to the externally acquired information OD.
  • the processing by the second projection unit 75b corresponds to an example of secondary projection processing.
  • a locus-like display is projected and displayed from the primary projection area located at a specific location to the secondary projection area around at least one occupant 100 at the transmission destination.
  • a third embodiment of the present invention will be described with reference to the drawings. Similar to the projection system 1 in the second embodiment, when the in-vehicle communication system receives information transmitted from a system outside the vehicle, the projection system 1 according to the third embodiment transmits the received information to the vehicle interior. 21, and the state in which the received information is moving from the predetermined location toward the projection area corresponding to the occupant can be visually recognized by projecting a trajectory display. However, here, the externally acquired information OD is particularly transmitted to a plurality of occupants 100. Note that in this third embodiment, explanations that overlap with those of the first embodiment or the second embodiment will be omitted.
  • the registration information storage unit 83 stores, for example, a message such as "When driving after entering city X, I would like to display shopping information for city X from a predetermined server in the vehicle interior 21.” It is assumed that desired request information such as "" is registered and set.
  • FIG. 13 is a diagram illustrating an example of a state in which externally acquired information is projected onto a primary projection area located at a specific location in the projection system according to the third embodiment.
  • the output information acquisition unit 74 displays the registered information storage unit 83. Necessary externally acquired information OD (in the above example, shopping information for city X) is acquired based on the request information registered and set in . As shown in FIG.
  • the first projection unit 75a of the projector control unit 75 externally acquires a primary projection area located on the inner wall of the A-pillar 24 and the inner wall of the B-pillar 24 on the left side of the vehicle interior 21, which are specific locations.
  • the projector 4 is controlled to project the information OD.
  • the processing by the first projection unit 75a corresponds to an example of primary projection processing.
  • the registration information storage unit 83 information regarding the seat arrangement of the occupant 100 who desires the result of the request is registered and set together with the request information, and the first projection unit 75a is configured to display appropriate information according to the seat arrangement. A primary projection area is identified and externally acquired information OD is projected. In the case of FIG.
  • a on the left side of the vehicle interior 21, which is a specific location as the primary projection area, is The inner wall of pillar 24 and the inner wall of B-pillar 24 are specified. That is, for example, if the first occupant 101 in the passenger seat is the only occupant 100 who desires the externally acquired information OD, the first projection section 75a will project onto the inner wall of the A-pillar 24 on the left side of the vehicle interior 21 as the primary projection area.
  • the externally acquired information OD is projected and displayed on the inner wall of the A-pillar 24.
  • the first projection section 75a will project the B-pillar 24 on the left side of the vehicle interior 21 as the primary projection area. Only the inner wall is identified, and the externally acquired information OD is projected and displayed on the inner wall of the B-pillar 24.
  • FIG. 14 is a diagram showing an example of a state in which a trajectory display from a specific location to a destination is projected in the projection system according to the third embodiment.
  • the first projection unit 75a projects the externally acquired information OD onto the primary projection area located at a specific location, and then When a predetermined period of time has elapsed, the trajectory projection unit 75c controls the projector 4 to project a trajectory display from the primary projection area to the secondary projection area.
  • the trajectory display is projected toward the secondary projection area corresponding to each of the plurality of occupants 100. That is, as shown in FIG.
  • trajectory projection unit 75c corresponds to an example of trajectory projection processing.
  • FIG. 15 is a diagram showing an example of a state in which an alarm is displayed on a destination in the projection system according to the third embodiment.
  • the trajectory projection unit 75c projects an alarm to make the first occupant 101 and the second occupant 102 aware that information is being transmitted from outside the vehicle. Display.
  • the second occupant 102 for example, the headrest of the driver's seat, the back area of the seat, the thighs and arms of the second occupant 102, etc.
  • the trajectory projection unit 75c controls the projector 4 so as to project a light alarm on a portion.
  • a light alarm is projected on a predetermined location on the dashboard 23 (for example, a location that does not overlap with the trajectory display) or on a part of the body such as the thigh or arm of the first occupant 101.
  • the trajectory projection unit 75c controls the projector 4 so as to do so.
  • the alarm display method and display mode are the same as those described in the first embodiment or the second embodiment.
  • the A-pillar 24 and the like shown in FIG. The externally acquired information OD of the B-pillar 24 and the respective trajectory displays may be projected.
  • the alarm display here may be displayed to all the occupants 100, or may be displayed only to those occupants 100 who have not made the gesture of awareness.
  • FIG. 16 is a diagram illustrating an example of a state in which externally acquired information is projected onto the secondary projection area of the transmission destination in the projection system according to the third embodiment.
  • the gesture of awareness made by the first occupant 101 and the second occupant 102 is recognized, and the notification by projecting the information to the destination is effective.
  • the first projection unit 75a and the trajectory projection unit 75c stop projecting the externally acquired information OD of the A-pillar 24 and the B-pillar 24 shown in FIG. 14 and the respective trajectory-like displays.
  • the projection of the alarm shown in FIG. 15 is stopped.
  • the second projection section 75b which is a secondary projection area, is directed toward the first occupant 101.
  • the projector 4 is controlled to project the externally acquired information OD onto the dashboard 23, and the thigh of the second occupant 102, which is a secondary projection area, and the plane placed thereon are projected toward the second occupant 102.
  • the projector 4 is controlled to project the externally acquired information OD onto a bag or the like (back of a vehicle seat or headrest).
  • the display method and display mode of the externally acquired information OD on the secondary projection area are the same as those of the projection information PD and externally acquired information OD on the secondary projection area described in the first embodiment or the second embodiment.
  • the display method and display mode are the same.
  • the first occupant 101 and the second occupant 102 can refer to the common externally acquired information OD.
  • the processing by the second projection unit 75b corresponds to an example of secondary projection processing.
  • common information does not necessarily need to be simultaneously projected on the secondary projection area corresponding to each occupant 100, and request information (registered information storage unit 83 (registered and set individually for each occupant 100), different information may be projected at different timings.
  • a trajectory display is projected and displayed from the primary projection area located at a specific location to the secondary projection area around the plurality of occupants 100 as transmission destinations.
  • the state analysis unit 72 analyzes the movements of the hands and fingers of the occupant 100, but in projection systems according to other embodiments, the state analysis unit 72 analyzes the posture of the occupant 100 (e.g. , the state of sitting in the seat or the state of sleeping with the seat reclined), the direction of the face (for example, facing forward, facing outside the vehicle 2, looking down, etc.), the direction of the line of sight (for example, (looking at the direction of travel of the vehicle 2, looking at the scenery outside the vehicle 2, closing the eyes, etc.) may be analyzed. Based on the results of the state analysis section 72 analyzing these states, the processing operation specifying section 73 determines whether notification by projecting information to the destination is valid. The processing of this processing operation specifying unit 73 corresponds to an example of the determination processing.
  • the trajectory display is performed for the occupant 100. It can be determined that the notification of information transmission is not functioning effectively or is not functioning. Furthermore, if the person's face is facing outside the vehicle 2 and the line of sight is looking at the scenery outside the vehicle 2, there is a high possibility that the person is looking away, and here too, the person is facing away from the vehicle 2. It can be determined that the notification of information transmission using the trajectory display is not functioning effectively or is not functioning.
  • the output information acquisition unit 74 acquires output audio corresponding to those conditions, and the speaker control unit 76 issues an alarm using the output audio. Controls the speaker 5. By doing so, it becomes possible to wake up the sleeping occupant 100 or alert the occupant 100 who is looking away, thereby reliably notifying the information transmission.
  • the trajectory projection unit 75c and the speaker control unit 76 may vary the projected trajectory display, the alarm display mode, and the output audio output mode depending on the state of the occupant 100 analyzed by the state analysis unit 72. . For example, if the occupant 100's eyes are closed and his or her face is down, there is a high probability that he or she is sleeping, so controls such as increasing the brightness of the projected light or increasing the volume of the output audio may be performed. By doing so, the occupant 100 may be made aware. Furthermore, if the occupant 100 is awake and only looking away, the trajectory display and alarm are relatively easy to notice, so control may be performed such as lowering the brightness.
  • the locus-like display in the first embodiment passes from the dashboard 23 to the inner wall of the pillar 24 on the left side of the first occupant 101 and the glass surface of the window glass 26, and from the left end to the top of the seat 27 of the rear seat. It is projected along a path toward the passenger 102.
  • Other routes include a route projected from the dashboard 23 through the floor 28 and the partitioned structure between the passenger seat and the driver's seat toward the second occupant 102, and a route projected from the dashboard 23 through the ceiling 22 to the second passenger seat.
  • the trajectory projection unit 75c selects an appropriate path from among these paths according to the environment inside the vehicle interior 21. The selection may be made by calculating.
  • the trajectory display be projected so as not to overlap the occupant 100, and in particular it is desirable that the trajectory display be controlled so that the light of the projector 4 is not directly irradiated into the eyes of the occupant 100. That is, the condition analysis section 72 analyzes the condition inside the vehicle interior 21, such as the number of passengers 100 on board the vehicle 2, their arrangement, size (face position), etc., and the trajectory projection section 75c uses the analysis results. An appropriate path for projecting the locus-like display is selected based on the trajectory. By doing so, it is possible to prevent the occupant 100 from being directly irradiated with the projection light and making the occupant 100 feel uncomfortable.
  • the dash A trajectory display may be projected from the board 23 through the inner wall of the A-pillar 24 on the left side of the first occupant 101 and the glass surface of the window glass 26, and from the inner wall of the B-pillar 24 on the left side toward the second occupant 102.
  • a trajectory display may be projected from the board 23 to the floor 28, through the partition structure between the passenger seat and the driver's seat, toward the second passenger 102, or from the dashboard 23 through the ceiling 22 to the passenger seat.
  • a trajectory display may be projected towards the back side of the headrest.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

情報の受け手側において情報が伝達されたことを容易に認識できる投影システムを提供する。 車両2の車室21に設けられたプロジェクタ4と、プロジェクタ4を制御して所望の表示を行う表示制御装置6と、を有する投影システム1であって、表示制御装置6の制御部70は、取得された所定情報を、車室21の所定の1次投影領域に対しプロジェクタ4により投影し表示させる1次投影処理と、1次投影処理による前記所定情報の表示後、1次投影領域から車室21の所定の2次投影領域へ向かう態様の軌跡状表示をプロジェクタ4により行わせる軌跡投影処理と、軌跡投影処理による軌跡状表示の実行後、2次投影領域に対しプロジェクタ4により所定情報を投影し表示させる2次投影処理と、を実行する。

Description

投影システム
 本発明は、自動車等の車両の室内において所望の表示を行う投影システムに関するものである。
 従来、例えば特許文献1に記載の車内会話支援装置が知られている。この支援装置では、後部座席の乗員が発声した音声を集音部で集音し、運転席や助手席のドアに設けたスピーカーから出力することで、後部座席から運転席又は助手席への情報の伝達が行われる。
特開2021-9234号公報
 例えば、上記従来技術のような音声による車内での情報の伝達に代え、例えば投影による視覚的な表示により情報の伝達を行うことが考えられる。しかしながらこの場合、送り手から伝達された情報を単に受け手側において表示するだけでは、受け手側において情報が伝達されたことを認識しにくいという問題点があった。
 そこで、本発明は、上記問題点に鑑みてなされたものであり、情報の受け手側において情報が伝達されたことを容易に認識できる投影システムを提供することを目的とする。
 本発明は、車両2の室内21に設けられた投影部4と、前記投影部4を制御して所望の表示を行う制御部70と、を有する投影システム1であって、前記制御部70は、取得された所定情報を、前記室内21の所定の1次投影領域に対し前記投影部4により投影し表示させる1次投影処理と、前記1次投影処理による前記所定情報の表示後、前記1次投影領域から前記室内21の所定の2次投影領域へ向かう態様の軌跡状表示を前記投影部4により行わせる軌跡投影処理と、前記軌跡投影処理による前記軌跡状表示の実行後、前記2次投影領域に対し前記投影部により前記所定情報を投影し表示させる2次投影処理と、を実行することを特徴とする。
 本発明によれば、1次投影領域から2次投影領域まで軌跡状表示が投影されて表示されるので、1次投影領域で投影された情報が、受け手である2次投影領域へと伝達されたことを容易に受け手側において認識することができる。
本発明の第1の実施形態に係る投影システムの構成を示す機能ブロック図。 第1の実施形態に係る投影システムが搭載された車両内部の模式図。 第1の実施形態に係る投影システムにおいて送信元の1次投影領域に投影情報が表示されている状態の一例を示す図。 第1の実施形態に係る投影システムにおいて送信先を選択する投影情報が表示されている状態の一例を示す図。 第1の実施形態に係る投影システムにおいて送信元から送信先への軌跡状表示が投影されている状態の一例を示す図。 第1の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図。 第1の実施形態に係る投影システムにおいて送信先の2次投影領域に送信対象となる情報が投影されている状態の一例を示す図。 本発明の第2の実施形態に係る投影システムの構成を示す機能ブロック図。 第2の実施形態に係る投影システムにおいて特定箇所に位置する1次投影領域に外部取得情報が投影されている状態の一例を示す図。 第2の実施形態に係る投影システムにおいて特定箇所から送信先への軌跡状表示が投影されている状態の一例を示す図。 第2の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図。 第2の実施形態に係る投影システムにおいて送信先の2次投影領域に外部取得情報が投影されている状態の一例を示す図。 本発明の第3の実施形態に係る投影システムにおいて特定箇所に位置する一次投影領域に外部取得情報が投影されている状態の一例を示す図。 第3の実施形態に係る投影システムにおいて特定箇所から送信先への軌跡状表示が投影されている状態の一例を示す図。 第3の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図。 第3の実施形態に係る投影システムにおいて送信先の2次投影領域に外部取得情報が投影されている状態の一例を示す図。
(本発明の第1の実施形態)
 本発明の第1の実施形態を、図面を参照しつつ説明する。第1の実施形態に係る投影システムは、例えば車両の車室内において情報の送信元から送信先に向かって当該情報が移動している状態を軌跡状表示を投影することで視覚的に認識できるものである。
 図1は、第1の実施形態に係る投影システムの構成を示す機能ブロック図、図2は、第1の実施形態に係る投影システムが搭載された車両内部の模式図である。投影システム1は、車両2の車室21における計測対象を計測する非接触式センサ3と、車室21内に設けられ、当該車室21の所定箇所に投影情報PDを投影する投影部としての複数のプロジェクタ4と、車室21内に音を出力する発声部としてのスピーカー5と、非接触式センサ3から取得した計測情報MDに基づいてプロジェクタ4やスピーカー5を制御する投影制御装置6とを備える。
 非接触式センサ3は、例えば可視光カメラ、赤外線カメラ、TOF(Time of Flight)カメラ、ミリ波センサ等から構成される。非接触式センサ3の計測対象は、車両2に搭乗している乗員100やプロジェクタ4の投影により車室21の所定箇所に表示されている投影情報PDであり、それらの二次元情報又は三次元情報が計測される。例えば図2において、非接触式センサ3は車両2の天井(ルーフ)22に設置され、ダッシュボード23に表示されている投影情報PDや当該投影情報PD上での乗員100の手の動きを計測する。
 なお、非接触式センサ3が計測する計測領域は、予め設定された固定領域でもよいし、乗員100の動きに応じた可変領域であってもよい。具体的には、例えば固定領域であれば、後述するようなプロジェクタ4が投影情報PDを表示する領域(図2においては助手席側のダッシュボード23の表面に相当)等を計測領域としてもよい。また、例えば可変領域であれば、乗員100の手の形状を画像認識により検出し、その動きに合わせて手が含まれる領域を非接触式センサ3の計測領域としてもよい。
 プロジェクタ4は、投影部の一例としての構成であり、例えば液晶デバイス、デジタルミラーデバイス等を利用した公知のプロジェクタを用いることができる。図2においては、プロジェクタ4は車両2の天井22に設置されているが、これ以外にも車室21内のピラー24(A(フロント)ピラー、B(センター)ピラー、C(リア)ピラー、D(リア)ピラー)やドア25の内壁など適宜の箇所に複数設置されてもよい。プロジェクタ4は、投影制御装置6の制御の下、車両2の車室21における予め設定された所定箇所に投影情報PDをプロジェクタ画像として投影し表示する。投影情報PDが表示される所定箇所としては、車室21の天井22、ダッシュボード23、ピラー24やドア25などの内壁、窓ガラス26のガラス面、シート27、床28など車室21内の様々な箇所が対象となる。また、必要に応じて乗員100の体の表面に投影情報PDが投影されるようにしてもよい。投影情報PDは、これらの各所に存在する物体表面に対して投影して表示される。
 なお、このとき、投影情報PDの視認性を向上させるために、投影情報PDが投影される各所に存在する物体表面の色を投影領域の範囲内で単色化するような波長の光(例えば、物体表面の色と混色することで投影領域全体が白、黒、グレーなどに単色化されるような関係にある波長の光)を投影情報PDに含むようにしてもよい。
 スピーカー5は、発声部の一例としての構成であり、車室21に音情報を出力する。このスピーカー5は指向性を有するものであるのが好ましいが、一般的に車両2に搭載されているスピーカーであってもよい。スピーカー5は、ナビゲーションシステム(図1には図示しない)の音声や、各コンテンツ(音楽、テレビ、映画、ゲームなど)の音を車室21に出力すると共に、後述するようなアラーム報知を行う。スピーカー5は、例えば図2においては、助手席及び運転席のドア25の内側に設置されているが、車両2に搭乗する各乗員100用のスピーカー5を個別に備える構成であってもよい。
 投影制御装置6は、投影システム1の全体動作を制御するコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部70と、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリやハードディスク(Hard Disk)から構成される記憶部80とを備える。
 制御部70は、非接触式センサ3が計測した計測情報MDを取得するセンサ情報取得部71と、取得した計測情報MDに基づいて画像認識により計測対象の状態を解析する状態解析部72と、記憶部80の処理動作記憶部81に記憶されている計測対象の状態に応じた処理動作の情報、及び状態解析部72で解析された計測対象の状態から実行する処理動作を特定する処理動作特定部73と、特定された処理動作に必要な情報を記憶部80の出力情報記憶部82やインターネット90(又は必要に応じてナビゲーションシステムなどの車載システムや車車間通信などのインターネット以外の通信システム)から取得する出力情報取得部74と、出力情報取得部74が取得した各情報を投影情報PDとして表示するために複数のプロジェクタ4を制御するプロジェクタ制御部75と、出力情報取得部74が取得した情報のうちの音に関する情報を車室21に出力するようにスピーカー5を制御するスピーカー制御部76とを備える。
 また、プロジェクタ制御部75は、情報の送信元に対する投影情報PDを1次投影領域に投影するようプロジェクタ4を制御する第1投影部75aと、情報の送信先に対する投影情報PDを2次投影領域に投影するようプロジェクタ4を制御する第2投影部75bと、1次投影領域から2次投影領域に向かう態様の軌跡状表示を投影するようプロジェクタ4を制御する軌跡投影部75cとを備える。
 記憶部80は、計測対象の状態(例えば、投影情報PD上で指をスワイプしている、投影情報PD上で指をタップしている等)に対応する処理動作(例えば、次ページの投影情報PDを表示する(現在の投影情報PDと異なる別の投影情報PDへ切り替えて表示する)、タップ位置の投影情報PDの内容を決定する等)が記憶される処理動作記憶部81と、投影情報PDとして表示可能なテレビ番組、映画、ゲーム、音楽等の様々なコンテンツ情報や、その他軌跡状表示やアラーム表示に関する情報など乗員100に提示する情報等が記憶される出力情報記憶部82と、を備える。
 以下、制御部70における各処理部の処理内容について詳細に説明する。センサ情報取得部71は、非接触式センサ3が所定の検出周期で計測した計測情報MDを受信し、状態解析部72に渡す。状態解析部72は、まず計測情報MDに計測対象が含まれているかどうかを画像認識により判定する。この画像認識の手法は任意であり、例えばパターンマッチング、HOG(Histogram of Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)、LBP(Local Binary Pattern)、Haar-Likeなどの公知の特徴点算出手法を用いて実行される。
 計測情報MDに計測対象である乗員100の手が含まれていると判定した場合は、認識した手や指の動きを解析する。例えば、指先が横方向又は縦方向に連続して移動した場合は、乗員100がスワイプ動作を行っていると推定することができ、指先が高さ方向に上下動した場合はタップ動作を行っていると推定することが可能である。このとき、非接触式センサ3が計測する計測情報MDには、プロジェクタ4が投影して表示している投影情報PDも含まれていることから、投影情報PDが表示されている領域のいずれの位置で乗員100の指先が動作したかを併せて解析する。状態解析部72によるこれらの解析手法は任意であり、例えばNN法(Nearest Neighbor algorithm)、k-NN法(k-Nearest Neighbor algorithm)、パターンマッチング法などの公知の手法を用いることができる。なお、特定される手や指の動きとしては、上述したスワイプ、タップ以外に、例えばスクロール、ピンチイン、ピンチアウト、ロングタップ、フリック、ドラッグ等の動作が含まれる。
 処理動作特定部73は、状態解析部72が解析した計測対象の状態に基づいて、実行する処理動作に関する情報を処理動作記憶部81から抽出して特定する。例えば状態解析部72が、乗員100がスワイプ動作を行ったと推定した場合には現在投影している投影情報PDの次ページの情報に切り替える、乗員100がタップ動作を行ったと推定した場合にはタップした指先の座標に表示されている処理内容を決定(例えば、送信先を決定、送信先に送りたい情報を決定)するといった処理動作が特定される。
 出力情報取得部74は、処理動作特定部73で特定された処理動作で使用する出力情報を取得する。例えば、投影情報PDを次ページの情報に切り替える場合には、当該切り替えて表示される次ページの投影情報PDを出力情報記憶部82やインターネット90(キャッシュに保存されている情報でもよい)から取得する。送信元から送信先に情報伝達する処理を行う場合は、送信元から送信先への軌跡状表示の情報を出力情報記憶部82から取得する。乗員100に対して後述するようなアラームを表示する場合は、アラームとして出力する音や光の情報を出力情報記憶部82から取得する。
 プロジェクタ制御部75は、出力情報取得部74が取得した出力情報をプロジェクタ4を制御して車室21内に投影させる。ここで、プロジェクタ制御部75の第1投影部75a、第2投影部75b及び軌跡投影部75cが行う各処理の具体例を図3から図7を用いて説明する。図3から図7に示す処理においては、車両2に第1乗員101及び第2乗員102を含む複数の乗員100が搭乗しており、助手席に座る第1乗員101を送信元とし、後部座席右側に座る第2乗員102を送信先とし、第1乗員101及び第2乗員102で共有したい情報を送信元である第1乗員101から送信先である第2乗員102に対して送信する場合について示している。
 図3は、第1の実施形態に係る投影システムにおいて送信元の1次投影領域に投影情報が表示されている状態の一例を示す図である。送信元である第1乗員101に向けて投影情報PDを提示するためのダッシュボード23に投影情報PDが表示されている。このダッシュボード23には、例えばインターネット90の検索サイトの検索画面のような情報が投影されており、第1乗員101はダッシュボード23に表示されている投影情報PDに対してスワイプ動作やタップ動作といった所望の操作を行う。非接触式センサ3はそれらの動作を計測して計測情報MDを投影制御装置6に送信する。上述したセンサ情報取得部71、状態解析部72、処理動作特定部73及び出力情報取得部74の処理により1次投影領域に投影する投影情報PD(例えばインターネット90から取得した検索結果情報)が取得され、プロジェクタ制御部75の第1投影部75aが、取得した投影情報PDを1次投影領域であるダッシュボード23に投影するようにプロジェクタ4を制御する。このようにして、第1乗員101は所望の情報を取得してダッシュボード23に表示させることができる。この第1投影部75aが実行する処理が1次投影処理の一例に相当する。
 図4は、第1の実施形態に係る投影システムにおいて送信先を選択する投影情報が表示されている状態の一例を示す図である。第1乗員101が、図3で取得した投影情報PDを第2乗員102と共有する場合、適宜の操作(例えば共有ボタンのタップ、予め決まっている共有処理用のジェスチャー等:所定動作)を行うことで、上述したセンサ情報取得部71、状態解析部72、処理動作特定部73及び出力情報取得部74の処理により、図4に示すような送信先指定画面の情報が取得され、第1投影部75aが送信先指定画面をダッシュボード23に投影するようにプロジェクタ4を制御する。送信先指定画面には車室21内の座席配置を示す情報が表示されており、第1乗員101は送信先に対応する座席配置(図4の場合は第2乗員102が座っている右斜め後ろの位置に相当する座席)をタップして選択する。なお、これ以外にも、乗員100のリストが送信先指定画面に一覧表示され、その中から送信先となる乗員100を選択するようにしてもよい。このタップ動作は、非接触式センサ3を介して投影制御装置6に送信され、センサ情報取得部71、状態解析部72の解析処理を経て、処理動作特定部73が、選択された座席配置の情報から送信先の位置情報を特定する。この送信先指定画面上で選択された情報を投影制御装置6で受け付ける処理が、乗員選択受付処理の一例に相当する。
 図5は、第1の実施形態に係る投影システムにおいて送信元から送信先への軌跡状表示が投影されている状態の一例を示す図である。図4における送信先指定画面での受け付け結果から、センサ情報取得部71、状態解析部72、処理動作特定部73及び出力情報取得部74の処理により、送信元から送信先に向かう軌跡状表示の出力情報が取得される。プロジェクタ制御部75の軌跡投影部75cは、1次投影領域であるダッシュボード23から後部座席右側に座る第2乗員102の周辺部に向かって取得した軌跡状表示を投影するようにプロジェクタ4を制御する。第2乗員102の周辺部には、2次投影領域として第2乗員102に向けて提示する投影情報PDが投影される領域が含まれており、例えば第2乗員102が所有している平面を有するバッグなどの所有物の表面や、第2乗員102の腿や腕の表面(車両のシート背面やヘッドレストなど)など投影情報PDを視認しやすい領域である。軌跡状表示は、図5に示すように、ダッシュボード23から第1乗員101の左側のピラー24(Aピラー及びBピラー)内壁や窓ガラス26を通り、後部座席のシート27上を左端から第2乗員102に向かって投影される。軌跡状表示はこれ以外にも、例えばダッシュボード23から床28、助手席と運転席との間の区分構造(例えば、センターコンソール等(図5には図示しない))を通って、第2乗員102に向かって投影されてもよいし、ダッシュボード23からピラー24と天井22を通って第2乗員102に向かって投影されてもよい。この軌跡投影部75cが実行する処理が軌跡投影処理の一例に相当する。
 なお、軌跡状表示の表示態様は、例えば光スポット群からなる軌跡状表示、ライン状の軌跡状表示、矢印状の軌跡状表示など適宜設定できるようにしてもよい。また軌跡状表示の光り方は、常時点灯表示、点滅表示、波紋表示などを適宜設定できるようにしてもよい。軌跡状表示は、発信元から発信先に近づくに連れて点灯速度や波紋間隔が大きくなるように表現されてもよい。さらに、送信対象となる情報そのものが軌跡状表示として移動しているように投影されてもよい。第1投影部75aは、軌跡状表示の投影開始時には、1次投影領域への投影を停止しても良いし、投影を継続してもよいし、軌跡状表示の投影中に1次投影領域への投影を停止するように制御してもよい。さらに、軌跡状表示は、送信元から送信先に向かって幅方向寸法が大きくなる表示態様としてもよい。
 図6は、第1の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図である。図5のような軌跡状表示がなされただけでは第2乗員102が送信元からの情報伝達になかなか気が付かない場合がある。そこで、図6においては、第2乗員102に情報伝達があることを気付かせるために、軌跡投影部75cが、例えば運転席のヘッドレストや座席の裏側領域、第2乗員102の腿や腕などの体の一部に光によるアラームを投影するようにプロジェクタ4を制御する。アラームの表示態様としては点滅、振動など第2乗員102を注意喚起する態様が望ましい。また、投影されるアラームは、送信対象となっている情報自体を点滅、振動などの態様で表示するようにしてもよい。
 第2乗員102が情報伝達があることに気付いているかどうかは、予め決められたジェスチャー(所定動作)などの指示操作を第2乗員102が行ったかどうかで判断する。例えば、第2乗員102による、軌跡状表示をタッチする、第2表示領域をタッチする、図6のアラームが表示されている場合は当該アラーム表示をタッチする、指(所定部位)でOKサインを示す、気付きボタンをタッチする、音声で通知する等のジェスチャーを非接触式センサ3で計測することで、第2乗員102が情報伝達に気付いていると判断してもよい。図5の軌跡状表示の投影がなされてから、このような気付きのジェスチャーが認識されるまで図6のアラームが投影される。
 なお、図6に示すアラーム処理は必ずしも実行される必要はない。すなわち、図5の軌跡状表示に対して第2乗員102が直ちに上述したような気付きのジェスチャーを行い、当該気付きのジェスチャーが認識された場合には図6のアラーム処理は省略することができる。
 また、図6においては、アラームのみが表示された状態を示しているが、アラーム表示を行っている全期間又は一部の期間で、図5に示すようなダッシュボード23の投影情報PD及び軌跡状表示が投影される状態であってもよい。
 図7は、第1の実施形態に係る投影システムにおいて送信先の2次投影領域に送信対象となる情報が投影されている状態の一例を示す図である。第2乗員102は、図5の軌跡状表示又は図6のアラームに気が付くと、上述したような気付きのジェスチャーをすることで非接触式センサ3を介して状態解析部72により当該ジェスチャーが解析され認識される。この気付きのジェスチャーを認識する処理が操作識別処理の一例に相当する。当該気付きのジェスチャーが認識されると、処理動作特定部73が、送信先への情報の投影による報知が有効な状態であると判定する。この送信先への投影による報知が有効な状態であるか否かを判定する処理が判定処理の一例に相当する。第1投影部75aや軌跡投影部75cは、図5に示したダッシュボード23の投影情報PDや軌跡状表示の投影を停止すると共に、図6のアラームの投影を停止する。ダッシュボード23の投影情報PD、軌跡状表示及びアラームの投影が停止されるのと同時に、第2投影部75bが、2次投影領域である第2乗員102の腿やその上に載せた平面を有するバッグ等(車両シート背面やヘッドレスト)に対して、送信元から送信された情報を投影するようにプロジェクタ4を制御する。この第2投影部75bが実行する処理が2次投影処理の一例に相当する。このようにして、第2乗員102は、第1乗員101から送信された情報を参照することが可能となり、情報共有することができる。
 図2に戻って、スピーカー制御部76は、車室21内に動画や音楽などの音情報を出力するようにスピーカー5を制御すると共に、例えば図6において説明したようなアラームが投影されているにも関わらず、送信元からの情報伝達に送信先の第2乗員102が一向に気が付かないような場合に、当該第2乗員102に対して音声メッセージ(予め出力情報記憶部82に登録したもの)などの音声によるアラーム報知を行うようにスピーカー5を制御する。
 なお、複数のプロジェクタ4は、例えば車室21の天井22又はピラー24(Aピラー、Bピラー、Cピラー、Dピラー)側壁に配設されており、プロジェクタ制御部75の第1投影部75a、第2投影部75b及び軌跡投影部75cが相互に連携することで、上述した1次投影処理、軌跡投影処理及び2次投影処理を同期させて実行する。
 このように、第1の実施形態に係る投影システムにおいては、1次投影領域から2次投影領域まで軌跡状表示が投影されて表示されるので、送信元の1次投影領域で投影された情報が、送信先の2次投影領域へと情報伝達されたことを送信先の乗員100が容易に認識することができる。
 また、プロジェクタ制御部75の第1投影部75a、第2投影部75b及び軌跡投影部75cが相互に連携することで複数のプロジェクタ4を同期させて制御するため、1次投影領域への投影、2次投影領域への投影、及び1次投影領域から2次投影領域への軌跡状表示の投影を円滑に行うことができる。
 さらに、車両2の車室21内の天井22、ダッシュボード23、ピラー24やドア25などの内壁、窓ガラス26のガラス面、シート27、床28、助手席と運転席との区分構造等を通過する態様で軌跡状表示の投影が行われるので、送信先の乗員100が確実に情報伝達を認識することができる。
 さらにまた、送信元の乗員100(図3から図7における第1乗員101)の周辺から送信先の乗員100(図3から図7における第2乗員102)の周辺へと軌跡状表示が投影されることで、送信先の乗員100において送信元の乗員100側から情報伝達が行われたことを確実に認識することができる。
 さらにまた、適宜の操作を行うことで送信先指定画面を投影して表示することで、送信元の乗員100は、他の乗員100の中から所望の乗員100を情報の送信先として指定することができる。
 さらにまた、情報伝達の流れを示す軌跡状表示を1次投影領域から2次投影領域に向かって幅方向寸法が大きくなる表示態様とした場合は、乗員100にとって情報伝達を感覚的に分かりやすく表示することができる。
 さらにまた、送信先の乗員100による気付きのジェスチャーが認識されるまで、すなわち軌跡状表示の投影やアラームの投影について終了が指示されるまで当該軌跡状表示の投影やアラームの投影を実行し続けることにより、情報伝達がされたことを送信先の乗員100において確実に認識させることができる。特に、送信先の乗員100、すなわち軌跡状表示の投影やアラームの投影について終了を指示する指示者は、情報伝達を認識したという意思表示を所謂ジェスチャー等によって行うことができ、これによって軌跡状表示やアラームの投影を終了させることができる。
 さらにまた、送信元の乗員100による気付きのジェスチャーが未だ認識されない場合、すなわち軌跡状表示の投影について終了指示が未だなされていないような場合には、2次投影領域への投影による報知が有効に機能しない又は機能していないと判定することができる。そしてその場合は、前述の軌跡状表示の投影を無駄に行わないようにする、又は別途のアラームを表示する等の方策をとることができる。
 さらにまた、図6に示したようなアラーム表示を行うことにより、軌跡状表示の終了指示をしていない乗員100に対し、2次投影領域を確認して気付きのジェスチャーを行うように促すことができる。
 さらにまた、スピーカー5を制御して音声によるアラーム報知を行うことにより、軌跡状表示の終了指示をしていない乗員100に対し、2次投影領域を確認して気付きのジェスチャーを行うように促すことができる。
(本発明の第2の実施形態)
 本発明の第2の実施形態を、図面を参照しつつ説明する。第2の実施形態に係る投影システム1は、車外のシステムから送信された情報を車載の通信システムが受信した場合に、当該受信した情報を車室21の所定箇所に投影して表示しつつ、当該所定箇所から各乗員に対応する投影領域に向かって、受信した情報が移動している状態を軌跡状表示を投影することで視覚的に認識できるものである。なお、この第2の実施形態において第1の実施形態と重複する説明は省略する。
 図8は、第2の実施形態に係る投影システムの構成を示す機能ブロック図である。図8に示す構成において第1の実施形態における図1の構成と異なるのは、記憶部80がさらに登録情報記憶部83を備え、処理動作特定部73が登録情報記憶部83に登録されている情報に基づいて乗員100に対しての所望の処理動作を特定すると共に、出力情報取得部74が登録情報記憶部83に登録された情報に基づいて車外のサーバや車車間通信により車室21内に投影する出力情報(以下、外部取得情報ODという)を取得することである。また、第2の実施形態においては、第1投影部75aが外部取得情報ODを投影する1次投影領域にピラー24の内壁や天井22など乗員100が比較的視認しやすい箇所(以下、特定箇所という)を含んでおり、外部取得情報ODを取得した場合には、第1投影部75aが特定箇所に位置する1次投影領域に外部取得情報ODを投影して表示するようにプロジェクタ4を制御する。これに伴い、外部取得情報ODを取得した場合は、軌跡投影部75cが特定箇所に位置する1次投影領域から2次投影領域に向かって情報の移動を示す軌跡状表示を投影させる処理を行い、第2投影部75bは2次投影領域に外部取得情報ODを投影して表示するようにプロジェクタ4を制御する。
 以下、第2の実施形態における処理の具体例を図9から図12を用いて説明する。登録情報記憶部83には、例えば「X市街に入って走行した場合には、当該X市のショッピング情報を所定のサーバから車室21内へ表示したい」といった所望のリクエスト情報(より具体的には、地域、カテゴリ、キーワードなどの条件)が登録設定されており、その状態で車両2が走行している。
 なお、この登録設定は、出発前にスマートフォンやパソコンなどから予め行っておくこともできるが、車室21でも行うこともでき、助手席の第1乗員101や後部座席右側の第2乗員102を含むどの乗員100によっても行うことができる。また、リクエスト情報として上記ショッピング情報以外にも、地域の観光情報、ガソリンスタンドや駐車場や飲食店などの情報、天気に関する情報、渋滞情報、事故情報、緊急災害速報などの様々なリクエスト情報が含まれる。
 図9は、第2の実施形態に係る投影システムにおいて特定箇所に位置する1次投影領域に外部取得情報が投影されている状態の一例を示す図である。センサ情報取得部71がナビゲーションシステムなどで使用されるGPSセンサ(図8には図示しない)から車両2の位置情報を取得し、状態解析部72及び処理動作特定部73により車両2の位置が登録情報記憶部83の登録設定を満たすと判定した場合、すなわち、上記の例で言えば車両2がX市街地に入って走行しているため、リクエスト情報に基づいて必要な外部取得情報ODを1次投影領域に投影すると判定した場合は、出力情報取得部74が、登録情報記憶部83に登録設定されている条件に基づき外部取得情報ODを取得する。上記の例では、出力情報取得部74がX市のショッピング情報を外部取得情報ODとして取得する。このような外部取得情報ODは、車載されている通信システムにより、車外のサーバからインターネット90や車車間通信等のインターネット以外の適宜通信(図示しない)により取得可能である。出力情報取得部74により外部取得情報ODが取得されると、図9に示すように、プロジェクタ制御部75の第1投影部75aが特定箇所の一つである車室21の左側のBピラー24の内壁に当該外部取得情報ODを投影するようにプロジェクタ4を制御する。この第1投影部75aの処理は1次投影処理の一例に相当する。
 図10は、第2の実施形態に係る投影システムにおいて特定箇所から送信先への軌跡状表示が投影されている状態の一例を示す図である。第1の実施形態に係る投影システム1においては、第1乗員101が送信先指定画面から送信先を選択することで送信先を特定し、それに基づいて軌跡投影部75cが1次投影領域から2次投影領域への軌跡状表示を投影させる処理を行ったが、第2の実施形態に係る投影システム1においては、第1投影部75aが、特定箇所に位置する1次投影領域に外部取得情報ODを投影してから所定時間(例えば数秒から数十秒)が経過した場合に、軌跡投影部75cが、当該1次投影領域から2次投影領域への軌跡状表示を投影するようにプロジェクタ4を制御する。図10の場合は、Bピラー24から後部座席のシート27上を左端から第2乗員102に対応する2次投影領域に向かって軌跡状表示が投影されている。なお、軌跡状表示の表示方法や表示態様については、第1の実施形態において説明したもの同様である。この軌跡投影部75cの処理は軌跡投影処理の一例に相当する。
 図11は、第2の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図である。第1の実施形態の場合と同様に、第2乗員102に車外からの情報伝達があることを気付かせるために、軌跡投影部75cが、例えば運転席のヘッドレストや座席の裏側領域、第2乗員102の腿や腕などの体の一部に光によるアラームを投影するようにプロジェクタ4を制御する。なお、アラームの表示方法や表示態様については、第1の実施形態において説明したものと同様である。また、第1の実施形態における図6の場合と同様に、アラーム表示を行っている全期間又は一部の期間で、図10に示すようなBピラー24の外部取得情報OD及び軌跡状表示が投影された状態であってもよい。
 図12は、第2の実施形態に係る投影システムにおいて送信先の2次投影領域に外部取得情報が投影されている状態の一例を示す図である。ここでも第1の実施形態の場合と同様に、第2乗員102が行った気付きのジェスチャーが認識され、送信先への情報の投影による報知が有効な状態であると判定されると、第1投影部75aや軌跡投影部75cは、図10に示したBピラー24の外部取得情報ODや軌跡状表示の投影を停止すると共に、図11のアラームの投影を停止する。Bピラー24の外部取得情報OD、軌跡状表示及びアラームの投影が停止されるのと同時に、第2投影部75bが、第2乗員102に向けて2次投影領域である第2乗員102の腿やその上に載せた平面を有するバッグ等(車両シート背面やヘッドレスト)に対して、外部取得情報ODを投影するようにプロジェクタ4を制御する。なお、2次投影領域への外部取得情報ODの表示方法や表示態様については、第1の実施形態において説明した2次投影領域への投影情報PDの表示方法や表示態様と同様である。このようにして、第2乗員102は、外部取得情報ODを参照することが可能となる。この第2投影部75bの処理は2次投影処理の一例に相当する。
 このように、第2の実施形態に係る投影システムにおいては、特定箇所に位置する1次投影領域から送信先の少なくとも一人の乗員100の周辺の2次投影領域に軌跡状表示が投影されて表示されることで、送信先の乗員100(図9から図12における第2乗員102)において、上記特定箇所から外部取得情報ODの情報伝達が行われたことを確実に認識することができる。
(本発明の第3の実施形態)
 本発明の第3の実施形態を、図面を参照しつつ説明する。第3の実施形態に係る投影システム1は、第2の実施形態における投影システム1と同様に車外のシステムから送信された情報を車載の通信システムが受信した場合に、当該受信した情報を車室21の所定箇所に投影して表示しつつ、当該所定箇所から乗員に対応する投影領域に向かって受信した情報が移動している状態を軌跡状表示を投影することで視覚的に認識できるものであるが、ここでは特に複数の乗員100に対して外部取得情報ODが情報伝達されるものである。なお、この第3の実施形態において第1の実施形態又は第2の実施形態と重複する説明は省略する。
 以下、第3の実施形態における処理の具体例を図13から図16を用いて説明する。第2の実施形態の場合と同様に、登録情報記憶部83には、例えば「X市街に入って走行した場合には、当該X市のショッピング情報を所定のサーバから車室21内へ表示したい」といった所望のリクエスト情報が登録設定されているとする。
 図13は、第3の実施形態に係る投影システムにおいて特定箇所に位置する1次投影領域に外部取得情報が投影されている状態の一例を示す図である。センサ情報取得部71、状態解析部72及び処理動作特定部73の処理により、外部取得情報ODを車室21内に表示することが決定されると、出力情報取得部74が登録情報記憶部83に登録設定されているリクエスト情報に基づいて必要な外部取得情報OD(上記の例ではX市のショッピング情報)を取得する。プロジェクタ制御部75の第1投影部75aは、図13に示すように、特定箇所である車室21の左側におけるAピラー24の内壁及びBピラー24の内壁に位置する1次投影領域に外部取得情報ODを投影するようにプロジェクタ4を制御する。この第1投影部75aの処理は1次投影処理の一例に相当する。
 本実施形態においては、外部取得情報ODを報知する報知対象となる対象乗員が車両2に2人搭乗しており、それぞれ助手席に座っている第1乗員101と後部座席右側に座っている第2乗員102である。登録情報記憶部83には、リクエスト情報と共に当該リクエストの結果を所望している乗員100の座席配置に関する情報が登録設定されており、第1投影部75aは、それらの座席配置に応じて適正な1次投影領域を特定し、外部取得情報ODを投影する。図13の場合は、助手席の第1乗員101と後部座席の第2乗員102が外部取得情報ODを所望していることから、1次投影領域として特定箇所である車室21の左側におけるAピラー24の内壁及びBピラー24の内壁が特定されている。すなわち、例えば外部取得情報ODを所望している乗員100が助手席の第1乗員101だけであれば、第1投影部75aは、1次投影領域として車室21の左側におけるAピラー24の内壁のみを特定し、当該Aピラー24の内壁に外部取得情報ODを投影して表示させる。また、例えば外部取得情報ODを所望している乗員100が後部座席右側の第2乗員102だけであれば、第1投影部75aは、1次投影領域として車室21の左側におけるBピラー24の内壁のみを特定し、当該Bピラー24の内壁に外部取得情報ODを投影して表示させる。
 図14は、第3の実施形態に係る投影システムにおいて特定箇所から送信先への軌跡状表示が投影されている状態の一例を示す図である。第3の実施形態に係る投影システム1においては、第2の実施形態の場合と同様に、第1投影部75aが、特定箇所に位置する1次投影領域に外部取得情報ODを投影してから所定時間が経過した場合に、軌跡投影部75cが、当該1次投影領域から2次投影領域への軌跡状表示を投影するようにプロジェクタ4を制御する。ただし、ここでは、複数の乗員100にそれぞれ対応する2次投影領域に向かって軌跡状表示が投影される。すなわち、図14に示すように、第1乗員101に対応する1次投影領域であるAピラー24の内壁からは、第1乗員101の2次投影領域であるダッシュボード23に向かって軌跡状表示が投影される。一方で、第2乗員102に対応する1次投影領域であるBピラー24の内壁からは、第2乗員102の2次投影領域(第2乗員102が所有している平面を有するバッグなどの所有物の表面や、第2乗員102の腿や腕の表面(車両シート背面やヘッドレスト)など)に向かって軌跡状表示が投影される。なお、軌跡状表示の表示方法や表示態様については、第1の実施形態又は第2の実施形態において説明したもの同様である。この軌跡投影部75cの処理は軌跡投影処理の一例に相当する。
 図15は、第3の実施形態に係る投影システムにおいて送信先にアラーム表示している状態の一例を示す図である。第1の実施形態又は第2の実施形態の場合と同様に、第1乗員101及び第2乗員102に車外からの情報伝達があることを気付かせるために、軌跡投影部75cがアラームを投影して表示する。図14に示すように、第2乗員102に対しては、第2の実施形態の場合と同様に、例えば運転席のヘッドレストや座席の裏側領域、第2乗員102の腿や腕などの体の一部に光によるアラームを投影するように軌跡投影部75cがプロジェクタ4を制御する。一方で、第1乗員101に対しては、ダッシュボード23の所定箇所(例えば、軌跡状表示と重複しない箇所)、第1乗員101の腿や腕などの体の一部に光によるアラームを投影するように軌跡投影部75cがプロジェクタ4を制御する。なお、アラームの表示方法や表示態様については、第1の実施形態又は第2の実施形態において説明したものと同様である。また、第1の実施形態における図6や第2の実施形態における図11の場合と同様に、アラーム表示を行っている全期間又は一部の期間で、図14に示すようなAピラー24及びBピラー24の外部取得情報OD、並びにそれぞれの軌跡状表示が投影された状態であってもよい。さらに、ここでのアラーム表示は、乗員100全員に行ってもよいし、気付きのジェスチャーを行っていない乗員100に対してのみ行ってもよい。
 図16は、第3の実施形態に係る投影システムにおいて送信先の2次投影領域に外部取得情報が投影されている状態の一例を示す図である。ここでも第1の実施形態又は第2の実施形態の場合と同様に、第1乗員101及び第2乗員102が行った気付きのジェスチャーが認識され、送信先への情報の投影による報知が有効な状態であると判定されると、第1投影部75aや軌跡投影部75cは、図14に示したAピラー24及びBピラー24の外部取得情報OD、並びにそれぞれの軌跡状表示の投影を停止すると共に、図15のアラームの投影を停止する。Aピラー24及びBピラー24の外部取得情報OD、並びにそれぞれの軌跡状表示の投影が停止されるのと同時に、第2投影部75bが、第1乗員101に向けて、2次投影領域であるダッシュボード23に対して外部取得情報ODを投影するようにプロジェクタ4を制御すると共に、第2乗員102に向けて、2次投影領域である第2乗員102の腿やその上に載せた平面を有するバッグ等(車両シート背面やヘッドレスト)に対して、外部取得情報ODを投影するようにプロジェクタ4を制御する。なお、2次投影領域への外部取得情報ODの表示方法や表示態様については、第1の実施形態又は第2の実施形態において説明した2次投影領域への投影情報PDや外部取得情報ODの表示方法や表示態様と同様である。このようにして、第1乗員101及び第2乗員102は、共通の外部取得情報ODを参照することが可能となる。この第2投影部75bの処理は2次投影処理の一例に相当する。
 なお、第3の実施形態において、それぞれの乗員100に対応する2次投影領域には必ずしも共通の情報が同時に投影される必要はなく、各乗員100が所望しているリクエスト情報(登録情報記憶部83に各乗員100ごとに個別に登録設定済み)に応じて、異なるタイミングで異なる情報が投影されてもよい。
 このように、第3の実施形態に係る投影システムにおいては、特定箇所に位置する1次投影領域から送信先の複数の乗員100の周辺の2次投影領域に軌跡状表示が投影されて表示されることで、送信先の乗員100(図13から図16における第1乗員101及び第2乗員102)において、上記特定箇所から外部取得情報ODの情報伝達が行われたことを確実に認識することができる。
(本発明のその他の実施形態)
 本発明のその他の実施形態について説明する。前記各実施形態において、状態解析部72は、乗員100の手や指の動きを解析する旨を説明したが、その他の実施形態に係る投影システムにおいては、それ以外にも乗員100の姿勢(例えば、シートに座った状態又はシートを倒して寝ている状態等)、顔の向き(例えば、前方を向いている、車両2の外を向いている又は俯いている等)、視線方向(例えば、車両2の進行方向を見ている、車両2の外の景色を見ている又は目を閉じている等)を解析するようにしてもよい。状態解析部72がこれらの状態を解析した結果に基づいて、処理動作特定部73は送信先への情報の投影による報知が有効な状態であるかどうかを判定する。この処理動作特定部73の処理が判定処理の一例に相当する。
 具体的には、シートを倒して寝ている状態、顔が俯いている状態、目が閉じている状態のときは乗員100が寝ている可能性が高く、乗員100に対して軌跡状表示による情報伝達の報知が有効に機能しない又は機能していないと判定できる。また、顔の向きが車両2の外を向いている状態、視線が車両2の外の景色を見ている状態である場合はよそ見をしている可能性が高く、ここでも乗員100に対して軌跡状表示による情報伝達の報知が有効に機能しない又は機能していないと判定できる。このように軌跡状表示による情報伝達の報知が有効に機能しない又は機能していないと判定された場合は、軌跡状表示を無駄に行わないようにする、又は別途のアラーム表示を行うといった方策を取ることが可能となる。別途のアラーム表示を行うことで、例えば寝ている状態の乗員100を起こしたり、よそ見やわき見をしている乗員100に対して前方(すなわち、2次投影領域が視界に入る方向)を注視するように促すことができる。
 特に、緊急に情報伝達を報知する必要がある場合(例えば、送信元の乗員100が緊急である旨の適宜のジェスチャーを行った場合)や、送信先の乗員100がアラーム表示を行ってもなお寝ている、又はよそ見をしている状態である場合には、出力情報取得部74がそれらの状態に対応する出力音声を取得し、スピーカー制御部76が当該出力音声でアラーム報知を行うようにスピーカー5を制御する。そうすることで、寝ている乗員100を起こして、又はよそ見している乗員100に注意喚起して情報伝達を確実に報知することが可能となる。
 なお、軌跡投影部75cやスピーカー制御部76は、状態解析部72が解析した乗員100の状態に応じて、投影する軌跡状表示やアラームの表示態様、出力音声の出力態様を異ならせてもよい。例えば、乗員100の目が閉じていて且つ顔が俯いているような場合はかなり高確率で寝ている状態であるため、投影する光の輝度を上げたり、出力音声の音量を上げるような制御を行うことで、乗員100の気付きを促してもよい。また、乗員100が起きている状態でよそ見をしているだけであれば、軌跡状表示やアラームに比較的気付きやすいため、輝度を下げるといった制御を行うようにしてもよい。
 次に、前記第1の実施形態における軌跡状表示は、ダッシュボード23から第1乗員101の左側のピラー24内壁や窓ガラス26のガラス面を通り、後部座席のシート27上を左端から第2乗員102に向かう経路で投影されている。その他の経路として、ダッシュボード23から床28、助手席と運転席との間の区分構造を通って、第2乗員102に向かって投影される経路や、ダッシュボード23から天井22を通り第2乗員102に向かって投影される経路について説明しているが、その他の実施形態に係る投影システムにおいては、軌跡投影部75cがこれらの経路の中から車室21内の環境に応じた適正な経路を演算して選択するようにしてもよい。
 軌跡状表示は、乗員100に重ならないように投影されることが望ましく、特に乗員100の目に直接プロジェクタ4の光が照射されないように制御されることが望ましい。すなわち、車両2に搭乗している乗員100の人数、配置、大きさ(顔の位置)などの車室21内の状態を状態解析部72が解析し、軌跡投影部75cは、その解析結果に基づいて軌跡状表示を投影する適正な経路を選択する。そうすることで、乗員100に直接投影光が照射されて乗員100が不快に感じることを防止することが可能となる。
 なお、例えば第1乗員101が助手席に座っており、第2乗員102が後部座席左側に座っているおり、第1乗員101から第2乗員102に情報伝達がなされるような場合は、ダッシュボード23から第1乗員101の左側のAピラー24内壁や窓ガラス26のガラス面を通り、左側のBピラー24内壁から第2乗員102に向かって軌跡状表示が投影されてもよいし、ダッシュボード23から床28、助手席と運転席との間の区分構造を通って、第2乗員102に向かって軌跡状表示が投影されてもよいし、ダッシュボード23から天井22を通って助手席ヘッドレスト裏側あたりに向かって軌跡状表示が投影されてもよい。
 また、透明な窓ガラス26に軌跡状表示を投影する場合は、光が透過して視認が難しい場合がある。そのため、窓ガラス26の内側には投影した光を反射する(又は投影した光により発光する)シートが貼付されることが望ましい。
 MD       計測情報
 OD       外部取得情報
 PD       投影情報(所定情報)
 1        投影システム
 2        車両
 3        非接触式センサ
 4        プロジェクタ(投影部)
 5        スピーカー
 6        投影制御装置
 21       車室(室内)
 22       天井
 23       ダッシュボード
 24       ピラー(Aピラー、Bピラー、Cピラー、Dピラー)
 25       ドア
 26       窓ガラス
 27       シート
 28       床
 70       制御部
 71       センサ情報取得部
 72       状態解析部
 73       処理動作特定部
 74       出力情報取得部
 75       プロジェクタ制御部
 75a      第1投影部
 75b      第2投影部
 75c      軌跡投影部
 76       スピーカー制御部
 80       記憶部
 81       処理動作記憶部
 82       出力情報記憶部
 90       インターネット
 100      乗員
 101      第1乗員
 102      第2乗員

Claims (12)

  1.  車両の室内に設けられた投影部と、
     前記投影部を制御して所望の表示を行う制御部と、
    を有する投影システムであって、
     前記制御部は、
     取得された所定情報を、前記室内の所定の1次投影領域に対し前記投影部により投影し表示させる1次投影処理と、
     前記1次投影処理による前記所定情報の表示後、前記1次投影領域から前記室内の所定の2次投影領域へ向かう態様の軌跡状表示を前記投影部により行わせる軌跡投影処理と、
     前記軌跡投影処理による前記軌跡状表示の実行後、前記2次投影領域に対し前記投影部により前記所定情報を投影し表示させる2次投影処理と、
    を実行することを特徴とする投影システム。
  2.  前記投影部は、
     前記車両の天井又は側壁に設けられた複数のプロジェクタであり、
     前記制御部は、
     前記複数のプロジェクタを互いに同期させつつ、前記1次投影処理、前記軌跡投影処理、及び前記2次投影処理を実行し、
     前記1次投影処理において、前記1次投影領域に前記所定情報を表すプロジェクタ画像を投影させ、
     前記2次投影処理において、前記2次投影領域に前記所定情報を表すプロジェクタ画像を投影させる
    ことを特徴とする請求項1記載の投影システム。
  3.  前記制御部は、前記軌跡投影処理において、
     前記1次投影領域から前記2次投影領域へ向かう途中の、前記車両の前記天井、若しくは、前記車両のうち前記側壁及びガラス面、若しくは、助手席と運転席との間の区分構造、を通過する態様の前記軌跡状表示を行わせる、
    ことを特徴とする請求項2記載の投影システム。
  4.  前記車両は、第1乗員及び第2乗員を含む複数の乗員が搭乗可能に構成されており、
     前記制御部は、
     前記1次投影処理において、前記複数の乗員のうち前記第1乗員に対応する前記1次投影領域に投影を行わせ、
     前記2次投影処理において、前記複数の乗員のうち前記第2乗員に対応する前記2次投影領域に投影を行わせ、
     前記軌跡投影処理において、前記第1乗員に対応した前記1次投影領域から前記第2乗員に対応した前記2次投影領域へ向かう態様の前記軌跡状表示を行わせる、
    ことを特徴とする請求項2記載の投影システム。
  5.  前記制御部は、さらに
     前記複数の乗員のうちいずれの乗員を前記第2乗員として前記2次投影領域を投影させるかの選択を受け付ける乗員選択受付処理を実行し、
     前記2次投影処理において、前記乗員選択受付処理の受け付け結果に対応する前記2次投影領域に投影を行わせ、
     前記軌跡投影処理において、前記1次投影領域から前記乗員選択受付処理の前記受け付け結果に対応する前記2次投影領域へ向かう態様の前記軌跡状表示を行わせる、
    ことを特徴とする請求項4記載の投影システム。
  6.  前記制御部は、
     前記1次投影処理において、前記車両の特定箇所に位置する前記1次投影領域に投影を行わせ、
     前記2次投影処理において、前記車両の少なくとも一人の乗員に対応する前記2次投影領域に投影を行わせ、
     前記軌跡投影処理において、前記特定箇所に位置する前記1次投影領域から前記乗員に対応した前記2次投影領域へ向かう態様の前記軌跡状表示を行わせる、
    ことを特徴とする請求項2記載の投影システム。
  7.  前記制御部は、前記軌跡投影処理において、
     前記1次投影領域側から前記2次投影領域側へ向かって幅方向寸法が大きくなる態様の前記軌跡状表示を行わせる
    ことを特徴とする請求項2記載の投影システム。
  8.  前記制御部は、さらに、
     前記軌跡状表示の終了を指示する指示操作を識別する操作識別処理を実行し、
     前記軌跡投影処理を実行後、前記操作識別処理において前記指示操作が識別された場合には当該軌跡投影処理を終了する
    ことを特徴とする請求項1乃至請求項7のいずれか1項記載の投影システム。
  9.  前記制御部は、前記操作識別処理において、
     指示者の肉体の所定部位による所定動作を検出することにより前記指示操作を識別することを特徴とする請求項8記載の投影システム。
  10.  前記車両は、複数の乗員が搭乗可能に構成されており、
     前記制御部は、
     前記2次投影処理において、前記複数の乗員のうち報知対象とする少なくとも一人の対象乗員に対応する前記2次投影領域に投影を行わせ、
     さらに、
     前記対象乗員が、前記2次投影領域への投影による報知が有効な状態であるか否かを判定する判定処理を実行する
     ことを特徴とする請求項1又は請求項2記載の投影システム。
  11.  前記制御部は、さらに、
     前記判定処理において前記2次投影領域への投影による報知が有効な状態でないと判定された場合、前記対象乗員に対応した前記2次投影領域の周辺部において、所定のアラーム表示を前記投影部により行わせる
    ことを特徴とする請求項10記載の投影システム。
  12.  音声による発声が可能な発声部をさらに有し、
     前記制御部は、さらに、
     前記判定処理において前記2次投影領域への投影による報知が有効な状態でないと判定された場合、前記対象乗員に対応した前記発声部において、音声による所定のアラーム報知を前記発声部により行わせる
    ことを特徴とする請求項10記載の投影システム。
PCT/JP2023/019463 2022-05-26 2023-05-25 投影システム WO2023229001A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-086004 2022-05-26
JP2022086004 2022-05-26

Publications (1)

Publication Number Publication Date
WO2023229001A1 true WO2023229001A1 (ja) 2023-11-30

Family

ID=88919433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/019463 WO2023229001A1 (ja) 2022-05-26 2023-05-25 投影システム

Country Status (1)

Country Link
WO (1) WO2023229001A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195375A (ja) * 2007-01-19 2008-08-28 Denso Corp 車内情報表示装置およびそれに用いられる光照射装置
JP2019125080A (ja) * 2018-01-15 2019-07-25 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
EP3885195A1 (en) * 2020-03-25 2021-09-29 Bayerische Motoren Werke Aktiengesellschaft System and method for providing visual guidance using light projection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195375A (ja) * 2007-01-19 2008-08-28 Denso Corp 車内情報表示装置およびそれに用いられる光照射装置
JP2019125080A (ja) * 2018-01-15 2019-07-25 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
EP3885195A1 (en) * 2020-03-25 2021-09-29 Bayerische Motoren Werke Aktiengesellschaft System and method for providing visual guidance using light projection

Similar Documents

Publication Publication Date Title
US9881503B1 (en) Vehicle-to-pedestrian-communication systems and methods for using the same
JP6976089B2 (ja) 運転支援装置および運転支援方法
JP7004077B2 (ja) 車両の走行制御方法及び走行制御装置
EP3125211B1 (en) Information presentation device and information presentation method
CN110719865B (zh) 驾驶辅助方法、驾驶辅助程序以及车辆控制装置
JP6555599B2 (ja) 表示システム、表示方法、およびプログラム
US20230110773A1 (en) Control system and method using in-vehicle gesture input
JP6460019B2 (ja) 車両の制御装置
JPWO2017068695A1 (ja) 駐車支援方法及び駐車支援装置
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
US10732715B2 (en) Input output device and vehicle comprising the same
JPWO2018047223A1 (ja) 障害物判定方法、駐車支援方法、出庫支援方法、及び障害物判定装置
CN112601689A (zh) 车辆的行驶控制方法及行驶控制装置
WO2020235306A1 (ja) 制御システムおよび提示システム
JP7119846B2 (ja) 車両の走行制御方法及び走行制御装置
EP3885195A1 (en) System and method for providing visual guidance using light projection
WO2023229001A1 (ja) 投影システム
JP6945774B2 (ja) 自動運転支援装置、自動運転支援システムおよび自動運転支援方法
JP2019012046A (ja) 通知装置、通知システムおよび通知方法
KR20170076644A (ko) 차량용 디스플레이 장치 및 그 제어방법
WO2020065892A1 (ja) 車両の走行制御方法及び走行制御装置
JP2021037916A (ja) 表示制御装置及び表示制御プログラム
JP2020130502A (ja) 情報処理装置および情報処理方法
WO2022168696A1 (ja) ジェスチャ操作結果を表示する表示システム
WO2020195462A1 (ja) 情報提示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811873

Country of ref document: EP

Kind code of ref document: A1