WO2017047176A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2017047176A1
WO2017047176A1 PCT/JP2016/067568 JP2016067568W WO2017047176A1 WO 2017047176 A1 WO2017047176 A1 WO 2017047176A1 JP 2016067568 W JP2016067568 W JP 2016067568W WO 2017047176 A1 WO2017047176 A1 WO 2017047176A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
user
evaluation
information processing
Prior art date
Application number
PCT/JP2016/067568
Other languages
English (en)
French (fr)
Inventor
由幸 小林
河本 献太
井手 直紀
慎吾 高松
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16846049.1A priority Critical patent/EP3352154A4/en
Priority to CN201680052582.5A priority patent/CN108028015B/zh
Priority to US15/750,384 priority patent/US10380888B2/en
Priority to JP2017539715A priority patent/JP6690649B2/ja
Publication of WO2017047176A1 publication Critical patent/WO2017047176A1/ja
Priority to US16/505,721 priority patent/US10699569B2/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 in order to increase motivation for improving driving manners, behavior (hazard, horn, etc.) that evaluates driving manners addressed to the vehicle by others is acquired and transmitted to the server. A system for calculating points according to driving evaluation information is described.
  • Patent Document 2 describes an in-vehicle information presentation device that displays an energy consumption state of an in-vehicle battery of another vehicle on a map screen together with the current position of the other vehicle.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a program that can effectively use information related to user evaluation for a target vehicle.
  • a recognition unit that automatically recognizes information on a target vehicle from user environment information, an acquisition unit that acquires a user evaluation for the recognized target vehicle, and a notification for the acquired user evaluation
  • An information processing apparatus including a generation unit that generates information is proposed.
  • a processor automatically recognizes information on a target vehicle from user environment information, acquires a user evaluation for the recognized target vehicle, and notifies the acquired user evaluation. Proposing an information processing method including generating
  • the computer notifies the recognition unit that automatically recognizes the information on the target vehicle from the user's environment information, the acquisition unit that acquires the user evaluation for the recognized target vehicle, and the acquired user evaluation.
  • a program for functioning as a generation unit that generates information to be used is proposed.
  • the figure explaining the case where the acceleration / deceleration information of the other vehicle of the periphery by 3rd Embodiment is displayed is shown. It is a figure which shows the list of the acceleration / deceleration information of the surrounding vehicle which the own vehicle by 3rd Embodiment acquired. It is a figure explaining the outline
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • the vehicle 10 ⁇ / b> A, the vehicle 10 ⁇ / b> B, and the vehicle 10 ⁇ / b> C have an inter-vehicle communication function capable of transmitting and receiving signals to and from other vehicles existing in the vicinity.
  • the vehicle 10A when the vehicle 10A gives way when the vehicle 10A joins the main line, the vehicle 10A is willing to the extent that the vehicle 10A does not overload the vehicle 10B (that is, does not hinder travel). Although it is a manner, it is usually done by raising the hand, slightly lowering the head, blinking the hazard lamp once or twice, etc. Such thanks are ad hoc, but in order to maintain good driving, such thanks may be collected as an evaluation for the driver (or vehicle). For example, the driver of the vehicle 10A who gave the road explicitly evaluates the vehicle 10B by pressing the “Thanks” button provided on the steering wheel or the like or saying “Thank you for giving it!”. I do.
  • the vehicle 10A acquires user evaluation based on pressing of the “Thanks” button or the collected user voice, and transmits the user evaluation to the vehicle 10B recognized as the target vehicle by inter-vehicle communication.
  • the vehicle 10B stores the received evaluation information or presents it with a display device (AR (augmented reality) function of the display or the windshield) visible to the driver, thereby realizing driver communication. For example, messages such as “Thanks” or “Thank you for giving me!” Are displayed on the display device.
  • AR augmented reality
  • the evaluation from other users of the vehicle 10B that is transmitted from the surrounding vehicle by inter-vehicle communication is also transmitted from the vehicle 10B to the third-party vehicle 10C.
  • the vehicle 10C receives the evaluation information of the vehicle 10B traveling nearby by inter-vehicle communication and presents it on a display device in the vehicle. Therefore, the driver of the vehicle 10C grasps whether the driving manners of the vehicle 10B are good or bad by evaluation information of the vehicle 10B (for example, a numerical value indicating the number of times the vehicle 10B has been “Thanks”, a latest comment, etc.). Can do.
  • the evaluation information of each vehicle is also transmitted to the surrounding vehicles, so that, for example, the driver of the vehicle 10C has less number of “Thanks” of the vehicle 10B running in front, and the latest comment is “sudden. If it is “interrupted” or “dangerous meander driving!”, It can be recognized that the vehicle 10B is a dangerous vehicle with bad driving manners. As a result, the driver of the vehicle 10C can prevent accidents and perform comfortable driving by avoiding running behind the vehicle 10B or paying particular attention to the movement of the vehicle 10B.
  • the information on other vehicles that can be obtained from other vehicles by inter-vehicle communication is not limited to the above-described evaluation information, and various information useful for preventing accidents, driving comfortably, improving driving manners, etc. is obtained. Can do.
  • the information of other vehicles is not limited to the example communicated by inter-vehicle communication, and may be acquired via the management server 4 (see FIG. 28).
  • Each vehicle is communicatively connected to a roadside wireless device 3 (see FIG. 28) installed on the road by road-to-vehicle communication, and transmits / receives data to / from the management server 4 via the roadside wireless device 3.
  • Information of each vehicle is associated with identification information (for example, vehicle number) unique to the vehicle and managed by the management server 4 together with the current position information.
  • the automatic vehicles are illustrated as the vehicle 10 ⁇ / b> A, the vehicle 10 ⁇ / b> B, and the vehicle 10 ⁇ / b> C.
  • the present embodiment is not limited to this, and the vehicle 10 may be a motorcycle or a light vehicle. Good.
  • the information processing apparatus 100 can be mounted on a moving body such as the vehicles 10A, 10B, 10C, for example.
  • the information processing apparatus 100 can be mounted on a smartphone, a tablet terminal, a mobile phone terminal, a PC (personal computer), or the like brought into the vehicle 10.
  • FIG. 2 is a diagram illustrating an example of a basic configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 includes a control unit 110, a communication unit 120, an input unit 130, an output unit 140, and a storage unit 150.
  • the control unit 110 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 100 according to various programs.
  • the control unit 110 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the communication unit 120 is a communication module for transmitting and receiving data to and from other devices by wire / wireless.
  • the communication unit 120 communicates with another information processing apparatus 100 or the roadside apparatus 3.
  • the communication unit 120 is a communication module that performs inter-vehicle communication with another information processing apparatus 100 mounted on another vehicle that travels in the vicinity, and a communication module that performs communication with the roadside apparatus 3 installed in the vicinity.
  • the input unit 130 receives information input to the information processing apparatus 100 from the outside.
  • the input unit 130 can be realized by a touch panel, a switch, a button, a microphone, and various sensors.
  • the output unit 140 outputs information by video, image, sound, vibration or the like.
  • the output unit 140 is realized by a display device (AR of a display or a windshield) installed so as to be recognized by a driver of the vehicle, a speaker, or the like.
  • the storage unit 150 is realized by a ROM (Read Only Memory) that stores programs and calculation parameters used for the processing of the control unit 110, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • FIG. 3 is a diagram illustrating an example of a detailed configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 includes an in-vehicle device 1301, a sensor 1302, an operation input unit 1303, a microphone 1304, a vehicle-to-vehicle communication unit 1201, a road-to-vehicle communication unit 1202, a network I / F (interface) unit 1203, A recognition unit 1101, a user evaluation acquisition unit 1102, a notification information generation unit 1103, a notification control unit 1104, an estimation unit 1105, a display unit 1401, and a speaker 1402 are included.
  • the in-vehicle device 1301, the sensor 1302, the operation input unit 1303, and the microphone 1304 are examples of the input unit 130.
  • the in-vehicle device 1301 is a device or system provided in a vehicle, and for example, a speedometer, a fuel consumption meter, a navigation device, a driving assist system such as a cruise controller or an automatic brake, safety equipment, and an automatic driving system are assumed. .
  • Examples of information obtained from the in-vehicle device 1301 by the recognition unit 1101 and the estimation unit 1105 include the following information.
  • the sensor 1302 detects various information in and around the vehicle.
  • the sensor 1302 is assumed to be a camera (image sensor), a depth sensor, a line-of-sight sensor, a touch sensor, a vital sensor, an emotion sensor, and the like.
  • Examples of information obtained from the sensor 1302 by the recognition unit 1101 and the estimation unit 1105 include the following information.
  • the operation input unit 1303 detects operation input information by the user.
  • the operation input unit 1303 is realized by a touch panel, a switch, a button, or the like.
  • the operation input unit 1303 includes a “Thanks” button (an example of an evaluation button) provided around the steering wheel, lever switch, or steering.
  • Information obtained by the user evaluation acquisition unit 1102 from the operation input unit 1303 includes, for example, information on pressing a “Thanks” button (an example of information related to evaluation of other vehicles by the user).
  • the microphone 1304 collects the speech from the user.
  • Information obtained by the user evaluation acquisition unit 1102 from the microphone 1304 includes, for example, an evaluation comment on the other vehicle by the user such as “Thank you for handing over”.
  • the information obtained by the estimation unit 1105 from the microphone 1304 includes, for example, information requests to other vehicles by the user, such as “I wonder if that car is flirting but is dangerous” or “Where did everyone come from?”.
  • the in-vehicle device 1301, the sensor 1302, the operation input unit 1303, or the microphone 1304 described above may be provided separately from the information processing apparatus 100 in the vehicle.
  • the inter-vehicle communication unit 1201, the road-to-vehicle communication unit 1202, and the network I / F (interface) unit 1203 are examples of the communication unit 120.
  • the vehicle-to-vehicle communication unit 1201 and the road-to-vehicle communication unit 1202 perform data communication between a vehicle and a vehicle, and a vehicle and a roadside wireless device by short-range wireless communication such as Wi-Fi (registered trademark) and BlueTooth (registered trademark), for example. .
  • the network I / F unit 1203 performs data communication between the vehicle and the network through a mobile network such as 4G (LTE; Long Term Evolution) or 3G.
  • the inter-vehicle communication unit 1201 may realize data communication with another vehicle by visible light communication using a high-speed blinking pattern such as a headlight, a vehicle width lamp, a winker, and a brake lamp.
  • the recognition unit 1101, the user evaluation acquisition unit 1102, the notification information generation unit 1103, the notification control unit 1104, and the estimation unit 1105 are functional examples of the control unit 110.
  • the recognition unit 1101 recognizes the target vehicle that the user is paying attention to and the target vehicle when the user performs evaluation.
  • the recognition unit 1101 may automatically recognize the target vehicle based on information (that is, user environment information) obtained from the in-vehicle device 1301, the sensor 1302, and the communication unit 120.
  • the user environment information is, for example, the traveling state of the user vehicle, the user's line-of-sight information, the user's concentration, the user's utterance content, the user's surrounding information, and the positional relationship between the user vehicle and surrounding vehicles.
  • the recognition unit 1101 can automatically recognize the target vehicle by, for example, comprehensively interpreting various types of obtained information (user environment information) using machine learning.
  • the recognition unit 1101 may recognize the target vehicle in accordance with a user instruction input from the operation input unit 1303, the microphone 1304, or the like.
  • FIG. 4 is a diagram for explaining an example of a method for recognizing a target vehicle according to the present embodiment.
  • the vehicle 10A is based on the positional relationship between the vehicle 10A and the vehicle 10B.
  • the information processing apparatus 100 mounted on the vehicle recognizes the vehicle 10B as a target vehicle that the user pays attention to.
  • the positional relationship between the vehicle 10A and the vehicle 10B is, for example, an image obtained from a camera which is an example of the sensor 1302, distance information obtained from a stereo camera, distance information obtained from an infrared sensor, and a vehicle-to-vehicle communication unit 1201. It is acquired based on the signal obtained from 10B. Further, as illustrated on the right side of FIG. 4, the vehicle 10 ⁇ / b> C being watched by the user may be recognized as the target vehicle based on the driver's line-of-sight information.
  • the line-of-sight information is obtained from a line-of-sight sensor which is an example of the sensor 1302.
  • the vehicle 10 ⁇ / b> C existing in the line-of-sight direction indicated by the line-of-sight information is recognized from an image captured by an outwardly provided camera, which is an example of the sensor 1302.
  • the recognition unit 1101 recognizes the vehicle reflected in the mirror based on the captured image obtained by capturing the side mirror or the rearview mirror according to the driver's line of sight. To do.
  • the recognition unit 1101 further uses the driver's concentration degree obtained from a vital sensor, which is an example of the sensor 1302, to more accurately determine the target vehicle to which the driver is paying attention. Is possible.
  • the recognition unit 1101 can also perform individual recognition of the recognized target vehicle.
  • the individual identification information (ID) of the target vehicle may be extracted from a signal received from the target vehicle via the vehicle-to-vehicle communication unit 1201, or based on the vehicle number, vehicle type, and color information acquired by image recognition.
  • the above database may be queried to obtain individual identification information. Further, a vehicle that is not in the database may be automatically newly registered on the database side.
  • the user evaluation acquisition unit 1102 acquires information related to the evaluation of the user (here, the driver) for the target vehicle. Specifically, for example, the user evaluation acquisition unit 1102 acquires, as user evaluation information, from the operation input unit 1303, information that a “Thanks” button that is an example of the operation input unit 1303 is pressed. In addition, the user evaluation acquisition unit 1102 analyzes the user's uttered voice collected by the microphone 1304, and acquires a user comment converted into text as user evaluation information.
  • the notification information generation unit 1103 is based on the user evaluation acquired by the user evaluation acquisition unit 1102 and the target vehicle recognized by the recognition unit 1101 (the vehicle that the driver pays attention to and is the evaluation target vehicle here).
  • the information for notifying the user evaluation for the target vehicle is generated.
  • the notification information generation unit 1103 generates an evaluation display screen that displays user evaluation for the target vehicle.
  • the notification information generation unit 1103 can also generate a reason for user evaluation based on at least one of the recognized information on the target vehicle and the user's environment information.
  • the reason for the generated user evaluation can be associated with the user evaluation and stored in the storage unit 150 or transmitted from the communication unit 120 to the target vehicle or a third-party vehicle.
  • the notification control unit 1104 controls to notify the notification information generated by the notification information generation unit 1103 to a predetermined notification destination.
  • the notification control unit 1104 controls the generated notification information to be transmitted to the target vehicle by the inter-vehicle communication unit 1201.
  • the notification control unit 1104 may perform control so as to notify the driver of the evaluation information for the host vehicle received by the inter-vehicle communication unit 1201 from the display unit 1401 or the speaker 1402.
  • the notification control unit 1104 may perform control so as to notify the driver of the evaluation information of the target vehicle received by the inter-vehicle communication unit 1201 from the display unit 1401 or the speaker 1402.
  • the transmission / reception of the evaluation information is not limited to vehicle-to-vehicle communication, and may be performed via the road-to-vehicle communication unit 1202 or the network I / F unit 1203.
  • the evaluation information may include unique identification information of the target vehicle, an evaluation reason, and the like.
  • the estimation unit 1105 estimates the type of information that the driver currently desires and what information is the information to be notified to the driver (for example, the type). For example, the estimation unit 1105 is obtained from the driver's line-of-sight information obtained from the line-of-sight sensor, the driver's concentration obtained from the vital sensor, the driving situation obtained from the in-vehicle device 1301, the driving content, and the microphone 1304 (voice sensor). Based on at least one of the contents of the driver's utterance, it is comprehensively interpreted using machine learning to estimate what information is currently appropriate for the driver.
  • the estimation unit 1105 estimates that the user wants to know only the speed of other vehicles and dangerous vehicles while cruising on a highway, and the other vehicle's moving direction (straight, Estimate that you want to know acceleration / deceleration information and blind spot information, and that you want to know the evaluation of surrounding vehicles while the vehicle is stopped. Further, the estimation unit 1105 estimates that the driver wants to know the degree of danger of the target vehicle when the driver utters “That car is flirting ...”, and utters “Where are you all coming from?” If it does, it is estimated that the driver's address (prefecture information) of the surrounding vehicle would be desired.
  • the estimation unit 1105 may adjust the content and amount of information to be presented to the driver, the presentation method, and the like according to the driver's concentration degree obtained by the vital sensor. For example, when the degree of concentration of the driver is low, the estimation unit 1105 adjusts to present more critical information and realizes alerting the driver.
  • the estimation unit 1105 estimates information currently appropriate for the driver, the estimation unit 1105 makes a request for information estimated from the communication unit 120 to a predetermined request destination.
  • the estimation unit 1105 may include the speed of surrounding vehicles, dangerous vehicle information (risk level of surrounding vehicles), the moving direction of other vehicles (straight, right turn, left turn), acceleration / deceleration information, blind spot information, or evaluation information.
  • the corresponding information is acquired from the surrounding vehicles by the inter-vehicle communication unit 1201.
  • Dangerous vehicle information risk of surrounding vehicles
  • the evaluation information that is, a vehicle with a low evaluation and a bad driving manner evaluation is a dangerous vehicle (high risk)
  • Display unit 1401 and speaker 1402 are examples of output unit 140.
  • the display unit 1401 is realized by a display device such as a liquid crystal display (LCD) device or an organic EL (OLED: Organic Light Emitting Diode) display device.
  • the display unit 1401 is an AR display in a transmissive / semi-transmissive head-up display or a windshield provided at a position in the driver's field of view that can be read without changing the line of sight from the front. May be performed.
  • the display unit 1401 may be realized by an HMD (head mounted display) worn by the driver, and AR display may be performed on the HMD. In the AR display, information is displayed so as to correspond to an actual vehicle.
  • HMD head mounted display
  • FIG. 5 is a flowchart showing an evaluation input process to another vehicle according to the first embodiment.
  • the user evaluation acquisition unit 1102 of the information processing apparatus 100 determines that the user (here, the driver) has pressed the “Thanks” button detected by the operation input unit 1303. Obtained as information (step S103).
  • the user evaluation acquisition unit 1102 recognizes (converts to text) the driver's utterance collected by the microphone 1304 and acquires it as user evaluation information (step S106).
  • the recognition unit 1101 of the information processing apparatus 100 acquires information used for recognizing the evaluation target vehicle from the sensor 1302 and the in-vehicle device 1301 (step S109). For example, the recognition unit 1101 acquires the driver's line-of-sight information from the line-of-sight sensor, the captured image of the surrounding vehicle, the positional relationship information with the surrounding vehicle, the driving situation of the vehicle, and the like from the camera.
  • the recognizing unit 1101 recognizes the vehicle that the driver is paying attention to (ie, the vehicle that is the target of user evaluation) based on the acquired information (step S112). For example, when the “Thanks” button is pressed when the user vehicle joins the main line or the driver speaks “thank you”, the recognition unit 1101 joins the main line based on the positional relationship information and the captured image. It is recognized that the other vehicle running behind (the other vehicle that gave up the road at the time of joining) is the vehicle to be evaluated. Further, when the user vehicle suddenly brakes and utters “Dangerous!”, The recognizing unit 1101 recognizes that another vehicle that has appeared (interrupted) in front of the user vehicle based on the line-of-sight information and the captured image.
  • the recognition unit 1101 may acquire individual identification information of the target vehicle.
  • the individual identification information of the target vehicle may be acquired from the management server 4 on the network based on information such as the number, vehicle type, and color of the target vehicle obtained by analyzing the captured image. You may acquire by communication.
  • the notification information generation unit 1103 provides information for notifying the user evaluation for the target vehicle based on the user evaluation acquired by the user evaluation acquisition unit 1102 and the information on the target vehicle recognized by the recognition unit 1101. Generate (step S115). Such information may include individual identification information of the target vehicle.
  • the notification control unit 1104 transmits the generated notification information to the recognized vehicle via the inter-vehicle communication unit 1201 (step S118). Further, the notification control unit 1104 may transmit the generated notification information to the management server 4 on the network via the network I / F unit 1203. Further, the notification control unit 1104 may notify the user (the driver of the user vehicle) that the user evaluation for the target vehicle has been performed from the display unit 1401 or the speaker 1402. Such notification information may be notified in real time when evaluation is performed.
  • FIG. 6 is a diagram illustrating a display example when a user evaluation is notified in the target vehicle.
  • the driver of the vehicle 10A evaluates the vehicle 10B that has given way, and notification information for notifying the evaluation is the vehicle 10A.
  • a case will be described in which the vehicle is transmitted to the vehicle 10B and AR is displayed on the windshield.
  • the windshield 1401B of the vehicle 10B has a frame image 30 displayed so as to surround the vehicle 10A so as to specify the vehicle that has been evaluated, and the vehicle that the “Thanks” button has been pressed.
  • An evaluation information image 31 that displays evaluation information such as a comment display from 10A is displayed as an AR.
  • the user evaluation reason (evaluation reason) may be displayed together with the user evaluation.
  • the information processing apparatus 100 may perform control so as to notify the user of the evaluation. More specifically, for example, when the recognition unit 1101 determines that the information processing apparatus 100 has “given the road”, the information processing apparatus 100 performs “Thanks” to the vehicle that has given the road to the user.
  • the notification information generation unit 1103 generates notification information such as “??”. Then, the information processing apparatus 100 notifies the user of the generated notification information from the display unit 1401 or the speaker 1402 by the notification control unit 1104 and proposes positive evaluation.
  • FIG. 7 is a flowchart showing a display process of evaluation information of other vehicles.
  • the estimation unit 1105 of the information processing apparatus 100 acquires information for estimating information required by the user (here, the driver) from the sensor 1302 and the in-vehicle device 1301 (step). S123).
  • the estimation unit 1105 acquires line-of-sight information, a captured image, a current position, a driving situation, and the like from the in-vehicle device 1301 from the sensor 1302.
  • the estimation unit 1105 estimates information that the driver currently needs (or information that is currently appropriate for the driver) based on the acquired information (step S126).
  • the driver wants to know the evaluation information of the surrounding vehicle or the surrounding vehicle evaluation information. Is currently appropriate.
  • the inter-vehicle communication unit 1201 acquires information related to the evaluation from the surrounding vehicles according to the estimation result of the estimation unit 1105 (step S129). Specifically, evaluation information from other users accumulated in each vehicle is acquired.
  • the display device 1401d displays a user vehicle (vehicle 10D) and surrounding vehicles 10B and 10C on a map.
  • the image displayed on the display device 1401d can be generated by the notification control unit 1104, for example.
  • the positional relationship of each vehicle is grasped based on a signal received from each vehicle or an image captured by a camera.
  • the evaluation information display images 36 and 37 that display the number of “Thanks” and the evaluation comments are displayed, for example, partly superimposed on the vehicles 10B and 10C so as to correspond to the vehicles 10B and 10C. Thereby, the user of vehicle 10D can grasp
  • the estimation unit 1105 estimates information that the driver currently needs (or information that is currently appropriate for the driver) based on the acquired information (step S206).
  • the driver wants to know the speed information of the surrounding vehicle at present, or estimates that the speed information of the surrounding vehicle is currently appropriate.
  • FIG. 14 is a diagram illustrating a case where speed information of other vehicles traveling in the vicinity is displayed on the Bird View screen.
  • a CG image assuming that the user vehicle (vehicle 10D) and the surrounding vehicles 10B and 10C are viewed from the viewpoint of the rear sky is displayed on the screen of the display device 1401d.
  • the positional relationship of each vehicle is grasped based on a signal received from each vehicle or an image captured by a camera.
  • the speed information display images 49 and 50 which show speed information are displayed, for example, partly superimposed on the vehicles 10B and 10C so as to correspond to the vehicles 10B and 10C.
  • the user of vehicle 10D can grasp
  • the speed of the vehicle 10C is estimated for other vehicles, and the vehicle 10D can also acquire the speed information of the vehicle 10C estimated by the other vehicles via inter-vehicle communication or network communication.
  • the information processing apparatus 100 of the vehicle 10D may adopt and display information having the highest reliability.
  • each speed information includes a speed error (plus or minus km / h) corresponding to the distance from the estimation subject to the estimation target.
  • the speed information of the vehicles 10A to 10C estimated by the vehicle 10D based on the captured image or the like has a larger speed error as the speed information of the target vehicle away from the vehicle 10D as shown in FIG.
  • the speed error is 0 km / h.
  • the notification control unit 1104 of the information processing apparatus 100 mounted on the vehicle 10D adopts the one with the smallest speed error among the speed information of each other vehicle, and controls to display on the display unit 1401. Therefore, in the example shown in FIG. 16, the speed “95 km / h (error 0 km / h)” estimated by the vehicle 10A is adopted as the speed information of the vehicle 10A, and the speed “estimated by the vehicle 10B” is used as the speed information of the vehicle 10B. 86 km / h (error 0 km / h) ”is adopted, and the speed“ 94 km / h (error 1 km / h) ”estimated by the vehicle 10B closest to the vehicle 10C is adopted as the speed information of the vehicle 10C.
  • FIG. 17 is a diagram for explaining the outline of the information processing system according to the third embodiment.
  • the driver of the vehicle 10A waiting for a right turn at the intersection knows that the oncoming vehicle 10B is decelerating in response to the yellow signal, but is a blind spot of the vehicle 10B.
  • the trend of 10E (motorcycle here) cannot be grasped visually.
  • the vehicle 10A tries to turn right at the intersection, there is a high possibility that the vehicle 10A will come into contact with the vehicle 10E that has traveled straight and cause an accident. Therefore, in the present embodiment, for example, when the vehicle is about to turn a road, safer driving can be supported by acquiring acceleration / deceleration of surrounding vehicles and notifying the driver.
  • by grasping information that the vehicle 10E existing in the blind spot of the vehicle 10B is accelerating it is possible to safely turn right after waiting for the vehicle 10E to go straight.
  • FIG. 18 is a flowchart showing acceleration information display processing of another vehicle according to the third embodiment.
  • the estimation unit 1105 of the information processing apparatus 100 acquires information for estimating information required by the user (here, the driver) from the sensor 1302 and the vehicle-mounted device 1301 (step S303).
  • the estimation unit 1105 acquires line-of-sight information, a captured image, a current position, a driving situation, and the like from the in-vehicle device 1301 from the sensor 1302.
  • the estimation unit 1105 estimates information that the driver currently needs (or information that is currently appropriate for the driver) based on the acquired information (step S306).
  • the driver wants to know acceleration / deceleration information of the surrounding vehicle or the acceleration / deceleration information of the surrounding vehicle is currently appropriate. Estimated.
  • the inter-vehicle communication unit 1201 acquires acceleration / deceleration information from surrounding vehicles according to the estimation result of the estimation unit 1105 (step S309). Specifically, acceleration / deceleration information detected from the in-vehicle device of each vehicle is acquired. As shown in FIG. 17, even when the vehicle 10A and the vehicle 10E are separated from each other and the inter-vehicle communication cannot be performed, the vehicle 10A receives the vehicle 10E information from the vehicle 10B as the surrounding vehicle information received by the vehicle 10E. Information may be acquired. As a result, the vehicle 10A can also acquire information on a bicycle or motorcycle in front of several tens of meters with low reliability.
  • FIG. 19 shows a diagram for explaining a case where acceleration / deceleration information of other vehicles in the vicinity is displayed.
  • the information processing apparatus 100 mounted on the vehicle 10D acquires acceleration information of vehicles around the intersection and notifies the driver of the vehicle 10D.
  • speed display images 51 and 52 that display acceleration / deceleration of each vehicle are AR-displayed on the windshield 1401D of the vehicle 10D.
  • an emphasis display 53 for clearly indicating the hidden vehicle 10E is displayed.
  • the driver of the vehicle 10D can easily grasp that the vehicle 10B of the oncoming vehicle is decelerated, but that the vehicle 10E exists in the blind spot, and further that the vehicle 10E is accelerating, Accidents can be prevented in advance.
  • acceleration / deceleration information of the vehicle 10B is received from the vehicle 10B.
  • the present embodiment is not limited to this, and the recognition unit 1101 of the information processing apparatus 100 is captured by a camera. It is also possible to estimate the acceleration / deceleration of the target vehicle based on analysis of the captured image, distance information obtained from the stereo camera, and distance information obtained from the infrared sensor.
  • the notification control unit 1104 may perform control so as to employ the highly reliable information from the acquired acceleration / deceleration information of the surrounding vehicles and notify the driver.
  • this will be specifically described with reference to FIG.
  • FIG. 20 is a diagram showing a list of acceleration / deceleration information of surrounding vehicles acquired by the vehicle 10A (own vehicle).
  • acceleration / deceleration information of the vehicles 10B and 10E estimated by the vehicle 10A (own vehicle) and the vehicle 10B is shown.
  • the vehicle 10A can acquire acceleration / deceleration information of the vehicle 10A and the vehicle 10E estimated by the vehicle 10B via inter-vehicle communication or network communication.
  • the positional relationship between the vehicles 10A, 10B, and 10E is as shown in FIG. 17, and the vehicle 10E is hidden in the blind spot of the vehicle 10B.
  • the vehicle 10E is a vehicle that does not support communication.
  • each speed information includes a reliability (percentage) corresponding to the positional relationship between the estimation subject and the estimation target.
  • the recognition unit 1101 of the information processing apparatus 100 mounted on the vehicle 10A can estimate acceleration / deceleration of the vehicle 10B based on a captured image by a camera, distance information by a stereo camera, distance information by an infrared sensor, or the like.
  • the reliability of acceleration is 40% and the reliability of deceleration is 60%.
  • the reliability is 100%.
  • the vehicle 10A to the vehicle 10E cannot be detected by a camera, an infrared sensor, or the like, estimation is impossible. Further, the estimation result of the vehicle 10E mainly composed of the vehicle 10B has a reliability of 100% because the vehicle 10E is close to the vehicle 10B.
  • FIG. 21 is a diagram for explaining the outline of the information processing system according to the fourth embodiment.
  • the driver of the vehicle 10B notices the own vehicle in which the vehicle 10A is in the blind spot on the right rear. I'm concerned whether or not. If it is found that the vehicle 10A is aware of the host vehicle (the vehicle 10B), the driver of the vehicle 10B is likely to decelerate and wait for the opponent's lane change because there is no sudden lane change. Whether or not the vehicle 10A is aware of the host vehicle (the vehicle 10B) is notified from the vehicle 10A by inter-vehicle communication, for example.
  • the inter-vehicle communication unit 1201 acquires the recognition information from the target vehicle according to the estimation result of the estimation unit 1105 (step S409). Specifically, driver recognition information detected from an in-vehicle device or a line-of-sight sensor of the target vehicle, or vehicle recognition information in the case of automatic driving is acquired.
  • FIG. 23 is a diagram illustrating a case where the recognition information of the target vehicle is displayed.
  • the notice display image 55 indicating that the target vehicle recognizes the host vehicle is AR-displayed on the windshield 1401B of the vehicle 10B.
  • the target vehicle is identified by the recognition unit 1101 based on the line-of-sight information of the driver of the vehicle 10B, the captured image of the camera, and the like.
  • a question mark may be displayed when the target vehicle does not recognize the host vehicle or when it is unknown whether or not it is recognized.
  • the driver of the vehicle 10B can easily grasp whether or not the target vehicle in the front left lane that is about to change the lane by taking out the right turn signal is aware of the host vehicle.
  • FIG. 24 is a diagram for explaining a case where the recognition information of the target vehicle is displayed on the Top View screen.
  • the display device 1401b installed around the steering wheel displays the user vehicle (vehicle 10B) and the target vehicle 10A on a map, indicating that the vehicle 10A is aware of the vehicle 10B.
  • the notice display image 56 is displayed so as to correspond to the vehicle 10A. Thereby, the user of the vehicle 10B can easily grasp that the target vehicle is aware of the own vehicle.
  • the information processing apparatus 100 executes a risk avoidance action such as automatically turning on the hazard lamp of the host vehicle (step S418).
  • a risk avoidance action such as automatically turning on the hazard lamp of the host vehicle (step S418).
  • the information processing apparatus 100 may notify the target vehicle of the presence of the host vehicle through inter-vehicle communication. As a result, the target vehicle can be made aware of the presence of the host vehicle, and danger can be avoided.
  • a notification image 57 indicating the success probability of passing the host vehicle (the vehicle 10A) is displayed on the Top View screen.
  • traveling navigation for overtaking is displayed with arrows.
  • FIG. 26 and FIG. 27 are diagrams for explaining warning notification based on information acquired from other nearby vehicles.
  • the warning notification is displayed as AR on the windshield 1401A of the vehicle 10A.
  • These warning notifications are presented based on the recognition result received from the other vehicle by the inter-vehicle communication unit 1201 or the like.
  • the information processing apparatus 100 of the vehicle 10A that has received the recognition result AR displays a notification image 59 indicating a warning regarding the vehicle 10H on the windshield 1401A as shown in FIG.
  • a notification image 60 that warns that the vehicle I traveling in the right lane is not insured may be displayed on the windshield 1401A of the vehicle 10A.
  • the vehicle profile such as car insurance subscription information
  • the driver can be alerted.
  • Such information can be acquired from the target vehicle I.
  • the information processing device of the vehicle 10A 100 displays AR on the windshield 1401A as a notification image 62 indicating a warning regarding the vehicle 10J in the blind spot.
  • FIG. 28 is a diagram for explaining the overall configuration of the information processing system according to the sixth embodiment.
  • the information processing system according to the present embodiment includes a roadside apparatus 3 that performs wireless communication with each vehicle 10 (specifically, for example, the vehicles 10A to 10E), a management server 4, and a communication terminal 6. Including.
  • the management server 4 appropriately transmits information acquired from the vehicle 10 via the roadside apparatus 3 (hereinafter also referred to as vehicle information) to the communication terminal 6 via the network 5.
  • vehicle information acquired from the vehicle 10 via the roadside apparatus 3
  • the communication terminal 6 for example, a smartphone 6A, a smart watch 6B, a tablet terminal 6C, or a PC (personal computer) 6D is assumed.
  • a method for utilizing vehicle information will be described with reference to FIGS.
  • the recognition unit 1101 recognizes a driver's face image captured by a fingerprint sensor provided on a steering wheel or a camera, or The driver is identified based on personal authentication or the like by a communication terminal such as a smartphone owned by the driver, and transmitted to the management server 4 together with the vehicle information.
  • the evaluation in the first embodiment is not limited to the evaluation from an automobile or a motorcycle to an automobile, but may be an evaluation from a bicycle or a pedestrian to an automobile / motorcycle. Further, the evaluation information of the target vehicle may be presented to a bicycle or a pedestrian.
  • a vehicle with extremely bad evaluation for example, a danger recognized by a plurality of users
  • a vehicle with extremely bad evaluation for example, a danger recognized by a plurality of users
  • the information processing system stores a captured image obtained by imaging the driving situation of the host vehicle and the surrounding situation when evaluated from another vehicle in association with the evaluation so that it can be reproduced later. Also good.
  • the information processing system verifies the consistency between the evaluation information for the own vehicle and the driving state of the own vehicle, and notifies the driver of the evaluation with low reliability in order to prevent inappropriate evaluation. You may make it not.
  • the information processing system learns the probability of evaluation execution according to the driving situation from the relationship between the past driving situation and evaluation execution, and does not display the evaluation from other vehicles performed when the execution probability is low. May be.
  • the information processing system may notify the driver of multiple types of information by combining the above-described embodiments.
  • the evaluation information and speed information of surrounding vehicles may be displayed together.
  • information display priorities may be given according to driving conditions and surrounding conditions so that high priority items are displayed. For example, at an intersection, information useful for preventing an accident assumed at the intersection is preferentially displayed.
  • the information processing apparatus 100 may be realized as an apparatus mounted on any type of vehicle such as an automobile, an electric vehicle, a hybrid electric vehicle, and a motorcycle. Further, at least a part of the components of the information processing apparatus 100 may be realized in a module for an apparatus mounted on a vehicle (for example, an integrated circuit module configured by one die).
  • FIG. 33 is a block diagram illustrating an example of a schematic configuration of a vehicle control system 900 to which the technology according to the present disclosure can be applied.
  • the vehicle control system 900 includes an electronic control unit 902, a storage device 904, an input device 906, an out-of-vehicle sensor 908, a vehicle state sensor 910, a passenger sensor 912, a communication IF 914, an output device 916, a power generation device 918, a braking device 920, a steering. 922 and a lamp actuating device 924.
  • the electronic control unit 902 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the vehicle control system 900 according to various programs.
  • the electronic control unit 902 can be formed as an ECU (Electronic Control Unit) together with a storage device 904 described later.
  • a plurality of ECUs may be included in the vehicle control system 900.
  • each of the various sensors or the various drive systems may be provided with an ECU for controlling them, and further provided with an ECU for controlling the plurality of ECUs in a coordinated manner.
  • the plurality of ECUs are connected via an in-vehicle communication network that conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or Flexray.
  • the electronic control unit 902 can form, for example, the control unit 110 shown in FIG.
  • the input device 906 may include, for example, an input control circuit that generates an input signal based on information input by the user using the above-described input means and outputs the input signal to the electronic control unit 902.
  • the passenger can operate the input device 906 to input various data to the vehicle control system 900 and to instruct processing operations.
  • the input device 906 can form, for example, the input unit 130 shown in FIG.
  • the vehicle outside sensor 908 is realized by a sensor that detects information outside the vehicle.
  • the outside sensor 908 includes a sonar device, a radar device, a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device, a camera, a stereo camera, a ToF (Time Of Flight) camera, an infrared sensor, an environmental sensor, a microphone, and the like. May be included.
  • the vehicle exterior sensor 908 may form, for example, the sensor 1302 shown in FIG.
  • the braking device 920 is a device for applying a braking force to the vehicle, or decelerating or stopping the vehicle.
  • the braking device 920 may include, for example, a brake installed on each wheel, a brake pipe or an electric circuit for transmitting the depression pressure of the brake pedal to the brake, and the like.
  • the braking device 920 may include a control device for operating a sliding or skid prevention mechanism by brake control such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the power generation device 918, the braking device 920, the steering 922, and the lamp operation device 924 may operate based on a manual operation by a driver or may operate based on an automatic operation by the electronic control unit 902. .
  • FIG. 34 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. Note that the information processing apparatus 1000 illustrated in FIG. 34 can implement the management server 4 illustrated in FIG. 28, for example. Information processing by the management server 28 according to the present embodiment is realized by cooperation of software and hardware described below.
  • the information processing apparatus 1000 includes a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, and a host bus 1004a.
  • the information processing apparatus 1000 includes a bridge 1004, an external bus 1004b, an interface 1005, an input device 1006, an output device 1007, a storage device 1008, a drive 1009, a connection port 1011, and a communication device 1013.
  • the information processing apparatus 1000 may include a processing circuit such as a DSP or an ASIC in place of or in addition to the CPU 1001.
  • the CPU 1001, the ROM 1002, and the RAM 1003 are connected to each other by a host bus 1004a including a CPU bus.
  • the host bus 1004a is connected to an external bus 1004b such as a PCI (Peripheral Component Interconnect / Interface) bus through a bridge 1004.
  • an external bus 1004b such as a PCI (Peripheral Component Interconnect / Interface) bus through a bridge 1004.
  • PCI Peripheral Component Interconnect / Interface
  • the output device 1007 is formed of a device capable of visually or audibly notifying the acquired information to the user. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as laser projectors, LED projectors and lamps, audio output devices such as speakers and headphones, printer devices, and the like. .
  • the output device 1007 outputs results obtained by various processes performed by the information processing apparatus 1000. Specifically, the display device visually displays the results obtained by various processes performed by the information processing device 1000 in various formats such as text, images, tables, and graphs.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs it aurally.
  • the storage device 1008 is a data storage device formed as an example of a storage unit of the information processing device 1000.
  • the storage apparatus 1008 is realized by, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 1008 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 1008 stores programs executed by the CPU 1001, various data, various data acquired from the outside, and the like.
  • the drive 1009 is a reader / writer for a storage medium, and is built in or externally attached to the information processing apparatus 1000.
  • the drive 1009 reads information recorded on a mounted removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 1003.
  • the drive 1009 can also write information on a removable storage medium.
  • the communication device 1013 is a communication interface formed by a communication device or the like for connecting to the network 1020, for example.
  • the communication device 1013 is, for example, a communication card for wired or wireless LAN (Local Area Network), LTE (Long Term Evolution), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 1013 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like.
  • the communication device 1013 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the information on other vehicles is not limited to evaluation information, but includes speed information, acceleration / deceleration information, recognition information, behavior prediction recognition results, departure place / destination, car insurance participation information. It is also possible to acquire a vehicle profile such as the above, a driver profile, etc., and present it to the user.
  • a computer program for causing the information processing apparatus 100 or the management server 4 to perform the functions of the information processing apparatus 100 or the management server 4 on hardware such as a CPU, a ROM, and a RAM built in the management server 4 can be created. It is.
  • a computer-readable storage medium storing the computer program is also provided.
  • the configuration of the information processing apparatus 100 illustrated in FIGS. 2 and 3 is an example, and the present embodiment is not limited thereto.
  • the information processing apparatus 100 is realized by a smartphone, a tablet terminal, or the like, among the configurations shown in FIG. 3, the in-vehicle device 1301, the sensor 1302, the operation input unit 1303, the microphone 1304, the display unit 1401, the speaker 1402, and the communication
  • the unit 120 is provided on the vehicle side.
  • the information processing apparatus 100 acquires and processes various information from the in-vehicle device 1301, the sensor 1302, the operation input unit 1303, and the microphone 1304 provided on the vehicle side, and displays the information provided on the vehicle side. Control is performed so that notification to the user from the unit 1401 or the speaker 1402 and transmission / reception of data to / from the outside from the communication unit 120 provided on the vehicle side are performed.
  • the information processing apparatus wherein the other user evaluation acquisition unit acquires information received from the target vehicle through inter-vehicle communication.
  • the information generated by the generation unit is the information processing apparatus according to (2) or (3), in which at least one of an evaluator, an evaluated person, and a neighboring third party is notified.
  • the recognizing unit is based on line-of-sight information, peripheral information, a positional relationship between the user vehicle and surrounding vehicles, a user's concentration degree, a driving situation of the user vehicle, or a user's utterance content included in the user's environment information.
  • the information processing apparatus according to any one of (2) to (4), wherein a target vehicle that is a user evaluation target is automatically recognized.
  • the information processing apparatus includes: An estimation unit for estimating what information about the recognized target vehicle should be notified to the current driver;
  • Information acquired from the target vehicle includes information on evaluation of the target vehicle from other users, speed information of the target vehicle, acceleration / deceleration information of the target vehicle, recognition information on the user vehicle in the target vehicle, and the target
  • the information processing apparatus according to (8) which is at least one of a vehicle travel prediction recognition result and a profile.
  • the notification control unit performs display control so that information acquired from the target vehicle is visually recognized corresponding to the target vehicle in a display device provided in the vehicle and visible by a user. Information processing device.
  • (11) The information processing apparatus according to (9) or (10), wherein the notification control unit performs control so as to issue a warning to a user based on information acquired from the target vehicle.
  • the information processing apparatus controls to notify a travel prediction result of the user vehicle based on information acquired from the target vehicle.
  • the notification control unit notifies the user in real time of the evaluation content performed on the target vehicle, the evaluation content performed on the user vehicle from another user, or the evaluation content performed on the other vehicle from the other user.
  • the information processing apparatus according to any one of (2) to (12), wherein the information processing apparatus is controlled.
  • the information processing apparatus according to any one of (2) to (13), further including a transmission control unit that controls to transmit a driving situation of the user vehicle to a server on the network.
  • the generation unit generates information for notifying the user of an evaluation request based on at least one of the information related to the target vehicle and the user's environmental information.
  • the information processing apparatus according to any one of claims.
  • (18) Processor Automatically recognizing target vehicle information from the user's environmental information; Obtaining a user evaluation for the recognized target vehicle; Generating information for notifying the acquired user evaluation; Including an information processing method.
  • Computer A recognition unit that automatically recognizes information on the target vehicle from the user's environmental information; An acquisition unit for acquiring a user evaluation for the recognized target vehicle; A generating unit that generates information for notifying the acquired user evaluation; Program to function as

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対象車両に対するユーザ評価に関する情報を効果的に利用することが可能な情報処理装置、情報処理方法、およびプログラムを提供する。 【解決手段】ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、前記認識した対象車両に対するユーザ評価を取得する取得部と、前記取得したユーザ評価を通知するための情報を生成する生成部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 自動車普及率が高まり、多くの人々が日常的に自動車を利用するようになると、交通渋滞の解消や自動車事故の未然防止、運転マナーの向上等が問題となってくる。
 例えば、下記特許文献1では、運転マナー向上への動機付けを高めるために、他者による自車両宛の運転マナーを評価する挙動(ハザード、クラクション等)を取得してサーバへ送信し、サーバにおいて運転評価情報に応じたポイントを算出するシステムが記載されている。
 また、近年、渋滞情報やナビゲーション情報等の様々な情報をユーザに提示する車載用情報提示装置が普及している。例えば下記特許文献2では、他車の車載バッテリのエネルギー消費状態を他車の現在位置と共に地図画面上に表示する車載用情報提示装置が記載されている。
特開2012-150557号公報 特開2012-207941号公報
 ここで、上記特許文献1に記載の技術では、ユーザの運転評価情報に応じたポイント情報をユーザ本人に見せることで運転マナー向上への動機付けを高めているが、自分の評価を自身で確認するだけでは良い運転を心掛ける動機付けには不十分である。また、上記特許文献2に記載の技術では、他車の車載バッテリのエネルギー消費状態を確認できるが、事故の未然防止や快適な走行のためには、周囲を走行する他車両の運転マナーに関する評価も重要となる。
 そこで、本開示では、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、前記認識した対象車両に対するユーザ評価を取得する取得部と、前記取得したユーザ評価を通知するための情報を生成する生成部と、を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、ユーザの環境情報から対象車両の情報を自動的に認識することと、前記認識した対象車両に対するユーザ評価を取得することと、前記取得したユーザ評価を通知するための情報を生成することと、を含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、前記認識した対象車両に対するユーザ評価を取得する取得部と、前記取得したユーザ評価を通知するための情報を生成する生成部と、として機能させるための、プログラムを提案する。
 以上説明したように本開示によれば、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理装置の基本構成の一例を示す図である。 本実施形態による情報処理装置の詳細構成の一例を示す図である。 本実施形態による対象車両の認識方法の一例を説明する図である。 第1の実施形態による他車両への評価入力処理を示すフローチャートである。 第1の実施形態による対象車両においてユーザ評価の通知が行われる際の表示例を説明する図である。 第1の実施形態による他車両の評価情報の表示処理を示すフローチャートである。 第1の実施形態による周辺の他車両の評価情報が表示される場合について説明する図である。 第1の実施形態による周辺を走行する他車両の評価情報がTopView画面で表示される場合について説明する図である。 第1の実施形態による対象車両の評価情報がネガティブな場合について説明する図である。 第2の実施形態による他車両の速度情報の表示処理を示すフローチャートである。 第2の実施形態による周辺の他車両の速度情報が表示される場合について説明する図である。 第2の実施形態による周辺を走行する他車両の速度情報がTopView画面で表示される場合について説明する図である。 第2の実施形態による周辺を走行する他車両の速度情報がBird View画面で表示される場合について説明する図である。 第2の実施形態による他車両からの情報取得ルートについて説明する図である。 第2の実施形態による自車両が取得した周辺車両の速度情報の一覧を示す図である。 第3の実施形態による情報処理システムの概要について説明する図である。 第3の実施形態による他車両の加速度情報の表示処理を示すフローチャートである。 第3の実施形態による周辺の他車両の加減速情報が表示される場合について説明する図を示す。 第3の実施形態による自車両が取得した周辺車両の加減速情報の一覧を示す図である。 第4の実施形態による情報処理システムの概要について説明する図である。 第4の実施形態による他車両の認識情報の表示処理を示すフローチャートである。 第4の実施形態による対象車両の認識情報が表示される場合について説明する図である。 第4の実施形態による対象車両の認識情報がTop View画面で表示される場合について説明する図である。 第5の実施形態によるユーザ車両の走行予測結果を通知する場合について説明する図である。 第5の実施形態による周辺の他車両から取得した情報に基づく警告通知について説明する図である。 第5の実施形態による周辺の他車両から取得した情報に基づく警告通知について説明する図である。 第6の実施形態による情報処理システムの全体構成を説明する図である。 第6の実施形態による近親者の重要な運転状況を通知する場合について説明する図である。 第6の実施形態による各ユーザの運転状況がSNS等に自動的に投稿される場合について説明する図である。 第6の実施形態による各ユーザの運転状況がSNS等に自動的に投稿される場合について説明する図である。 第6の実施形態による運転内容をゲームに反映させる場合について説明する図である。 車両システムの概略的な構成の一例を示すブロック図である。 情報処理装置のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.基本構成
  2-2.詳細構成
 3.各実施形態
  3-1.第1の実施形態
  3-2.第2の実施形態
  3-3.第3の実施形態
  3-4.第4の実施形態
  3-5.第5の実施形態
  3-6.第6の実施形態
 4.補足
 5.ハードウェア構成例
  5-1.車両制御システムの構成例
  5-2.情報処理装置の構成例
  5-3.その他
 6.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 本開示の一実施形態による情報処理システムは、対象車両に対するユーザ評価に関する情報を効果的に利用することで、例えば運転マナーの向上や、事故の未然防止、快適な走行等を支援する。図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図示された例では、車両10A、車両10B、および車両10Cが、周辺に存在する他車両と信号の送受信が可能な車車間通信機能を有している。
 ここで、例えば車両10Aが本線に合流する際に車両10Bが道を譲ってくれた場合、車両10Aは車両10Bに対して無理をしない程度で(すなわち走行に支障を来さない程度で)お礼を行うことがマナーであるが、通常は、手を挙げる、頭を軽く下げる、ハザードランプを1~2回点滅させる等が行われる。このようなお礼はその場限りであるが、良い運転を維持させるために、このようなお礼を運転者(または車両)に対する評価として収集してもよい。例えば道を譲って貰った車両10Aの運転者は、ハンドル等に設けられた「Thanks」ボタンを押したり、「譲ってくれてありがとう!」と発話することで車両10Bに対して明示的な評価を行う。車両10Aは、「Thanks」ボタンの押下や、収音したユーザ音声に基づいてユーザ評価を取得し、車車間通信により、対象車両として認識した車両10Bに送信する。車両10Bは、受信した評価情報を記憶したり、運転者に視認可能な表示装置(ディスプレイまたはフロントガラスのAR(augmented reality)機能)で提示したりして、運転者のコミュニケーションを実現する。表示装置には、例えば「Thanksされました」「譲ってくれてありがとう!」といったメッセージが表示される。
 上述したように車車間通信で周囲の車両から送信され、蓄積された車両10Bの他ユーザからの評価は、第三者の車両10Cにも車両10Bから送信される。車両10Cは、近くを走行する車両10Bの評価情報を車車間通信により受信し、車内の表示装置に提示する。よって、車両10Cの運転者は、車両10Bの運転マナーが良いか悪いかを、車両10Bの評価情報(例えば車両10Bが「Thanks」された回数を示す数値や直近のコメント等)により把握することができる。
 このように各車両の評価情報が周囲の車両にも送信されることで、例えば車両10Cの運転者は、前を走る車両10Bの「Thanks」された回数が少なく、直近のコメントが「急な割込みされた」「蛇行運転危ない!」といったものである場合、車両10Bが運転マナーの悪い危険な車両であると認識することができる。これにより、車両10Cの運転者は、車両10Bの後ろを走ることを避けたり、車両10Bの動きに特に注意することで、事故の未然防止や、快適な走行を行うことができる。
 また、車両に対するお礼や批判を一時的なものにせず、評価情報として車両に紐付けて蓄積し、周囲の車両にも公開されることで、自身の運転評価を自分だけで見るよりも、周囲に知られることで、良い運転を維持するモチベーションが十分に保たれる。
 なお他車両から車車間通信により取得し得る他車両の情報は、上述した評価情報に限定されず、事故の未然防止や快適な走行、および運転マナー向上等のために有用な様々な情報が取得し得る。
 また、他車両の情報は、車車間通信により通信する例に限定されず、管理サーバ4(図28参照)を介して取得されてもよい。各車両は、路車間通信により、道路に設置された路側無線装置3(図28参照)と通信接続し、路側無線装置3を介して管理サーバ4とデータの送受信を行う。各車両の情報は、車両固有の識別情報(例えば車両ナンバー)に紐付けて、現在位置情報と共に管理サーバ4で管理される。
 また、図1では、車両10A、車両10B、車両10C、として自動車両を図示しているが、本実施形態はこれに限定されず、車両10は、自動二輪車両、または軽車両であってもよい。
 <<2.構成>>
 次に、上述した情報処理システムを実現する情報処理装置100の構成について、図2および図3を参照して説明する。情報処理装置100は、例えば車両10A、10B、10C等の移動体に搭載され得る。若しくは、情報処理装置100は、車両10に持ち込まれるスマートフォン、タブレット端末、携帯電話端末、PC(パーソナルコンピュータ)等に搭載され得る。
 <2-1.基本構成>
 図2は、本実施形態による情報処理装置100の基本構成の一例を示す図である。図2に示すように、情報処理装置100は、制御部110、通信部120、入力部130、出力部140、および記憶部150を含む。
 制御部110は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。制御部110は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。
 通信部120は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。例えば、通信部120は、他の情報処理装置100または路側無線装置3との間で通信を行う。また、通信部120は、周辺を走行する他車両に搭載された他の情報処理装置100と車車間通信を行う通信モジュール、周辺に設置された路側無線装置3との間で通信を行う通信モジュール、携帯電話通信網と通信を行う通信モジュール、およびインターネット網と通信を行う通信モジュールの少なくともいずれかを含む。
 入力部130は、外部からの情報処理装置100への情報入力を受付ける。例えば入力部130は、タッチパネル、スイッチ、ボタン、マイクロホン、および各種センサにより実現され得る。
 出力部140は、映像、画像、音声、または振動等によって情報を出力する。例えば出力部140は、車両の運転者に認識可能に設置された表示装置(ディスプレイやフロントガラスのAR)、またはスピーカ等により実現される。
 記憶部150は、制御部110の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 <2-2.詳細構成>
 図3は、本実施形態による情報処理装置100の詳細構成の一例を示す図である。図3に示すように、情報処理装置100は、車載機器1301、センサ1302、操作入力部1303、マイクロホン1304、車車間通信部1201、路車間通信部1202、ネットワークI/F(interface)部1203、認識部1101、ユーザ評価取得部1102、通知情報生成部1103、通知制御部1104、推定部1105、表示部1401、およびスピーカ1402を含む。
 車載機器1301、センサ1302、操作入力部1303、およびマイクロホン1304は、入力部130の一例である。車載機器1301は、車両に設けられている機器やシステムであって、例えば速度計、燃費計、ナビゲーション装置、クルーズコントローラや自動ブレーキ等の運転アシストシステム、安全装備、および自動運転システムが想定される。車載機器1301から認識部1101や推定部1105が得られる情報は例えば以下のような情報が挙げられる。
Figure JPOXMLDOC01-appb-T000001
 センサ1302は、車両内や車両周辺の様々な情報を検知する。例えばセンサ1302は、カメラ(画像センサ)、デプスセンサ、視線センサ、タッチセンサ、バイタルセンサ、および感情センサ等が想定される。センサ1302から認識部1101や推定部1105が得られる情報は例えば以下のような情報が挙げられる。
Figure JPOXMLDOC01-appb-T000002
 操作入力部1303は、ユーザによる操作入力情報を検出する。例えば操作入力部1303は、タッチパネル、スイッチ、またはボタン等により実現される。また、操作入力部1303は、ハンドル、レバースイッチ、またはステアリング周辺に設けられた「Thanks」ボタン(評価ボタンの一例)を含む。操作入力部1303からユーザ評価取得部1102が得られる情報は、例えば「Thanks」ボタンの押下情報(ユーザによる他車両への評価に関する情報の一例)が挙げられる。
 マイクロホン1304は、ユーザによる発話を収音する。マイクロホン1304からユーザ評価取得部1102が得られる情報は、例えば「譲ってくれてありがとう」といった、ユーザによる他車両への評価コメントが挙げられる。また、マイクロホン1304から推定部1105が得られる情報は、例えば「あの車ふらふらしてるけど危なくないかな…」「みんなどこから来たのかな」といった、ユーザによる他車両への情報要求が挙げられる。
 以上説明した車載機器1301、センサ1302、操作入力部1303、またはマイクロホン1304は、車両内において情報処理装置100と別体に設けられていてもよい。
 車車間通信部1201、路車間通信部1202、およびネットワークI/F(interface)部1203は、通信部120の一例である。車車間通信部1201および路車間通信部1202は、例えばWi-Fi(登録商標)、BlueTooth(登録商標)等の近距離無線通信により、車と車、車と路側無線装置とのデータ通信を行う。また、ネットワークI/F部1203は、4G(LTE;Long Term Evolution)、3G等のモバイルネットワークにより車とネットワークとのデータ通信を行う。なお車車間通信部1201は、ヘッドライト、車幅灯、ウインカー、ブレーキランプ等の高速明滅パターンを用いた可視光通信により他車両とのデータ通信を実現してもよい。
 認識部1101、ユーザ評価取得部1102、通知情報生成部1103、通知制御部1104、および推定部1105は、制御部110の機能例である。認識部1101は、ユーザが注目している対象車両や、ユーザが評価を行った際の対象車両を認識する。対象車両の認識は、認識部1101が、車載機器1301、センサ1302、および通信部120から得た情報(すなわちユーザ環境情報)に基づいて自動的に行ってもよい。ユーザ環境情報は、例えばユーザ車両の走行状況、ユーザの視線情報、ユーザの集中度、ユーザの発話内容、ユーザの周辺情報、およびユーザ車両と周囲の車両との位置関係等である。認識部1101は、例えば得られた各種情報(ユーザ環境情報)を、機械学習を用いて総合的に解釈することで対象車両を自動的に認識することが可能である。また、認識部1101は、操作入力部1303、またはマイクロホン1304等から入力されたユーザ指示に従って対象車両を認識してもよい。
 ここで、図4を参照して対象車両の認識方法の一例を説明する。図4は、本実施形態による対象車両の認識方法の一例を説明する図である。図4左側に示すように、例えば車両10Aが本線に合流する際に、本線を走る車両10Bが合流直前で道を譲ってくれた場合、車両10Aと車両10Bの位置関係に基づいて、車両10Aに搭載されている情報処理装置100は、車両10Bをユーザが注目する対象車両として認識する。車両10Aと車両10Bの位置関係は、例えばセンサ1302の一例であるカメラから得られた映像や、ステレオカメラから得られた距離情報、赤外線センサから得られた距離情報、車車間通信部1201により車両10Bから得た信号に基づいて取得される。また、図4右側に示すように、運転者の視線情報に基づいて、ユーザが注視している車両10Cを対象車両として認識してもよい。視線情報は、センサ1302の一例である視線センサから得られる。視線情報が示す視線方向に存在する車両10Cは、センサ1302の一例である、外向きに設けられたカメラにより撮像された映像から認識される。運転者がサイドミラーやバックミラーに視線を向けている場合、認識部1101は、運転者の視線に合わせてサイドミラーやバックミラーを撮像した撮像画像に基づいて、ミラーに映っている車両を認識する。なお認識部1101は、視線情報の他、センサ1302の一例であるバイタルセンサから得られた運転者の集中度をさらに用いて、運転者が注意を向けている対象車両をより正確に判断することが可能である。
 また、認識部1101は、認識した対象車両の個体認識も行い得る。対象車両の個体識別情報(ID)は、車車間通信部1201を介して対象車両から受信した信号から抽出してもよいし、画像認識により取得した車両ナンバー、車種および色情報に基づいて、ネットワーク上のデータベースに問い合わせ、個体識別情報を取得してもよい。また、データベースに無い車両はデータベース側で自動的に新規登録されるようにしてもよい。
 ユーザ評価取得部1102は、対象車両に対するユーザ(ここでは、運転者)の評価に関する情報を取得する。具体的には、例えばユーザ評価取得部1102は、操作入力部1303の一例である「Thanks」ボタンが押下された情報を操作入力部1303からユーザ評価情報として取得する。また、ユーザ評価取得部1102は、マイクロホン1304により収音されたユーザの発話音声を解析し、テキスト化したユーザコメントをユーザ評価情報として取得する。
 通知情報生成部1103は、ユーザ評価取得部1102により取得したユーザ評価と、認識部1101により認識された対象車両(運転者が注目する車両であって、ここでは評価対象の車両)とに基づいて、対象車両に対するユーザ評価を通知するための情報を生成する。例えば通知情報生成部1103は、対象車両に対するユーザ評価を表示する評価表示画面を生成する。また、通知情報生成部1103は、認識された対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、ユーザ評価の理由を生成することも可能である。生成されたユーザ評価の理由は、ユーザ評価と紐付けられて記憶部150に格納されたり、通信部120から対象車両または第三者の車両に送信され得る。
 通知制御部1104は、通知情報生成部1103で生成された通知情報を所定の通知先に通知するよう制御する。例えば通知制御部1104は、生成された通知情報を車車間通信部1201により対象車両に送信するよう制御する。また、通知制御部1104は、車車間通信部1201により受信した自車両への評価情報を、表示部1401またはスピーカ1402から運転者に通知するよう制御してもよい。また、通知制御部1104は、車車間通信部1201により受信した対象車両の評価情報を表示部1401またはスピーカ1402から運転者に通知するよう制御してもよい。また、評価情報の送受信は、車車間通信に限定されず、路車間通信部1202またはネットワークI/F部1203を介して行われてもよい。評価情報には、対象車両の固有識別情報や評価理由等が含まれ得る。
 推定部1105は、運転者が現在欲している情報の種類や、運転者に通知すべき情報がどのような情報であるか(例えば種類)を推定する。例えば推定部1105は、視線センサから得られる運転者の視線情報、バイタルセンサから得られる運転者の集中度、車載機器1301から得られる走行状況、運転内容、およびマイクロホン1304(音声センサ)から得られる運転者の発話内容の少なくともいずれかに基づいて機械学習を用いて総合的に解釈し、運転者に現在適切な情報は何であるかを推定する。例えば推定部1105は、高速道路を巡航中には、他車両の速度や、危険な車両だけを知りたいであろうと推定し、街中において交差点を走行中には、他の車両の移動方向(直進、右折、左折)、加減速情報、死角の情報が知りたいであろうと推定し、停車中には周囲の車両の評価等を知りたいであろうと推定する。また、推定部1105は、運転者が「あの車なんかふらふらしている…」と発話した場合、対象車両の危険度が知りたいであろうと推定し、「みんなどこから来ているのだろう」と発話した場合、周囲の車両の運転者の住所(都道府県情報)が知りたいであろうと推定する。また、推定部1105は、バイタルセンサにより得られる運転者の集中度に応じて、運転者へ提示する情報の内容や量、提示方法等を調整してもよい。例えば運転者の集中度が低い場合、推定部1105は、より危機的な情報を提示するよう調整して運転者への注意喚起を実現する。推定部1105は、運転者に現在適切な情報を推定すると、通信部120から推定した情報の要求を所定の要求先に対して行う。例えば推定部1105は、周囲の車両の速度、危険な車両情報(周囲の車両の危険度)、他の車両の移動方向(直進、右折、左折)、加減速情報、死角の情報、または評価情報等が現在適切な情報であると推定した場合、車車間通信部1201により周囲の車両から該当する情報を取得する。なお危険な車両情報(周囲の車両の危険度)は、評価情報から抽出されてもよい(すなわち、評価が低く、運転マナーの悪い評価が与えられている車両は危険な車両(危険度が高い)とされる)。通信部120により得られたこれらの情報は、通知制御部1104により表示部1401やスピーカ1402から運転者へ提示される。
 表示部1401、およびスピーカ1402は、出力部140の一例である。表示部1401は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置により実現される。また、表示部1401は、運転者の視野の中であって、前方から視線を逸らさずに読み取ることができる位置に設けられた透過/半透過型のヘッドアップディスプレイ、またはフロントガラスにおいて、AR表示を行ってもよい。また、表示部1401は、運転者が装着しているHMD(ヘッドマウントディスプレイ)により実現され、HMDにおいてAR表示が行われてもよい。AR表示では、実際の車両に対応するよう情報が表示される。
 以上、本開示の一実施形態による情報処理装置100の詳細構成について説明した。続いて、上記情報処理システムについて、複数の実施形態を用いて具体的に説明する。
  <<3.各実施形態>>
  <3-1.第1の実施形態>
 まず、図5~図10を参照して第1の実施形態による情報処理システムについて説明する。第1の実施形態では、他車両への評価処理、および各車両に蓄積された評価情報の活用について説明する。
 図5は、第1の実施形態による他車両への評価入力処理を示すフローチャートである。図5に示すように、まず、情報処理装置100のユーザ評価取得部1102は、操作入力部1303により検出された、ユーザ(ここでは、運転者)が「Thanks」ボタンを押下したことをユーザ評価情報として取得する(ステップS103)。
 また、ユーザ評価取得部1102は、マイクロホン1304により収音された運転者の発話を音声認識(テキスト化)し、ユーザ評価情報として取得する(ステップS106)。
 次いで、情報処理装置100の認識部1101は、センサ1302および車載機器1301から、評価の対象車両を認識するために用いる情報を取得する(ステップS109)。例えば認識部1101は、視線センサから運転者の視線情報、カメラから周囲の車両の撮像画像、周囲の車両との位置関係情報、および車両の運転状況等を取得する。
 次に、認識部1101は、取得した情報に基づいて、運転者が注目している車両(すなわちユーザ評価の対象となる車両)を認識する(ステップS112)。例えばユーザ車両が本線に合流した際に「Thanks」ボタンが押下されたり、運転者が「ありがとう」と発話したりした場合、認識部1101は、位置関係情報や撮像画像に基づいて、本線に合流した際に後ろを走る他車両(合流の際に道を譲ってくれた他車両)が評価対象の車両であると認識する。また、ユーザ車両が急ブレーキをかけ、「危ないなぁ!」と発話した場合、認識部1101は、視線情報や撮像画像に基づいて、ユーザ車両の前に現れた(割込みをしてきた)他車両が評価対象の車両であると認識する。また認識部1101は、対象車両の個体識別情報を取得してもよい。対象車両の個体識別情報は、撮像画像を解析して得た対象車両のナンバー、車種、色等の情報に基づいて、ネットワーク上の管理サーバ4から取得してもよいし、対象車両から車車間通信により取得してもよい。
 次いで、通知情報生成部1103は、ユーザ評価取得部1102により取得されたユーザ評価と、認識部1101により認識された対象車両の情報とに基づいて、対象車両に対するユーザ評価を通知するための情報を生成する(ステップS115)。かかる情報には、対象車両の個体識別情報が含まれていてもよい。
 次に、通知制御部1104は、生成した通知情報を、車車間通信部1201を介し認識車両へ送信する(ステップS118)。また、通知制御部1104は、生成した通知情報を、ネットワークI/F部1203を介してネットワーク上の管理サーバ4に送信してもよい。また、通知制御部1104は、表示部1401またはスピーカ1402から、対象車両へのユーザ評価を行ったことをユーザ(ユーザ車両の運転者)に通知してもよい。このような通知情報は、評価が行われた際にリアルタイムで通知されてもよい。
 対象車両に送信された通知情報は、対象車両の運転者に通知される。図6は、対象車両においてユーザ評価の通知が行われる際の表示例を説明する図である。ここでは、例えば図1に示したように車両10Aが本線に合流する際に道を譲った車両10Bに対して車両10Aの運転者が評価を行い、評価を通知するための通知情報が車両10Aから車両10Bに送信され、フロントガラスにAR表示される場合について説明する。図6に示すように、車両10Bのフロントガラス1401Bには、評価を行った車両を特定するよう車両10Aを囲むように表示される枠画像30と、「Thanks」ボタンが押されたことや車両10Aからのコメント表示といった評価情報を表示する評価情報画像31がAR表示される。なお図6には示していないが、ユーザ評価と共に、当該ユーザ評価の理由(評価理由)が併せて表示されるようにしてもよい。
 以上、本実施形態による他車両への評価入力処理について説明した。なお本実施形態による評価入力処理は図5に示すフローチャートに限定されず、例えば情報処理装置100は、ユーザに対して評価を促す通知を行うよう制御してもよい。より具体的には、例えば情報処理装置100は、認識部1101により「道を譲ってもらった」と判断された場合、ユーザに対して「道を譲ってくれた車両に『Thanks』をしますか?」といった通知情報を通知情報生成部1103により生成する。そして、情報処理装置100は、生成した通知情報を通知制御部1104により、表示部1401またはスピーカ1402からユーザに通知し、プラスの評価を提案する。また、情報処理装置100は、認識部1101により「危険な割り込みをされた」と判断された場合は、マイナスの評価を行うか提案するための通知情報を生成し、ユーザに通知する。続いて、周辺を走行する車両の評価情報を表示する場合について、図7および図8を参照して説明する。
 図7は、他車両の評価情報の表示処理を示すフローチャートである。図7に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS123)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
 次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS126)。本実施形態では、例えばユーザ車両が街中において直進し、運転者が周囲の車両を注視している場合、運転者は現在周囲の車両の評価情報を知りたがっている、若しくは周囲の車両の評価情報が現在適切であると推定する。
 次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から評価に関する情報を取得する(ステップS129)。具体的には、各車両において蓄積された他ユーザからの評価情報が取得される。
 そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した評価情報を表示部1401に表示するよう制御する(ステップS132)。ここで、図8に、周辺の他車両の評価情報が表示される場合について説明する図を示す。図8に示す例では、車両10Dに搭載された情報処理装置100が、車両10Dの周辺を走行する車両10B、10Dから各車両の評価情報を取得し、車両10Dの運転者へ通知する場合を想定している。図8に示すように、車両10Dのフロントガラス1401Dには、各車両を特定するよう車両10B、車両10Cを囲むように表示される枠画像32、34と、各車両に対して入力された直近の評価コメントを表示する評価コメント画像33、35がAR表示される。また、枠画像32、34には、各車両に対して行われた「Thanks」ボタンが押された回数を示す情報が含まれる。これにより、車両10Dの運転者は、周辺を走る車両の評価を容易に知ることができ、「Thanks」ボタンが押された回数が多かったり、評価コメントが良いものであったりすれば、マナーの良い車両であると認識でき、安心して快適な運転を行うことができる。
 なお本実施形態による評価情報の表示方法は、図6や図8に示したようなフロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。Bird ViewやTop Viewで表示することで、ユーザ車両と周囲の車両との位置関係を容易に把握させることが可能となる。ここで、図9に、周辺を走行する他車両の評価情報がTop View画面で表示される場合について説明する図を示す。図9に示すように、表示装置1401dは、運転者が運転中に視線を前方からあまり逸らさずに視認できるようステアリング周辺に設置されている。表示装置1401dには、ユーザ車両(車両10D)と、周辺の車両10B、10Cが地図上に表示されている。表示装置1401dに表示される画像は、例えば通知制御部1104により生成され得る。各車両の位置関係は、各車両から受信した信号やカメラにより撮像した画像に基づいて把握される。そして、「Thanks」の数や評価コメントを表示する評価情報表示画像36、37は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の評価を容易に把握することができる。
 また、表示される評価はポジティブな情報に限定されず、ネガティブな情報も当然想定される。図10は、対象車両の評価情報がネガティブな場合について説明する図である。図10に示すように、例えば車両10Dのフロントガラス1401Dに、車両10Bに対応するよう「Thanks」の数を含む枠画像38と評価コメント画像39が表示され、車両10Cに対応するよう「Thanks」の数を含む枠画像40と評価コメント画像41が表示されている。これにより、車両10Dの運転者は、周辺を走る車両の評価を容易に知ることができ、「Thanks」ボタンが押された回数が少なかったり、評価コメントが悪いものであったりすれば、マナーの悪い車両であると認識でき、対象車両の動きに特に注意して運転したり、対象車両から離れたりすることで、事故を未然に防止することができる。
  <3-2.第2の実施形態>
 続いて、図11~図16を参照して第2の実施形態による情報処理システムについて説明する。第2の実施形態では、他車両の速度情報の活用について説明する。
 図11は、第2の実施形態による他車両の速度情報の表示処理を示すフローチャートである。図11に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS203)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
 次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS206)。本実施形態では、例えばユーザ車両が高速道路を走行中の場合、運転者は現在周囲の車両の速度情報を知りたがっている、若しくは周囲の車両の速度情報が現在適切であると推定する。
 次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から速度情報を取得する(ステップS209)。具体的には、各車両の車載機器から検出された速度情報が取得される。
 そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した速度情報を表示部1401に表示するよう制御する(ステップS212)。ここで、図12に、周辺の他車両の速度情報が表示される場合について説明する図を示す。図12に示す例では、車両10Dに搭載された情報処理装置100が、車両10Dの周辺を走行する車両10B、10Dから各車両の速度情報を取得し、車両10Dの運転者へ通知する場合を想定している。図12に示すように、車両10Dのフロントガラス1401Dには、各車両の速度を表示する速度表示画像45、46がAR表示される。これにより、車両10Dの運転者は、周辺を走る車両の速度を容易に知ることができ、スピードを出し過ぎている車両につられて速度オーバーしてしまうことを回避したり、特に遅い車両を追い越す判断を的確に行ったりすることができる。
 なお本実施形態による速度情報の表示方法は、フロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。
 図13は、周辺を走行する他車両の速度情報がTop View画面で表示される場合について説明する図である。図13に示すように、ステアリング周辺に設置された表示装置1401dには、ユーザ車両(車両10D)と、周辺の車両10B、10Cが地図上に表示されている。そして、速度情報を示す速度情報表示画像47、48は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の速度を容易に把握することができる。
 図14は、周辺を走行する他車両の速度情報がBird View画面で表示される場合について説明する図である。図示された例では、表示装置1401dの画面に、ユーザ車両(車両10D)と、周辺の車両10B、10Cを後方上空の視点から見た場合を想定したCG画像が表示される。各車両の位置関係は、各車両から受信した信号やカメラにより撮像した画像に基づいて把握される。そして、速度情報を示す速度情報表示画像49、50は、車両10B、10Cに対応するよう、例えば一部が車両10B、10Cに重畳して表示される。これにより、車両10Dのユーザは、周辺の車両の速度を容易に把握することができる。
 以上説明した第2の実施形態では、対象車両の速度を車車間通信部1201により対象車両から受信する場合について説明したが、本実施形態はこれに限定されない。
 図15は、他車両からの情報取得ルートについて説明する図である。図15に示すように、例えば車両10Dは、車両10Bの速度情報は車車間通信により取得し得るが、離れた位置を走行する車両10Aの速度情報はネットワークを介して取得し得る。また、車両10Cが通信非対応の場合、車両10Dに搭載された情報処理装置100の認識部1101は、車両10Cを撮像した撮像画像の解析結果や、ステレオカメラから得た距離情報、または赤外線センサから得た距離情報等に基づいて車両10Cの相対速度を算出し、自車両の速度に基づいて推定してもよい。
 また、車両10Cの速度の推定は、他車両でも行われ、車両10Dは、車車間通信やネットワーク通信を介して、他車両が推定した車両10Cの速度情報も取得し得る。このように様々な手法で対象車両の速度を得た場合、車両10Dの情報処理装置100は、信頼度が最も高い情報を採用して表示するようにしてもよい。以下、図16を参照して具体的に説明する。
 図16は、車両10D(自車両)が取得した周辺車両の速度情報の一覧を示す図である。図示された例では、車両10D(自車両)、車両10A、および車両10Bがそれぞれ推定した車両10A、10B、10Cの速度情報を示す。車両10Dは、車両10Aおよび車両10Bがそれぞれ推定した車両10A、10B、10Cの速度情報を、車車間通信またはネットワーク通信を介して取得し得る。車両10A~10Cの位置関係は図15に示す通りであって、車両10Cは通信非対応の車両とする。
 図16に示すように、各速度情報には、推定主体から推定対象までの距離に応じた速度誤差(プラスマイナスkm/h)が含まれる。例えば車両10Dが、撮像画像等に基づいて推定した車両10A~10Cの速度情報は、図15に示すように車両10Dから離れた対象車両の速度情報程、速度誤差が大きくなっている。これは、車両10A、10Bが推定主体の場合も同様である。なお推定主体と推定対象が同一の場合、速度誤差は0km/hとなる。
 車両10Dに搭載される情報処理装置100の通知制御部1104は、各他車両の速度情報のうち速度誤差の最も小さいものを採用し、表示部1401に表示するよう制御する。したがって、図16に示す例の場合、車両10Aの速度情報は車両10Aが推定した速度「95km/h(誤差0km/h)」が採用され、車両10Bの速度情報は車両10Bが推定した速度「86km/h(誤差0km/h)」が採用され、車両10Cの速度情報は車両10Cに最も近い車両10Bが推定した速度「94km/h(誤差1km/h)」が採用される。
  <3-3.第3の実施形態>
 次に、図17~図20を参照して第3の実施形態による情報処理システムについて説明する。第3の実施形態では、他車両の加減速に関する情報の活用について説明する。
 図17は、第3の実施形態による情報処理システムの概要について説明する図である。図17に示すように、交差点において右折待ち中の車両10Aの運転者は、対向車の車両10Bが黄色信号に応じて減速していることは分かっても、車両10Bの死角になっていた車両10E(ここでは自動二輪)の動向が目視では把握できない。この場合、車両10Aが交差点を右折しようとすると、直進してきた車両10Eと接触して事故を起こしてしまう可能性が高い。したがって、本実施形態では、例えば車両が道を曲がろうとしている際に、周囲の車両の加減速を取得して運転者へ通知することで、より安全な運転を支援することができる。図17に示す例では、車両10Bの死角に存在する車両10Eが加速しているという情報を把握することで、車両10Eが直進するのを待ってから安全に右折することができる。
 図18は、第3の実施形態による他車両の加速度情報の表示処理を示すフローチャートである。図18に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS303)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
 次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS306)。本実施形態では、例えばユーザ車両が交差点で右折/左折の待機中の場合、運転者は現在周囲の車両の加減速情報を知りたがっている、若しくは周囲の車両の加減速情報が現在適切であると推定する。
 次いで、車車間通信部1201は、推定部1105の推定結果に従って、周辺の車両から加減速情報を取得する(ステップS309)。具体的には、各車両の車載機器から検出された加減速情報が取得される。なお図17に示すように車両10Aと車両10Eが離れており車車間通信が出来ない場合であっても、車両10Aは、車両10Bから、車両10Eで受信した周囲の車両の情報として車両10Eの情報を取得できるようにしてもよい。これにより、車両10Aは、信頼度が低い数十メートル前方の自転車や自動二輪車の情報も取得し得る。
 そして、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した加減速情報を表示部1401に表示するよう制御する(ステップS312)。ここで、図19に、周辺の他車両の加減速情報が表示される場合について説明する図を示す。図19に示す例では、車両10Dに搭載された情報処理装置100が、交差点周辺の車両の加速度情報を取得し、車両10Dの運転者へ通知する場合を想定している。図19に示すように、車両10Dのフロントガラス1401Dには、各車両の加減速を表示する速度表示画像51、52がAR表示される。車両10Eは車両10Bの死角にあって運転者からは視認できないが、図19に示すように、隠れている車両10Eを明示するための強調表示53が表示される。これにより、車両10Dの運転者は、対向車の車両10Bは減速しているが、死角に車両10Eが存在すること、さらには車両10Eが加速していることを容易に把握することができ、事故を未然に防止することができる。
 以上説明した第3の実施形態では、車両10Bの加減速情報を車両10Bから受信しているが、本実施形態はこれに限定されず、情報処理装置100の認識部1101は、カメラにより撮像された撮像画像の解析や、ステレオカメラから得た距離情報、赤外線センサから得た距離情報に基づいて、対象車両の加減速を推定することも可能である。
 または、通知制御部1104は、取得した周辺車両の加減速情報のうち、信頼度の高いものを採用して運転者に通知するよう制御してもよい。以下、図20を参照して具体的にする。
 図20は、車両10A(自車両)が取得した周辺車両の加減速情報の一覧を示す図である。図示された例では、車両10A(自車両)、および車両10Bがそれぞれ推定した車両10B、10Eの加減速情報を示す。車両10Aは、車両10Bが推定した車両10Aおよび車両10Eの加減速情報を、車車間通信またはネットワーク通信を介して取得し得る。車両10A、10B、10Eの位置関係は図17に示す通りであって、車両10Eは車両10Bの死角に隠れている。また、ここでは車両10Eは通信非対応の車両とする。
 図20に示すように、各速度情報には、推定主体と推定対象との位置関係に応じた信頼度(パーセンテージ)が含まれる。例えば車両10Aに搭載されている情報処理装置100の認識部1101は、カメラによる撮像画像、ステレオカメラによる距離情報、または赤外線センサによる距離情報等に基づいて、車両10Bの加減速を推定し得る。車両10Aから車両10Bが多少離れている場合、例えば加速の信頼度40%、および減速の信頼度60%となる。一方、推定主体と推定対象が同一の場合、信頼度は100%となる。また、車両10Aから車両10Eはカメラや赤外線センサ等で検知できないため、推定不能となる。また、車両10Bが主体となる車両10Eの推定結果は、車両10Eが車両10Bの近くであるため、信頼度100%となる。
 車両10Aに搭載される情報処理装置100の通知制御部1104は、各他車両の加減速情報のうち信頼度の最も高いものを採用し、表示部1401に表示するよう制御する。したがって、図20に示す例の場合、車両10Bの加減速は車両10Bが推定した加減速情報「減速(信頼度100%)」が採用され、車両10Eの加減速情報は車両10Bが推定した加減速情報「加速(信頼度100%)」が採用される。
  <3-4.第4の実施形態>
 続いて、図21~図24を参照して第4の実施形態による情報処理システムについて説明する。第4の実施形態では、他車両が自車両を認識しているか否か(他車両の自車両への気付き)に関する情報の活用について説明する。
 図21は、第4の実施形態による情報処理システムの概要について説明する図である。図21に示すように、例えば車両Bが走行中に、前方左車線を走る車両10Aが右ウインカーを出した場合、車両10Bの運転者は、車両10Aが右後ろの死角に居る自車両に気付いているか否かが気になる。車両10Aが自車両(車両10B)に気付いていることが分れば、車両10Bの運転者は、急な車線変更は無さそうなので安心して減速し、相手の車線変更を待つことができる。車両10Aが自車両(車両10B)に気付いているか否かは、例えば車車間通信により車両10Aから通知される。このように、対象車両が自車両の存在を認識しているか否かの情報は、前方車両の車線変更時に限らず、例えば前方の車両が後退している場合や、信号が赤または渋滞のため減速中に後続車が減速せずに迫ってきた場合にも有用である。以下、本実施形態の具体的な動作処理について図22を参照して説明する。
 図22は、第4の実施形態による他車両の認識情報の表示処理を示すフローチャートである。図22に示すように、まず、情報処理装置100の推定部1105は、センサ1302および車載機器1301からユーザ(ここでは、運転者)が必要としている情報を推定するための情報を取得する(ステップS403)。例えば推定部1105は、センサ1302から視線情報、撮像画像、車載機器1301から現在位置、および運転状況等を取得する。
 次に、推定部1105は、取得した情報に基づいて、運転者が現在必要としている情報(若しくは運転者に現在適切な情報)を推定する(ステップS406)。本実施形態では、例えば対象車両が自車両を認識しているか否か(気付いているか否か)に関する情報(以下、認識情報とも称す)を運転者は現在知りたがっている、若しくは当該認識情報が運転手に現在適切であると推定する。
 次いで、車車間通信部1201は、推定部1105の推定結果に従って、対象車両から認識情報を取得する(ステップS409)。具体的には、対象車両の車載機器や視線センサから検出された運転者の認識情報、若しくは自動運転の場合は車両の認識情報が取得される。
 次に、通知制御部1104は、推定部1105の推定結果に従って車車間通信部1201が周辺の車両から取得した認識情報を表示部1401に表示するよう制御する(ステップS412)。ここで、図23に、対象車両の認識情報が表示される場合について説明する図を示す。図示された例では、車両10Bのフロントガラス1401Bに、対象車両が自車両を認識していることを示す気付き表示画像55がAR表示される。対象車両の特定は、車両10Bの運転者の視線情報やカメラの撮像画像等に基づいて認識部1101により行われる。一方、対象車両が自車両を認識していない場合、または認識しているか否か不明な場合は、クエスチョンマークが表示されるようにしてもよい。これにより、車両10Bの運転者は、例えば右ウインカーを出して車線変更しようとしている前方左車線の対象車両が自車両に気付いているか否かを容易に把握することができる。
 なお本実施形態による認識情報の表示方法は、フロントガラスでのAR表示に限定されず、例えばステアリング周辺に設置された表示装置(スマートフォン等を固定したものであってもよい)において、例えばCG(computer graphics)で生成したBird View画面やTop View画面を表示してもよい。
 図24は、対象車両の認識情報がTop View画面で表示される場合について説明する図である。図24に示すように、ステアリング周辺に設置された表示装置1401bには、ユーザ車両(車両10B)と、対象の車両10Aが地図上に表示され、車両10Aが車両10Bに気付いていることを示す気付き表示画像56が、車両10Aに対応するよう表示される。これにより、車両10Bのユーザは、対象車両が自車両に気付いていることを容易に把握することができる。
 続いて、図22に戻り、情報処理装置100は、自車両に運転アシストシステムが搭載され、かつ情報処理装置100による制御が可能な場合、他車両の認識情報に応じて危険回避のアクションが必要であるか否かを判断する(ステップS415)。例えば情報処理装置100は、対象車両が自車両に気付いていない状態で車線変更しようとしたり、後退したりしている場合、危険回避のアクションが必要であると判断する。
 危険回避のアクションが必要であると判断した場合(ステップS415/Yes)、情報処理装置100は、自車両のハザードランプを自動で点灯させる等の危険回避アクションを実行する(ステップS418)。または、情報処理装置100は、車車間通信により自車両の存在を対象車両に通知してもよい。これにより、対象車両に自車両の存在を気付かせ、危険を回避することができる。
  <3-5.第5の実施形態>
 次に、図25~図27を参照して第5の実施形態による情報処理システムについて説明する。第5の実施形態では、他車両から取得した種々の情報に基づくユーザ車両の走行予測結果や警告の通知について説明する。
 図25は、ユーザ車両の走行予測結果を通知する場合について説明する図である。ユーザ車両(ここでは、車両10A)に搭載されている情報処理装置100は、認識部1101により、車載機器1301から取得される自車両の運転状況を認識し、例えば前方を走る車両10Fを追い越した場合の成功確率を表示部1401に表示して運転者に通知することが可能である。追い越し成功確率は、例えば自車両の速度、運転者(ユーザ)の運転技術レベル、対象の車両10Fの速度、車両10Fのさらに前方や追い越し車線の他車両の有無等に基づいて認識部1101により算出される。
 図示された例では、例えば車両10Aに設置されている表示装置1401aに、自車両(車両10A)の追い越し成功確率を示す通知画像57がTop View画面で表示されている。また、追い越しを行う場合の走行ナビゲーションが矢印で表示されている。これにより、運転者は、自分の運転状況認識結果を容易に把握することが可能であって、例えば追い越し成功確率が低い場合は追い越しを中止する等、より安全な対応を行うことができる。追い越し成功確率は、例えば運転者の目線が前方を走る車両と追い越し車線と追い越し車線後方を確認している場合や、前方を走る車両に注目しながら「この車遅いなぁ」と発話した場合等に推定部1105により、現在運転者には追い越しに関する情報が適切であると推定され、表示部1401に表示され得る。
 図26および図27は、周辺の他車両から取得した情報に基づく警告通知について説明する図である。図26および図27では、いずれも車両10Aのフロントガラス1401Aにおいて警告通知がAR表示されている。これらの警告通知は、他車両から車車間通信部1201等により受信した認識結果に基づいて提示される。
 図26に示す例では、右側停止中の対向車列から進入してくる車両10Gが急な割込みをする車両であることが、車両10Hに搭載された情報処理装置100から認識結果として送信され、車両10Aのフロントガラス1401Aにおいて、車両10Gに関する警告を示す通知画像58がAR表示される。車両10Gに搭載された情報処理装置100は、認識部1101により車載機器1301やセンサ1302から得た情報に基づいて運転者の行動予測認識を行い、通知制御部1104により認識結果を車車間通信等により周辺の車両に送信している。
 また、前方を走る車両10Hでは、右側から急な割込みをする車両10Gとの接触を避けるために、急ブレーキや急な車線変更を行うことが予測認識され、その認識結果が周辺の車両に車車間通信等により送信される。当該認識結果を受信した車両10Aの情報処理装置100は、図26に示すように、フロントガラス1401Aに車両10Hに関する警告を示す通知画像59をAR表示する。
 また、図27に示すように、車両10Aのフロントガラス1401Aには、右車線を走る車両Iが自動車保険未加入であることを警告する通知画像60がAR表示されてもよい。自動車保険の加入情報等の車両のプロファイルを表示することで、運転者に注意を促すことができる。これらの情報は、対象の車両Iから取得し得る。
 また、図27に示すように、死角にある車両10Jの運転者が眠い状態にあり、交差点を直進する危険運転が車両10Jにより予測認識され、当該認識結果を受信すると、車両10Aの情報処理装置100は、死角にある車両10Jに関する警告を示す通知画像62を、フロントガラス1401AにAR表示する。
 このように、本実施形態による情報処理システムでは、他車両で危険な運転(急な割込み、車線変更、急ブレーキ、制限速度オーバー、急加速、後続車の接近、煽り、または居眠り運転等)や事故発生が予測された場合、ユーザ車両において他車両の危険を警告することで、ユーザ(運転者)に注意を促すことができる。また、警告の通知方法は表示に限られず、スピーカ1402から警告音を鳴らしてもよい。
 以上説明した第5の実施形態では、他車両から認識結果を受信し、警告しているが、本実施形態はこれに限定されず、自車両に設けられたカメラで撮像した他車両の撮像画像等の解析結果に基づいて認識部1101が他車両の危険運転を予測認識し、警告するようにしてもよい。
  <3-6.第6の実施形態>
 続いて、図28~図32を参照して第6の実施形態による情報処理システムについて説明する。第6の実施形態では、車両の情報をネットワークを介して他者に公開して活用する場合について説明する。
 図28は、第6の実施形態による情報処理システムの全体構成を説明する図である。図28に示すように、本実施形態による情報処理システムは、各車両10(具体的には、例えば車両10A~10E)と無線通信を行う路側無線装置3と、管理サーバ4と、通信端末6とを含む。管理サーバ4は、車両10から路側無線装置3を介して取得した情報(以下、車両情報とも称す)を、ネットワーク5を介して通信端末6へ適宜送信する。通信端末6は、例えばスマートフォン6A、スマートウォッチ6B、タブレット端末6C、またはPC(パーソナルコンピュータ)6D等が想定される。以下、図29~図32を参照して車両情報の活用方法について説明する。
 図29は、近親者の重要な運転状況を通知する場合について説明する図である。図示された例では、息子が親の車で危険運転をしていることが、親のスマートウォッチ6Bに表示されている。すなわち、管理サーバ4は、車両10から取得した車両情報に含まれる運転内容に基づいて、危険運転(スピードの出し過ぎ、信号無視、蛇行等)か否かを判断し、危険運転の場合は登録された通知先(親や自動車の所有者)の通信端末へ通知する。なお車両に搭載された情報処理装置100の認識部1101は、運転者を識別することが可能であって、例えばハンドルに設けられた指紋センサ、カメラで撮像した運転者の顔画像の認識、または運転者が所有するスマートフォン等の通信端末による個人認証等に基づいて運転者を識別し、車両情報と併せて管理サーバ4に送信する。
 このように、例えば親が息子や娘に車を貸した場合に、危険運転を行っていないか確認することができ、また、借りる側は危険運転を行うと親に通知されてしまうため、慎重な運転を心掛けることが期待できる。
 図30および図31は、SNS(Social Networking Service)に各ユーザの運転状況が自動的に投稿される場合について説明する図である。例えば図30に示す例では、スマートフォン6Aに、登録した友人、知人の現在の運転状況が一言コメントで随時投稿される。また、運転状況を示すアイコンも併せて表示され得る。また、図31に示す例では、タブレット端末6Cに、登録した友人、知人の現在の運転状況に関するデータ(例えば出発地、目的地、急加速回数、急ハンドル回数、平均時速、および平均燃費等)が随時投稿される。いずれの場合も、管理サーバ4が、車両10から取得した車両情報に含まれる運転状況を、登録された特定のSNSに投稿することで実現される。
 このように、運転状況をSNS上で公開することで、互いの運転内容を把握して楽しむことができたり、また、自身の運転状況が公開されるため、ユーザが、より慎重な運転を心掛けるようになることが期待される。
 図32は、運転内容をゲームに反映させる場合について説明する図である。図32に示す例では、スマートフォン6Aに、車両から取得された車両情報に含まれる運転内容をスコア化した結果が表示される。かかるスコアが、登録した友人や知人に共有され、スコアを競い合わせることで、安全運転を促進することが可能となる。運転内容のスコア化は、例えば安全運転の継続状況(「急ブレーキ、急加速せずに10km走行する」「急ブレーキ、急加速せずに100km走行する」等)に応じてスコアを与えるものであってもよい。例えば管理サーバ4は、ゲームに参加している所定の車両から車両情報を取得すると、車両情報に含まれる運転内容をスコア化し、登録されてるグループ内で(すなわち登録した友人や知人に)共有させる。
  <<4.補足>>
 以上説明した各実施形態について以下補足する。
 例えば、第1の実施形態における評価は、自動車や自動二輪車から自動車への評価に限定されず、自転車や歩行者から自動車/自動二輪車への評価であってもよい。また、対象車両の評価情報は、自転車や歩行者に提示されてもよい。
 また、本実施形態による情報処理システムは、評価が著しく悪い(例えば複数のユーザから危険認識された)車両は自動運転モードに強制的に切り替え、駐車場等へ移動させてもよい。
 また、本実施形態による情報処理システムは、蓄積された運転者の評価情報に応じて保険料のキャッシュバックが受けとれるようにしてもよい。
 また、本実施形態による情報処理システムは、他車両から評価された際の自車両の運転状況や周囲の様子を撮像した撮像画像を当該評価と紐付けて記憶し、後で再生できるようにしてもよい。
 また、本実施形態による情報処理システムは、不当な評価の防止のため、自車両への評価情報と、自車両の運転状況との整合性を検証し、信頼性が低い評価は運転者に通知しないようにしてもよい。また、情報処理システムは、過去の運転状況と評価実施との関係から、運転状況に応じた評価実施の確率を学習し、実施確率の低い時に行われた他車両からの評価は表示しないようにしてもよい。
 また、本実施形態による情報処理システムは、表示する評価情報の種類を運転者に選択させてもよい。また、情報処理システムは、運転者が知りたがっていると推定される情報を提示した際の運転者のフィードバックを学習し、推定精度を高めることも可能である。
 また、他車両の蓄積された評価情報の表示方法は上述した例に限定されず、例えば本実施形態による情報処理システムは、評価情報に基づく他車両の優良度や危険度を、星の数やドクロマーク等で表示してもよい。また、本実施形態による情報処理システムは、危険と判断した車両について、その理由(蛇行運転、眠そう、集中力が落ちている、車間距離が短い等)をテキストやアイコンで運転者に明示するようにしてもよい。また、表示される他車両の評価コメントは、直近の評価コメントに限定されず、例えば複数のコメントを順次切り替えて(例えばTicker方式)表示してもよい。
 また、本実施形態による情報処理システムは、他車両の情報として、他車両のアクション(方向指示器、ハザード、クラクション、パッシング等)の種類をアイコンやアニメーションで表示してもよい。また、離れた場所でクラクションが鳴らされた場合、運転者はどの車がクラクションを鳴らしたのか分からないが、本実施形態による情報処理システムは、クラクションを鳴らした車の周囲にいる他車両の情報を統合することで、認識し、運転者にTop View画面等で提示することが可能である。
 また、本実施形態による情報処理システムは、上述した各実施形態を組み合わせて、複数種類の情報を運転者に通知してもよい。例えば、周辺の車両の評価情報と速度情報が併せて表示されてもよい。また、運転状況や周囲の状況に応じて情報表示の優先度を付けて、優先度の高いものが表示されるようにしてもよい。例えば交差点では、交差点で想定される事故防止のために有用な情報が優先的に表示される。
 <<5.ハードウェア構成例>>
 本開示に係る技術は、様々な製品へ応用可能である。例えば、情報処理装置100は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の車両に搭載される装置として実現されてもよい。また、情報処理装置100の少なくとも一部の構成要素は、車両に搭載される装置のためのモジュール(例えば、1つのダイで構成される集積回路モジュール)において実現されてもよい。
  <5-1.車両制御システムの構成例>
 図33は、本開示に係る技術が適用され得る車両制御システム900の概略的な構成の一例を示すブロック図である。車両制御システム900は、電子制御ユニット902、ストレージ装置904、入力装置906、車外センサ908、車両状態センサ910、搭乗者センサ912、通信IF914、出力装置916、動力生成装置918、制動装置920、ステアリング922及びランプ作動装置924を備える。
 電子制御ユニット902は、演算処理装置及び制御装置として機能し、各種プログラムに従って車両制御システム900内の動作全般を制御する。電子制御ユニット902は、後述するストレージ装置904と合わせて、ECU(Electronic Control Unit)として形成され得る。ECU(即ち、電子制御ユニット902及びストレージ装置904)は、車両制御システム900内に複数含まれてもよい。例えば、各種センサ類又は各種駆動系の各々に、それらを制御するためのECUが設けられ、それら複数のECUを協調的に制御するECUがさらに設けられてもよい。これら複数のECU間は、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexray等の任意の規格に準拠した車載通信ネットワークを介して接続される。電子制御ユニット902は、例えば、図2に示す制御部110を形成し得る。
 ストレージ装置904は、車両制御システム900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置904は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置904は、電子制御ユニット902が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置904は、例えば、図2に示す記憶部150を形成し得る。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、搭乗者(ドライバー又は同乗者)によって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。また、入力装置906は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、電子制御ユニット902に出力する入力制御回路などを含んでいてもよい。搭乗者は、この入力装置906を操作することにより、車両制御システム900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置906は、例えば、図2に示す入力部130を形成し得る。
 車外センサ908は、車外の情報を検出するセンサによって実現される。例えば、車外センサ908は、ソナー装置、レーダ装置、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置、カメラ、ステレオカメラ、ToF(Time Of Flight)カメラ、赤外線センサ、環境センサ、マイク等を含んでいてもよい。車外センサ908は、例えば、図3に示すセンサ1302を形成し得る。
 車両状態センサ910は、車両状態に関する情報を検出するセンサによって実現される。例えば、車両状態センサ910は、アクセル開度、ブレーキ踏圧力、又はステアリング操舵角等の運転者による操作を検出するセンサを含んでいてもよい。また、車両状態センサ910は、内燃機関又はモータの回転数又はトルク等の、動力源の状態を検出するセンサを含んでいてもよい。また、車両状態センサ910は、ジャイロセンサ又は加速度センサ等の車両の動きに関する情報を検出するためのセンサを含んでいてもよい。また、車両状態センサ910は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して装置の緯度、経度及び高度を含む位置情報を測定するGNSSモジュールを含んでもよい。なお、位置情報に関しては、車両状態センサ910は、Wi-Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、又は近距離通信等により位置を検知するものであってもよい。車両状態センサ910は、例えば、図3に示す車載機器1301を形成し得る。
 搭乗者センサ912は、搭乗者に関する情報を検出するセンサによって実現される。例えば、搭乗者センサ912は、車内に設けられたカメラ、マイク、環境センサを含んでいてもよい。また、搭乗者センサ912は、搭乗者の生体情報を検出する生体センサを含んでいてもよい。生体センサは、例えば座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングを握るドライバーの生体情報を検出可能である。搭乗者センサ912は、例えば、図3に示すセンサ1302を形成し得る。
 なお、車外センサ908、車両状態センサ910、及び搭乗者センサ912といった各種センサは、それぞれ検出結果を示す情報を電子制御ユニット902へ出力する。これら各種センサは、電子制御ユニット902による制御に基づいて、センシング範囲又は精度等の設定を行ってもよい。また、これら各種センサは、例えば撮像された撮像画像に含まれる白線位置に基づいて、道路における自車両の走行位置を認識する処理等の、生データに基づく認識処理を行う認識モジュールを含んでいてもよい。
 通信IF914は、車両制御システム900による他の装置との通信を仲介する通信インタフェースである。通信IF914は、例えばV2X通信モジュールを含み得る。なお、V2X通信とは、車車間(Vehicle to Vehicle)通信及び路車間(Vehicle to Infrastructure)通信を含む概念である。他にも、通信IF914は、無線LAN(Local Area Network)、Wi-Fi(登録商標)、3G、LTE(Long Term Evolution)、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)のための通信モジュールを含んでいてもよい。この通信IF914は、例えばインターネット又は車外の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信IF914は、例えば、図2に示す通信部120を形成し得る。
 出力装置916は、取得した情報を搭乗者に対して視覚的又は聴覚的に通知することが可能な装置で実現される。このような装置として、インストルメントパネル、ヘッドアップディスプレイ、プロジェクタ又はランプ等の表示装置や、スピーカ又はヘッドホン等の音声出力装置がある。具体的には、表示装置は、車両制御システム900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。その際、AR(Augmented Reality)オブジェクト等の仮想的なオブジェクトが表示されてもよい。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置及び上記音声出力装置は、例えば、図2に示す出力部140を形成し得る。
 動力生成装置918は、車両の駆動力を生成するための装置である。動力生成装置918は、例えば内燃機関により実現されてもよい。その場合、動力生成装置918は、電子制御ユニット902からの制御指令に基づいて、始動制御、停止制御、スロットルバルブの開度の制御、燃料噴射制御、又はEGR(Exhaust Gas Recirculation)制御等を行う。また、動力生成装置918は、例えばモータ、インバータ及びバッテリーにより実現されてもよい。その場合、動力生成装置918は、電子制御ユニット902からの制御指令に基づき、インバータを介してバッテリーからモータへ電力を供給し、正のトルクを出力させるモータ動作(いわゆる力行)と、モータにトルクを吸収させて発電し、インバータを介してバッテリーの充電を行う回生動作と、を行い得る。
 制動装置920は、車両に制動力を付与し、あるいは、車両を減速又は停止させるための装置である。制動装置920は、例えば各ホイールに設置されるブレーキ、及びブレーキペダルの踏圧力をブレーキに伝達するためのブレーキパイプ又は電気回路等を含み得る。また、制動装置920は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等のブレーキ制御による滑走又は横滑り防止機構を作動させるための制御装置を含んでいてもよい。
 ステアリング922は、車両の進行方向(操舵角)を制御するための装置である。ステアリング922は、例えばステアリングホイール、ステアリングシャフト、ステアリングギア、及びタイロッド等を含み得る。また、ステアリング922は、ドライバーによる操舵を支援するためのパワーステアリングを含み得る。さらに、ステアリング922は、自動的な操舵を実現するためのモータ等の動力源を含み得る。
 ランプ作動装置924は、ヘッドライト、ウィンカー、車幅灯、フォグライト、又はストップランプ等の各種ランプの作動させる装置である。ランプ作動装置924は、例えばランプの明滅、光量、又は照射方向等を制御する。
 なお、動力生成装置918、制動装置920、ステアリング922、及びランプ作動装置924は、ドライバーによる手動操作に基づいて動作してもよいし、電子制御ユニット902による自動操作に基づいて動作してもよい。
  <5-2.情報処理装置の構成例>
 図34は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図34に示す情報処理装置1000は、例えば、図28に示した管理サーバ4を実現し得る。本実施形態に係る管理サーバ28による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図34に示すように、情報処理装置1000は、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003及びホストバス1004aを備える。また、情報処理装置1000は、ブリッジ1004、外部バス1004b、インタフェース1005、入力装置1006、出力装置1007、ストレージ装置1008、ドライブ1009、接続ポート1011及び通信装置1013を備える。情報処理装置1000は、CPU1001に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU1001は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータ等を記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。
 CPU1001、ROM1002及びRAM1003は、CPUバスなどを含むホストバス1004aにより相互に接続されている。ホストバス1004aは、ブリッジ1004を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス1004bに接続されている。なお、必ずしもホストバス1004a、ブリッジ1004および外部バス1004bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置1006は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置1006は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置1000の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置1006は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などを含んでいてもよい。情報処理装置1000のユーザは、この入力装置1006を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置1007は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置1007は、例えば、情報処理装置1000が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置1000が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 ストレージ装置1008は、情報処理装置1000の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置1008は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置1008は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置1008は、CPU1001が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
 ドライブ1009は、記憶媒体用リーダライタであり、情報処理装置1000に内蔵、あるいは外付けされる。ドライブ1009は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM1003に出力する。また、ドライブ1009は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート1011は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
 通信装置1013は、例えば、ネットワーク1020に接続するための通信デバイス等で形成された通信インタフェースである。通信装置1013は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置1013は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置1013は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。
 なお、ネットワーク1020は、ネットワーク1020に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク1020は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク1020は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
  <5-3.その他>
 以上、本実施形態に係る情報処理装置100又は管理サーバ28の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置100又は管理サーバ28の各機能を実現するためのコンピュータプログラムを作製し、ECU等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
  <<6.まとめ>>
 以上、図1~図34を参照して、本開示の一実施形態について詳細に説明した。上述したように、本開示の実施形態による情報処理システムでは、対象車両に対するユーザ評価に関する情報を効果的に利用することが可能となる。
 すなわち、自車両の評価情報が他車両に公開されることで、自分の評価を把握するだけでは不十分であった良い運転を心掛ける動機付けに十分な効果が期待できる。また、他車両の評価情報を知ることで、事故の未然防止や快適な走行を行うことができる。
 また、本開示の実施形態による情報処理システムでは、他車両の情報として、評価情報に限らず、速度情報、加減速情報、認識情報、行動予測認識結果、出発地/目的地、自動車保険加入情報等の車両プロファイル、運転者プロファイル等を取得し、ユーザに提示することも可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置100、または管理サーバ4に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100、または管理サーバ4の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、図2に示す情報処理装置100の制御部110による機能の一部が管理サーバ4側にあってもよい。
 また、図2および図3に示す情報処理装置100の構成は一例であって、本実施形態はこれに限定されない。例えば情報処理装置100がスマートフォンまたはタブレット端末等により実現されている場合、図3に示す構成のうち、車載機器1301、センサ1302、操作入力部1303、マイクロホン1304、表示部1401、スピーカ1402、および通信部120は車両側に設けられる。この場合、情報処理装置100は、車両側に設けられている車載機器1301、センサ1302、操作入力部1303、およびマイクロホン1304から、各種情報を取得して処理し、車両側に設けられている表示部1401またはスピーカ1402からのユーザへの通知や、車両側に設けられている通信部120から外部とデータの送受信を行うよう制御する。 
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
 前記認識した対象車両に対するユーザ評価を取得する取得部と、
 前記取得したユーザ評価を通知するための情報を生成する生成部と、
を備える、情報処理装置。
(2)
 前記認識部は、ユーザ車両に設けられたセンサからの情報に基づいて前記対象車両を認識し、
 前記情報処理装置は、
 前記認識部で認識された対象車両に関する他ユーザからの評価に関する情報を取得する他ユーザ評価取得部と、
 前記取得した所定の情報をユーザ車両においてユーザに通知するよう制御する通知制御部と、をさらに備える、前記(1)に記載の情報処理装置。
(3)
 前記他ユーザ評価取得部は、車車間通信により前記対象車両から受信した情報を取得する、前記(2)に記載の情報処理装置。
(4)
 前記生成部により生成された情報は、評価者、被評価者、および周辺の第三者のうち少なくともいずれかに通知される、前記(2)または(3)に記載の情報処理装置。
(5)
 前記認識部は、ユーザの環境情報に含まれる、視線情報、周辺情報、ユーザ車両と周囲の車両との位置関係、ユーザの集中度、ユーザ車両の走行状況、またはユーザの発話内容に基づいて、ユーザ評価対象となる対象車両を自動的に認識する、前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記取得部は、ユーザによる操作入力、音声入力、または運転操作に基づくユーザ評価を取得する、前記(2)~(5)のいずれか1項に記載の情報処理装置。
(7)
 前記通知制御部は、車内に設けられたユーザにより視認可能な表示装置または音声出力装置から通知するよう制御する、前記(2)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記情報処理装置は、
 現在運転者に前記認識された対象車両に関するどのような情報を通知すべきかを推定する推定部と、
 前記推定部による推定された情報を前記対象車両から取得するよう制御する取得制御部と、をさらに備える、前記(2)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記対象車両から取得する情報は、前記対象車両に対する他ユーザからの評価に関する情報、前記対象車両の速度情報、前記対象車両の加減速情報、前記対象車両におけるユーザ車両への認識情報、および前記対象車両の走行予測認識結果、プロファイルの少なくともいずれかである、前記(8)に記載の情報処理装置。
(10)
 前記通知制御部は、前記対象車両から取得した情報を、車内に設けられた、ユーザにより視認可能な表示装置において前記対象車両に対応して視認されるよう表示制御する、前記(8)に記載の情報処理装置。
(11)
 前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザへの警告を行うよう制御する、前記(9)または(10)に記載の情報処理装置。
(12)
 前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザ車両の走行予測結果を通知するよう制御する、前記(9)~(11)のいずれか1項に記載の情報処理装置。
(13)
 前記通知制御部は、前記対象車両へ行った評価内容、他ユーザからユーザ車両に対して行われた評価内容、または他ユーザから他車両へ行われた評価内容を、リアルタイムでユーザに通知するよう制御する、前記(2)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記情報処理装置は、ユーザ車両の運転状況をネットワーク上のサーバへ送信するよう制御する送信制御部をさらに備える、前記(2)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記取得部は、歩行者または自転車運転者による対象車両に対するユーザ評価を取得する、前記(2)に記載の情報処理装置。
(16)
 前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザに対して評価を求める通知を行うための情報を生成する、前記(2)~(15)のいずれか1項に記載の情報処理装置。
(17)
 前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザ評価の理由を生成する、前記(2)~(16)のいずれか1項に記載の情報処理装置。
(18)
 プロセッサが、
 ユーザの環境情報から対象車両の情報を自動的に認識することと、
 前記認識した対象車両に対するユーザ評価を取得することと、
 前記取得したユーザ評価を通知するための情報を生成することと、
を含む、情報処理方法。
(19)
 コンピュータを、
 ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
 前記認識した対象車両に対するユーザ評価を取得する取得部と、
 前記取得したユーザ評価を通知するための情報を生成する生成部と、
として機能させるための、プログラム。
 100  情報処理装置
 110  制御部
 1101  認識部
 1102  ユーザ評価取得部
 1103  通知情報生成部
 1104  通知制御部
 120  通信部
 1201  車車間通信部
 1202  路車間通信部
 1203  ネットワークI/F部
 130  入力部
 1301  車載機器
 1302  センサ
 1303  操作入力部
 1304  マイクロホン
 140  出力部
 1401  表示部
 1402  スピーカ
 150  記憶部
 10  車両
 4  管理サーバ

Claims (19)

  1.  ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
     前記認識した対象車両に対するユーザ評価を取得する取得部と、
     前記取得したユーザ評価を通知するための情報を生成する生成部と、
    を備える、情報処理装置。
  2.  前記認識部は、ユーザ車両に設けられたセンサからの情報に基づいて前記対象車両を認識し、
     前記情報処理装置は、
     前記認識部で認識された対象車両に関する他ユーザからの評価に関する情報を取得する他ユーザ評価取得部と、
     前記取得した所定の情報をユーザ車両においてユーザに通知するよう制御する通知制御部と、をさらに備える、請求項1に記載の情報処理装置。
  3.  前記他ユーザ評価取得部は、車車間通信により前記対象車両から受信した情報を取得する、請求項2に記載の情報処理装置。
  4.  前記生成部により生成された情報は、評価者、被評価者、および周辺の第三者のうち少なくともいずれかに通知される、請求項2に記載の情報処理装置。
  5.  前記認識部は、ユーザの環境情報に含まれる、視線情報、周辺情報、ユーザ車両と周囲の車両との位置関係、ユーザの集中度、ユーザ車両の走行状況、またはユーザの発話内容に基づいて、ユーザ評価対象となる対象車両を自動的に認識する、請求項2に記載の情報処理装置。
  6.  前記取得部は、ユーザによる操作入力、音声入力、または運転操作に基づくユーザ評価を取得する、請求項2に記載の情報処理装置。
  7.  前記通知制御部は、車内に設けられた、ユーザにより視認可能な表示装置または音声出力装置から通知するよう制御する、請求項2に記載の情報処理装置。
  8.  前記情報処理装置は、
     現在運転者に前記認識された対象車両に関するどのような情報を通知すべきかを推定する推定部と、
     前記推定部による推定された情報を前記対象車両から取得するよう制御する取得制御部と、
    をさらに備える、請求項2に記載の情報処理装置。
  9.  前記対象車両から取得する情報は、前記対象車両に対する他ユーザからの評価に関する情報、前記対象車両の速度情報、前記対象車両の加減速情報、前記対象車両におけるユーザ車両への認識情報、および前記対象車両の走行予測認識結果、プロファイルの少なくともいずれかである、請求項8に記載の情報処理装置。
  10.  前記通知制御部は、前記対象車両から取得した情報を、車内に設けられた、ユーザにより視認可能な表示装置において前記対象車両に対応して視認されるよう表示制御する、請求項8に記載の情報処理装置。
  11.  前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザへの警告を行うよう制御する、請求項9に記載の情報処理装置。
  12.  前記通知制御部は、前記対象車両から取得した情報に基づいて、ユーザ車両の走行予測結果を通知するよう制御する、請求項9に記載の情報処理装置。
  13.  前記通知制御部は、前記対象車両へ行った評価内容、他ユーザからユーザ車両に対して行われた評価内容、または他ユーザから他車両へ行われた評価内容を、リアルタイムでユーザに通知するよう制御する、請求項2に記載の情報処理装置。
  14.  前記情報処理装置は、ユーザ車両の運転状況をネットワーク上のサーバへ送信するよう制御する送信制御部をさらに備える、請求項2に記載の情報処理装置。
  15.  前記取得部は、歩行者または自転車運転者による対象車両に対するユーザ評価を取得する、請求項2に記載の情報処理装置。
  16.  前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザに対して評価を求める通知を行うための情報を生成する、請求項2に記載の情報処理装置。
  17.  前記生成部は、前記対象車両に関する情報またはユーザの環境情報の少なくともいずれかに基づいて、前記ユーザ評価の理由を生成する、請求項2に記載の情報処理装置。
  18.  プロセッサが、
     ユーザの環境情報から対象車両の情報を自動的に認識することと、
     前記認識した対象車両に対するユーザ評価を取得することと、
     前記取得したユーザ評価を通知するための情報を生成することと、
    を含む、情報処理方法。
  19.  コンピュータを、
     ユーザの環境情報から対象車両の情報を自動的に認識する認識部と、
     前記認識した対象車両に対するユーザ評価を取得する取得部と、
     前記取得したユーザ評価を通知するための情報を生成する生成部と、
    として機能させるための、プログラム。
PCT/JP2016/067568 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム WO2017047176A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP16846049.1A EP3352154A4 (en) 2015-09-18 2016-06-13 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
CN201680052582.5A CN108028015B (zh) 2015-09-18 2016-06-13 信息处理装置、信息处理方法和存储介质
US15/750,384 US10380888B2 (en) 2015-09-18 2016-06-13 Information processing apparatus, information processing method, and program
JP2017539715A JP6690649B2 (ja) 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム
US16/505,721 US10699569B2 (en) 2015-09-18 2019-07-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-185362 2015-09-18
JP2015185362 2015-09-18

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/750,384 A-371-Of-International US10380888B2 (en) 2015-09-18 2016-06-13 Information processing apparatus, information processing method, and program
US16/505,721 Continuation US10699569B2 (en) 2015-09-18 2019-07-09 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2017047176A1 true WO2017047176A1 (ja) 2017-03-23

Family

ID=58288657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/067568 WO2017047176A1 (ja) 2015-09-18 2016-06-13 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US10380888B2 (ja)
EP (1) EP3352154A4 (ja)
JP (1) JP6690649B2 (ja)
CN (1) CN108028015B (ja)
WO (1) WO2017047176A1 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017072874A (ja) * 2015-10-05 2017-04-13 日産自動車株式会社 情報提供装置、情報提供システム及び情報提供方法
WO2018225178A1 (ja) * 2017-06-07 2018-12-13 三菱電機株式会社 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
CN109835258A (zh) * 2017-11-29 2019-06-04 通用汽车环球科技运作有限责任公司 基于通信的无照明车辆指示
JP2019127196A (ja) * 2018-01-26 2019-08-01 Kddi株式会社 周辺走行中の被観測車両の運転特性を推定するプログラム、装置及び方法
CN110097782A (zh) * 2018-01-29 2019-08-06 丰田自动车株式会社 代理控制器和代理协作方法
WO2019172289A1 (ja) * 2018-03-08 2019-09-12 東芝デジタルソリューションズ株式会社 隊列走行運用システムおよび隊列走行運用方法
JP2020034996A (ja) * 2018-08-27 2020-03-05 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JPWO2019039212A1 (ja) * 2017-08-23 2020-09-17 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2020208696A1 (ja) * 2019-04-09 2020-10-15 三菱電機株式会社 情報記録制御装置および情報記録制御方法
JPWO2020230313A1 (ja) * 2019-05-15 2020-11-19
JP2020197831A (ja) * 2019-05-31 2020-12-10 Necプラットフォームズ株式会社 運転マナー評価提示装置、運転マナー評価提示方法、運転マナー評価システム、および運転マナー評価提示プログラム
CN112776713A (zh) * 2019-11-07 2021-05-11 丰田自动车株式会社 车辆、声响控制装置以及计算机可读取非暂存记录介质
WO2021111753A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2021516396A (ja) * 2018-03-27 2021-07-01 杭州欧▲雷▼激光技▲術▼有限公司 車両外部環境情報を検出するための検出システム及び検出方法
JP2021520541A (ja) * 2018-04-04 2021-08-19 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 周囲のビークルの観察を使用して交通フローを判定するためのシステム及び方法
JPWO2021186853A1 (ja) * 2020-03-19 2021-09-23
JPWO2021044486A1 (ja) * 2019-09-02 2021-11-25 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP2022026230A (ja) * 2020-07-30 2022-02-10 株式会社デンソー 運転支援装置、運転支援プログラム、運転訓練プログラム及び情報管理プログラム
JP2022071799A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理方法及び情報処理システム
WO2022102374A1 (ja) * 2020-11-16 2022-05-19 株式会社小糸製作所 車両用表示システム
WO2022249917A1 (ja) * 2021-05-26 2022-12-01 株式会社デンソー 車両用制御装置及び車両用制御方法
CN115624008A (zh) * 2022-07-08 2023-01-20 珠海科艺普检测科技有限公司 一种基于生物信息技术的大口黑鲈鱼的鱼苗智能检测方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635428B2 (ja) * 2015-05-20 2020-01-22 修一 田山 自動車周辺情報表示システム
US10380888B2 (en) * 2015-09-18 2019-08-13 Sony Corporation Information processing apparatus, information processing method, and program
US10479373B2 (en) * 2016-01-06 2019-11-19 GM Global Technology Operations LLC Determining driver intention at traffic intersections for automotive crash avoidance
JP6650635B2 (ja) * 2016-02-29 2020-02-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
US11001271B2 (en) * 2016-07-12 2021-05-11 Honda Motor Co., Ltd. Drive assistance device
US9919648B1 (en) 2016-09-27 2018-03-20 Robert D. Pedersen Motor vehicle artificial intelligence expert system dangerous driving warning and control system and method
KR101973627B1 (ko) * 2017-07-11 2019-04-29 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US11315415B2 (en) * 2017-09-03 2022-04-26 Innovart Design Inc. Information sharing system and information sharing method for vehicle
KR102029906B1 (ko) * 2017-11-10 2019-11-08 전자부품연구원 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
JP7043845B2 (ja) * 2018-01-17 2022-03-30 トヨタ自動車株式会社 車両用表示連携制御装置
USD914734S1 (en) * 2018-02-05 2021-03-30 St Engineering Land Systems Ltd Display screen or portion thereof with graphical user interface
JP7006527B2 (ja) 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
CN108924624B (zh) * 2018-08-03 2021-08-31 百度在线网络技术(北京)有限公司 信息处理方法和装置
JP7192398B2 (ja) * 2018-10-31 2022-12-20 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、および情報処理方法
CN111161554A (zh) * 2018-11-07 2020-05-15 北京宝沃汽车有限公司 信息发送的方法和装置
JP7206854B2 (ja) * 2018-11-29 2023-01-18 トヨタ自動車株式会社 情報提供システム、サーバ、携帯端末、プログラム及び情報提供方法
JP2020101869A (ja) * 2018-12-19 2020-07-02 本田技研工業株式会社 制御装置及びプログラム
JP7158502B2 (ja) * 2019-01-17 2022-10-21 三菱電機株式会社 情報処理装置、および情報処理システム
US11423779B2 (en) 2019-02-15 2022-08-23 Ford Global Technologies, Llc Vehicle detection systems and methods
JP7088076B2 (ja) * 2019-02-25 2022-06-21 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
CN109801508B (zh) * 2019-02-26 2021-06-04 百度在线网络技术(北京)有限公司 路口处障碍物的运动轨迹预测方法及装置
US10933317B2 (en) * 2019-03-15 2021-03-02 Sony Interactive Entertainment LLC. Near real-time augmented reality video gaming system
CN111753580A (zh) * 2019-03-27 2020-10-09 北京外号信息技术有限公司 光通信装置的识别方法和相应的电子设备
CN111756783B (zh) * 2019-03-29 2021-11-12 比亚迪股份有限公司 终端的信息推送方法、服务器和终端的信息推送系统
US10839682B1 (en) * 2019-04-26 2020-11-17 Blackberry Limited Method and system for traffic behavior detection and warnings
US11403949B2 (en) * 2019-05-09 2022-08-02 Hitachi Astemo, Ltd. System for predicting vehicle behavior
US11001200B2 (en) * 2019-05-30 2021-05-11 Nissan North America, Inc. Vehicle occupant warning system
US11603098B2 (en) * 2019-08-27 2023-03-14 GM Global Technology Operations LLC Systems and methods for eye-tracking data collection and sharing
US20210061276A1 (en) * 2019-08-27 2021-03-04 GM Global Technology Operations LLC Systems and methods for vehicle operator intention prediction using eye-movement data
USD948552S1 (en) * 2019-09-06 2022-04-12 Kubota Corporation Display screen for tractor with graphical user interface
WO2021070768A1 (ja) * 2019-10-09 2021-04-15 ソニー株式会社 情報処理装置、および情報処理システム、並びに情報処理方法
US11555711B2 (en) * 2020-04-11 2023-01-17 Harman Becker Automotive Systems Gmbh Systems and methods for augmented reality in a vehicle
DE102020210238A1 (de) 2020-08-12 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Warnen von Verkehrsteilnehmern mit einer Umfeldüberwachung eines in Betrieb befindlichen Fahrzeugs und Vorrichtung zur Ausführung des Verfahrens
US11830489B2 (en) 2021-06-30 2023-11-28 Bank Of America Corporation System and method for speech processing based on response content
CN118139775A (zh) * 2021-10-20 2024-06-04 三星电子株式会社 安装在车辆上的电子设备及其操作方法
CN114248806A (zh) * 2022-01-13 2022-03-29 云控智行科技有限公司 一种无人车驾驶控制方法、装置及电子设备
CN115230581B (zh) * 2022-06-22 2024-05-24 东风柳州汽车有限公司 车辆转弯报警方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126954A (ja) * 2006-11-24 2008-06-05 Tokai Rika Co Ltd 意思伝達装置
JP2012252407A (ja) * 2011-05-31 2012-12-20 Nissan Motor Co Ltd 車両用通行支援装置及び車両用通行支援方法
JP2013152524A (ja) * 2012-01-24 2013-08-08 Denso Corp 車車間通信装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034897A (ja) * 1999-07-21 2001-02-09 Toyota Central Res & Dev Lab Inc 運転支援システム
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4655730B2 (ja) * 2005-04-07 2011-03-23 トヨタ自動車株式会社 車両用運転支援装置
JP2012150557A (ja) 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP5621682B2 (ja) 2011-03-29 2014-11-12 株式会社デンソー 車載用情報提示装置
DE112012004767T5 (de) * 2011-11-16 2014-11-06 Flextronics Ap, Llc Vollständiges Fahrzeugökosystem
WO2013128920A1 (ja) * 2012-02-27 2013-09-06 ヤマハ発動機株式会社 運転状態共有装置および運転状態共有システム
US20140310379A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle initiated communications with third parties via virtual personality
DE102012014457A1 (de) * 2012-07-21 2014-01-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
US20140080098A1 (en) * 2012-09-14 2014-03-20 Hyundai Motor Company System and method of evaluating and reporting the driving acuity and performance of a test subject
CN103198685B (zh) * 2013-03-15 2016-04-13 Tcl康钛汽车信息服务(深圳)有限公司 一种实现驾驶安全预警的方法、系统
US20140322676A1 (en) * 2013-04-26 2014-10-30 Verizon Patent And Licensing Inc. Method and system for providing driving quality feedback and automotive support
EP3114574A4 (en) * 2014-03-03 2018-03-07 Inrix, Inc. Traffic obstruction detection
US10380888B2 (en) * 2015-09-18 2019-08-13 Sony Corporation Information processing apparatus, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126954A (ja) * 2006-11-24 2008-06-05 Tokai Rika Co Ltd 意思伝達装置
JP2012252407A (ja) * 2011-05-31 2012-12-20 Nissan Motor Co Ltd 車両用通行支援装置及び車両用通行支援方法
JP2013152524A (ja) * 2012-01-24 2013-08-08 Denso Corp 車車間通信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3352154A4 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017072874A (ja) * 2015-10-05 2017-04-13 日産自動車株式会社 情報提供装置、情報提供システム及び情報提供方法
WO2018225178A1 (ja) * 2017-06-07 2018-12-13 三菱電機株式会社 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
JP7188389B2 (ja) 2017-08-23 2022-12-13 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPWO2019039212A1 (ja) * 2017-08-23 2020-09-17 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN109835258A (zh) * 2017-11-29 2019-06-04 通用汽车环球科技运作有限责任公司 基于通信的无照明车辆指示
JP2019127196A (ja) * 2018-01-26 2019-08-01 Kddi株式会社 周辺走行中の被観測車両の運転特性を推定するプログラム、装置及び方法
CN110097782A (zh) * 2018-01-29 2019-08-06 丰田自动车株式会社 代理控制器和代理协作方法
JP2019159492A (ja) * 2018-03-08 2019-09-19 東芝デジタルソリューションズ株式会社 隊列走行運用システムおよび隊列走行運用方法
WO2019172289A1 (ja) * 2018-03-08 2019-09-12 東芝デジタルソリューションズ株式会社 隊列走行運用システムおよび隊列走行運用方法
US11941991B2 (en) 2018-03-08 2024-03-26 Toshiba Digital Solutions Corporation Platooning operation system and platooning operation method
JP7134649B2 (ja) 2018-03-08 2022-09-12 東芝デジタルソリューションズ株式会社 隊列走行運用システムおよび隊列走行運用方法
JP2021516396A (ja) * 2018-03-27 2021-07-01 杭州欧▲雷▼激光技▲術▼有限公司 車両外部環境情報を検出するための検出システム及び検出方法
JP2021520541A (ja) * 2018-04-04 2021-08-19 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 周囲のビークルの観察を使用して交通フローを判定するためのシステム及び方法
JP7179866B2 (ja) 2018-04-04 2022-11-29 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 周囲のビークルの観察を使用して交通フローを判定するためのシステム及び方法
JP2020034996A (ja) * 2018-08-27 2020-03-05 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7475808B2 (ja) 2018-08-27 2024-04-30 Lineヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
WO2020208696A1 (ja) * 2019-04-09 2020-10-15 三菱電機株式会社 情報記録制御装置および情報記録制御方法
JPWO2020208696A1 (ja) * 2019-04-09 2021-09-13 三菱電機株式会社 情報記録制御装置および情報記録制御方法
JP7140278B2 (ja) 2019-05-15 2022-09-21 日産自動車株式会社 表示制御方法及び表示制御装置
JPWO2020230313A1 (ja) * 2019-05-15 2020-11-19
JP2020197831A (ja) * 2019-05-31 2020-12-10 Necプラットフォームズ株式会社 運転マナー評価提示装置、運転マナー評価提示方法、運転マナー評価システム、および運転マナー評価提示プログラム
JPWO2021044486A1 (ja) * 2019-09-02 2021-11-25 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP7330278B2 (ja) 2019-09-02 2023-08-21 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP2021077029A (ja) * 2019-11-07 2021-05-20 トヨタ自動車株式会社 車両、音響制御装置、及び音響制御プログラム
CN112776713A (zh) * 2019-11-07 2021-05-11 丰田自动车株式会社 车辆、声响控制装置以及计算机可读取非暂存记录介质
JP7268581B2 (ja) 2019-11-07 2023-05-08 トヨタ自動車株式会社 車両、音響制御装置、及び音響制御プログラム
WO2021111753A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
JPWO2021186853A1 (ja) * 2020-03-19 2021-09-23
WO2021186853A1 (ja) * 2020-03-19 2021-09-23 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
JP2022026230A (ja) * 2020-07-30 2022-02-10 株式会社デンソー 運転支援装置、運転支援プログラム、運転訓練プログラム及び情報管理プログラム
JP7463896B2 (ja) 2020-07-30 2024-04-09 株式会社デンソー 運転支援装置、運転支援プログラム、運転訓練プログラム及び情報管理プログラム
JP7170076B2 (ja) 2020-10-28 2022-11-11 株式会社日本総合研究所 情報処理方法及び情報処理システム
JP2022071799A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理方法及び情報処理システム
WO2022102374A1 (ja) * 2020-11-16 2022-05-19 株式会社小糸製作所 車両用表示システム
WO2022249917A1 (ja) * 2021-05-26 2022-12-01 株式会社デンソー 車両用制御装置及び車両用制御方法
JP7517248B2 (ja) 2021-05-26 2024-07-17 株式会社デンソー 車両用制御装置及び車両用制御方法
CN115624008A (zh) * 2022-07-08 2023-01-20 珠海科艺普检测科技有限公司 一种基于生物信息技术的大口黑鲈鱼的鱼苗智能检测方法
CN115624008B (zh) * 2022-07-08 2023-09-05 珠海科艺普检测科技有限公司 一种基于生物信息技术的大口黑鲈鱼的鱼苗智能检测方法

Also Published As

Publication number Publication date
EP3352154A4 (en) 2019-08-07
US20190333380A1 (en) 2019-10-31
US10699569B2 (en) 2020-06-30
EP3352154A1 (en) 2018-07-25
US10380888B2 (en) 2019-08-13
CN108028015B (zh) 2021-07-23
JP6690649B2 (ja) 2020-04-28
US20180225963A1 (en) 2018-08-09
CN108028015A (zh) 2018-05-11
JPWO2017047176A1 (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
US10699569B2 (en) Information processing apparatus, information processing method, and program
JP7399075B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11295143B2 (en) Information processing apparatus, information processing method, and program
JP6962316B2 (ja) 情報処理装置、情報処理方法、プログラム、およびシステム
CN111361552B (zh) 自动驾驶系统
JP2021185486A (ja) 車両に安全に追い付けるように運転を支援するシステムおよび方法
JP6693354B2 (ja) 車両用情報提示装置
JP6269360B2 (ja) 運転支援システム及び運転支援方法
WO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP7035447B2 (ja) 車両制御装置
CN112789205B (zh) 针对自动驾驶车辆检测队列并对队列进行响应
JP2018005797A (ja) 運転支援方法およびそれを利用した運転支援装置、運転支援システム、自動運転制御装置、車両、プログラム
CN113401071A (zh) 显示控制装置、显示控制方法以及计算机可读取存储介质
JP2012103849A (ja) 情報提供装置
CN114572219B (zh) 自动超车方法、装置、车辆、存储介质及芯片
JP2024066121A (ja) 運転支援装置、運転支援方法、およびプログラム
JP2014106037A (ja) 車載情報提供装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16846049

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017539715

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15750384

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016846049

Country of ref document: EP