WO2008038374A1 - Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur - Google Patents

Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur Download PDF

Info

Publication number
WO2008038374A1
WO2008038374A1 PCT/JP2006/319340 JP2006319340W WO2008038374A1 WO 2008038374 A1 WO2008038374 A1 WO 2008038374A1 JP 2006319340 W JP2006319340 W JP 2006319340W WO 2008038374 A1 WO2008038374 A1 WO 2008038374A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
pseudo
pseudo emotion
emotion
driving
Prior art date
Application number
PCT/JP2006/319340
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to PCT/JP2006/319340 priority Critical patent/WO2008038374A1/ja
Priority to JP2008536255A priority patent/JP4790020B2/ja
Publication of WO2008038374A1 publication Critical patent/WO2008038374A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18172Preventing, or responsive to skidding of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system

Definitions

  • Pseudo emotion output device Pseudo emotion output device, pseudo emotion output method, pseudo emotion output program, and computer-readable recording medium
  • the present invention relates to a pseudo emotion output device, a pseudo emotion output method, a pseudo emotion output program, and a computer-readable recording medium that output pseudo emotion of a passenger on a moving body.
  • use of the present invention is not limited to the above-described pseudo emotion output device, pseudo emotion output method, pseudo emotion output program, and computer-readable recording medium.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-251699
  • the pseudo emotion output device includes an acquisition means for acquiring driving tendency information of a driver of the moving body, and driving of the moving body.
  • Detection means for detecting specific behavior information in the vehicle, and when the specific behavior information is detected by the detection means, the mobile object is detected based on at least one of the driving tendency information and the specific behavior information. It is characterized by comprising: a determination means for determining a pseudo emotion from among emotion candidates held by a boarding passenger; and an output means for performing an output relating to the pseudo emotion determined by the determination means.
  • the pseudo emotion output method obtains the driving direction information of the driver of the moving body and detects specific behavior information during driving of the moving body.
  • specific behavior information is detected by the detection step and the detection step, a passenger who is boarding the moving body is based on at least one of the driving tendency information and the specific behavior information.
  • a pseudo emotion output program according to the invention of claim 11 causes a computer to execute the pseudo emotion output method according to claim 10.
  • a computer-readable recording medium according to the invention of claim 12 records the pseudo emotion output program according to claim 11.
  • FIG. 1 is a block diagram showing an example of a functional configuration of a pseudo emotion output device according to the present embodiment.
  • FIG. 2 is a flowchart showing the contents of processing of the pseudo emotion output device according to the present embodiment.
  • FIG. 3 is an explanatory view showing an example of the vicinity of a dashboard of a vehicle in which a navigation device that is effective in the present embodiment is installed.
  • FIG. 4 shows an example of a hardware configuration of a navigation device that is effective in this embodiment.
  • FIG. 5 is an explanatory diagram showing determination of pseudo emotions corresponding to driving tendency and specific behavior in the navigation device emphasizing this embodiment.
  • FIG. 6 is a flowchart showing the contents of the processing of the navigation device which is effective in the present embodiment.
  • FIG. 1 is a block diagram showing an example of a functional configuration of the pseudo emotion output device according to the present embodiment.
  • pseudo emotion output device 100 includes acquisition unit 101, detection unit 102, and determination unit 10.
  • the acquisition unit 101 acquires driving tendency information of a driver of a moving object.
  • the driving tendency information is information including, for example, the driving skill of the driver, and the tendency of driving intensity and quietness.
  • the acquisition of driving tendency information may be performed by acquiring driving tendency information from the driving history of the driver by authenticating the driver driving the mobile object. More specifically, for example, the acquisition of driving tendency information may be configured to acquire the driving skill and tendency of the driver from the past driving history of the authenticated driver. [0017] Further, the driving tendency information may be acquired based on, for example, an output value of a sensor related to driving behavior during driving of the mobile object. More specifically, for example, the acquisition of driving tendency information is based on whether the driving tendency is determined by determining the driving tendency based on an output value from a G sensor acceleration sensor (not shown) during driving. It may be acquired by judging the tendency of power driving such as the video of the camera to be photographed and the sound of the microphone.
  • the detection unit 102 detects specific behavior information during operation of the moving object.
  • the specific behavior information is, for example, a sudden event that has occurred in the moving body, and may be a collision with another object, a sudden acceleration (decrease) speed, or a sudden change in traveling direction.
  • the specific behavior information may be detected according to the output value of a G sensor or an acceleration sensor (not shown). It's okay.
  • the determination unit 103 When the specific behavior information is detected by the detection unit 102, the determination unit 103, based on at least one of the driving tendency information and the specific behavior information, is a driver or a passenger boarding the moving body.
  • the pseudo emotions are determined from the emotion candidates that the passengers have.
  • the determination unit 103 may be configured to determine the driver's pseudo emotion driving the moving body, or to determine the passenger's pseudo emotion riding on the moving body. Further, the determination unit 103 may determine, for example, a combination of pseudo emotions having two or more powers.
  • pseudo emotions may be determined based on information generated by combining both information, which may be determined based on either driving tendency information or specific behavior information.
  • the pseudo emotion is, for example, a pseudo emotion that a driver or a passenger will have when driving tendency information or specific behavior information is detected. Further, for example, it may be a pseudo emotion that a driver or a passenger will have when specific behavior information is detected under the condition of driving tendency in driving tendency information. For example, it may be a series of pseudo emotions that change over time as the detected driving tendency continues. In addition, the driver and the passenger here may be either when they are actually on the moving body or when they are not. In other words, for example, the pseudo emotion is in the passenger seat Even if there is no passenger, it may be an emotion that would be held by a passenger in the passenger seat, or an emotion that would be held by a person who was not actually a driver.
  • the emotion candidates may be set in association with driving tendency information and specific behavior information, and a table that is a setting source may be rewritten on a recording medium or the like, not shown. It may be recorded as possible and read as necessary.
  • the output unit 104 performs output related to the pseudo emotion determined by the determination unit 103.
  • the mode of output related to the pseudo emotion may be a mode determined for each pseudo emotion, or a plurality of output modes are prepared for each pseudo emotion. For example, the output of the pseudo emotion is considered in consideration of the driver's attributes. A mode may be selected. Further, for example, an output mode different from the previous mode may be selected so that the same output mode is not continued.
  • the output unit 104 may perform output related to the combination.
  • the output unit 104 outputs a control signal for controlling a drive unit (not shown) that drives to show the pseudo emotion according to the pseudo emotion determined by the determination unit 103. More specifically, for example, the output unit 104 may output a control signal related to at least one of light output, action output, and sound output so as to indicate a pseudo emotion.
  • the output unit 104 may be configured to output a control signal for controlling the robot so as to show a pseudo emotion by a robot mounted on a moving body, for example.
  • the driver attributes for example, the personality of the driver at the time of driving operation may be authenticated from the past driving operation history, and the output mode related to the pseudo emotion may be selected in consideration of the personality. For example, if you output a pseudo-emotional expression that expresses anxious feelings, but the driver's personality makes it immediately emotional, light that contains a relatively exciting element The optimum output mode may be selected in consideration of the driver's attributes, such as selecting the sound output mode without selecting the output mode.
  • FIG. 2 is a flowchart showing the contents of the process of the pseudo emotion output device that works on the present embodiment.
  • pseudo emotion output Device 100 determines whether or not the force has started driving the moving body (step S201).
  • the operation of the moving object may be determined by, for example, starting the operating part of the moving object or detecting traveling.
  • step S201 when the operation is started after waiting to start the operation (step S201: Yes), the acquisition unit 101 acquires the driving tendency information (step S202).
  • step S203 the specific behavior information during the operation of the moving body is detected by the detecting unit 102 (step S203).
  • the driving tendency information is acquired and the force specific behavior information is detected.
  • the order is not limited to this, and the driving tendency information when the specific behavior information is detected is acquired. It may be configured.
  • the mobile unit The intermediate force of the emotional suspicion held by the passenger boarding the aircraft also determines the pseudo emotion (step S204).
  • the pseudo emotion is determined from the emotion candidates held by the passenger boarding the moving body based on the driving tendency information and the specific behavior information.
  • the pseudo emotion may be determined based on either the driving tendency information or the specific behavior information.
  • the output unit 104 outputs the pseudo emotion determined in step S204 (step S205), and the series of processing ends.
  • the pseudo emotion output device, pseudo emotion output method, pseudo emotion output program, and computer-readable recording medium of the present invention realize their functions by the pseudo emotion output device 100 shown in FIG.
  • the present invention is not limited to the pseudo emotion output device 100, and a plurality of devices may be used as long as the configuration includes the functional unit shown in FIG.
  • the connection between devices may be established by communicating via Bluetooth (registered trademark), for example, wired or wireless! /.
  • the driver and passengers show feelings that the driver and passengers will have and encourage the driver to feel sympathy. If not, V and emotional support can be provided, which can reduce adverse effects on driving operations and be safe. Driving operation can be supported.
  • the motivation for the driver to be willing to drive safely by performing the output so as to indicate the pseudo emotion determined by the driving tendency information or the specific behavior information. You can manage the output that comes with it.
  • by preparing multiple output modes for each pseudo emotion it is possible to select the output more suited to the driver's attributes compared to the case where the driving tendency information and specific behavior information power are directly selected. Drivers' familiarity with uniform output can also be avoided.
  • when specific behavior information is detected it is possible to output so as to indicate the pseudo emotion determined by the driving tendency information and the specific behavior information. Can be done.
  • a pseudo emotion can be shown by outputting a control signal for controlling at least one of light output, motion output, and sound output by the robot. Can easily imagine three-dimensional simulated emotions.
  • Examples of the present invention will be described below.
  • a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.
  • FIG. 3 is an explanatory view showing an example of the vicinity of a dashboard of a vehicle in which a navigation device that is useful in this embodiment is installed.
  • the navigation device 300 is installed on the dashboard of the vehicle.
  • the navigation device 300 includes a main body M and a display unit (display) D.
  • the display unit D displays the current location of the vehicle, map information, and the current time.
  • the navigation device 300 includes a vehicle-mounted robot 3 installed on a dashboard. 10 is connected.
  • the in-vehicle robot 310 includes a camera, a lamp, a microphone, a speaker, and the like (not shown), and performs various outputs according to control of a control signal output from the navigation device 300.
  • the in-vehicle robot 310 has a shape imitating a human or an animal, for example, and includes a drive unit such as an arm on the left and right sides, and is output from the navigation device 300.
  • the operation output of the drive unit may be performed in accordance with the control of the control signal.
  • the in-vehicle robot 310 may include a drive unit that swings the top / bottom / left / right, and outputs an operation of the drive unit according to control of a control signal output from the navigation device 300. It is good as well.
  • the top of the vehicle-mounted robot 310 may function as a camera.
  • the camera can rotate in the horizontal direction and the up-down direction to capture images inside and outside the vehicle.
  • the vehicle-mounted robot 310 may be configured to include a lamp, a microphone, and a speaker in the body portion, and may perform light output and sound collection and output using a lamp, microphone, and speaker.
  • a display unit for displaying images, characters, and the like may be provided, and a function for speaking words may be provided.
  • the vehicle-mounted robot 310 may be lit and flashed in various colors in accordance with control of a control signal output from the navigation device 300 that may emit light entirely or partially.
  • the vehicle-mounted robot 310 outputs various outputs in accordance with control of the control signal output from the navigation device 300, thereby showing the suspicious emotion to the driver. It becomes composition.
  • Mouth Determine the operating program for bot 310. Then, the vehicle-mounted robot 310 that operates according to the determined operation program can prompt the driver to improve driving.
  • the vehicle-mounted robot 310 may be configured to acquire information indicating the situation inside and outside the vehicle, determine a pseudo emotion, and output it.
  • the information indicating the situation inside and outside the vehicle is, for example, Information based on the image of the camera that captures the outside may also be used, and information on sensor power for monitoring the inside and outside of the vehicle and information based on the sound collected by the microphone may be used.
  • information based on information obtained from the media or the Internet may be used based on information obtained from car navigation capabilities.
  • Information indicating the situation inside and outside the vehicle includes, for example, the distance between the front and rear vehicles, information on obstacles ahead on the road, information on the status of passengers in the rear seats, information on right and left turn points, traffic congestion information, etc. It is.
  • the structure which determines and outputs a pseudo emotion combining the information which shows the condition inside and outside a vehicle, driving tendency information, and specific behavior information may be sufficient.
  • the vehicle-mounted robot 310 as a passenger who is anxious to the driver, such as when a child or a pet is on the vehicle, the driver feels relaxed and tries to drive safely. Can be motivated to do.
  • the in-vehicle robot 310 acquires the driving situation and expresses emotions such as joy and anxiety according to the driving situation, so that the in-vehicle robot sympathizes with the driver about the driving situation. With the effect of feeling like this, the driver is motivated to receive the emotional expression, and will improve if it is rough and driving, and will continue if it is driving.
  • the vehicle-mounted robot 310 shows a passenger's pseudo emotion, it expresses an emotion that encourages if it is poor driving, and expresses an emotion that compliments if it is good driving. In this way, the driver performs driving while eliminating anxiety even if the driving is poor, and improves driving if the driving is good.
  • FIG. 4 is a block diagram showing an example of a hardware configuration of a navigation apparatus that works on the present embodiment.
  • a navigation device 300 is mounted on a moving body such as a vehicle, and includes a CPU 401, a ROM 402, a RAM 403, a magnetic disk drive 404, a magnetic disk 405, and an optical disk drive 406. , Optical disc 407, audio IZF (interface) 408, microphone 409, speaker 410, input device 411, video IZF412, display 413, communication IZF414, GPS unit 415, various sensors 416, camera 417 and a drive unit 418. Each component 401 to 418 is connected by a bus 420.
  • the CPU 401 governs overall control of the navigation device 300.
  • the ROM 402 stores programs such as a boot program, a route search program, a route guidance program, a voice generation program, a map information display program, and an operation program.
  • the RAM 403 is used as a work area for the CPU 401.
  • the route search program searches for an optimum route from the departure point to the destination point using map information or the like recorded on the optical disc 407 to be described later.
  • the optimal route is the shortest (or fastest) route to the destination or the route that best meets the conditions specified by the user.
  • the guidance route searched by executing the route search program is output to the audio IZF 408 and the video IZF 412 via the CPU 401.
  • the route guidance program includes the guidance route information searched by executing the route search program, the current location information of the navigation device 300 acquired by the communication IZF 414, and the map information read from the optical disc 407. Based on this, real-time route guidance information is generated.
  • the route guidance information generated by executing the route guidance program is output to the audio IZF 408 and the video IZF 412 via the CPU 401.
  • the voice generation program generates tone and voice information corresponding to the pattern. . That is, based on the route guidance information generated by executing the route guidance program, the virtual sound source corresponding to the guidance point is set and the voice guidance information is generated, and output to the voice IZF 408 via the CPU 401.
  • the map information display program determines the display format of the map information displayed on the display 413 by the video I / F 412 and displays the map information on the display 413 according to the determined display format.
  • the operation program drives a drive unit 418, which will be described later, based on the driving tendency and specific behavior of the vehicle. Details will be described with reference to FIG. 5 and FIG. 6, but the motion program selects and executes the motion program so that, for example, the driving unit 418 shows a pseudo emotion selected by a driving tendency or a specific behavior. .
  • the magnetic disk drive 404 controls reading and writing of data to the magnetic disk 405 according to the control of the CPU 401.
  • the magnetic disk 405 records data written under the control of the magnetic disk drive 404.
  • the magnetic disk 405 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 406 controls data reading / writing to the optical disk 407 in accordance with the control of the CPU 401.
  • the optical disc 407 is a detachable recording medium from which data is read according to the control of the optical disc drive 406.
  • the optical disk 407 can also use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disc 407, a memory card, or the like.
  • map information used for route search and route guidance.
  • the map information includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road, and can be displayed in two or three dimensions on the display screen of the display 413. To be drawn.
  • the navigation device 300 is guiding a route, the map information and the current location of the vehicle acquired by the GPS queue 415 described later are displayed in an overlapping manner.
  • the map information is recorded on the magnetic disk 405 and the optical disk 407.
  • the map information is not recorded in the navigation device 300 and is not limited to the one that is integrated with the hardware.
  • the apparatus 300 may be provided outside. In that case, the navigation device 300 acquires the map information via the network through the communication IZF 414, for example.
  • the acquired map information is stored in the RAM 403 or the like.
  • the audio IZF 408 is connected to a microphone 409 for audio input and a speaker 410 for audio output. Audio received by the microphone 409 is AZD converted in the audio IZF408. In addition, sound is output from the speaker 410. Note that the voice input from the microphone 409 can be recorded on the magnetic disk 405 or the optical disk 407 as voice data.
  • the microphone 409 and the speaker 410 may be installed in a drive unit 418 described later (for example, the vehicle-mounted robot 310 in FIG. 3), and may be rotationally driven according to the control of the operation program described above. It is also possible to input / output audio.
  • Examples of the input device 411 include a remote controller, a keyboard, a mouse, and a touch panel, each having a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the video I / F 412 is connected to the display 413 and the camera 417.
  • the video I / F 412 includes, for example, a graphic controller that controls the entire display 413, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic Based on image data output from the controller, it is configured by a control IC that controls display of the display 413.
  • VRAM Video RAM
  • the display 413 displays icons, cursors, menus, windows, or various data such as characters and images.
  • this display 413 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.
  • the display 41 3 is installed, for example, in a manner like the display unit D in FIG.
  • the display 413 and the camera 417 are, for example, photographed according to the control of the operation program described above, which may be installed in a drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) described later. Or light output.
  • the camera 417 captures an image inside or outside the vehicle.
  • the image may be either a still image or a moving image.
  • the behavior of the passenger inside the vehicle may be photographed by the camera 417, or the situation outside the vehicle may be photographed.
  • Filmed the image may be output to a recording medium such as the magnetic disk 405 or the optical disk 407 via the video IZF 412 or used for determination of driving tendency or specific behavior described later.
  • the communication IZF 414 is connected to a network via radio and functions as an interface between the navigation device 300 and the CPU 401.
  • the communication IZF 414 is further connected to a communication network such as the Internet via radio, and also functions as an interface between the communication network and the CPU 401.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication IZF414 is composed of, for example, FM tuner, VICS (Vehicle Information and Communication System) Z beacon Resino, wireless navigation device, and other navigation devices. Get road traffic information such as traffic regulations. VICS is a registered trademark.
  • the GPS unit 415 uses a received wave from a GPS satellite or an output value from various sensors 416 (for example, an angular velocity sensor, an acceleration sensor, a tire rotation number, etc.) described later, Information indicating the current location of the location piggy-on device 300 is calculated.
  • the information indicating the current location is information that identifies one point on the map information, such as latitude'longitude and altitude.
  • the GPS unit 415 outputs an odometer, a speed change amount, and an azimuth change amount using output values from various sensors 416. This makes it possible to analyze dynamics such as sudden braking and sudden handling.
  • Various sensors 416 are a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and the like, and their output values are used for calculation of the current point by the GPS unit 415 and measurement of changes in speed and direction.
  • the various sensors 416 also include sensors that detect each operation of the vehicle by the driver.
  • the detection of each operation of the vehicle is a configuration that detects, for example, steering wheel operation, turn signal input, accelerator pedal depression, or brake pedal depression.
  • the various sensors 416 may detect the state of mind and body of the passenger.
  • the pulse and blood pressure of the occupant may be detected by a skin contact sensor.
  • human body sensors can detect passenger sweating. May be.
  • the acquisition unit 101, the detection unit 102, the determination unit 103, and the output unit 104 included in the pseudo-emotional output device 100 illustrated in FIG. 1 are the ROM 402, the RAM 403, and the magnetic unit in the navigation device 300 illustrated in FIG.
  • the CPU 401 executes a predetermined program using the programs and data recorded on the disc 405, the optical disc 407, etc., and controls each part in the navigation device 300 to realize the function.
  • the navigation device 300 of the present embodiment executes the program recorded in the ROM 402 as a recording medium in the navigation device 300 so that the pseudo emotion output device 100 shown in FIG.
  • the provided functions can be executed according to the procedure shown in Fig. 2.
  • FIG. 5 is an explanatory diagram showing the determination of the pseudo emotion corresponding to the driving tendency and the specific behavior in the navigation device that is effective in the present embodiment.
  • the driving tendency specific behavior table 500 shows the pseudo emotions associated with the driving tendency rank of the driver driving the vehicle and the specific behavior that is a sudden event with respect to the vehicle. It is an example of a table.
  • the driving tendency is classified into ranks A, B, and C, ranging from rough driving to rough driving power to gentle driving.
  • specific behaviors are sudden events on the vehicle, such as sudden acceleration, sudden braking, sharp curves, passage on uneven roads, contact with other objects, etc.
  • the driving tendency is acquired by using the G value, speed, acceleration, road noise, angular velocity, and the speed according to the curve curvature, etc. based on the output of the acceleration sensor, the vibration sensor, etc.
  • Rank is determined by determining whether or not the power is higher than the default value of the rank. It is good also to do.
  • This driving tendency may be determined, for example, from the past driving history of the driver, or may be acquired during driving. Further, for example, the driving tendency may be determined by measuring the driver's degree of tension with a sensor that detects the state of mind and body. Further, for example, the driving tendency may be determined by detecting a sudden change in the state of mind or tension with a sensor that detects the state of mind and body.
  • the driving tendency is, for example, whether or not one or more of various outputs such as G value, speed, acceleration, road noise, angular speed, and speed according to curve curvature exceed a predetermined value, You may determine by the frequency
  • the driving tendency may be determined using, for example, an increasing / decreasing tendency of the average value of unit time for one or more of various outputs.
  • a configuration may be used in which one or more of the various outputs is graphed, or a gradient when approximated to a multi-order equation.
  • the driving tendency may be determined using the tendency of the maximum value for one or more of various outputs, for example.
  • a configuration may be used in which one or more of the various outputs uses a decreasing force that increases the number of times exceeding a predetermined value within a unit time.
  • a log of judgment of past tendency is stored, and it is judged whether the tendency is a power decreasing tendency that is larger or smaller than the average or time series tendency of the log. It may be a semi-IJ configuration.
  • the specific behavior is, for example, sudden acceleration, sudden braking, using G value, speed, acceleration, road noise, angular velocity, and speed according to the curve curvature, etc. based on the output of an acceleration sensor or vibration sensor. It is also possible to determine sharp curves, passage on uneven roads, or contact with other objects.
  • the pseudo emotions associated with the driving tendency and the specific behavior are, for example, anger is insecurity, surprise or relief, and the operation program showing the pseudo emotion in the driving tendency specific behavior table 500.
  • the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) is driven.
  • the drive of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) may be driven in the vertical and horizontal directions and the intensity of the drive, The blinking of the lamp or the color of the lamp may be variable.
  • a sufficient inter-vehicle distance is taken at a speed equal to or lower than a predetermined value, it becomes relieved, and one of the speed below the predetermined value and the sufficient inter-vehicle distance is determined.
  • Anxiety may occur when a condition lacking more than one element is continuous (or intermittent). Further, an angry emotion may be adopted for stronger anxiety.
  • Such pseudo emotions may be set by experiments or investigations, and may be rewritable by contractors and users.
  • emotions that actually occur in humans such as feelings of anger, can be excluded from the emotions that are thought to be counterproductive to encourage safe driving, or they can be replaced with other emotions.
  • Oh can be replaced with other emotions.
  • the power navigation apparatus 300 uses the driving program 418 (for example, the motion program expressing the pseudo emotion determined by the driving tendency specific behavior table 500 shown in FIG. Thus, the vehicle-mounted robot 310) in FIG. 3 is operated.
  • the driving program 418 for example, the motion program expressing the pseudo emotion determined by the driving tendency specific behavior table 500 shown in FIG.
  • the vehicle-mounted robot 310 in FIG. 3 is operated.
  • driving tendency B when a specific behavior Y is detected, an operation program showing a surprising pseudo emotion is selected and executed.
  • an operation program that mixes surprise and anxiety is detected. Will be selected. You may set a motion that mixes surprise and anxiety in advance, or you may obtain both the surprise and anxiety motions and output both continuously or alternately.
  • multiple pseudo emotions may be visited at different time intervals. For example, when the driving tendency is A, when the specific behavior Z is detected, the user is first surprised and then anxious when the predetermined time has elapsed. The operation program to be shown is selected. [0091] In addition, when the driving tendency is reassuring and you are not careful about driving, you may prepare a uniform operation program, or prepare an operation program for situations other than driving. Good.
  • a plurality of stages may be set for the same pseudo emotion.
  • a strong anxiety or a slight anxiety may be set for the feeling of anxiety and adjusted according to the magnitude (intensity) of movement.
  • Such an operation may be set by an operator or a user who may be set by experimentation or investigation.
  • FIG. 6 is a flowchart showing the contents of the processing of the navigation device that works on the present embodiment.
  • it is determined by the various sensors 416 whether or not the driving force has started (step S601). Judgment of the start of driving may be made by judging whether the vehicle has started running by using various sensors, or by judging whether the engine is on or off.
  • step S601 when the operation is started after waiting for the start of the operation (step S601: Yes), an index value serving as a criterion for determining the driving tendency is obtained by various sensors 416. (Step S602).
  • the index value may be an output value from, for example, an acceleration sensor or a vibration sensor.
  • step S603 it is determined whether or not a sudden behavior is detected by the various sensors 416 (step S603). Sudden behavior is, for example, when the output value of a force such as an acceleration sensor or vibration sensor exceeds a predetermined value, or when sudden fluctuations in the output value are detected.
  • step S605 If no sudden behavior is detected in step S603 (step S603: No), it is determined whether or not the index value acquired in step S602 is a force that collects a predetermined amount of index value. (Step S605).
  • the index value of the predetermined amount may be set in advance by, for example, an amount for determining a driving tendency in step S606 described later.
  • step S605 if a predetermined amount of index value is collected! / ⁇ (step S605: No), the process returns to step S602 and the process is repeated to collect the predetermined amount of index value.
  • step S605: Yes the CPU 401 determines the driving tendency using the index values collected in step S605 (step S606), and proceeds to step S611.
  • the determined driving tendency may be recorded in a nother area.
  • step S603 If a sudden behavior is detected in step S603 (step S603: Yes), the CPU 401 acquires the previous driving tendency (step S604).
  • the immediately preceding driving tendency is, for example, the driving tendency determined in step S606 or the past driving tendency of the driver, and may be recorded in a predetermined recording medium or buffer area.
  • the CPU 401 determines a specific behavior for the sudden behavior detected in step S603 (step S607).
  • the specific behavior can be determined by, for example, rapid acceleration, sudden braking, which can be determined using the sensor type or value based on the output value of a force sensor such as an acceleration sensor or vibration sensor that exceeds a predetermined value. Judgment is made on sharp curves, roads with bumps and contact with other objects.
  • the CPU 401 reads the driving tendency specific behavior table (step S608).
  • the driving tendency specific behavior table is, for example, the driving tendency-specific behavior table 500 shown in FIG. 5 which may be recorded on a predetermined recording medium.
  • step S609 using the driving tendency specific behavior table 500 read by the CPU 401 in step S608, the driving tendency acquired in step S604 and the specific behavior determined in step S607 by V An action program showing the associated pseudo emotion is selected (step S609).
  • the CPU 401 causes the operation program selected in step S609 to be executed (step S610).
  • the driving unit 418 for example, the vehicle-mounted robot 310 in FIG. 3
  • the driving unit 418 can be driven to show the driving tendency and the pseudo emotion associated with the specific behavior. it can.
  • drive unit 418 for example, in-car robot 310 in FIG. 3
  • the body of the drive unit 418 is directed toward the driver, and the whole body or a part of the drive unit 418 emits red light. With the top of the head facing the driver's face, swing your arms up and down.
  • the drive unit 418 for example, the vehicle-mounted robot 310 in Fig. 3
  • the drive unit 418 for example, the vehicle-mounted in Fig. 3
  • the body part of the robot 310) is directed forward, the whole body or part of the body emits yellow light, the top of the head is swung several times to the left and right with respect to the driver's direction, and the arm is swung up and down moderately.
  • the driving unit 418 for example, the vehicle-mounted robot 310 in FIG. 3
  • the driving unit 418 for example, in FIG. Turn the body of the in-vehicle robot 310) toward the driver, light all or part of it in blue, swing the top of the head up and down, widen your arms, and then rest for a while. Repeat the return operation.
  • the drive unit 418 for example, the vehicle-mounted robot 310 in FIG. 3
  • the drive unit 418 for example, in FIG.
  • the body part of the in-vehicle robot 310 is directed toward the driver, the whole body or part of the body emits yellow light, the top of the head is swung several times to the left and right with respect to the driver's direction, and the arms are moved up and down moderately. Shake to.
  • the driving unit 418 for example, the vehicle-mounted robot 310 in FIG. 3
  • the driving unit 418 for example, the vehicle-mounted in FIG. 3
  • the torso is directed forward, the whole body or a part of the body emits blue light, the top of the head is swung up and down moderately, the arm is lifted up moderately, and then returned to its original position.
  • one of the above-described vehicle-mounted robot 310 as a pseudo emotion may be operated in a plurality of modes. For example, even when performing movements that express light joy, the whole body or part of the body does not emit blue light, the torso is turned forward, the top of the head is swung up and down, the arm is lifted up moderately, and then Including the mode of expressing only the movement of repeating the undo action, etc. You may choose it.
  • step S611 it is determined by various sensors 416 whether or not the operation has been completed (step S611). If the operation has been completed (step S611: Yes), the series of processing is terminated and the operation is completed. If not (step S611: No), the process returns to step S602 and the process is repeated.
  • step S609 the operation program showing the pseudo emotion associated with the driving tendency acquired in step S604 and the specific behavior determined in step S607.
  • this is not a limitation. Specifically, for example, an operation program showing pseudo emotions associated with either driving tendency or specific behavior may be selected. Then, when selecting an operation program that shows a pseudo emotion associated only with a driving tendency, the processing in step S607 is omitted. In addition, when an operation program showing a pseudo emotion associated only with a specific behavior is selected, the process of step S604 is omitted.
  • the navigation device that is useful in the present embodiment, when a specific behavior is detected, the driving tendency and the pseudo emotion associated with the specific behavior are displayed.
  • the moving unit vehicle-mounted robot
  • the moving unit is operated. Therefore, it is possible to promote safe driving by encouraging the driver with the pseudo emotions that the driver and passengers will have.
  • an appropriate pseudo emotion can be determined by using a driving tendency. That is, since the pseudo emotion for the specific behavior is appropriately determined according to the difference in driving tendency, the drive unit (vehicle-mounted robot) can be operated so as to show the optimal pseudo emotion according to the driving situation.
  • the pseudo emotion is expressed by at least one of the light output, the operation output, and the sound output by the drive unit (vehicle-mounted robot). Because it can be shown, the driver can easily imagine the three-dimensional feelings. In addition, if the appearance of the drive unit (vehicle-mounted robot) is made to be familiar to the driver, the driver's awareness can be raised, and the driver can sympathize with the pseudo-feelings reliably and optimally to drive safe driving. You can plan.
  • the pseudo emotion output method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, or a DVD, and is executed by being read by the computer.
  • the program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

明 細 書
疑似感情出力装置、疑似感情出力方法、疑似感情出力プログラムおよび コンピュータに読み取り可能な記録媒体
技術分野
[0001] この発明は、移動体の搭乗者の疑似感情を出力する疑似感情出力装置、疑似感 情出力方法、疑似感情出力プログラムおよびコンピュータに読み取り可能な記録媒 体に関する。ただし、この発明の利用は、上述した疑似感情出力装置、疑似感情出 力方法、疑似感情出力プログラムおよびコンピュータに読み取り可能な記録媒体に は限られない。
背景技術
[0002] 車両などの移動体の走行は、急発進、急停車および急ノヽンドルなどの危険走行に よって、事故を引き起こしてしまうことがある。近年では、運転者に安全運転に対する 自覚を持たせるため、このような危険走行を検出して、危険走行が検出された場合に 警告案内を音声で出力する提案がされている (たとえば、下記特許文献 1参照。 ) o
[0003] 特許文献 1 :特開 2002— 251699号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述した従来技術では、危険走行に対して単に警告する構成である ため、自身の運転に対して過信を抱く運転者に対しては、警告をおこなっても効果を 与えることができず、結局事故を引き起こしてしまうという問題が一例として挙げられる 。したがって、危険走行を改めてもらうには、むしろ、運転者自らが進んで安全運転を しょうという気持ちになるための動機付けをする手段が求められる。
[0005] また、上述した従来技術では、運転者の技量や運転傾向を考慮せずに急発進、急 停車および急ノヽンドルなどを危険走行として検出している。したがって、たとえば、安 全走行して 、るにもかかわらずやむをえな 、アクシデントに遭遇した結果として危険 走行を検出したの力、、元々運転者の激しい運転が原因で危険走行を検出したのか、 の!、ずれかを区別できず、効果的な警告案内をおこなえな 、と 、う問題が一例として 挙げられる。
課題を解決するための手段
[0006] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる疑似感情 出力装置は、移動体の運転者の運転傾向情報を取得する取得手段と、前記移動体 の運転中における特定挙動情報を検出する検出手段と、前記検出手段によって特 定挙動情報が検出された場合、少なくとも前記運転傾向情報と、前記特定挙動情報 と、のいずれかに基づいて、前記移動体に搭乗する搭乗者が抱く感情の候補の中か ら疑似感情を決定する決定手段と、前記決定手段によって決定された疑似感情に関 する出力をおこなう出力手段と、を備えることを特徴とする。
[0007] また、請求項 10の発明にかかる疑似感情出力方法は、移動体の運転者の運転傾 向情報を取得する取得工程と、前記移動体の運転中における特定の挙動情報を検 出する検出工程と、前記検出工程によって特定の挙動情報が検出された場合、少な くとも前記運転傾向情報と、前記特定の挙動情報と、のいずれかに基づいて、前記 移動体に搭乗する搭乗者が抱く感情の候補の中から疑似感情を決定する決定工程 と、前記決定工程によって決定された疑似感情に関する出力をおこなう出力工程と、 を含むことを特徴とする。
[0008] また、請求項 11の発明にかかる疑似感情出力プログラムは、請求項 10に記載の疑 似感情出力方法をコンピュータに実行させることを特徴とする。
[0009] また、請求項 12の発明にかかるコンピュータに読み取り可能な記録媒体は、請求 項 11に記載の疑似感情出力プログラムを記録したことを特徴とする。
図面の簡単な説明
[0010] [図 1]図 1は、本実施の形態にかかる疑似感情出力装置の機能的構成の一例を示す ブロック図である。
[図 2]図 2は、本実施の形態にかかる疑似感情出力装置の処理の内容を示すフロー チャートである。
[図 3]図 3は、本実施例に力かるナビゲーシヨン装置が設置された車両のダッシュボ ード付近の一例を示す説明図である。
[図 4]図 4は、本実施例に力かるナビゲーシヨン装置のハードウェア構成の一例を示 すブロック図である。
[図 5]図 5は、本実施例に力かるナビゲーシヨン装置における運転傾向および特定挙 動に対応する疑似感情の決定について示す説明図である。
[図 6]図 6は、本実施例に力かるナビゲーシヨン装置の処理の内容を示すフローチヤ ートである。
符号の説明
[0011] 100 疑似感情出力装置
101 取得部
102 検出部
103 決定部
104 出力部
発明を実施するための最良の形態
[0012] 以下に添付図面を参照して、この発明にかかる疑似感情出力装置、疑似感情出力 方法、疑似感情出力プログラムおよびコンピュータに読み取り可能な記録媒体の好 適な実施の形態を詳細に説明する。
[0013] (実施の形態)
(疑似感情出力装置の機能的構成)
図 1を用いて、本実施の形態に力かる疑似感情出力装置の機能的構成について 説明する。図 1は、本実施の形態にかかる疑似感情出力装置の機能的構成の一例 を示すブロック図である。
[0014] 図 1において、疑似感情出力装置 100は、取得部 101と、検出部 102と、決定部 10
3と、出力部 104と、力ら構成されている。
[0015] 取得部 101は、移動体の運転者の運転傾向情報を取得する。運転傾向情報は、た とえば、運転者の運転技量や、運転の激しさ、静かさなどの傾向を含む情報である。
[0016] 具体的には、たとえば、運転傾向情報の取得は、移動体を運転する運転者を認証 すること〖こよって、運転者の運転履歴から運転傾向情報を取得することとしてもょ 、。 より具体的には、たとえば、運転傾向情報の取得は、認証された運転者における過 去の運転履歴から、該運転者の運転の技量や傾向を取得する構成としてもよ 、。 [0017] また、運転傾向情報の取得は、たとえば、移動体の運転中における、運転の挙動 に関するセンサの出力値に基づいて、運転傾向情報を取得することとしてもよい。よ り具体的には、たとえば、運転傾向情報の取得は、運転中における図示しない Gセン サゃ加速度センサなどによる出力値によって、運転の傾向を判定することによって取 得する構成でもよぐ車内外を撮影するカメラの映像やマイクの音声など力 運転の 傾向を判定することによって取得することとしてもよい。
[0018] 検出部 102は、移動体の運転中における特定挙動情報を検出する。特定挙動情 報は、たとえば、移動体に起きた突発的な事象などで、他の物体との衝突や、急加( 減)速や、急な進行方向の変更などでもよい。特定挙動情報の検出は、たとえば、図 示しない Gセンサや加速度センサなどによる出力値に応じて検出する構成でもよぐ 車内外を撮影するカメラの映像やマイクの音声などに応じて検出することにしてもよ い。
[0019] 決定部 103は、検出部 102によって特定挙動情報が検出された場合、少なくとも運 転傾向情報と、特定挙動情報と、のいずれかに基づいて、移動体に搭乗する運転者 や同乗者などの搭乗者が抱く感情の候補の中から疑似感情を決定する。具体的に は、たとえば、決定部 103は、移動体を運転する運転者の疑似感情を決定したり、移 動体に同乗する同乗者の疑似感情を決定したりする構成でもよい。また、決定部 10 3は、たとえば、 2つ以上力もなる疑似感情の組合せを決定することとしてもよい。また 、運転傾向情報または特定挙動情報のどちらか片方に基づいて疑似感情を決定し てもよぐそれら両方の情報を組み合わせて生成される情報に基づいて疑似感情を 決定してちょい。
[0020] 疑似感情は、たとえば、運転傾向情報または特定挙動情報が検出された場合に運 転者あるいは同乗者が抱くであろう疑似的な感情である。また、たとえば、運転傾向 情報における運転傾向の状況下で、特定挙動情報が検出された場合に運転者ある いは同乗者が抱くであろう疑似的な感情であってもよい。また、たとえば、検出された 運転傾向が続く中で時間経過と共に推移する一連の疑似的な感情であってもよ 、。 また、ここでの運転者や同乗者は、実際に移動体に搭乗している場合や、搭乗して いない場合のどちらであってもよい。換言すれば、たとえば、疑似感情は、助手席に 搭乗者がいない場合であっても、助手席に同乗する者であれば抱くであろう感情や、 実際に運転者でない者が運転した場合に抱くであろう感情などでもよい。
[0021] また、感情の候補は、運転傾向情報と、特定挙動情報と、に関連づけられて設定さ れて 、る構成でもよく、図示しな 、記録媒体などに設定の元となる表を書き換え可能 に記録しておき、必要に応じて読み出すこととしてもよい。
[0022] 出力部 104は、決定部 103によって決定された疑似感情に関する出力をおこなう。
疑似感情に関する出力の態様は、各疑似感情ごとにひとつづづ決められている態様 でも良いし、疑似感情ごとに複数の出力の態様が用意され、たとえば、運転者の属 性を考慮して出力の態様を選択するようにしてもよい。また、たとえば、同じ出力の態 様が続力ないよう前回とは異なる出力の態様を選択するようにしてもよい。また、出力 部 104は、決定部 103によって 2つ以上力もなる疑似感情の組合せが決定された場 合は、組合せに関する出力をおこなうこととしてもよい。
[0023] 具体的には、たとえば、出力部 104は、決定部 103によって決定された疑似感情に 応じて、疑似感情を示すよう駆動する不図示の駆動部を制御する制御信号を出力す る。より具体的には、たとえば、出力部 104は、疑似感情を示すよう光出力、動作出 力、音出力の少なくともいずれか一つに関する制御信号を出力することとしてもよい。
[0024] この出力部 104は、たとえば、移動体に搭載されたロボットによって疑似感情を示 すよう、該ロボットを制御する制御信号を出力する構成でもよい。また、運転者の属性 、たとえば、運転操作する際の運転者の性格を過去の運転操作履歴から認証し、そ の性格を考慮して疑似感情に関する出力の態様を選択するようにしてもよい。たとえ ば、不安な感情を表す疑似感情を示すよう出力する場合でも、運転者の性格がちょ つとしたことですぐ感情的になってしまうようなものであるときには、比較的興奮させる 要素を含む光出力の態様を選択せずに、音出力の態様を選択する、など、運転者の 属性を考慮して最適な出力の態様を選択するようにしてもよい。
[0025] (疑似感情出力装置の処理の内容)
つぎに、図 2を用 V、て本実施の形態にかかる疑似感情出力装置 100の処理の内容 について説明する。図 2は、本実施の形態に力かる疑似感情出力装置の処理の内 容を示すフローチャートである。図 2のフローチャートにおいて、まず、疑似感情出力 装置 100は、移動体の運転を開始した力否かを判断する (ステップ S201)。移動体 の運転は、たとえば、移動体の稼働部の起動や、走行を検知することによって判断す ることとしてちよい。
[0026] ステップ S201にお 、て、運転を開始するのを待って、運転を開始した場合 (ステツ プ S201 :Yes)は、取得部 101によって、運転傾向情報を取得する(ステップ S202)
[0027] つぎに、検出部 102によって、移動体の運転中における特定挙動情報を検出する( ステップ S203)。なお、図 2のフローチャートにおいては、運転傾向情報を取得して 力 特定挙動情報を検出する構成としているが、順序はこれに限ることなぐ特定挙 動情報を検出した際の運転傾向情報を取得する構成でもよい。
[0028] そして、決定部 103によって、ステップ S203において特定挙動情報が検出された 場合、ステップ S202において取得された運転傾向情報と、ステップ S203において 検出された特定挙動情報と、に基づいて、移動体に搭乗する搭乗者が抱く感情の候 補の中力も疑似感情を決定する (ステップ S204)。なお、図 2のフローチャートにおい ては、運転傾向情報と、特定挙動情報と、に基づいて、移動体に搭乗する搭乗者が 抱く感情の候補の中から疑似感情を決定する構成とているが、運転傾向情報と、特 定挙動情報と、のいずれかに基づいて、疑似感情を決定してもよい。
[0029] その後、出力部 104によって、ステップ S204において決定された疑似感情に関す る出力をおこない (ステップ S 205)、一連の処理を終了する。
[0030] なお、本発明の疑似感情出力装置、疑似感情出力方法、疑似感情出力プログラム およびコンピュータに読み取り可能な記録媒体は、図 1に示した疑似感情出力装置 1 00によって、その機能を実現することとしたが、疑似感情出力装置 100に限ることは なぐ図 1に示す機能部を備える構成とすれば、複数の装置であってもよい。各機能 部を異なる装置として接続する場合、装置間の接続は、たとえば、有線、無線を問わ ず、 Bluetooth (登録商標)などによって通信をおこなって接続することとしてもよ!/、。
[0031] 以上説明したように、本実施の形態によれば、運転者や同乗者が抱くであろう感情 を示して運転者に共感を促すことで、たとえば、運転者に対し孤独感を持たせないと V、う感情面での支援ができるため運転操作に悪影響を及ぼすことを低減でき、安全 運転操作を支援することができる。また、本実施の形態によれば、運転傾向情報や 特定挙動情報によって決定される疑似感情を示すように出力をおこなうことで、運転 者自らが進んで安全運転をしょうという気持ちになるための動機付けとなる出力をお こなうことができる。また、疑似感情ごとに複数の出力の態様を用意することで、運転 傾向情報や特定挙動情報力も直接出力を選択する場合に比べ、より運転者の属性 に合わせた出力の選択ができ、また、画一的な出力に対する運転者の馴れも避ける ことができる。さらに、本実施の形態によれば、特定挙動情報が検出された際、運転 傾向情報と特定挙動情報とによって決定される疑似感情を示すように出力をおこなう ことができるので、より的確な出力をおこなうことができる。
[0032] また、本実施の形態によれば、特定挙動情報が検出された際、運転傾向情報を用 いることで、適切な疑似感情を決定することができる。すなわち、運転傾向の相違に よって特定挙動情報に対する疑似感情を適切に決定するため、状況に応じて最適な 疑似感情を示すように出力をおこなうことができる。
[0033] さらに、本実施の形態によれば、ロボットによる光出力、動作出力、音出力の少なく ともいずれか一つを制御する制御信号を出力して疑似感情を示すことができるため、 運転者は疑似感情を三次元的に容易にイメージできる。
実施例
[0034] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の疑似感情出力装置を実施した場合の一例について説明する。
[0035] (ナビゲーシヨン装置の周辺機器構成)
まず、図 3を用いて、本実施例に力かるナビゲーシヨン装置の周辺機器構成につい て説明する。図 3は、本実施例に力かるナビゲーシヨン装置が設置された車両のダッ シュボード付近の一例を示す説明図である。
[0036] 図 3において、ナビゲーシヨン装置 300は、車両のダッシュボードに設置されている 。ナビゲーシヨン装置 300は、本体部 Mおよび表示部(ディスプレイ) Dによって構成 され、表示部 Dには車両の現在地点や地図情報、現在時刻などが表示される。
[0037] また、ナビゲーシヨン装置 300には、ダッシュボード上に設置された車載用ロボット 3 10が接続されている。車載用ロボット 310は、図示はしないがカメラ、ランプ、マイク およびスピーカなどを備えており、ナビゲーシヨン装置 300から出力される制御信号 の制御にしたがって、各種出力をおこなう。
[0038] また、車載用ロボット 310は、たとえば、人間や動物を模した形状をしており、たとえ ば、左右側方に腕のような駆動部を備えており、ナビゲーシヨン装置 300から出力さ れる制御信号の制御にしたがって、駆動部の動作出力をおこなってもよい。さらに、 車載用ロボット 310は、頭頂部を上下左右に振る動作をする駆動部を備える構成とし てもよく、ナビゲーシヨン装置 300から出力される制御信号の制御にしたがって、駆動 部の動作出力をおこなうこととしてもよい。
[0039] 具体的には、たとえば、車載用ロボット 310の頭頂部がカメラとして機能してもよぐ カメラは、水平方向および上下方向に回転して、車内および車外の画像を撮像する ことができる。また、車載用ロボット 310は、胴体部にランプ、マイクおよびスピーカを 備える構成としてもよぐランプ、マイクおよびスピーカによって光出力や音声の集音 および出力をおこなうこととしてもよい。また、画像や文字などを表示する表示部を持 つたり、言葉を発話する機能を持たせても良い。
[0040] また、車載用ロボット 310は、全身あるいは一部を発光可能としてもよぐナビゲーシ ヨン装置 300から出力される制御信号の制御にしたがって、様々な色で点灯および 点滅することとしてちよい。
[0041] 図 3に示す構成によって、本実施例では、ナビゲーシヨン装置 300から出力される 制御信号の制御にしたがって、車載用ロボット 310が各種出力をおこなうことで、疑 似感情を運転者に示す構成となって 、る。
[0042] 詳細は図 5および図 6を用いて説明するが、運転の傾向を示す指標を取得して判 定される運転傾向のランクと、特定挙動とによって、疑似感情を示すための車載用口 ボット 310における動作プログラムを決定する。そして、決定された動作プログラムに よって動作する車載用ロボット 310によって、運転者に運転の改善を促すことができ る。
[0043] さらに、車載用ロボット 310は、車内外の状況を示す情報を取得して疑似感情を決 定し出力をおこなう構成としてもよい。車内外の状況を示す情報とは、たとえば、車内 外を撮影するカメラの映像に基づく情報でもよぐ車内外を監視するセンサ力 の情 報やマイクで集音した音声に基づく情報でもよい。また、カーナビ力も取得した情報 に基づく情報でもよぐメディアやインターネットなどから取得した情報に基づく情報で もよい。車内外の状況を示す情報とは、たとえば、前後車両との車間距離や、道路上 におけるこの先の障害物の情報、後席の同乗者の状況を示す情報、右左折地点の 情報、渋滞情報などである。また、車内外の状況を示す情報と運転傾向情報や特定 挙動情報を組み合わせて疑似感情を決定し出力をおこなう構成でもよい。
[0044] たとえば、運転傾向が所定以上の高速走行傾向にあつたときに前方の道路上に障 害物を検知した場合には、急激な不安や驚きの疑似感情を決定し出力することで、 もし運転者が障害物に気づいていな力つたとしても、何か不安を搔き立てる事象があ ると考えて高速走行傾向から、冷静に周囲の状況を確認できる運転傾向に改善させ ることができる。また、たとえば、渋滞の場合に、渋滞に対し不満の疑似感情を決定し 出力することで、運転者にとって不満の感情を共感できる存在が生まれ、運転者一 人で不満を抱いているのに比べて、不満を和らいだり、不満を運転に転嫁するのを 減じさせることができる。
[0045] すなわち、子供やペットが同乗しているときのように、運転者にとって気になる同乗 者として車載用ロボット 310を用いることにより、運転者に対し、心が和み安全運転を 心がけようとする動機を与えることができる。車載用ロボット 310が運転の状況を取得 し、その運転の状況に応じた喜びや不安などの感情を表現することで、運転者にとつ て車載用ロボットが運転の状況を運転者と共感したように感じられる効果を得て、運 転者はその感情表現を受け取ることを動機として、荒 、運転であれば進んで改善し、 ょ ヽ運転であれば ¾続するようになる。
[0046] また、車載用ロボット 310が、同乗者の疑似感情を示す場合は、下手な運転であれ ば励ます感情を表現し、上手な運転であればほめる感情を表現することとしてもょ ヽ 。このようにすれば、運転者は、下手な運転であっても不安を消しつつ運転をおこな V、、上手な運転であればより向上する運転をおこなうようになる。
[0047] このように、自身の運転を過信してしまい、客観的に運転の状況を認識することが できな 、運転者であっても、疑似的な運転者や同乗者の不安な感情を見ることで、 自身の運転状況を冷静に判断して改善することができる。
[0048] (ナビゲーシヨン装置 300のハードウェア構成)
つぎに、図 4を用いて、本実施例に力かるナビゲーシヨン装置 300のハードウェア構 成について説明する。図 4は、本実施例に力かるナビゲーシヨン装置のハードウェア 構成の一例を示すブロック図である。
[0049] 図 4において、ナビゲーシヨン装置 300は、車両などの移動体に搭載されており、 C PU401と、 ROM402と、 RAM403と、磁気ディスクドライブ 404と、磁気ディスク 40 5と、光ディスクドライブ 406と、光ディスク 407と、音声 IZF (インターフェース) 408と 、マイク 409と、スピーカ 410と、入力デバイス 411と、映像 IZF412と、ディスプレイ 4 13と、通信 IZF414と、 GPSユニット 415と、各種センサ 416と、カメラ 417と、駆動ュ ニット 418と、を備えている。また、各構成部 401〜418はバス 420によってそれぞれ 接続されている。
[0050] まず、 CPU401は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM402は、 ブートプログラム、経路探索プログラム、経路誘導プログラム、音声生成プログラム、 地図情報表示プログラム、動作プログラム、などのプログラムを記録している。また、 R AM403は、 CPU401のワークエリアとして使用される。
[0051] ここで、経路探索プログラムは、後述する光ディスク 407に記録されている地図情報 などを利用して、出発地点から目的地点までの最適な経路を探索させる。ここで、最 適な経路とは、 目的地点までの最短 (あるいは最速)経路やユーザが指定した条件 に最も合致する経路などである。経路探索プログラムを実行することによって探索さ れた誘導経路は、 CPU401を介して音声 IZF408や映像 IZF412へ出力される。
[0052] また、経路誘導プログラムは、経路探索プログラムを実行することによって探索され た誘導経路情報、通信 IZF414によって取得されたナビゲーシヨン装置 300の現在 地点情報、光ディスク 407から読み出された地図情報に基づいて、リアルタイムな経 路誘導情報の生成をおこなわせる。経路誘導プログラムを実行することによって生成 された経路誘導情報は、 CPU401を介して音声 IZF408や映像 IZF412へ出力さ れる。
[0053] また、音声生成プログラムは、パターンに対応したトーンと音声の情報を生成させる 。すなわち、経路誘導プログラムを実行することによって生成された経路誘導情報に 基づいて、案内ポイントに対応した仮想音源の設定と音声ガイダンス情報の生成を おこない、 CPU401を介して音声 IZF408へ出力する。
[0054] また、地図情報表示プログラムは、映像 I/F412によってディスプレイ 413に表示 する地図情報の表示形式を決定させ、決定された表示形式によって地図情報をディ スプレイ 413に表示させる。
[0055] また、動作プログラムは、車両の運転傾向や特定挙動に基づ 、て、後述する駆動 ユニット 418を駆動させる。詳細は図 5および図 6を用いて説明するが、動作プロダラ ムは、たとえば、駆動ユニット 418によって、運転傾向や特定挙動によって選択される 疑似感情を示させるように動作プログラムを選択して実行させる。
[0056] 磁気ディスクドライブ 404は、 CPU401の制御にしたがって磁気ディスク 405に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 405は、磁気ディスクドラ イブ 404の制御で書き込まれたデータを記録する。磁気ディスク 405としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0057] また、光ディスクドライブ 406は、 CPU401の制御にしたがって光ディスク 407に対 するデータの読み取り Z書き込みを制御する。光ディスク 407は、光ディスクドライブ 406の制御にしたがってデータの読み出される着脱自在な記録媒体である。光ディ スク 407は、書き込み可能な記録媒体を利用することもできる。また、この着脱自在な 記録媒体として、光ディスク 407のほ力 MO、メモリカードなどであってもよい。
[0058] 磁気ディスク 405、光ディスク 407に記録される情報の一例として、経路探索'経路 誘導などに用いる地図情報が挙げられる。地図情報は、建物、河川、地表面などの 地物 (フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データと を有しており、ディスプレイ 413の表示画面において 2次元または 3次元に描画される 。ナビゲーシヨン装置 300が経路誘導中の場合は、地図情報と後述する GPSュ-ッ ト 415によって取得された自車の現在地点とが重ねて表示されることとなる。
[0059] なお、本実施例では地図情報を磁気ディスク 405、光ディスク 407に記録するように したが、これに限るものではない。地図情報は、ナビゲーシヨン装置 300のハードゥエ ァと一体に設けられているものに限って記録されているものではなぐナビゲーシヨン 装置 300外部に設けられていてもよい。その場合、ナビゲーシヨン装置 300は、たと えば、通信 IZF414を通じて、ネットワークを介して地図情報を取得する。取得された 地図情報は RAM403などに記憶される。
[0060] また、音声 IZF408は、音声入力用のマイク 409および音声出力用のスピーカ 41 0に接続される。マイク 409に受音された音声は、音声 IZF408内で AZD変換され る。また、スピーカ 410からは音声が出力される。なお、マイク 409から入力された音 声は、音声データとして磁気ディスク 405あるいは光ディスク 407に記録可能である。
[0061] マイク 409およびスピーカ 410は、たとえば、後述する駆動ユニット 418 (たとえば、 図 3の車載用ロボット 310)に設置されていてもよぐ前述した動作プログラムの制御 にしたがって回転駆動などをおこなうとともに、音声の入出力をおこなうこととしてもよ い。
[0062] また、入力デバイス 411は、文字、数値、各種指示などの入力のための複数のキー を備えたリモコン、キーボード、マウス、タツチパネルなどが挙げられる。
[0063] また、映像 I/F412は、ディスプレイ 413およびカメラ 417に接続される。映像 I/F 412は、具体的には、たとえば、ディスプレイ 413全体の制御をおこなうグラフィックコ ントローラと、即時表示可能な画像情報を一時的に記録する VRAM (Video RAM )などのバッファメモリと、グラフィックコントローラから出力される画像データに基づい て、ディスプレイ 413を表示制御する制御 ICなどによって構成される。
[0064] ディスプレイ 413には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。このディスプレイ 413は、たとえば、 CRT、 TFT 液晶ディスプレイ、プラズマディスプレイなどを採用することができる。ディスプレイ 41 3は、たとえば、図 3の表示部 Dのような態様で設置される。
[0065] また、ディスプレイ 413およびカメラ 417は、たとえば、後述する駆動ユニット 418 ( たとえば、図 3の車載用ロボット 310)に設置されていてもよぐ前述した動作プロダラ ムの制御にしたがって映像の撮影や光出力などをおこなうこととしてもよい。
[0066] 具体的には、たとえば、カメラ 417は、車両内部あるいは外部の映像を撮影する。
映像は静止画あるいは動画のどちらでもよぐたとえば、カメラ 417によって車両内部 の搭乗者の挙動を撮影したり、車両外部の状況を撮影したりしてもよい。撮影した映 像は、たとえば、映像 IZF412を介して磁気ディスク 405や光ディスク 407などの記 録媒体に出力したり、後述する運転傾向や特定挙動の判定に用いることとしてもよい
[0067] また、通信 IZF414は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU401とのインターフェースとして機能する。通信 IZF414は、さらに、無線 を介してインターネットなどの通信網に接続され、この通信網と CPU401とのインター フェースとしても機能する。
[0068] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF414は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0069] また、 GPSユニット 415は、 GPS衛星からの受信波や後述する各種センサ 416 (た とえば、角速度センサや加速度センサ、タイヤの回転数など)からの出力値を用いて 、車両の現在地点けピゲーシヨン装置 300の現在地点)を示す情報を算出する。現 在地点を示す情報は、たとえば緯度'経度、高度などの、地図情報上の 1点を特定す る情報である。また、 GPSユニット 415は、各種センサ 416からの出力値を用いて、ォ ドメ一ター、速度変化量、方位変化量を出力する。これにより、急ブレーキ、急ハンド ルなどの動態を解析することができる。
[0070] 各種センサ 416は、車速センサや加速度センサ、角速度センサなどであり、その出 力値は、 GPSユニット 415による現在地点の算出や、速度や方位の変化量の測定に 用いられる。また、各種センサ 416は、運転者による車両の各操作を検知するセンサ なども含む。車両の各操作の検知は、たとえば、ハンドル操作やウィンカーの入力や アクセルペダルの踏み込みやブレーキペダルの踏み込みなどを検知する構成として ちょい。
[0071] さらに、各種センサ 416は、搭乗者の心身状態を検知するものであってもよい。心 身状態の検知は、たとえば、皮膚接地型センサによって、搭乗者の脈拍や血圧を検 知してもよい。あるいは、その他、人体センサで搭乗者の発汗を検知するものであつ てもよい。
[0072] なお、図 1に示した疑似感情出力装置 100が備える取得部 101、検出部 102、決 定部 103、出力部 104は、図 4に示したナビゲーシヨン装置 300における ROM402 、 RAM403、磁気ディスク 405、光ディスク 407などに記録されたプログラムやデータ を用いて、 CPU401が所定のプログラムを実行し、ナビゲーシヨン装置 300における 各部を制御することによってその機能を実現する。
[0073] すなわち、本実施例のナビゲーシヨン装置 300は、ナビゲーシヨン装置 300におけ る記録媒体としての ROM402に記録されているプログラムを実行することにより、図 1 に示した疑似感情出力装置 100が備える機能を、図 2に示した手順で実行すること ができる。
[0074] (運転傾向 特定挙動テーブルについて)
つづいて、図 5を用いて、本実施例に力かるナビゲーシヨン装置 300における運転 傾向および特定挙動に対応する疑似感情の決定について説明する。図 5は、本実 施例に力かるナビゲーシヨン装置における運転傾向および特定挙動に対応する疑似 感情の決定について示す説明図である。
[0075] 図 5において、運転傾向 特定挙動テーブル 500は、車両を運転する運転者の運 転傾向のランクと、車両に対する突発的な事象である特定挙動と、に対応づけられた 疑似感情を示す表の一例である。
[0076] 運転傾向は、たとえば、荒っぽい運転に対して、荒っぽい運転力 穏やかな運転ま での間で Aランク、 Bランクおよび Cランクのランクに区分されている。また、特定挙動 は、たとえば、車両に対する突発的な事象で、急加速、急ブレーキ、急カーブ、凹凸 のある道路の通過や他の物体との接触などが挙げられ、図 5では、仮に X、 Yおよび Zとして!/、る。
[0077] これら、運転傾向や特定挙動の取得は、たとえば、図 4に示した各種センサ 416や カメラ 417やマイク 409などによっておこなわれる。
[0078] より具体的には、たとえば、運転傾向の取得は、加速度センサや振動センサなどの 出力よる G値、速度、加速度、ロードノイズ、角速度およびカーブ曲率に応じた速度 などを用いて、各ランクの既定値以上力否かなどを判定することによって、ランク分け をおこなうこととしてもよい。この運転傾向は、たとえば、運転者の過去の走行履歴か ら判定することとしてもよいし、運転中に取得することとしてもよい。また、たとえば、心 身状態を検知するセンサにより、運転者の緊張度合いを測ることによって運転傾向を 判定してもよい。また、たとえば、心身状態を検知するセンサにより、急な心身状態や 緊張度合いの変化を検知することによって運転傾向を判定してもよい。
[0079] あるいは、運転傾向は、たとえば、 G値、速度、加速度、ロードノイズ、角速度および カーブ曲率に応じた速度などの各種出力の一つ以上が所定値を上回るか否かや、 単位時間内における所定値を上回った回数などによって判定してもよい。
[0080] あるいは、運転傾向は、たとえば、各種出力の一つ以上について、単位時間の平 均値の増減傾向を用いて判定してもよい。具体的には、たとえば、各種出力の一つ 以上について、グラフ化や多次方程式に近似したときの傾きなどを用いる構成でもよ い。
[0081] さらに、運転傾向は、たとえば、各種出力の一つ以上について、最大値の傾向を用 いて判定してもよい。具体的には、たとえば、各種出力の一つ以上について、単位時 間内に所定値を上回った回数が増加している力減少しているかを用いる構成でもよ い。
[0082] くわえて、運転傾向は、過去の傾向の判定のログを保存しておき、そのログの平均 や時系列傾向に対して大小または増加傾向にあるの力減少傾向にあるのかを判断 することによって半 IJ定する構成でもよ 、。
[0083] また、特定挙動は、たとえば、加速度センサや振動センサなどの出力よる G値、速 度、加速度、ロードノイズ、角速度およびカーブ曲率に応じた速度などを用いて、急 加速、急ブレーキ、急カーブ、凹凸のある道路の通過や他の物体との接触などを判 定することとしてもよい。
[0084] これら、運転傾向と、特定挙動とに対応づけられた疑似感情は、たとえば、怒りゃ不 安や驚きや安心などであり、運転傾向 特定挙動テーブル 500中の疑似感情を示 す動作プログラムによって、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310) が駆動することとなる。駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)の駆動 は、たとえば、疑似感情を示すように、上下左右方向の駆動および駆動の激しさや、 ランプの点滅や、ランプの色を可変にすることとしてもよい。
[0085] 疑似感情の対応づけは、たとえば、所定値以下の速度で十分な車間距離をとつて いれば、安心することとなるし、所定値以下の速度と、十分な車間距離とのうち一つ 以上の要素を欠く状態が、継続的 (または、断続的)である場合に不安とすることとし てもよい。また、より強い不安に対しては怒りの感情とする構成でもよい。
[0086] また、運転傾向が安定的であっても突発的に所定以上の振動を検知した場合は、 驚きの感情としてもよい。驚きの感情の後に、普段の運転傾向の相違によって不安の 感情となる場合があってもよい。一方、運転傾向が不安定であれば、突発的に所定 以上の振動を検知した場合は驚きの感情にくわえて、不安の感情を増幅することとし てもよい。
[0087] このような疑似感情は、たとえば、実験や調査によって設定することとしてもよぐ事 業者や利用者によって書き換え可能としてもよい。また、実際に人間には生じる感情 であっても、怒りの感情など、安全運転を促すには逆効果と考えられる感情は除くこ ととしてもよ 、し、別な感情で代替することとしてもょ 、。
[0088] 処理の詳細は図 6を用いて説明する力 ナビゲーシヨン装置 300は、図 5に示した 運転傾向 特定挙動テーブル 500によって決定した疑似感情を表現する動作プロ グラムによって、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)を動作させる こととなる。
[0089] 具体的には、たとえば、運転傾向 Bである場合に、特定挙動 Yが検出されると、驚き の疑似感情を示す動作プログラムが選択されて実行される。また、動作プログラムは 、たとえば、複数の疑似感情を示すこととしてもよぐ運転傾向 Aである場合に、特定 挙動 Yが検出されると、驚きと不安が入り交じった動作をするような動作プログラムを 選択することとなる。あらかじめ、驚きと不安が入り交じった動作を設定してもよいし、 驚きの動作と不安の動作の両方を取得して両方を連続または交互に出力してもよい
[0090] また、複数の疑似感情が時間差で訪れることとしてもよぐたとえば、運転傾向 Aで ある場合に、特定挙動 Zが検出されると、まずは驚いて、その後所定時間が経過する と不安を示す動作プログラムを選択することとなる。 [0091] また、安心できる運転傾向で、運転に気をとられないようなときには、一律の動作プ ログラムを用意してもよ 、し、運転以外の状況に応じた動作プログラムを用意してもよ い。
[0092] また、同一の疑似感情について複数の段階を設定することとしてもよい。具体的に は、たとえば、不安の感情について、強い不安や、やや不安などを設定して、動作の 大きさ(強さ)によって調整する構成でもよい。このような動作は、たとえば、実験や調 查によって設定することとしてもよぐ事業者や利用者によって設定可能としてもよい
[0093] (ナビゲーシヨン装置 300の処理の内容)
つぎに、図 6を用いて、本実施例に力かるナビゲーシヨン装置 300の処理の内容に ついて説明する。図 6は、本実施例に力かるナビゲーシヨン装置の処理の内容を示 すフローチャートである。図 6のフローチャートにおいて、まず、各種センサ 416によつ て、運転を開始した力否かを判断する (ステップ S601)。運転の開始の判断は、各種 センサによって車両が走行を開始したかを判断したり、エンジンの ONZOFFによつ て判断してもよい。
[0094] ステップ S601にお 、て、運転を開始するのを待って、運転を開始した場合 (ステツ プ S601 :Yes)は、各種センサ 416によって、運転傾向の判定基準となる指標値を取 得する (ステップ S602)。指標値は、たとえば、加速度センサや振動センサなどから の出力値でもよい。
[0095] つぎに、各種センサ 416によって、突発的な挙動を検知したか否かを判断する (ス テツプ S603)。突発的な挙動は、たとえば、加速度センサや振動センサなど力もの出 力値が所定値以上となった場合や、出力値の急激な変動を検知することとしてもょ ヽ
[0096] ステップ S603において、突発的な挙動を検知しなかった場合 (ステップ S603 : No )は、ステップ S602において取得された指標値について、所定量の指標値を収集し た力否かを判断する (ステップ S605)。所定量の指標値は、たとえば、後述するステ ップ S606において運転傾向を判定するための量などで、あら力じめ設定することとし てもよい。 [0097] ステップ S605にお 、て、所定量の指標値を収集して!/ヽな 、場合 (ステップ S605: No)は、ステップ S602へ戻って処理を繰り返し、所定量の指標値を収集した場合( ステップ S605 : Yes)は、 CPU401によって、ステップ S605において収集された指 標値を用いて運転傾向を判定し (ステップ S606)、ステップ S611へ移行する。判定 された運転傾向は、ノ ッファ領域などに記録することとしてもよい。
[0098] また、ステップ S603において、突発的な挙動を検知した場合 (ステップ S603 : Yes )は、 CPU401によって、直前の運転傾向を取得する(ステップ S604)。直前の運転 傾向は、たとえば、ステップ S606において判定された運転傾向や、運転者の過去の 運転傾向などであり、所定の記録媒体やバッファ領域に記録されていることとしてもよ い。
[0099] そして、 CPU401によって、ステップ S603において検知された突発的な挙動につ いて、特定挙動を判定する (ステップ S607)。特定挙動の判定は、たとえば、所定値 以上となった加速度センサや振動センサなど力もの出力値にっ 、て、センサの種類 や値などを用いて判定してもよぐ急加速、急ブレーキ、急カーブ、凹凸のある道路 の通過や他の物体との接触などを判定する。
[0100] つぎに、 CPU401によって、運転傾向 特定挙動テーブルを読み込む (ステップ S 608)。運転傾向 特定挙動テーブルは、たとえば、所定の記録媒体に記録されて いてもよぐ図 5に示した運転傾向—特定挙動テーブル 500などである。
[0101] そして、 CPU401によって、ステップ S608において読み込まれた運転傾向 特定 挙動テーブル 500を用いて、ステップ S604において取得された運転傾向と、ステツ プ S607にお V、て判定された特定挙動と、に対応づけられた疑似感情を示す動作プ ログラムを選択する(ステップ S609)。
[0102] つづいて、 CPU401によって、ステップ S609において選択された動作プログラム を実行させる (ステップ S610)。動作プログラムを実行させることで、たとえば、駆動ュ ニット 418 (たとえば、図 3の車載用ロボット 310)を駆動させて、運転傾向と、特定挙 動と、に対応づけられた疑似感情を示すことができる。
[0103] 図 3における車載用ロボット 310の駆動についての一例を以下に記載する。たとえ ば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)による、疑似感情として怒 りを伴った不安を表現する動作をする場合、たとえば、駆動ユニット 418 (たとえば、 図 3の車載用ロボット 310)における胴体部の向きを運転者に向け、全身あるいは一 部を赤色に発光させ、頭頂部を運転者の顔方向に向け、腕を大きく上下に振る。
[0104] また、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)による、疑 似感情として軽い不安を表現する動作をする場合、たとえば、駆動ユニット 418 (たと えば、図 3の車載用ロボット 310)における胴体部の向きを前方に向け、全身あるいは 一部を黄色に発光させ、頭頂部を運転者の方向を基準に左右に数度振り、腕を中程 度に上下に振る。
[0105] また、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)による、疑 似感情として大きな喜びを表現する動作をする場合、たとえば、駆動ユニット 418 (た とえば、図 3の車載用ロボット 310)における胴体部の向きを運転者の方向に向け、全 身あるいは一部を青色に発光させ、頭頂部を上下に大きく振り、腕を大きく広げてし ばらく静止、その後元に戻す動作を繰り返させる。
[0106] また、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)による、疑 似感情として悲しみを伴った不安を表現する動作をする場合、駆動ユニット 418 (たと えば、図 3の車載用ロボット 310)における胴体部の向きを運転者に向け、全身あるい は一部を黄色に発光させ、頭頂部を運転者の方向を基準に左右に数度振り、腕を中 程度に上下に振る。
[0107] また、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)による、疑 似感情として軽い喜びを表現する動作をする場合、たとえば、駆動ユニット 418 (たと えば、図 3の車載用ロボット 310)における胴体部の向きを前方に向け、全身あるいは 一部を青色に発光させ、頭頂部を上下に中程度に振り、腕を中程度に上げ、その後 元に戻す動作を繰り返させる。
[0108] なお、上記した車載用ロボット 310の一の疑似感情としての動作を複数の態様でお こなわせるよう〖こしてもよい。たとえば、軽い喜びを表現する動作をする場合でも全身 あるいは一部を青色に発光させず、胴体部の向きを前方に向け、頭頂部を上下に中 程度に振り、腕を中程度に上げ、その後元に戻す動作を繰り返させる、という動きの みで表現する態様などを含め、運転者の属性を考慮してそれら態様から一の態様を 選択するようにしてもよ ヽ。
[0109] その後、各種センサ 416によって、運転が終了したか否かを判断し (ステップ S611 )、運転が終了した場合 (ステップ S611 : Yes)は、そのまま一連の処理を終了し、運 転が終了しな 、場合 (ステップ S611: No)は、ステップ S602へ戻って処理を繰り返 す。
[0110] なお、図 6のフローチャートにおいては、ステップ S609において、ステップ S604に おいて取得された運転傾向と、ステップ S607において判定された特定挙動と、に対 応づけられた疑似感情を示す動作プログラムを選択することとしているが、これに限 るものではない。具体的には、たとえば、運転傾向または特定挙動のいずれかに対 応付けられた疑似感情を示す動作プログラムを選択してもよい。そして、運転傾向の みに対応付けられた疑似感情を示す動作プログラムを選択する場合、ステップ S607 の処理は省略することとする。また、特定挙動のみに対応付けられた疑似感情を示 す動作プログラムを選択する場合、ステップ S604の処理は省略することとする。
[0111] 以上説明したように、本実施例に力かるナビゲーシヨン装置によれば、特定挙動が 検知されると、運転傾向と、特定挙動とに対応づけられた疑似感情を示すように、駆 動ユニット (車載用ロボット)を動作させる。したがって、運転者や同乗者が抱くであろ う疑似感情によって、運転者に共感を促して安全運転を図ることができる。
[0112] また、本実施例に力かるナビゲーシヨン装置によれば、疑似感情ごとに複数の出力 の態様を用意することで、運転傾向情報や特定挙動情報から直接出力を選択する 場合に比べ、より運転者の属性に合わせた出力の態様の選択ができ、また、画一的 な出力に対する運転者の馴れも避けることができる。
[0113] また、本実施例に力かるナビゲーシヨン装置によれば、特定挙動が検知された際、 運転傾向を用いることで、適切な疑似感情を決定することができる。すなわち、運転 傾向の相違によって特定挙動に対する疑似感情を適切に決定するため、運転の状 況に応じて最適な疑似感情を示すように駆動ユニット (車載用ロボット)を動作させる ことができる。
[0114] さらに、本実施例に力かるナビゲーシヨン装置によれば、駆動ユニット(車載用ロボ ット)による光出力、動作出力、音出力の少なくともいずれか一つによって疑似感情を 示すことができるため、運転者は疑似感情を三次元的に容易にイメージできる。くわ えて、駆動ユニット(車載用ロボット)の外観を運転者に親しみやすい外観とすれば、 運転者の意識を高めることができ、運転者は、確実かつ最適に疑似感情に共感し、 安全運転を図ることができる。
なお、本実施の形態で説明した疑似感情出力方法は、あらかじめ用意されたプロ グラムをパーソナル 'コンピュータやワークステーションなどのコンピュータで実行する こと〖こより実現することができる。このプログラムは、ハードディスク、フレキシブルディ スク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記 録され、コンピュータによって記録媒体力 読み出されることによって実行される。ま たこのプログラムは、インターネットなどのネットワークを介して配布することが可能な 伝送媒体であってもよい。

Claims

請求の範囲
[1] 移動体の運転者の運転傾向情報を取得する取得手段と、
前記移動体の運転中における特定挙動情報を検出する検出手段と、
前記検出手段によって特定挙動情報が検出された場合、少なくとも前記運転傾向 情報と、前記特定挙動情報と、のいずれかに基づいて、前記移動体に搭乗する搭乗 者が抱く感情の候補の中力 疑似感情を決定する決定手段と、
前記決定手段によって決定された疑似感情に関する出力をおこなう出力手段と、 を備えることを特徴とする疑似感情出力装置。
[2] 前記取得手段は、
前記移動体を運転する運転者を認証することによって、当該運転者の運転履歴か ら前記運転傾向情報を取得することを特徴とする請求項 1に記載の疑似感情出力装 置。
[3] 前記取得手段は、
前記移動体の運転中における、運転の挙動に関するセンサの出力値に基づいて、 前記運転傾向情報を取得することを特徴とする請求項 1に記載の疑似感情出力装 置。
[4] 前記決定手段は、
前記移動体を運転する前記運転者の疑似感情を決定することを特徴とする請求項
1に記載の疑似感情出力装置。
[5] 前記決定手段は、
前記移動体に同乗する同乗者の疑似感情を決定することを特徴とする請求項 1に 記載の疑似感情出力装置。
[6] 前記決定手段は、
2つ以上からなる前記疑似感情の組合せを決定し、
前記出力手段は、
前記組合せに関する出力をおこなうことを特徴とする請求項 1に記載の疑似感情出 力装置。
[7] 前記出力手段は、 前記疑似感情に応じて、当該疑似感情を示すよう駆動する駆動部を制御する制御 信号を出力することを特徴とする請求項 1に記載の疑似感情出力装置。
[8] 前記出力手段は、
前記疑似感情を示すよう光出力、動作出力、音出力の少なくともいずれか一つに 関する制御信号を出力することを特徴とする請求項 1に記載の疑似感情出力装置。
[9] 前記出力手段は、
前記移動体に搭載されたロボットによって前記疑似感情を示すよう、当該ロボットを 制御する制御信号を出力することを特徴とする請求項 1に記載の疑似感情出力装置
[10] 移動体の運転者の運転傾向情報を取得する取得工程と、
前記移動体の運転中における特定の挙動情報を検出する検出工程と、 前記検出工程によって特定の挙動情報が検出された場合、少なくとも前記運転傾 向情報と、前記特定の挙動情報と、のいずれかに基づいて、前記移動体に搭乗する 搭乗者が抱く感情の候補の中から疑似感情を決定する決定工程と、
前記決定工程によって決定された疑似感情に関する出力をおこなう出力工程と、 を含むことを特徴とする疑似感情出力方法。
[11] 請求項 10に記載の疑似感情出力方法をコンピュータに実行させることを特徴とす る疑似感情出力プログラム。
[12] 請求項 11に記載の疑似感情出力プログラムを記録したことを特徴とするコンビユー タに読み取り可能な記録媒体。
PCT/JP2006/319340 2006-09-28 2006-09-28 Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur WO2008038374A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2006/319340 WO2008038374A1 (fr) 2006-09-28 2006-09-28 Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur
JP2008536255A JP4790020B2 (ja) 2006-09-28 2006-09-28 疑似感情出力装置、疑似感情出力方法、疑似感情出力プログラムおよびコンピュータに読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319340 WO2008038374A1 (fr) 2006-09-28 2006-09-28 Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur

Publications (1)

Publication Number Publication Date
WO2008038374A1 true WO2008038374A1 (fr) 2008-04-03

Family

ID=39229822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319340 WO2008038374A1 (fr) 2006-09-28 2006-09-28 Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur

Country Status (2)

Country Link
JP (1) JP4790020B2 (ja)
WO (1) WO2008038374A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011063268A (ja) * 2008-08-29 2011-03-31 Yupiteru Corp 車載電子機器及びプログラム
JP2012240575A (ja) * 2011-05-20 2012-12-10 Denso Corp 電子制御装置
WO2019004312A1 (ja) * 2017-06-27 2019-01-03 川崎重工業株式会社 走行評価方法および疑似感情生成方法
JP2020160724A (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 制御装置及び情報提示装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105292124A (zh) * 2014-06-19 2016-02-03 西安中兴新软件有限责任公司 一种驾驶监测方法和装置
CN110062937B (zh) * 2016-12-28 2021-10-22 本田技研工业株式会社 信息提供系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353598A (ja) * 1998-06-09 1999-12-24 Honda Motor Co Ltd 移動体検出警報装置
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2003118425A (ja) * 2001-10-17 2003-04-23 Denso Corp 車両制御システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3985351B2 (ja) * 1998-07-31 2007-10-03 株式会社デンソー 安全運転判定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353598A (ja) * 1998-06-09 1999-12-24 Honda Motor Co Ltd 移動体検出警報装置
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2003118425A (ja) * 2001-10-17 2003-04-23 Denso Corp 車両制御システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011063268A (ja) * 2008-08-29 2011-03-31 Yupiteru Corp 車載電子機器及びプログラム
JP2012240575A (ja) * 2011-05-20 2012-12-10 Denso Corp 電子制御装置
US8489273B2 (en) 2011-05-20 2013-07-16 Denso Corporation Electric control unit
WO2019004312A1 (ja) * 2017-06-27 2019-01-03 川崎重工業株式会社 走行評価方法および疑似感情生成方法
JPWO2019004312A1 (ja) * 2017-06-27 2020-04-16 川崎重工業株式会社 走行評価方法および疑似感情生成方法
JP6991453B2 (ja) 2017-06-27 2022-01-12 カワサキモータース株式会社 走行評価方法および疑似感情生成方法
US11760357B2 (en) 2017-06-27 2023-09-19 Kawasaki Motors, Ltd. Travel evaluation method and pseudo-emotion generation method
JP2020160724A (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 制御装置及び情報提示装置
JP7345751B2 (ja) 2019-03-26 2023-09-19 株式会社東海理化電機製作所 制御装置及び情報提示装置

Also Published As

Publication number Publication date
JPWO2008038374A1 (ja) 2010-01-28
JP4790020B2 (ja) 2011-10-12

Similar Documents

Publication Publication Date Title
JP6555648B2 (ja) 車両運転支援システム
CN108240819B (zh) 驾驶辅助装置和驾驶辅助方法
JP6555647B2 (ja) 車両運転支援システム及び車両運転支援方法
JP2007506166A (ja) 自動車用の情報システム
JP4849495B2 (ja) 車両の運転評価装置、方法、及びコンピュータプログラム
JP4301537B2 (ja) 移動体用ナビゲーションシステム及び方法並びにコンピュータプログラム
JP6593712B2 (ja) 車両運転支援システム
JP6703465B2 (ja) 運転支援装置、センタ装置
JP6690582B2 (ja) 運転モード切替制御装置、方法およびプログラム
US20050256635A1 (en) System and method for assigning a level of urgency to navigation cues
JP6555646B2 (ja) 車両運転支援システム
JP2016007989A (ja) 車両制御装置及び車両制御方法
JP5158677B2 (ja) ドライバ特性検出装置
JP4443327B2 (ja) 情報表示装置
WO2008038374A1 (fr) Dispositif de production de pseudo-émotion, procédé de production de pseudo-émotion, programme de production de pseudo-émotion, et support d'enregistrement lisible par ordinateur
US20200307644A1 (en) Control system for vehicle, notification method for vehicle, and medium
JP2000047569A (ja) 安全運転判定装置
JP4421668B2 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP2010237827A (ja) 車両操作診断装置、車両操作診断方法及びコンピュータプログラム
JP4421667B2 (ja) 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP4926182B2 (ja) 信号認識装置、信号認識方法、信号認識プログラム、および記録媒体
WO2008038375A1 (fr) Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur
WO2008010392A1 (fr) dispositif de traitement d'informations, procédé de traitement d'informations, programme de traitement d'informations et support d'enregistrement lisible par un ordinateur
JP5052117B2 (ja) 運転支援装置及びその方法
JP6332838B2 (ja) 運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06810787

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008536255

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06810787

Country of ref document: EP

Kind code of ref document: A1