WO2017183523A1 - 感情決定システム、システム及びプログラム - Google Patents

感情決定システム、システム及びプログラム Download PDF

Info

Publication number
WO2017183523A1
WO2017183523A1 PCT/JP2017/014873 JP2017014873W WO2017183523A1 WO 2017183523 A1 WO2017183523 A1 WO 2017183523A1 JP 2017014873 W JP2017014873 W JP 2017014873W WO 2017183523 A1 WO2017183523 A1 WO 2017183523A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
secretion
determination system
emotion determination
unit
Prior art date
Application number
PCT/JP2017/014873
Other languages
English (en)
French (fr)
Inventor
孫 正義
筒井 多圭志
康介 朝長
清 大浦
Original Assignee
Cocoro Sb株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cocoro Sb株式会社 filed Critical Cocoro Sb株式会社
Priority to CN201780023333.8A priority Critical patent/CN109074509A/zh
Priority to EP17785862.8A priority patent/EP3435291A4/en
Publication of WO2017183523A1 publication Critical patent/WO2017183523A1/ja
Priority to US16/163,594 priority patent/US20190051413A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/06Combustion engines, Gas turbines
    • B60W2510/0638Engine speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/10Change speed gearings
    • B60W2510/104Output speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour

Definitions

  • the present invention relates to an emotion determination system, system, and program.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2011-253389
  • Patent Document 2 Japanese Patent Application Laid-Open No. 10-254592
  • Patent Document 3 Japanese Patent Application Publication No. 2013-535067
  • an emotion determination system may include an input information generation unit that generates input information for determining the emotion of the target object based on detection signals from one or more sensors provided in the target object.
  • the emotion determination system may include a secretion information generation unit that generates secretion information indicating a secretion amount of one or more endocrine substances based on the detection signal.
  • the emotion determination system may include a parameter adjustment unit that adjusts a calculation parameter for determining emotion from input information based on the secretion amount of the endocrine substance indicated by the secretion information.
  • the emotion determination system may include a first correspondence information storage unit that stores first correspondence information that associates each of the plurality of sensors with the secretion amount of the endocrine substance.
  • the secretion information generation unit may change the secretion amount of the endocrine substance associated with each sensor by the first correspondence information according to the measurement value indicated by each detection signal of the plurality of sensors.
  • the emotion determination system may include an emotion determination unit that determines an emotion from input information using a calculation parameter.
  • the emotion determination unit may determine an emotion using a neural network that receives input information.
  • the calculation parameter may be a coupling coefficient of an artificial synapse included in the neural network.
  • the emotion determination system may include a second correspondence information storage unit that stores second correspondence information that associates each of the plurality of artificial synapses with an endocrine substance.
  • the parameter adjustment unit may change the coupling coefficient of each of the plurality of artificial synapses associated with the endocrine substance by the second correspondence information according to the secretion amount of the endocrine substance indicated by the secretion information.
  • the input information generation unit may acquire a measurement value indicated by the detection signal at a predetermined frequency and generate an input value having a predetermined value for the neural network.
  • the secretory information generation unit may change the secretion amount of the endocrine substance according to the measurement value.
  • the input information generation unit may generate an input value of a predetermined value for the neural network at a different frequency for each of the plurality of sensors.
  • the neural network may include a plurality of emotional artificial neurons, which are artificial neurons with defined emotions.
  • the emotion determination unit may determine the current emotion based on the current firing state of each of the plurality of emotion artificial neurons.
  • the secretory information generation unit may change the secretion amount of the endocrine substance according to the amount of time change of the measurement value indicated by the detection signal.
  • the emotion determination system may include a control unit that controls the target object according to the emotion.
  • a system may include the emotion determination system described above and a target object.
  • a program for causing a computer to function as the emotion determination system is provided.
  • FIG. 1 schematically shows a configuration of a vehicle 10 according to an embodiment.
  • a block configuration of the emotion determination system 100 is schematically shown together with a recording medium 290.
  • An emotion map 300 is schematically shown.
  • 1 schematically shows a part of a neural network used by the emotion determination system 100. It is an example of the sensor corresponding
  • 3 is a flowchart showing the operation of each unit in the emotion determination system 100. 4 schematically shows information output from the UI unit 180.
  • FIG. 1 schematically shows a configuration of a vehicle 10 according to an embodiment.
  • the vehicle 10 includes an emotion determination system 100, a sensor unit 110, an ECU 120 that is an electronic control unit, and a UI unit 180 that provides a user interface (UI) with an occupant of the vehicle 10.
  • the vehicle 10 is an automobile.
  • the vehicle 10 is an example of a target object of the emotion determination system 100.
  • the sensor unit 110 has a plurality of sensors that detect the state of each part of the vehicle 10.
  • the sensor unit 110 includes a wheel speed sensor that detects the rotational speed of at least one of the front wheels and the rear wheels, an accelerator opening sensor that detects the amount of depression of the accelerator pedal by the driver, and a throttle opening that detects the opening of the throttle valve.
  • Sensor engine speed sensor for detecting the speed of the engine or motor as a prime mover, output speed sensor for detecting the output speed of the transmission, longitudinal acceleration sensor for detecting the longitudinal acceleration, substantially in the longitudinal direction Lateral acceleration sensor that detects orthogonal acceleration in the left-right direction, yaw rate sensor that detects the rate of change of the rotation angle in the turning direction, steering angle sensor that detects the steering amount by the driver, and brake pedal depression amount by the driver Including a brake sensor that detects the remaining amount of fuel or battery, etc. Good.
  • Each of the sensors included in the sensor unit 110 outputs a detection signal to the ECU 120 that is an electronic control device.
  • the electronic control unit 29 performs a calculation based on the acquired detection signal, and outputs the calculation result to each part of the vehicle 10 as a control command signal.
  • Emotion determination system 100 may acquire a detection signal from ECU 120 via CAN or the like. The emotion determination system 100 performs an operation based on the acquired detection signal and determines an emotion to be assigned to the vehicle 10. Emotion determination system 100 controls vehicle 10 based on the determined emotion. For example, the emotion determination system 100 causes the UI unit 180 to display a face mark expressing the determined emotion. In addition, the emotion determination system 100 may output a voice with a tone corresponding to the emotion from the UI unit 180 and talk with the user 190 who is a driver of the vehicle 10.
  • FIG. 2 schematically shows a block configuration of the emotion determination system 100 together with a recording medium 290.
  • the emotion determination system 100 includes a processing unit 270 and a storage unit 280.
  • the processing unit 270 includes a secretion information generation unit 200, an input information generation unit 210, a parameter adjustment unit 220, an emotion determination unit 260, and a control unit 250.
  • Emotion determination unit 260 includes NN calculation unit 230 and emotion determination unit 240.
  • the input information generation unit 210 generates input information for determining the emotion of the vehicle 10 based on detection signals from one or more sensors provided in the vehicle 10. For example, the input information generation unit 210 generates input information for determining the emotion of the vehicle 10 based on detection signals from the sensors included in the sensor unit 110.
  • the secretion information generation unit 200 generates secretion information indicating the secretion amount of one or more endocrine substances based on detection signals from one or more sensors provided in the vehicle 10. For example, the secretion information generation unit 200 generates secretion information indicating the secretion amount of one or more endocrine substances based on detection signals from the sensors included in the sensor unit 110. Examples of endocrine substances include noradrenaline, dopamine, CRH (corticotropin releasing hormone) and the like. The secretory information indicating the secretory amount of the endocrine substance is pseudo-generated as the internal information in the emotion determination system 100 and does not actually secrete the endocrine substance. In addition, the secretion information generation unit 200 may change the secretion amount of the endocrine substance according to the time change amount of the measurement value indicated by the detection signal.
  • the parameter adjustment unit 220 adjusts a calculation parameter for determining emotion from input information based on the secretion amount of the endocrine substance indicated by the secretion information generated by the secretion information generation unit 200. And the emotion determination part 260 determines an emotion from input information using a calculation parameter.
  • the storage unit 280 stores correspondence information that associates each of the plurality of sensors of the sensor unit 110 with the secretion amount of the endocrine substance.
  • the secretion information generation unit 200 changes the secretion amount of the endocrine substance associated with each sensor according to the correspondence information, according to the measurement value indicated by the detection signal of each of the plurality of sensors.
  • the emotion determination unit 260 determines an emotion using a neural network (NN) that receives input information.
  • NN neural network
  • the NN calculation unit 230 calculates a neural network
  • the emotion determination unit 240 determines an emotion based on the result of the neural network calculation by the NN calculation unit 230, thereby determining the emotion.
  • the calculation parameter adjusted by the parameter adjustment unit 220 may be an artificial synapse coupling coefficient included in the neural network.
  • the storage unit 280 stores correspondence information that associates each of a plurality of artificial synapses with an endocrine substance.
  • the parameter adjustment unit 220 changes the coupling coefficient of each of the plurality of artificial synapses associated with the endocrine substance according to the correspondence information according to the secretion amount of the endocrine substance indicated by the secretion information generated by the secretion information generation unit 200. .
  • the input information generation unit 210 acquires a measurement value indicated by the detection signal at a predetermined frequency, and generates an input value having a predetermined value for the neural network.
  • the secretion information generation unit 200 changes the secretion amount of the endocrine substance according to the measurement value indicated by the detection signal.
  • the secretion information generation unit 200 changes the secretion amount of the endocrine substance according to the magnitude of the measurement value indicated by the detection signal.
  • the input information generation unit 210 may generate an input value of a predetermined value for the neural network at a different frequency for each of the plurality of sensors.
  • the input frequency of the input value based on the accelerator opening may be higher than the input frequency of the input value based on the roll angle.
  • the frequency may vary depending on the type of the target object. For example, when the target object is a two-wheeled vehicle, the input frequency of the input value based on the roll angle may be set higher than when the target object is a four-wheeled vehicle. This is because, in a two-wheeled vehicle, the roll angle changes greatly, so that the influence on emotions is great.
  • the neural network includes a plurality of emotional artificial neurons, which are artificial neurons in which emotions are defined.
  • the emotion determination unit 260 determines the current emotion based on the current firing state of each of the plurality of emotion artificial neurons. For example, the emotion determination unit 260 may determine the emotion assigned to the fired emotional artificial neuron as the vehicle 10 emotion.
  • the control unit 250 controls the vehicle 10 according to the emotion determined by the emotion determination unit 260. For example, when the emotion determination unit 260 determines the emotion of “fun”, the control unit 250 displays a smile face mark on the UI unit 180. In addition, the control unit 250 may output a voice with a bright tone from the UI unit 180 and talk with the user 190. Further, the control unit 250 may display a bright tone sentence on the UI unit 180 and talk with the user 190.
  • each part of the emotion determination system 100 may be realized by a computer.
  • the processing unit 270 may be realized by a processor such as an MPU
  • the storage unit 280 may be realized by a recording medium such as a nonvolatile memory.
  • the storage unit 280 may store a program executed by the processor. When the processor executes the program, the secretory information generation unit 200, the input information generation unit 210, the parameter adjustment unit 220, the emotion determination unit 260 including the NN calculation unit 230 and the emotion determination unit 240, and the control unit 250 It may be mounted and the control of the storage unit 280 may be realized.
  • the program may be read by a processor from a recording medium 290 such as an optical disk and stored in the storage unit 280, or may be provided to the emotion determination system 100 through a network and stored in the storage unit 280.
  • the storage unit 280 and the recording medium 290 may be computer-readable non-transitory recording media.
  • FIG. 3 schematically shows the emotion map 300.
  • the emotions are arranged concentrically radially from the center. The closer to the center of the concentric circles, the more primitive emotions are placed. Outside the concentric circles, emotions representing the state and behavior born from the emotional state are arranged. Emotion is a concept that includes emotions and mental states. On the left side of the concentric circles, emotions generated from reactions that occur in the brain are generally arranged. On the right side of the concentric circles, emotions induced by situation judgment are generally arranged.
  • the neural network to be calculated by the NN calculation unit 230 includes an artificial neuron assigned to each emotion shown in the emotion map 300.
  • an artificial neuron for input is also assigned to each of the first input and the second input located on the innermost side of the concentric circle in the emotion map 300.
  • Input information based on a detection signal from the sensor unit 110 is input to each of the input artificial neurons assigned to the first input and the second input. Then, artificial neurons are generally connected by artificial synapses from the inside to the outside to form a neural network.
  • the input information based on the detection signal of each sensor of the sensor unit 110 is input to the input artificial neuron assigned to the first input or input to the input artificial neuron assigned to the second input. Whether it is input to both the input artificial neuron assigned to the first input and the input artificial neuron assigned to the second input may be determined by design.
  • the NN operation unit 230 repeatedly performs a neural network operation based on the input information to determine the firing state of each artificial neuron.
  • the emotion determination unit 240 determines the emotion of the vehicle 10 from the firing state of each artificial neuron. For example, the emotion determination unit 240 determines an emotion to which the fired artificial neuron is assigned as one emotion that the vehicle 10 has.
  • FIG. 4 schematically shows a part of the neural network used by the emotion determination system 100.
  • a part of the illustrated neural network includes artificial neurons N 1 , N 2 , N 3 , N 4 and N 5 and artificial synapses S 12 , S 14 , S 23 , S 25 , S 42 , S 43 , S 45. and a and S 53.
  • Artificial neurons correspond to neurons in the living body.
  • An artificial synapse corresponds to a synapse in a living body.
  • E 1 indicates input information based on the detection signal.
  • Artificial neuron N 1 is an artificial neuron for input. The n pieces of input information E 1 1 ... Input information E n 1 generated based on the detection signals of the sensors are input to the artificial neuron N 1 .
  • Artificial Synapse S 12 is an artificial synapses for connecting the neurons and N 1 and the artificial neuron N 2.
  • the artificial synapse S 12 the output of the artificial neuron N 1, an artificial synapse inputs to the artificial neuron N 2.
  • the artificial synapse S 14 is an artificial synapse that connects the artificial neuron N 1 and the artificial neuron N 4 .
  • the artificial synapse S 14 is an artificial synapse that inputs the output of the artificial neuron N 1 to the artificial neuron N 4 .
  • an artificial synapse in which j and k are integers and the output of the artificial neuron N j is input to the artificial neuron N k is denoted as an artificial synapse S jk .
  • each artificial neuron is denoted by N i.
  • N i has a S i representing the status of the N i, and V i m which represents the internal state of the artificial neuron represented by N i, and T i which represents the threshold of the ignition of the N i as a parameter.
  • the artificial synapse S jk has a coupling coefficient BS jk as a parameter.
  • the artificial neuron may be collectively referred to as an artificial neuron N with its subscript omitted.
  • the artificial synapse is collectively referred to as an artificial synapse S with its subscript omitted.
  • the parameters of the artificial neuron may be collectively referred to as internal information Vm, threshold value T, and status S with their subscripts omitted.
  • the status S, the internal state Vm, and the threshold T of the artificial neuron N are parameters that can be updated as time progresses.
  • the status S is information regarding the firing state of the neuron, and indicates at least whether the artificial neuron is in the firing state or in the non-firing state.
  • the internal state Vm is information relating to the membrane potential of the neuron, and is an example of a parameter representing the internal state or output of the artificial neuron N.
  • the coupling coefficient BS which is a parameter of the artificial synapse S, is a parameter that can be updated as time advances.
  • the coupling coefficient BS is information relating to synaptic plasticity, and indicates the coupling strength between the artificial neurons N to which the artificial synapse S is coupled.
  • the NN calculation unit 230 updates the above-described parameters in the neural network from the input information, and calculates the internal state Vm of each artificial neuron N.
  • the status S of the artificial neuron N is “fired”.
  • the artificial neuron N outputs a predetermined signal over a predetermined time.
  • the status S of N returns to the last ignition.
  • NN arithmetic unit 230 an input I 2 to N 2, is calculated by BS 12 ⁇ Vm 1 ⁇ f ( S 1) + BS 42 ⁇ Vm 4 ⁇ f (S 4).
  • f (S) is a function that returns 0 when S is a value indicating unfired, and returns 1 when S is a value indicating the rising phase or the falling phase.
  • f (S) a function corresponding to another transfer model of the membrane potential may be applied.
  • NN calculation unit 230 an input I i to N i, is calculated by ⁇ j BS ji ⁇ Vm j ⁇ f (S j) + ⁇ j E j i.
  • the NN operation unit 230 calculates the inputs I i and S i to the N i at the next time using the BS ji , Vm j , S j , and E j at the current time.
  • the NN calculation unit 230 repeats this in time to determine the status S of each artificial neuron N in real time.
  • the emotion determination unit 240 determines the emotion of the vehicle 10 based on the status S of each artificial neuron N. For example, when an artificial neuron assigned with the emotion “fun” in FIG. 3 fires, the emotion determination unit 240 may determine that the vehicle 10 has the emotion “fun”.
  • the secretion information generation unit 200 adjusts the BS based on the detection signal from the sensor unit 110. For example, when the accelerator opening sensor of the sensor unit 110 detects that the accelerator opening is 100%, the secretion information generation unit 200 outputs the secretion amount of “noradrenaline” and the secretion of “dopamine” as internal variables. Increase the amount. Then, the binding coefficient BS of the artificial synapse S associated with at least one of “noradrenaline” and “dopamine” is adjusted based on the secretion amount of “noradrenaline” and the secretion amount of “dopamine”.
  • Each sensor of the sensor unit 110 is associated with a specific endocrine substance, and the secretion amount of the endocrine substance is associated with the binding coefficient BS of the specific artificial synapse S.
  • the ease of transmission of the signal in the artificial synapses S at various places in the neural network can be changed by the detection signal of the sensor unit 110 via the secretion amount of the internal secretory substance. Therefore, various emotions can be generated from the detection signal detected by the sensor unit 110.
  • FIG. 5 is an example of sensor correspondence information that associates the accelerator opening with the endocrine substance.
  • Storage unit 280 stores information indicating dopamine and noradrenaline in association with a plurality of values of the accelerator opening. More specifically, the storage unit 280 stores information indicating a combination of an increase in the amount of secreted dopamine and an increase in the amount of secreted noradrenaline in association with each accelerator opening. In addition, the increase amount of secretion amount is shown by the ratio with respect to the upper limit of the secretion amount which the internal variable which the NN calculating part 230 uses represents.
  • Stepping on the accelerator means that the vehicle 10 is going to travel. This corresponds to a person trying to run, compared to a person.
  • noradrenaline is secreted and sugar is sent into the blood when running.
  • dopamine is secreted by exercise. Therefore, the accelerator depression amount in the vehicle 10 is associated with the secretion of noradrenaline and dopamine.
  • noradrenaline is involved in anxiety and fear in addition to suppressing a decrease in blood glucose level. Therefore, as shown in the figure, it is preferable that the amount of increase in the secretion of noradrenaline increases as the accelerator opening increases. This is because an increase in the accelerator opening degree leads to an increase in the traveling speed of the vehicle 10, and thus anxiety and fear are likely to occur.
  • dopamine when the accelerator opening is 100%, a smaller increase in secretion is associated with when the accelerator opening is 20%. Since dopamine is related to happiness in humans, it is desirable to reduce the increase in dopamine secretion when the accelerator opening is very high. For example, it is preferable that the increase in secretion of dopamine has a maximum value when the accelerator opening is less than 100%.
  • dopamine and noradrenaline are associated with the accelerator opening.
  • an increased amount of secretion of more endocrine substances may be associated with the accelerator opening.
  • the increase in secretion associated with the accelerator opening may be different for each type of target object. For example, when the target object is a two-wheeled vehicle, a larger amount of increased secretion of noradrenaline may be associated with the target object than when the target object is a four-wheeled vehicle. Further, when the target object is a two-wheeled vehicle, a smaller amount of increased secretion of dopamine may be associated with the target object than when the target object is a four-wheeled vehicle. In motorcycles, the impact on the human body in the event of an accident is greater than in four-wheeled vehicles, so increasing the accelerator opening may increase fear and decrease happiness. Because.
  • FIG. 6 is an example of sensor correspondence information that associates a roll angle with an endocrine substance.
  • the storage unit 280 stores information indicating CRH in association with the roll angle. More specifically, the storage unit 280 stores information indicating an increase in the amount of secreted CRH in association with a plurality of roll angle values.
  • the increase in the roll angle of the vehicle 10 corresponds to the inclination of the body when compared to a human.
  • CRH secretion is promoted to protect against stress.
  • the roll angle is associated with the secretion of CRH. Specifically, the larger the roll angle, the higher the CRH secretion increased. This is because the greater the roll angle, the greater the stress.
  • the amount of increase in secretion associated with the roll angle may be different for each type of target object. For example, when the target object is a two-wheeled vehicle, a larger amount of increased CRH secretion may be associated with the target object than when the target object is a four-wheeled vehicle. This is because, in a two-wheeled vehicle, compared to a four-wheeled vehicle, the risk of falling due to an increase in the roll angle is increased, so it is considered that the fear of increasing the roll angle is further increased.
  • the measured values of the accelerator opening and the roll angle are associated with the increase in secretion of endocrine substances.
  • the measured value of any other sensor may be associated with the increase in secretion of the endocrine substance.
  • discrete values were shown for the measured values of accelerator opening and roll angle and the increase in secretion of endocrine substances.
  • the secretion increase amount of the endocrine substance may be associated with a continuous function or the like using the measurement value as a variable.
  • the amount of time change of the measurement value May be associated with increased secretion of endocrine substances.
  • FIG. 7 is an example of association coefficient correspondence information that associates the amount of noradrenaline with the association coefficient BS.
  • Storage unit 280 in association with total amount of secreted noradrenaline, and increase the coefficient of coupling coefficient BS 14 of the artificial synapse S 14, the increase factor of the coupling coefficient BS 45 of the artificial synapse S 45, the coupling coefficient of the artificial synapse S 43 Information for associating the increase coefficient of the BS 43 is stored. It is assumed that the artificial synapse S taken up here is connected to the artificial neuron N by strong coupling.
  • the increase coefficient of BS 14 and the increase coefficient of BS 45 are associated with larger values as the amount of noradrenaline increases.
  • the increase coefficient of BS 43 is associated with a smaller value as the amount of noradrenaline increases.
  • the increase coefficient may be set so that the coupling coefficient BS of the artificial synapse S can be adjusted in a direction that makes the output destination artificial neuron N difficult to fire.
  • the increase coefficient may be set so that the coupling coefficient BS of the artificial synapse S can be adjusted in a direction that makes the output destination artificial neuron N difficult to fire.
  • the parameter adjustment unit 220 refers to the binding coefficient correspondence information and adjusts the corresponding binding coefficient BS by an amount corresponding to the total secretion amount of each endocrine substance.
  • the secretion information generation unit 200 determines the total secretion amount of each endocrine substance according to the measurement value from each sensor. Therefore, the adjustment amount of the coupling coefficient BS can be adjusted in a complex manner from the measured values of each sensor, and consequently the emotional artificial neuron can be fired in various combinations.
  • the relationship between each sensor and the endocrine substance in the vehicle 10 and the relationship between each endocrine substance and the coupling coefficient BS are replaced with humans to make them correspond to each other. Can be generated.
  • FIG. 8 is a flowchart showing the operation of each unit in the emotion determination system 100.
  • the NN operation unit 230 performs initial setting of parameters of the neural network.
  • the NN calculation unit 230 reads the initial parameter values from the storage unit 280, and initializes the neural network parameters (step 802).
  • a processing loop for each time is started in step 804.
  • step 806 the input information generation unit 210 and the secretion information generation unit 200 acquire a detection signal from the sensor unit 110.
  • step 808 the input information generation unit 210 generates input information to the input artificial neuron assigned to the first input and input information to the input artificial neuron assigned to the second input.
  • the input information generation unit 210 generates, as input information, a fixed value input pulse generated at a specified sampling interval for obtaining a detection signal from each sensor.
  • step 810 the secretory information generation unit 200 determines the endocrine substance based on the sensor correspondence information described in connection with, for example, FIG. 5 and FIG. Calculate the amount of secretion. Subsequently, in step 812, the parameter adjustment unit 220 calculates the coupling coefficient BS of each artificial synapse S.
  • step 814 the NN operation unit 230 calculates the input I to each artificial neuron according to the formula described in relation to FIG.
  • step 816 the NN operation unit 230 calculates the internal state Vm of each artificial neuron based on the input I to each artificial neuron.
  • step 820 the NN calculation unit 230 determines an emotional artificial neuron that is firing based on the internal state Vm and the threshold value T of each emotional artificial neuron.
  • step 822 the emotion determination unit 240 determines the emotion of the vehicle 10 based on the fired emotion artificial neuron. Thereby, the emotion determination unit 260 assigns an emotion corresponding to the ignited emotional artificial neuron as the emotion of the vehicle 10. The emotion determination unit 240 may determine that the vehicle 10 feels more strongly the emotion corresponding to the emotional artificial neuron having a larger internal state Vm among the fired emotional artificial neurons.
  • step 824 the control unit 250 controls each unit of the vehicle 10 based on the emotion determined in step 822.
  • the emotion determination system 100 determines whether or not to end the loop. For example, when it is instructed to end the emotion generation process, it is determined to end the loop. If the loop is not terminated, the process returns to S804 to calculate the next time step. When the loop is finished, this flow is finished.
  • FIG. 9 schematically shows information output from the UI unit 180.
  • the emotion determination unit 260 determines that the vehicle 10 has emotions of “love”, “sad”, and “anxiety”.
  • the control unit 250 causes the display unit 182 of the navigation device as an example of the UI unit 180 to display the facial expression object 900 associated with the determined emotion.
  • the control unit 250 causes the audio output unit 184 to output a voice associated with the determined emotion and the current state of the vehicle 10.
  • the coupling coefficient BS of the artificial synapse S is mainly described as an adjustment parameter, as described with reference to FIG.
  • the adjustment parameter is not limited to the coupling coefficient BS of the artificial synapse S.
  • a threshold value T of the artificial neuron N an output value from the artificial neuron N when the artificial neuron N fires, and the like can be exemplified.
  • the function of the emotion determination system 100 may be implemented by a plurality of computers.
  • some of the functions of the emotion determination system 100 are implemented by a computer provided in the vehicle 10, and other functions of the emotion determination system 100 communicate with a computer provided in the vehicle 10 via a communication network. It may be implemented by one or more computers provided outside the vehicle 10. The functions of one or more computers provided outside the vehicle 10 may be implemented in the cloud.
  • the vehicle 10 is not limited to a four-wheeled vehicle, and may be various automobiles such as a two-wheeled vehicle.
  • the vehicle 10 may be an electric vehicle or a hybrid vehicle including an electric motor as at least a part of power.
  • the vehicle 10 is an example of a system including an emotion determination system.
  • Various forms other than the vehicle can be adopted as the system including the emotion determination system.
  • As a system provided with an emotion determination system various vehicles other than vehicles, robots, electrical equipment, buildings, and the like can be exemplified.

Abstract

感情決定システムは、対象オブジェクトに設けられている1以上のセンサからの検出信号に基づいて、対象オブジェクトの感情を決定するための入力情報を生成する入力情報生成部と、検出信号に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する分泌情報生成部と、分泌情報が示す内分泌物質の分泌量に基づいて、入力情報から感情を決定するための演算パラメータを調整するパラメータ調整部とを備える。

Description

感情決定システム、システム及びプログラム
 本発明は、感情決定システム、システム及びプログラムに関する。
 ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られている(例えば、特許文献1参照)。また、ユーザ情報、機器情報及び自身の現在の感情状態を入力して次回の感情状態を出力するニューラルネットを備える感情生成装置が知られている(例えば、特許文献2参照)。また、方向性人工シナプス接続性を有するレイヤ・ニューラルネット関係を有する複数の電子ニューロンを含む連想メモリに時空パターンを記憶する技術が知られている(例えば、特許文献3参照)。
 [先行技術文献]
 [特許文献]
 [特許文献1]特開2011-253389号公報
 [特許文献2]特開平10-254592号公報
 [特許文献3]特表2013-535067号公報
解決しようとする課題
 従来、センサで検出された情報から多様な感情を生み出すことができないという課題があった。
一般的開示
 本発明の第1の態様においては、感情決定システムが提供される。感情決定システムは、対象オブジェクトに設けられている1以上のセンサからの検出信号に基づいて、対象オブジェクトの感情を決定するための入力情報を生成する入力情報生成部を備えてよい。感情決定システムは、検出信号に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する分泌情報生成部を備えてよい。感情決定システムは、分泌情報が示す内分泌物質の分泌量に基づいて、入力情報から感情を決定するための演算パラメータを調整するパラメータ調整部を備えてよい。
 感情決定システムは、複数のセンサのそれぞれと内分泌物質の分泌量とを対応付ける第1対応情報を格納する第1対応情報格納部を備えてよい。分泌情報生成部は、複数のセンサのそれぞれの検出信号が示す測定値に応じて、第1対応情報によってそれぞれのセンサに対応づけられている内分泌物質の分泌量を変化させてよい。
 感情決定システムは、演算パラメータを用いて、入力情報から感情を決定する感情決定部を備えてよい。
 感情決定部は、入力情報を入力とするニューラルネットワークを用いて、感情を決定してよい。
 演算パラメータは、ニューラルネットワークに含まれる人工シナプスの結合係数であってよい。
 感情決定システムは、複数の人工シナプスのそれぞれと内分泌物質とを対応づける第2対応情報を格納する第2対応情報格納部を備えてよい。パラメータ調整部は、分泌情報が示す内分泌物質の分泌量に応じて、第2対応情報によって内分泌物質が対応づけられている複数の人工シナプスのそれぞれの結合係数を変化させてよい。
 入力情報生成部は、検出信号が示す測定値を予め定められた頻度で取得して、ニューラルネットワークに対する予め定められた値の入力値を生成してよい。分泌情報生成部は、測定値に応じて、内分泌物質の分泌量を変化させてよい。
 入力情報生成部は、複数のセンサ毎に異なる頻度で、ニューラルネットワークに対する予め定められた値の入力値を生成してよい。
 ニューラルネットワークは、感情が定められた人工ニューロンである複数の感情人工ニューロンを含んでいよい。感情決定部は、複数の感情人工ニューロンのそれぞれの現在の発火状態に基づいて、現在の感情を決定してよい。
 分泌情報生成部は、検出信号が示す測定値の時間変化量に応じて、内分泌物質の分泌量を変化させてよい。
 感情決定システムは、感情に応じて、対象オブジェクトを制御する制御部を備えてよい。
 本発明の第2の態様においては、システムが提供される。システムは、上記の感情決定システムと、対象オブジェクトとを備えてよい。
 本発明の第3の態様においては、コンピュータを、上記の感情決定システムとして機能させるためのプログラムが提供される。
 なお、上記の一般的開示は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションも、発明となりうる。
一実施形態に係る車両10の構成を概略的に示す。 感情決定システム100のブロック構成を、記録媒体290とともに概略的に示す。 感情マップ300を概略的に示す。 感情決定システム100が用いるニューラルネットワークの一部を概略的に示す。 アクセル開度と内分泌物質とを対応づけるセンサ対応情報の一例である。 ロール角と内分泌物質とを対応づけるセンサ対応情報の一例である。 ノルアドレナリン量と結合係数BSとを対応づける結合係数対応情報の一例である。 感情決定システム100における各部の動作を示すフローチャートである。 UI部180から出力される情報を概略的に示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、一実施形態に係る車両10の構成を概略的に示す。車両10は、感情決定システム100と、センサ部110と、電子制御ユニットであるECU120と、車両10の乗員とのユーザインタフェース(UI)を提供するUI部180を備える。なお、車両10は、自動車である。車両10は、感情決定システム100の対象オブジェクトの一例である。
 センサ部110は、車両10の各部の状態を検出する複数のセンサを有する。例えば、センサ部110は、前輪及び後輪の少なくとも一方の回転速度を検出する車輪速センサ、ドライバによるアクセルペダルの踏み込み量を検出するアクセル開度センサ、スロットルバルブの開度を検出するスロットル開度センサ、原動機としてのエンジン又はモータの回転数を検出するエンジン回転数センサ、変速機の出力回転数を検出する出力回転数センサ、前後方向の加速度を検出する前後加速度センサ、前後方向に実質的に直交する左右方向の加速度を検出する横加速度センサ、旋回方向への回転角の変化速度を検出するヨーレートセンサ、ドライバによるステアリングの操舵量を検出する操舵角センサ、ドライバによるブレーキペダルの踏込み量を検出するブレーキセンサ、燃料又は電池の残量を検出する残量センサ等を含んでよい。センサ部110が有する上記の各センサは、電子制御装置であるECU120に検出信号を出力する。電子制御装置29は、取得した検出信号に基づいて演算を行い、演算結果を制御指令信号として車両10の各部に出力する。
 センサ部110が有する上述の各種センサは、感情決定システム100に検出信号を出力する。なお、感情決定システム100は、ECU120からCAN等を介して検出信号を取得してもよい。感情決定システム100は、取得した検出信号に基づいて演算を行い、車両10に割り当てる感情を決定する。感情決定システム100は、決定した感情に基づいて、車両10を制御する。例えば、感情決定システム100は、UI部180に、決定した感情を表現する顔マークを表示させる。また、感情決定システム100は、感情に応じた口調の音声をUI部180から出力させて、車両10のドライバであるユーザ190と会話してよい。
 図2は、感情決定システム100のブロック構成を、記録媒体290とともに概略的に示す。感情決定システム100は、処理部270と、格納部280とを備える。処理部270は、分泌情報生成部200と、入力情報生成部210と、パラメータ調整部220と、感情決定部260と、制御部250とを備える。感情決定部260は、NN演算部230と感情判定部240とを有する。
 入力情報生成部210は、車両10に設けられている1以上のセンサからの検出信号に基づいて、車両10の感情を決定するための入力情報を生成する。例えば、入力情報生成部210は、センサ部110が有する各センサからの検出信号に基づいて、車両10の感情を決定するための入力情報を生成する。
 分泌情報生成部200は、車両10に設けられている1以上のセンサからの検出信号に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する。例えば、分泌情報生成部200は、センサ部110が有する各センサからの検出信号に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する。内分泌物質としては、ノルアドレナリン、ドーパミン、CRH(コルチコトロピン放出ホルモン)等を例示できる。なお、内分泌物質の分泌量を示す分泌情報は、感情決定システム100における内部情報として擬似的に生成されるものであり、内分泌物質を実際に分泌させるわけではない。なお、分泌情報生成部200は、検出信号が示す測定値の時間変化量に応じて、内分泌物質の分泌量を変化させてよい。
 パラメータ調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に基づいて、入力情報から感情を決定するための演算パラメータを調整する。そして、感情決定部260は、演算パラメータを用いて、入力情報から感情を決定する。
 格納部280は、センサ部110が有する複数のセンサのそれぞれと内分泌物質の分泌量とを対応付ける対応情報を格納する。分泌情報生成部200は、複数のセンサのそれぞれの検出信号が示す測定値に応じて、当該対応情報によってそれぞれのセンサに対応づけられている内分泌物質の分泌量を変化させる。
 なお、感情決定部260は、入力情報を入力とするニューラルネットワーク(NN)を用いて、感情を決定する。具体的には、NN演算部230がニューラルネットワークの演算を行い、感情判定部240がNN演算部230によるニューラルネットワークの演算結果に基づいて感情を判定することにより、感情を決定する。ここで、パラメータ調整部220が調整する演算パラメータは、ニューラルネットワークに含まれる人工シナプスの結合係数であってよい。
 格納部280は、複数の人工シナプスのそれぞれと内分泌物質とを対応づける対応情報を格納する。パラメータ調整部220は、分泌情報生成部200が生成した分泌情報が示す内分泌物質の分泌量に応じて、対応情報によって内分泌物質が対応づけられている複数の人工シナプスのそれぞれの結合係数を変化させる。
 なお、入力情報生成部210は、検出信号が示す測定値を予め定められた頻度で取得して、ニューラルネットワークに対する予め定められた値の入力値を生成する。一方、分泌情報生成部200は、検出信号が示す測定値に応じて、内分泌物質の分泌量を変化させる。例えば、分泌情報生成部200は、検出信号が示す測定値の大きさに応じて、内分泌物質の分泌量を変化させる。
 入力情報生成部210は、複数のセンサ毎に異なる頻度で、ニューラルネットワークに対する予め定められた値の入力値を生成してよい。例えば、車両10においては、アクセル開度に基づく入力値の入力頻度を、ロール角に基づく入力値の入力頻度より高くしてよい。頻度は、対象オブジェクトの種別によって異ならせてよい。例えば、対象オブジェクトが二輪車である場合、対象オブジェクトが四輪車である場合に比べて、ロール角に基づく入力値の入力頻度より高くしてよい。二輪車においてはロール角が大きく変化するため、感情に与える影響も大きいからである。
 なお、ニューラルネットワークは、感情が定められた人工ニューロンである複数の感情人工ニューロンを含む。感情決定部260は、複数の感情人工ニューロンのそれぞれの現在の発火状態に基づいて、現在の感情を決定する。例えば、感情決定部260は、車両10の感情として、発火した感情人工ニューロンに割り当てられている感情を決定してよい。
 制御部250は、感情決定部260が決定した感情に応じて、車両10を制御する。例えば、感情決定部260によって「楽しい」という感情が決定された場合、制御部250は、笑顔の顔マークをUI部180に表示させる。また、制御部250は、明るい口調の音声をUI部180から出力させて、ユーザ190と会話してよい。また、制御部250は、明るい口調の文章をUI部180に表示させて、ユーザ190と会話してよい。
 感情決定システム100の各部の機能、コンピュータにより実現されてよい。例えば、処理部270は、MPU等のプロセッサ等によって実現され、格納部280は、不揮発性メモリ等の記録媒体により実現されてよい。格納部280は、プロセッサによって実行されるプログラムを格納してよい。プロセッサが当該プログラムを実行することで、分泌情報生成部200、入力情報生成部210及びパラメータ調整部220と、NN演算部230及び感情判定部240を含む感情決定部260と、制御部250とが実装され、格納部280の制御が実現されてよい。当該プログラムは、プロセッサが光ディスク等の記録媒体290から読み取られて格納部280に格納されてよいし、ネットワークを通じて感情決定システム100に提供されて格納部280に格納されてよい。格納部280及び記録媒体290は、コンピュータ読み取り可能な非一時的記録媒体であってよい。
 図3は、感情マップ300を概略的に示す。感情マップ300において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。
 NN演算部230が演算対象とするニューラルネットワークは、感情マップ300に示す各感情に割り当てられた人工ニューロンを含む。ニューラルネットワークはまた、感情マップ300において同心円の最も内側に位置する第1入力及び第2入力にも、それぞれ入力用の人工ニューロンが割り当てられている。第1入力及び第2入力に割り当てられたそれぞれの入力用の人工ニューロンには、センサ部110からの検出信号に基づく入力情報が入力される。そして、概ね内側から外側に向かって人工ニューロンが人工シナプスで接続されて、ニューラルネットワークを形成する。なお、センサ部110の各センサの検出信号に基づく入力情報が、第1入力に割り当てられた入力用の人工ニューロンに入力されるか、第2入力に割り当てられた入力用の人工ニューロンに入力されるか、第1入力に割り当てられた入力用の人工ニューロン及び第2入力に割り当てられた入力用の人工ニューロンの両方に入力されるかは、設計によって定められてよい。
 NN演算部230は、入力情報に基づいて繰り返しニューラルネットワークの演算を行って、各人工ニューロンの発火状態を決定する。感情判定部240は、各人工ニューロンの発火状態から車両10の感情を判定する。例えば、感情判定部240は、発火した人工ニューロンが割り当てられている感情を、車両10が持つ1つの感情として判定する。
 図4は、感情決定システム100が用いるニューラルネットワークの一部を概略的に示す。図示されるニューラルネットワークの一部は、人工ニューロンN、N、N、N及びNと、人工シナプスS12、S14、S23、S25、S42、S43、S45及びS53とを含む。人工ニューロンは、生体におけるニューロンに対応する。人工シナプスは、生体におけるシナプスに対応する。
 Eは、検出信号に基づく入力情報を示す。人工ニューロンNは、入力用の人工ニューロンである。人工ニューロンNには、それぞれセンサの検出信号に基づいて生成されたn個の入力情報E ・・・入力情報E が入力される。
 人工シナプスS12は、人工ニューロンNと人工ニューロンNとを接続する人工シナプスである。特に、人工シナプスS12は、人工ニューロンNの出力を、人工ニューロンNに入力する人工シナプスである。人工シナプスS14は、人工ニューロンNと人工ニューロンNとを接続する人工シナプスである。特に、人工シナプスS14は、人工ニューロンNの出力を、人工ニューロンNに入力する人工シナプスである。なお、j、kを整数として、人工ニューロンNの出力を人工ニューロンNに入力する人工シナプスを、人工シナプスSjkと表記する。
 ここで、iを整数として、各人工ニューロンをNで表記するものとする。Nは、Nのステータスを表すSと、Nが表す人工ニューロンの内部状態を表すVmと、Nの発火の閾値を表すTとをパラメータとして持つ。また、人工シナプスSjkは、パラメータとして、結合係数BSjkを持つ。なお、本実施形態においては、人工ニューロンを、その添え字を省略して人工ニューロンNと総称する場合がある。また、人工シナプスを、その添え字を省略して人工シナプスSと総称する場合がある。同様に、人工ニューロンのパラメータについても、それらの添え字を省略して、内部情報Vm、閾値T、ステータスSと総称する場合がある。
 人工ニューロンNのステータスS、内部状態Vm、及び閾値Tは、時刻の進展とともに更新され得るパラメータである。ステータスSは、ニューロンの発火状態に関する情報であり、人工ニューロンが発火状態にあるか非発火状態にあるかを少なくとも示す。内部状態Vmは、ニューロンの膜電位に関する情報であり、人工ニューロンNの内部状態又は出力を表すパラメータの一例である。
 また、人工シナプスSのパラメータである結合係数BSは、時刻の進展とともに更新され得るパラメータである。結合係数BSは、シナプスの可塑性に関する情報であり、人工シナプスSが結合する人工ニューロンN同士の間の結合強度を示す。
 NN演算部230は、入力情報から、ニューラルネットワークにおける上述したパラメータを更新して、各人工ニューロンNの内部状態Vmを算出する。なお、本実施形態において、人工ニューロンNは、内部状態Vmが閾値Tを超えた場合に、ステータスSが「発火」状態となる。発火状態になると、人工ニューロンNからは、予め定められた時間にわたって予め定められた信号を出力する。予め定められた時間が経過すると、NのステータスSは末発火に戻る。
 ここで、NN演算部230による演算内容を、Nを取り上げてより具体的に説明する。NN演算部230は、Nへの入力Iを、BS12×Vm×f(S)+BS42×Vm×f(S)により算出する。ここで、f(S)は、Sが未発火を表す値の場合は0を返し、Sが上昇相又は下降相を示す値の場合は1を返す関数である。なお、このf(S)は、ニューロンが発火した場合のみシナプスが活動電位を伝達するモデルに対応する。なお、f(S)=1であってもよい。これは、ニューロンの発火状態によらず膜電位を伝達するモデルに対応する。f(S)として、膜電位の他の伝達モデルに対応する関数を適用してよい。
 一般には、NN演算部230は、Nへの入力Iを、ΣBSji×Vm×f(S)+Σ により算出する。NN演算部230は、現時刻におけるBSji、Vm、S、Eを用いて、次の時刻におけるNへの入力I及びS等を算出する。NN演算部230は、これを時間的に繰り返すことにより、各人工ニューロンNのステータスSをリアルタイムに決定する。そして、感情判定部240は、各人工ニューロンNのステータスSに基づき、車両10の感情を判定する。例えば、図3における「楽しい」という感情が割り当てられた人工ニューロンが発火した場合、感情判定部240は、車両10が「楽しい」という感情を持つと判定し得る。
 ここで、分泌情報生成部200は、センサ部110からの検出信号に基づいて、BSを調整する。例えば、センサ部110のアクセル開度センサによって、アクセル開度が100%であることが検出された場合、分泌情報生成部200は、内部変数としての「ノルアドレナリン」の分泌量及び「ドーパミン」の分泌量を増加させる。そして、「ノルアドレナリン」の分泌量及び「ドーパミン」の分泌量に基づいて、「ノルアドレナリン」及び「ドーパミン」の少なくとも一方に対応づけられた人工シナプスSの結合係数BSを調整する。
 センサ部110の各センサには、特定の内分泌物質が対応づけられており、内部分泌物質の分泌量は、特定の人工シナプスSの結合係数BSに対応づけられている。これにより、センサ部110の検出信号によって、内部分泌物質の分泌量を介して、ニューラルネットワークにおける各所の人工シナプスSにおける信号の伝わり易さを変えることができる。そのため、センサ部110で検出された検出信号から多様な感情を生み出すことが可能になる。
 図5は、アクセル開度と内分泌物質とを対応づけるセンサ対応情報の一例である。格納部280は、アクセル開度の複数の値に対応づけて、ドーパミン及びノルアドレナリンを示す情報を格納する。より具体的には、格納部280は、アクセル開度のそれぞれに対応づけて、ドーパミンの分泌量の増加量と、ノルアドレナリンの分泌量の増加量の組み合わせを示す情報を格納する。なお、分泌量の増加量は、NN演算部230が使用する内部変数が表す分泌量の上限値に対する割合で示す。
 アクセルを踏み込むことは、車両10を走行させようとすることを意味する。これは、人間に例えると、人間が走ろうとすることに対応する。人間においては、走る場合にはノルアドレナリンが分泌され、糖が血液中に送り込まれる。また、人間においては、運動をするとドーパミンが分泌される。そこで、車両10におけるアクセルの踏み込み量は、ノルアドレナリンやドーパミンの分泌に対応づけられる。
 なお、ノルアドレナリンは、血糖値の低下を抑制することに加えて、不安感や恐怖心にも関与している。そのため、図示されるように、アクセル開度が大きいほど、ノルアドレナリンの分泌増加量が多くなるようにすることが好ましい。アクセル開度が大きくすることは車両10の走行速度が上がることにつながるので、不安感や恐怖感が生じ易くなるためである。一方、ドーパミンについては、アクセル開度が100%の場合に、アクセル開度が20%の場合より少ない分泌増加量が対応づけられている。人間においてドーパミンは幸福感に関連するので、アクセル開度が非常に高い場合は、ドーパミンの分泌増加量を減少させることが望ましい。例えば、アクセル開度が100%未満の開度において、ドーパミンの分泌増加量が極大値を持つようにすることが好ましい。
 なお、本図に示す対応情報によれば、アクセル開度にドーパミン及びノルアドレナリンが対応づけられる。しかし、より多くの内分泌物質の分泌増加量が、アクセル開度に対応づけられてよい。
 なお、アクセル開度に対応づけられる分泌増加量は、対象オブジェクトの種別毎に異なってよい。例えば、対象オブジェクトが二輪車の場合、対象オブジェクトが四輪車の場合と比べて、より多量のノルアドレナリンの分泌増加量が対応づけられてよい。また、対象オブジェクトが二輪車の場合、対象オブジェクトが四輪車の場合と比べて、より少量のドーパミンの分泌増加量が対応づけられてよい。二輪車においては、四輪車に比べて、事故が生じた場合の人体への影響が大きくなるので、アクセル開度を大きくすれば恐怖感がより高まったり、幸福感がより減少したりすると考えられるからである。
 図6は、ロール角と内分泌物質とを対応づけるセンサ対応情報の一例である。格納部280は、ロール角に対応づけて、CRHを示す情報を格納する。より具体的には、格納部280は、ロール角の複数の値に対応づけて、CRHの分泌量の増加量を示す情報を格納する。
 車両10のロール角が大きくなることは、人間に例えると体が傾くことに対応する。体が傾いた場合は、ストレスから防御するためにCRHの分泌が促される。そこで、ロール角は、CRHの分泌に対応づけられる。具体的には、ロール角が大きいほど、CRHの分泌増加量としてより多い値が対応づけられる。ロール角が大きいほど、より大きなストレスがかかると考えられるためである。
 なお、本図に示す対応情報によれば、ロール角にCRHのみが対応づけられる。しかし、より多くの内分泌物質の分泌増加量が、ロール角に対応づけられてよい。
 なお、ロール角に対応づけられる分泌増加量は、対象オブジェクトの種別毎に異なってよい。例えば、対象オブジェクトが二輪車の場合、対象オブジェクトが四輪車の場合と比べて、より多量のCRH分泌増加量が対応づけられてよい。二輪車においては、四輪車に比べて、ロール角が高まることによる転倒の危険性が高まるので、ロール角を大きくすることによる恐怖心がより高まると考えられるからである。
 図5及び図6において、アクセル開度及びロール角の測定値が内部分泌物質の分泌増加量と対応づけられることを説明した。しかし、他の任意のセンサの測定値が、内部分泌物質の分泌増加量と対応づけられてよい。また、分かり易く説明することを目的として、アクセル開度やロール角の測定値及び内部分泌物質の分泌増加量について離散的な数値を示したが、測定値の連続的な変化に対して連続的な内部分泌物質の分泌増加量が得られるよう、測定値を変数とする連続関数等によって、内部分泌物質の分泌増加量が対応づけられるようにしてよい。なお、センサ対応情報として、測定値を内部分泌物質の分泌増加量と対応づけることに代えて、又は測定値を内部分泌物質の分泌増加量と対応づけることに加えて、測定値の時間変化量を内部分泌物質の分泌増加量と対応づけてよい。
 図7は、ノルアドレナリン量と結合係数BSとを対応づける結合係数対応情報の一例である。格納部280は、ノルアドレナリンの総分泌量に対応づけて、人工シナプスS14の結合係数BS14の増加係数と、人工シナプスS45の結合係数BS45の増加係数と、人工シナプスS43の結合係数BS43の増加係数とを対応づける情報を格納する。なお、ここで取り上げる人工シナプスSは、強結合で人工ニューロンNを接続しているとする。
 図示されるように、BS14の増加係数及びBS45の増加係数には、ノルアドレナリン量が多くなるほどより大きい値が対応づけられる。一方、BS43の増加係数には、ノルアドレナリン量が多くなるほどより小さい値が対応づけられる。これにより、例えば、図4に示すニューラルネットワークにおいて、NからNに向かう方向より、NからNに向かう方向の方が、入力情報により生じた信号が伝わり易くなる。そのため、NからNに向かう方向に配置された人工ニューロンが、より発火し易くなる。そのため、例えば図3に示す感情マップにおいて、ノルアドレナリンが増えるほど、同心円の中心部に対して特定の方向に配置された感情、例えば「不安」や「怖い」という感情が発火し易くなる。そのため、人間に生じる感情に似た感情が車両10で生まれ易くなるようにすることができる。
 なお、ここでは、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させ易くする方向に調整する場合について説明した。しかし、人工シナプスSの結合係数BSを、出力先の人工ニューロンNを発火させにくくする方向に調整できるように、増加係数が設定されていてもよい。例えば、人工シナプスSが強結合の場合は、増加係数を小さくすることで、出力先の人工ニューロンNを発火させにくくすることができる。なお、人工シナプスSが抑制結合で人工ニューロンNを接続している場合、増加係数を大きくすることで、出力先の人工ニューロンNを発火させにくくすることができ、増加係数を小さくすることで、出力先の人工ニューロンNを発火させ易くすることができる。
 パラメータ調整部220は、結合係数対応情報を参照して、各内部分泌物質の総分泌量に応じた量だけ、対応する結合係数BSを調整する。上述したように、分泌情報生成部200は、各内部分泌物質の総分泌量を、各センサからの測定値に応じて決定する。そのため、各センサの測定値から、結合係数BSの調整量を複雑に調整することができ、ひいては、多様な組み合わせで感情人工ニューロンを発火させることができる。しかも、車両10における各センサと内部分泌物質との関係、及び、各内部分泌物質と結合係数BSとの関係を、人間に置き換えて意味づけして対応づけることで、人間にとって違和感のない感情を生成できる。
 図8は、感情決定システム100における各部の動作を示すフローチャートである。感情生成処理を開始することが指示されると、ステップ502において、NN演算部230は、ニューラルネットワークのパラメータの初期設定を行う。例えば、NN演算部230は、格納部280からパラメータの初期値を読み出して、ニューラルネットワークのパラメータを初期化する(ステップ802)。初期設定が完了すると、ステップ804において、時刻毎の処理ループを開始する。
 ステップ806において、入力情報生成部210及び分泌情報生成部200は、センサ部110からの検出信号を取得する。ステップ808において、入力情報生成部210は、第1入力に割り当てられた入力用の人工ニューロンへの入力情報と、第2入力に割り当てられた入力用の人工ニューロンへの入力情報を生成する。入力情報生成部210は、各センサのそれぞれから検出信号を取得する規定のサンプリング間隔で生じる一定値の入力パルスを、入力情報として生成する。
 ステップ810において、分泌情報生成部200は、例えば図5、図6等に関連して説明したセンサ対応情報と、ステップ506で取得した各センサによる検出信号による測定値とに基づいて、内分泌物質の分泌量を算出する。続いて、ステップ812において、パラメータ調整部220は、各人工シナプスSの結合係数BSを算出する。
 続いて、ステップ814において、NN演算部230は、図4等に関連して説明した式により、各人工ニューロンへの入力Iを算出する。続いて、ステップ816において、NN演算部230は、各人工ニューロンへの入力Iに基づいて、各人工ニューロンの内部状態Vmを算出する。
 続いて、ステップ820において、NN演算部230は、各感情人工ニューロンの内部状態Vm及び閾値Tに基づいて、発火している感情人工ニューロンを決定する。ステップ822において、感情判定部240は、発火している感情人工ニューロンに基づいて、車両10の感情を判定する。これにより、感情決定部260は、車両10の感情として、発火している感情人工ニューロンに対応する感情を割り当てる。なお、感情判定部240は、発火している感情人工ニューロンのうち、内部状態Vmがより大きい感情人工ニューロンに対応する感情を、車両10がより強く感じていると判断してよい。続いて、ステップ824において、制御部250は、ステップ822において判定された感情に基づいて、車両10の各部を制御する。
 S830において、感情決定システム100は、ループを終了するか否かを判断する。例えば、感情生成処理を終了することが指示された場合に、ループを終了すると判断する。ループを終了しない場合、S804に戻り、更に次の時間ステップの計算を行う。ループを終了する場合、このフローを終了する。
 図9は、UI部180から出力される情報を概略的に示す。例えば、感情決定部260により、車両10が「愛しい」、「悲しい」及び「不安」の感情を持つと決定されたとする。このような場合、制御部250は、UI部180の一例としてのナビゲーション装置の表示部182に、決定された感情に対応づけられた表情のオブジェクト900を表示させる。また、制御部250は、決定された感情と現在の車両10の状況に対応づけられた音声を、音声出力部184から出力させる。
 これにより、ドライバは、あたかも車両10と喜びを分かち合ったり、苦しみを分かち合ったりできているような感覚を得ることができる。このように、ドライバは、車両10と感情を共有するような感覚を得ることができる。
 また、例えば日頃はステアリング操作が拙いドライバが、スムーズなステアリング操作で急カーブを通過したような場合には、車両10の感情として「嬉しい」が決定され、嬉しい気持ちを表す表情が表示部182に表示される。これにより、ドライバの気持ちがより良くなり、より上手に車両10を運転しようという気持ちになり易い。そのため、センサ情報に基づく情報を車両10の感情として表現することで、ドライバの運転技術の向上につながる場合がある。
 なお、以上の説明においては主として、例えば図7等に関連して説明したように、調整パラメータとして人工シナプスSの結合係数BSを取り上げて説明した。しかし、調整パラメータは、人工シナプスSの結合係数BSに限られない。例えば、調整パラメータとして、人工ニューロンNの閾値T、人工ニューロンNが発火した場合における当該人工ニューロンNからの出力値等を例示できる。
 また、感情決定システム100の機能は、複数のコンピュータによって実装されてよい。例えば、感情決定システム100の機能の一部の機能は、車両10に設けられたコンピュータによって実装され、感情決定システム100の他の機能は、車両10に設けられたコンピュータと通信ネットワークを介して通信する、車両10外に設けられた1以上のコンピュータによって実装されてよい。車両10外に設けられる1以上のコンピュータの機能は、クラウドで実装されてよい。
 車両10は、四輪車に限らず、二輪車等の種々の自動車であってよい。車両10は、少なくとも一部の動力として電動機を備える電気自動車又はハイブリッド自動車等であってよい。なお、車両10は、感情決定システムを備えるシステムの一例である。感情決定システムを備えるシステムとして、車両以外の様々な形態を採用し得る。感情決定システムを備えるシステムとして、車両以外の様々な乗物、ロボット、電気機器、建造物等を例示できる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 車両
100 感情決定システム
110 センサ部
180 UI部
190 ユーザ
200 分泌情報生成部
210 入力情報生成部
220 パラメータ調整部
230 NN演算部
240 感情判定部
250 制御部
260 感情決定部
270 処理部
280 格納部
290 記録媒体
300 感情マップ
182 表示部
184音声出力部
190 ユーザ
900 オブジェクト

Claims (13)

  1.  対象オブジェクトに設けられている1以上のセンサからの検出信号に基づいて、前記対象オブジェクトの感情を決定するための入力情報を生成する入力情報生成部と、
     前記検出信号に基づいて、1以上の内分泌物質の分泌量を示す分泌情報を生成する分泌情報生成部と、
     前記分泌情報が示す前記内分泌物質の分泌量に基づいて、前記入力情報から前記感情を決定するための演算パラメータを調整するパラメータ調整部と
    を備える感情決定システム。
  2.  複数の前記センサのそれぞれと前記内分泌物質の分泌量とを対応付ける第1対応情報を格納する第1対応情報格納部
    をさらに備え、
     前記分泌情報生成部は、前記複数のセンサのそれぞれの前記検出信号が示す測定値に応じて、前記第1対応情報によってそれぞれの前記センサに対応づけられている前記内分泌物質の分泌量を変化させる
    請求項1に記載の感情決定システム。
  3.  前記演算パラメータを用いて、前記入力情報から前記感情を決定する感情決定部
    をさらに備える請求項1又は2に記載の感情決定システム。
  4.  前記感情決定部は、前記入力情報を入力とするニューラルネットワークを用いて、前記感情を決定する
    請求項3に記載の感情決定システム。
  5.  前記演算パラメータは、前記ニューラルネットワークに含まれる人工シナプスの結合係数である
    請求項4に記載の感情決定システム。
  6.  複数の前記人工シナプスのそれぞれと前記内分泌物質とを対応づける第2対応情報を格納する第2対応情報格納部
    をさらに備え、
     前記パラメータ調整部は、前記分泌情報が示す前記内分泌物質の分泌量に応じて、前記第2対応情報によって前記内分泌物質が対応づけられている前記複数の人工シナプスのそれぞれの前記結合係数を変化させる
    請求項5に記載の感情決定システム。
  7.  前記入力情報生成部は、前記検出信号が示す測定値を予め定められた頻度で取得して、前記ニューラルネットワークに対する予め定められた値の入力値を生成し、
     前記分泌情報生成部は、前記測定値に応じて、前記内分泌物質の分泌量を変化させる
    請求項4から6のいずれか一項に記載の感情決定システム。
  8.  前記入力情報生成部は、複数の前記センサ毎に異なる前記頻度で、前記ニューラルネットワークに対する予め定められた値の入力値を生成する
    請求項7に記載の感情決定システム。
  9.  前記ニューラルネットワークは、感情が定められた人工ニューロンである複数の感情人工ニューロンを含み、
     前記感情決定部は、前記複数の感情人工ニューロンのそれぞれの現在の発火状態に基づいて、現在の前記感情を決定する
    請求項4から8のいずれか一項に記載の感情決定システム。
  10.  前記分泌情報生成部は、前記検出信号が示す測定値の時間変化量に応じて、前記内分泌物質の分泌量を変化させる
    請求項1から9のいずれか一項に記載の感情決定システム。
  11.  前記感情に応じて、前記対象オブジェクトを制御する制御部
    をさらに備える請求項1から10のいずれか一項に記載の感情決定システム。
  12.  請求項1から11のいずれか一項に記載の感情決定システムと、
     前記対象オブジェクトと
    を備えるシステム。
  13.  コンピュータを、請求項1から11のいずれか一項に記載の感情決定システムとして機能させるためのプログラム。
PCT/JP2017/014873 2016-04-19 2017-04-11 感情決定システム、システム及びプログラム WO2017183523A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780023333.8A CN109074509A (zh) 2016-04-19 2017-04-11 情感确定系统、系统及程序
EP17785862.8A EP3435291A4 (en) 2016-04-19 2017-04-11 SYSTEM OF DETERMINING EMOTION, SYSTEM, AND PROGRAM
US16/163,594 US20190051413A1 (en) 2016-04-19 2018-10-18 Emotion determining system, system, and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-084031 2016-04-19
JP2016084031A JP6273311B2 (ja) 2016-04-19 2016-04-19 感情決定システム、システム及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/163,594 Continuation US20190051413A1 (en) 2016-04-19 2018-10-18 Emotion determining system, system, and computer readable medium

Publications (1)

Publication Number Publication Date
WO2017183523A1 true WO2017183523A1 (ja) 2017-10-26

Family

ID=60115870

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/014873 WO2017183523A1 (ja) 2016-04-19 2017-04-11 感情決定システム、システム及びプログラム

Country Status (5)

Country Link
US (1) US20190051413A1 (ja)
EP (1) EP3435291A4 (ja)
JP (1) JP6273311B2 (ja)
CN (1) CN109074509A (ja)
WO (1) WO2017183523A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130701A1 (en) * 2017-06-27 2020-04-30 Kawasaki Jukogyo Kabushiki Kaisha Pseudo-emotion generation method, travel evaluation method, and travel evaluation system
JP7354888B2 (ja) * 2020-03-17 2023-10-03 トヨタ自動車株式会社 情報処理装置、プログラム、及び、情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254592A (ja) 1997-03-13 1998-09-25 Nec Corp 感情生成装置およびその方法
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2009053782A (ja) * 2007-08-24 2009-03-12 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2011253389A (ja) 2010-06-02 2011-12-15 Fujitsu Ltd 端末および擬似会話用返答情報作成プログラム
JP2013535067A (ja) 2010-06-30 2013-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 時空パターンを記憶する方法、そのためのシステム、およびコンピュータ・プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1083489A3 (en) * 1999-09-10 2003-12-03 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
WO2014017009A1 (ja) * 2012-07-26 2014-01-30 日産自動車株式会社 運転者状態推定装置、運転者状態推定方法
CN103869703A (zh) * 2014-03-28 2014-06-18 东华大学 一种基于内分泌单神经元pid控制器的无线监控系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254592A (ja) 1997-03-13 1998-09-25 Nec Corp 感情生成装置およびその方法
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2009053782A (ja) * 2007-08-24 2009-03-12 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2011253389A (ja) 2010-06-02 2011-12-15 Fujitsu Ltd 端末および擬似会話用返答情報作成プログラム
JP2013535067A (ja) 2010-06-30 2013-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 時空パターンを記憶する方法、そのためのシステム、およびコンピュータ・プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
See also references of EP3435291A4
TAKANORI KOMATSU ET AL.: "Positive Biofeedback for Entertainment Applications", JOURNAL OF JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, vol. 23, no. 3, 1 May 2008 (2008-05-01), pages 342 - 347, XP009510606, ISSN: 0912-8085 *
TOMONORI SHINDO: "Pepper no Kanjo Seisei Engine wa RNN o Riyo 7 Shu no Kasoteki Hormone o Mogi shite Kidoairaku", NIKKEI ELECTRONICS, 20 November 2015 (2015-11-20), pages 100 - 101, XP 009510604, ISSN: 0385-1680 *

Also Published As

Publication number Publication date
JP2017194805A (ja) 2017-10-26
CN109074509A (zh) 2018-12-21
EP3435291A1 (en) 2019-01-30
JP6273311B2 (ja) 2018-01-31
US20190051413A1 (en) 2019-02-14
EP3435291A4 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
JP6558719B2 (ja) 車両運転支援システム及び車両運転支援方法
JP7329755B2 (ja) 支援方法およびそれを利用した支援システム、支援装置
JP6315923B2 (ja) 対話型注意力アップ方法及び装置
US20180093673A1 (en) Utterance device and communication device
US10937334B2 (en) Information providing system
CN109263645A (zh) 用于调整机动车的运行参数的方法和系统以及机动车
JP2018106530A (ja) 運転支援装置および運転支援方法
CN108025743A (zh) 车辆用举动控制装置
WO2021248301A1 (zh) 自动驾驶系统的自学习方法、装置、设备及存储介质
EP3885220B1 (en) Automatically estimating skill levels and confidence levels of drivers
CN107886970A (zh) 信息提供装置
CN110155072B (zh) 防晕车方法和防晕车装置
WO2017183523A1 (ja) 感情決定システム、システム及びプログラム
EP4059796A1 (en) Control device and control method for motorcycle operation
JP6575933B2 (ja) 車両運転支援システム
CN109591880A (zh) 车辆转向助力的控制方法和装置、存储介质和车辆
CN115551757A (zh) 乘客筛查
KR20220156904A (ko) 운전자 스크리닝
JP4941659B2 (ja) 車両用操作反力制御装置
CN113928328A (zh) 受损驾驶辅助
WO2018189841A1 (ja) 車両の会話情報出力装置、及び会話情報出力方法
JP7207099B2 (ja) 自動車走行制御用の演算装置及びそれを用いた走行制御システム
WO2020039994A1 (ja) カーシェアリングシステム、運転制御調整装置、および車両の嗜好適合化方法
JP7116540B2 (ja) 運転アドバイス装置及び運転アドバイス方法
CN113619680B (zh) 自主驾驶员反馈系统和方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017785862

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017785862

Country of ref document: EP

Effective date: 20181023

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17785862

Country of ref document: EP

Kind code of ref document: A1