WO2008038375A1 - Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur - Google Patents

Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur Download PDF

Info

Publication number
WO2008038375A1
WO2008038375A1 PCT/JP2006/319341 JP2006319341W WO2008038375A1 WO 2008038375 A1 WO2008038375 A1 WO 2008038375A1 JP 2006319341 W JP2006319341 W JP 2006319341W WO 2008038375 A1 WO2008038375 A1 WO 2008038375A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
output
alert
driver
information processing
Prior art date
Application number
PCT/JP2006/319341
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to PCT/JP2006/319341 priority Critical patent/WO2008038375A1/ja
Priority to JP2008536256A priority patent/JPWO2008038375A1/ja
Publication of WO2008038375A1 publication Critical patent/WO2008038375A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • Information processing apparatus information processing method, information processing program, and computer-readable recording medium
  • the present invention relates to an information processing apparatus that processes information, an information processing method, an information processing program, and a computer-readable recording medium.
  • the use of the present invention is not limited to the above-described information processing apparatus, information processing method, information processing program, and computer-readable recording medium.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-251699
  • the above-described conventional technology is configured to output the warning guidance by voice. For example, if the driver misses or the driver is difficult to hear, it is difficult to understand the content of the warning guidance and the driver cannot promote safe driving.
  • an information processing apparatus is provided by an acquisition unit that acquires travel state information relating to a travel state of a moving body, and the acquisition unit acquires the information.
  • the selection means for selecting the alert information for alerting the driver of the moving body from the alert information candidate group according to the travel state information that has been made, and the alert information selected by the selector Output means for output, detection means for detecting fluctuation information regarding fluctuations in the running state of the moving body as a result of outputting the warning information by the output means, and the warning information output by the output means (Hereinafter referred to as “output information”) and recording means for associating and recording the fluctuation information detected by the detecting means.
  • the information processing method includes an acquisition step of acquiring traveling state information relating to a traveling state of a moving body, and alert information according to the traveling state information acquired by the acquiring step.
  • An information processing program according to claim 7 causes a computer to execute the information processing method according to claim 6.
  • the information processing program described in 7 is recorded.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an information processing apparatus according to the present embodiment.
  • FIG. 2 is a flowchart showing the contents of processing of the information processing apparatus according to the present embodiment.
  • FIG. 3 is an explanatory view showing an example of the vicinity of a dashboard of a vehicle in which a navigation device that is effective in the present embodiment is installed.
  • FIG. 4 is a block diagram showing an example of a hardware configuration of a navigation apparatus that is effective in the present embodiment.
  • FIG. 5 is an explanatory diagram showing an outline of selection of an operation program in the navigation device that is effective in the present embodiment.
  • FIG. 6 is a flowchart showing the contents of the processing of the navigation device which is effective in the present embodiment.
  • FIG. 7 is an explanatory view showing the result (part 1) of the review of the score in the navigation device that works on the present embodiment.
  • FIG. 8 is an explanatory view showing the result of the review of the score in the navigation device that works on the present embodiment (part 2).
  • FIG. 9 is an explanatory view showing the result (part 3) of the review of the score in the navigation device which is effective in the present embodiment.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an information processing apparatus that works according to the present embodiment.
  • an information processing apparatus 100 includes an acquisition unit 101, a selection unit 102, an output unit 103, a detection unit 104, and a recording unit 105.
  • the acquisition unit 101 acquires travel state information related to the travel state of the mobile object.
  • the driving state information is, for example, information including a driving tendency of a driver of a moving object, a sudden event or behavior that has occurred in the moving object, and the like.
  • the driving tendency is information including, for example, the driving skill of the driver, the intensity of driving, the quietness, and the like.
  • sudden events and behaviors may be caused by, for example, a G sensor or an acceleration sensor (not shown) that may collide with other objects, suddenly reduce (decrease) speed, or suddenly change the direction of travel. It may be detected in accordance with the output value of.
  • the driving state information may include information indicating the state inside and outside the vehicle.
  • Information indicating the inside / outside condition of the vehicle includes, for example, the distance between the front and rear vehicles, information on obstacles ahead on the road, information on the status of passengers in the rear seats, information on right and left turn points, traffic information, etc. It can be obtained from sensors and microphones that monitor the inside and outside of the car, and from the media and the Internet, which can be used to acquire the power of navigation.
  • the selection unit 102 selects the alert information for alerting the driver of the mobile body from the alert information candidate group according to the driving state information acquired by the acquiring unit 101.
  • the alerting candidate group may be recorded on a recording medium (not shown).
  • the alert information is, for example, information for calling attention to the passenger of the moving object, and is output by the output unit 103 described later, thereby prompting the passenger to be alerted.
  • the alert information includes all information that is output for the purpose of improving the driving condition, whether directly or indirectly. For example, express words such as joy and anxiety according to the driving situation even with words that directly require improvement of rough driving. As a result, the driver can feel that the vehicle-mounted robot feels sharing the driving situation with the driver, and the driver is motivated to improve their expressive feelings and improve through rough driving. It may be an indirect expression that seeks to obtain the effect.
  • the selection unit 102 may select alerting information that alerts the driver with a robot mounted on the moving body. That is, the selection unit 102 may select the alert information that alerts the driver by at least one of the light output, the motion output, and the sound output of the robot, for example.
  • the selection unit 102 refers to output information recorded by the recording unit 105, which will be described later, and fluctuation information detected by the detection unit 104, which will be described later, and selects attention information according to the driving state information. ⁇ ⁇ ⁇ as you do.
  • the output unit 103 outputs the alert information selected by the selection unit 102.
  • the output unit 103 may be configured to output a control signal for controlling the robot as output information to the robot. More specifically, for example, the output unit 103 may output a control signal for controlling at least one of light output, motion output, and sound output of the robot as output information to the robot.
  • the detection unit 104 detects variation information related to variation in the running state of the moving object. Specifically, for example, the detection unit 104 determines whether or not the traveling state has been improved based on the difference between the traveling state information acquired before and after the output of the output information acquired by the acquiring unit 101, and based on the determination result. Thus, the degree of improvement of the driving condition is calculated as fluctuation information.
  • the degree of improvement may be, for example, a value that is accumulated and stored in association with output information described later, or a value that increases or decreases each time.
  • the recording unit 105 records the alert information (hereinafter referred to as “output information”) output by the output unit 103 and the variation information detected by the detection unit 104 in association with each other.
  • output information and the variation information for example, a degree of improvement that is variation information may be recorded for a plurality of pieces of output information that may be recorded on a recording medium (not shown).
  • a recording medium not shown.
  • it is a configuration in which the degree of improvement calculated using the driving state that has fluctuated due to the output information for alerting the driver is recorded in association with the output information that caused the fluctuation.
  • FIG. 2 is a flowchart showing the contents of the processing of the information processing apparatus that is relevant to the present embodiment.
  • it is first determined whether or not the acquisition unit 101 has acquired the travel state information of the moving object (step S201).
  • step S201 when the travel state information is obtained after waiting for acquisition (step S201: Yes), the selection unit 102 adds the travel state information acquired in step S201. Accordingly, the alert information for alerting the driver of the moving body is selected from the alert information candidate group (step S202).
  • the alerting information selected in step S202 is output by the output unit 103 (step S203).
  • the alert information may be output, for example, by outputting a control signal for controlling the robot as output information to the robot.
  • step S204 variation information relating to variation in the running state of the moving object is detected (step S204).
  • the change information is acquired by, for example, determining whether or not the driving state has been improved based on the difference in the driving state information acquired by the acquiring unit 101 before and after the output of the output information, and based on the determination result.
  • the improvement degree of the running state may be calculated as the variation information.
  • the recording unit 105 records output information and variation information (step S205), and the series of processing ends.
  • the output information and the variation information are recorded by associating the output information that is the alert information output by the output unit 103 with the variation information detected by the detection unit 104.
  • step S202 the output information recorded in step S205 and the fluctuation information detected in step S204 are referred to in accordance with the driving state information. It is good also as selecting attention information.
  • the alert information for alerting may be output based on the output information and the variation information accumulated in S205. Also, instead of accumulatively recording information, it accumulates information, determines its average and trend, and outputs alert information for alerting based on it. It is good as well.
  • warning information that has been revised in real time due to changes in the driving state is output. It is good as well.
  • the information processing apparatus, information processing method, information processing program, and recording medium readable by the computer according to the present invention have the functions realized by the information processing apparatus 100 shown in FIG.
  • the configuration is not limited to the information processing apparatus 100, and a plurality of apparatuses may be used as long as the configuration includes the functional unit illustrated in FIG.
  • the connection between the devices may be established by performing communication by Bluetooth (registered trademark) or the like, regardless of wired or wireless.
  • the fluctuation information can be expressed by the degree of improvement based on whether or not the driving state is improved, the user can easily confirm the evaluation regarding the effect of the output information.
  • the driver can easily output a control signal that controls at least one of light output, motion output, and sound output by the robot, so that the driver can easily perform three-dimensionally. Understand warning information and drive safely.
  • FIG. 3 is an explanatory view showing an example of the vicinity of a dashboard of a vehicle in which a navigation device that is useful in this embodiment is installed.
  • the navigation apparatus 300 is installed on the dashboard of the vehicle.
  • the navigation device 300 includes a main body M and a display unit (display) D.
  • the display unit D displays the current location of the vehicle, map information, and the current time.
  • the navigation apparatus 300 is connected to an in-vehicle robot 310 installed on the dashboard.
  • the in-vehicle robot 310 includes a camera, a lamp, a microphone, a speaker, and the like (not shown), and performs various outputs according to control of a control signal output from the navigation device 300.
  • the in-vehicle robot 310 has a shape imitating a human or an animal, for example, and includes a drive unit such as an arm on the left and right sides, and is output from the navigation device 300.
  • the operation output of the drive unit may be performed in accordance with the control of the control signal.
  • the in-vehicle robot 310 may include a drive unit that swings the top / bottom / left / right, and outputs an operation of the drive unit according to control of a control signal output from the navigation device 300. It is good as well.
  • the top of the vehicle-mounted robot 310 may function as a camera.
  • the camera can rotate in the horizontal direction and the up-down direction to capture images inside and outside the vehicle.
  • the vehicle-mounted robot 310 may be configured to include a lamp, a microphone, and a speaker in the body portion, and may perform light output and sound collection and output using a lamp, microphone, and speaker. Further, it may have a display portion for displaying images, characters, etc. or a function for speaking words.
  • the vehicle-mounted robot 310 lights and blinks in various colors according to control of a control signal output from the navigation device 300 that may emit light entirely or partially. You can do it.
  • the vehicle-mounted robot 310 performs various outputs according to the control of the control signal output from the navigation device 300. It is configured to show the driver the action to encourage!
  • the power navigation device 300 which will be described in detail with reference to FIGS. 5 to 9, has a rank determined by acquiring indices and information indicating driving trends, behaviors and events, and conditions inside and outside the vehicle, and the rank. Based on the score set for each rank, an operation program in the vehicle-mounted robot 310 for indicating an operation to alert a passenger such as a driver or a passenger is determined. That is, the driver can be alerted by the vehicle-mounted robot 310 that operates in accordance with the control of the control signal output by the determined operation program.
  • the action for alerting may be, for example, an action that expresses a pseudo emotion caused by a driving tendency, a behavior, an event, or a situation inside or outside the car.
  • pseudo emotions can be a combination of multiple pseudo emotions that are angry anxiety, mild anxiety, great joy, anxiety with sadness, light joy, etc. Good.
  • the vehicle-mounted robot 310 as a passenger who is anxious to the driver, such as when a child or a pet is on the vehicle, the driver feels relaxed and tries to drive safely. Can be motivated to do.
  • the in-vehicle robot 310 acquires the driving situation and expresses emotions such as joy and anxiety according to the driving situation, so that the in-vehicle robot sympathizes with the driver about the driving situation. With the effect of feeling like this, the driver is motivated to receive the emotional expression, and will improve if it is rough and driving, and will continue if it is driving.
  • FIG. 4 is a block diagram showing an example of a hardware configuration of a navigation apparatus that works on the present embodiment.
  • a navigation device 300 is mounted on a moving body such as a vehicle, and includes a CPU 401, a ROM 402, a RAM 403, a magnetic disk drive 404, a magnetic disk 405, and an optical disk drive 406. , Optical disc 407, audio IZF (interface) 408, microphone 409, speaker 410, input device 411, video IZF412, display 413, communication IZF414, GPS unit 415, various sensors 416, camera 417 and a drive unit 418. Each component 401 to 418 is connected by a bus 420. It is connected.
  • the CPU 401 governs overall control of the navigation device 300.
  • the ROM 402 stores programs such as a boot program, a route search program, a route guidance program, a voice generation program, a map information display program, and an operation program.
  • the RAM 403 is used as a work area for the CPU 401.
  • the route search program searches for an optimum route from the departure point to the destination point using map information or the like recorded on the optical disc 407 described later.
  • the optimal route is the shortest (or fastest) route to the destination or the route that best meets the conditions specified by the user.
  • the guidance route searched by executing the route search program is output to the audio IZF 408 and the video IZF 412 via the CPU 401.
  • the route guidance program includes the guidance route information searched by executing the route search program, the current location information of the navigation device 300 acquired by the communication IZF414, and the map information read from the optical disc 407. Based on this, real-time route guidance information is generated.
  • the route guidance information generated by executing the route guidance program is output to the audio IZF 408 and the video IZF 412 via the CPU 401.
  • the voice generation program generates tone and voice information corresponding to the pattern.
  • the virtual sound source corresponding to the guidance point is set and the voice guidance information is generated, and output to the voice IZF 408 via the CPU 401.
  • the map information display program determines the display format of the map information displayed on the display 413 by the video I / F 412 and displays the map information on the display 413 according to the determined display format.
  • the operation program drives a drive unit 418, which will be described later, based on the driving tendency, behavior, and event of the vehicle. Details will be described with reference to FIGS. 5 to 9, but the motion program is selected by the driving unit 418 (for example, the vehicle-mounted robot 310 in FIG. Select an operation program using the grade table so that the driver, passengers, and other passengers will be alerted. To execute.
  • the operation may be, for example, a mechanical operation, light output by a sound output indicator, or a combination thereof.
  • the magnetic disk drive 404 controls reading and writing of data to the magnetic disk 405 according to the control of the CPU 401.
  • the magnetic disk 405 records data written under the control of the magnetic disk drive 404.
  • the magnetic disk 405 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 406 controls data reading / writing to the optical disk 407 in accordance with the control of the CPU 401.
  • the optical disc 407 is a detachable recording medium from which data is read according to the control of the optical disc drive 406.
  • the optical disk 407 can also use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disc 407, a memory card, or the like.
  • map information used for route search and route guidance.
  • the map information includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road, and can be displayed two-dimensionally or three-dimensionally on the display screen of the display 413. It is drawn.
  • the navigation device 300 is guiding a route, the map information and the current location of the own vehicle acquired by the GPS unit 415 described later are displayed in an overlapping manner.
  • the map information is recorded on the magnetic disk 405 and the optical disk 407.
  • the map information may be provided outside the navigation device 300, not the information recorded only in the one integrated with the navigation device 300 hardware. In that case, the navigation device 300 acquires the map information via the network through the communication IZF 414, for example.
  • the acquired map information is stored in the RAM 403 or the like.
  • the audio IZF 408 is connected to an audio input microphone 409 and an audio output speaker 410. Audio received by the microphone 409 is AZD converted in the audio IZF408. In addition, sound is output from the speaker 410. Note that the voice input from the microphone 409 can be recorded on the magnetic disk 405 or the optical disk 407 as voice data.
  • the microphone 409 and the speaker 410 are, for example, a drive unit 418 (for example, It may be installed in the in-vehicle robot 310) in Fig. 3 and may be rotated and driven according to the control of the operation program described above, and voice input / output may be performed.
  • a drive unit 418 for example, It may be installed in the in-vehicle robot 310) in Fig. 3 and may be rotated and driven according to the control of the operation program described above, and voice input / output may be performed.
  • the input device 411 includes a remote controller, a keyboard, a mouse, a touch panel, and the like, each having a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the video I / F 412 is connected to the display 413 and the camera 417.
  • the video I / F 412 includes, for example, a graphic controller that controls the entire display 413, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic Based on image data output from the controller, it is configured by a control IC that controls display of the display 413.
  • VRAM Video RAM
  • the display 413 displays icons, cursors, menus, windows, or various data such as characters and images.
  • this display 413 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.
  • the display 41 3 is installed, for example, in a manner like the display unit D in FIG.
  • display 413 and camera 417 take a picture according to the control of the operation program described above, which may be installed in drive unit 418 (for example, in-vehicle robot 310 in FIG. 3) described later. Or light output.
  • the camera 417 captures an image inside or outside the vehicle.
  • the image may be either a still image or a moving image.
  • the behavior of the passenger inside the vehicle may be photographed by the camera 417, or the situation outside the vehicle may be photographed.
  • the captured image may be output to a recording medium such as the magnetic disk 405 or the optical disk 407 via the video IZF 412 or used for determination of driving tendency, behavior, or event, which will be described later.
  • the communication IZF 414 is connected to a network via radio and functions as an interface between the navigation device 300 and the CPU 401.
  • the communication IZF 414 is further connected to a communication network such as the Internet via radio, and also functions as an interface between the communication network and the CPU 401.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • Communication IZF414 is composed of, for example, FM tuners, VICS (Vehicle Information and Communication System) Z beacon Resino, wireless navigation devices, and other navigation devices. Get traffic information.
  • VICS is a registered trademark.
  • the GPS unit 415 uses a received wave from a GPS satellite and output values from various sensors 416 (for example, an angular velocity sensor, an acceleration sensor, a tire rotation number, etc.) described later, Information indicating the current location of the location piggy-on device 300 is calculated.
  • the information indicating the current location is information that identifies one point on the map information, such as latitude'longitude and altitude.
  • the GPS unit 415 outputs an odometer, a speed change amount, and an azimuth change amount using output values from various sensors 416. This makes it possible to analyze dynamics such as sudden braking and sudden handling.
  • Various sensors 416 are a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and the like, and their output values are used for calculation of the current point by the GPS unit 415 and measurement of changes in speed and direction.
  • the various sensors 416 also include sensors that detect each operation of the vehicle by the driver.
  • the detection of each operation of the vehicle is a configuration that detects, for example, steering wheel operation, turn signal input, accelerator pedal depression, or brake pedal depression.
  • the various sensors 416 may detect the mind and body state of the passenger.
  • the pulse and blood pressure of the occupant may be detected by a skin contact sensor.
  • a human body sensor may detect the sweating of the passenger.
  • the acquisition unit 101, the selection unit 102, the output unit 103, the detection unit 104, and the recording unit 105 included in the information processing device 100 illustrated in FIG. 1 are the RO M402 in the navigation device 300 illustrated in FIG.
  • the CPU 401 executes a predetermined program using programs and data recorded in the RAM 403, the magnetic disk 405, the optical disk 407, etc., and controls each part in the navigation device 300 to realize the function.
  • the navigation apparatus 300 of the present embodiment can be used in the navigation apparatus 300.
  • the functions of the information processing apparatus 100 shown in FIG. 1 can be executed in the procedure shown in FIG.
  • FIG. 5 is an explanatory diagram showing an outline of selection of an operation program in the navigation apparatus that is useful in this embodiment.
  • the score table 500 shows a “trend” type such as driving tendency, behavior, event, and conditions inside and outside the vehicle, and a driving unit 418 (for example, FIG. 3) that alerts the passenger. And the score associated with the operation of the robot 310).
  • the driving tendency, behavior, or event of the "trend" type may be configured to set a rank.
  • trend A is ranked in three levels: Al, A2, and A3.
  • the ranks of the three levels are, for example, whether or not the power is higher than the default value of each rank, using the G value from the output of the acceleration sensor, vibration sensor, etc., speed, acceleration, road noise, angular speed, and speed according to the curve curvature. It can be said that ranking is performed by judging the above.
  • rank A3 is the roughest and driving tendency
  • a 1 is the most prominent, indicating a driving tendency. It may be.
  • the number of ranks is not limited to three. For example, there are two trends B and D, one for behavior C and event E, and there are four or more types of “trend” types. May be.
  • the operation indicates, for example, the operation of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) that alerts the passenger, and the rating according to the type of "trend" and its rank As a result, the operation program corresponding to the operation is selected.
  • the drive unit 418 for example, the vehicle-mounted robot 310 in FIG. 3
  • the rating according to the type of "trend" and its rank As a result, the operation program corresponding to the operation is selected.
  • the selection of the action program is, for example, for each “trend” (trend, behavior, event and its rank) for selecting an action.
  • Trend As shown in the scoring table 500, give a grading score as to whether or not it is effective in improving "".
  • the pre-score may be determined by an initial setting, or may be configured so that a high score is obtained for an operation in which the “trend” is improved by a test or survey.
  • the navigation device 300 selects the operation with the highest score for the "trend" determined according to the output values obtained by the various sensors 416 while the driver is driving the vehicle. Then, an operation program corresponding to the operation is executed.
  • the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) is operated according to the operation program, and the effect of whether or not the operation has been improved before and after the operation is measured. Based on the measurement result, the score is changed in real time, and the operation with the next highest score is selected continuously, and the operation program corresponding to the operation is executed. Then, when a predetermined improvement is obtained, the selection for the current “trend” is terminated.
  • the predetermined improvement may be changed according to the number of times of selection of the operation until the determination operation, for example, for one acquisition of “trend”. In this way, it is possible to prevent the selection of the operation from being continued indefinitely when the predetermined improvement is not achieved. In other words, when the next highest scoring action is selected continuously, the degree of improvement may be reduced each time.
  • the actions of the same grade are grouped, and the medium power of the group is random or the previous selection power has passed the most time! You can select the /, or action. It is also possible to select an action with a small number of implementations for a group with similar scores. Also, the history of decision actions for the same “trend” It may be a loop. With such a selection, it is possible to prevent a reduction in the effect of alerting due to operational familiarity.
  • the score table 500 obtained in this way may be recorded for each driver.
  • the navigation apparatus 300 may be configured to have a function of recognizing the driver, and a more accurate operation program can be selected.
  • FIG. 6 is a flowchart showing the contents of the processing of the navigation device that works on the present embodiment.
  • the index value may be an output value from an acceleration sensor or a vibration sensor, for example.
  • step S601 waiting for the index value to be acquired, and when it is acquired (step S601: Yes), the CPU 401 uses the index value acquired in step S601 to determine "trend". The type and rank are determined (step S602). If multiple trends are determined at the same time, determine the rank of each “trend” type.
  • the CPU 401 reads a score table recorded on a recording medium such as the magnetic disk 405 or the optical disk 407 (step S603).
  • the score table is, for example, the score table 500 shown in FIG. 5 and the configuration recorded for each power driver whose explanation is omitted in FIG. 6.
  • the CPU 401 selects an action according to the rank determined in step S602, using the score table read in step S603 (step S604).
  • CPU 401 operates drive unit 418 (for example, in-vehicle robot 310 in FIG. 3) according to the operation program corresponding to the operation selected in step S604! Based on the improvement of the “trend” in the result, the score is reviewed (step S605), and a series of processing ends.
  • drive unit 418 for example, in-vehicle robot 310 in FIG. 3
  • the score is reviewed (step S605), and a series of processing ends.
  • the operation a is an operation expressing anxiety accompanied by anger by the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3). More specifically, for example, the operation “a” is directed so that the direction of the same body part in the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. The top of the head may be directed toward the driver's face, and the arm may be swung up and down.
  • the operation b is an operation that expresses light anxiety by the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3). More specifically, for example, in the operation b, the body part of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) is directed forward, the whole body or a part is emitted yellow, and the top of the head is The driver may swing left and right several times based on the driver's direction, and swing his arm up and down moderately.
  • the operation c is an operation that expresses great pleasure by the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3). More specifically, for example, the operation c causes the body part of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) to face the driver, and the whole body or a part of the body emits blue light. The top of the head may be swung up and down, the arm may be greatly spread, stopped for a while, and then restored.
  • the operation d is an operation that expresses anxiety accompanied by sadness by the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3), for example. More specifically, for example, the operation d is performed by directing the body of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) toward the driver so that the whole body or part of the body emits yellow light and the top of the head is The driver's direction may be used as a reference, and the arm may be swung up and down moderately.
  • the operation z is an operation that expresses light pleasure by the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3), for example.
  • the operation d is such that the body part of the drive unit 418 (for example, the vehicle-mounted robot 310 in FIG. 3) is directed forward, the whole body or a part is emitted blue, and the top of the head is Swing up and down moderately, middle arm It is possible to repeat the operation of raising it and then restoring it.
  • the navigation apparatus 300 when the navigation apparatus 300 acquires an index indicating the rank A3 for the trend A in the score table 500, the navigation apparatus 300 selects the action a having the highest score from the actions corresponding to A3.
  • the navigation apparatus 300 executes the operation program corresponding to the operation a, acquires the index obtained as a result, and determines whether or not the improvement is made from A3. Then, the navigation apparatus 300 will review the score of the score table 500 based on the determination result of whether or not the improvement has been made.
  • the selection of an operation may be repeated.
  • the selection may be repeated until it falls one rank (that is, one rank is improved) or becomes a predetermined rank (for example, A1).
  • You may choose repeatedly. Here, it repeats until it is improved to A1 rank, but after the third selection, it will be explained that it will end if the improvement of 1 rank or more is made from the first rank.
  • the review of the score may be performed by the following methods, for example.
  • Fig. 7 shows the result of review of the scores in the navigation device that works well in this embodiment.
  • the action d with the highest score is selected from the actions corresponding to A3.
  • Action program corresponding to action d for A3 in grade table 700 If an index indicating A2 is obtained from the index obtained as a result of the execution, the score for A3 A of action d remains 2, and the score table 700 remains as a result of the score review.
  • operation d has been described as the highest score as an example.
  • the operation a having the same score may be reviewed again! /.
  • the motion z having the highest score is selected from the motions corresponding to A2.
  • the highest score for the action corresponding to A2 is 2, and any of action a, action d, and action z may be used. In this embodiment, action z is used.
  • Fig. 8 shows the result of the review of the scores in the navigation device that works well in this embodiment.
  • Fig. 9 shows the result of the review of the scores in the navigation device that works well in this embodiment.
  • an operation having a high score is selected according to "trend", and it is determined whether or not the "trend” is improved.
  • the score table it is possible to review the score table, so that it is possible to create a score table that is most suitable for selecting an action. In other words, it is possible to ensure safe driving because the operation is selected according to the optimal score table and the passenger is alerted.
  • the operation can be controlled by at least one of the light output, the operation output, and the sound output by the drive unit (vehicle-mounted robot). Therefore, the image of the driver's movement showing the attention easily in three dimensions it can. In addition, if the appearance of the drive unit (vehicle-mounted robot) is made familiar to the driver, the driver's awareness can be raised, and the driver can understand the operation reliably and optimally to drive safely. Can be achieved.
  • the information processing method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Description

明 細 書
情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータ に読み取り可能な記録媒体
技術分野
[0001] この発明は、情報を処理する情報処理装置、情報処理方法、情報処理プログラム およびコンピュータに読み取り可能な記録媒体に関する。ただし、この発明の利用は 、上述した情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに 読み取り可能な記録媒体には限られな 、。
背景技術
[0002] 車両などの移動体の走行は、急発進、急停車および急ノヽンドルなどの危険走行に よって、事故を引き起こしてしまうことがある。近年では、運転者に安全運転に対する 自覚を持たせるため、このような危険走行を検出して、危険走行が検出された場合に 警告案内を音声で出力する提案がされている (たとえば、下記特許文献 1参照。 ) o
[0003] 特許文献 1 :特開 2002— 251699号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述した従来技術では、警告案内を音声で出力しても、安全運転を おこなうか否かは運転者の運転に依存しており、確認することができない構成である 。したがって、所定の危険走行に対する警告案内の音声出力で、安全運転を促すこ とができな力つた場合であっても、所定の危険走行に対しては同様の警告案内を繰 り返すこととなるため、警告案内の効果が得られないばかりか、余計な音声出力によ つて運転者の集中力が散漫になってしまうという問題が一例として挙げられる。
[0005] 一方、所定の危険走行に対する警告案内の音声出力で、安全運転を促す効果が ある程度あった場合であっても、所定の危険走行に対して同様の警告案内を繰り返 すため、運転者が警告案内に慣れてしまい、安全運転を促すことができなくなつてし まうという問題が一例として挙げられる。
[0006] また、上述した従来技術では、警告案内を音声によって出力する構成であるため、 運転者が聞き逃したり、運転者が聞き取りにくい場合、警告案内の内容が理解しづら く、安全運転を促すことができな 、と 、う問題が一例として挙げられる。
課題を解決するための手段
[0007] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる情報処理 装置は、移動体の走行状態に関する走行状態情報を取得する取得手段と、前記取 得手段によって取得された走行状態情報に応じて、注意喚起情報候補群の中から、 前記移動体の運転者に注意喚起する注意喚起情報を選択する選択手段と、前記選 択手段によって選択された注意喚起情報を出力する出力手段と、前記出力手段によ つて注意喚起情報が出力された結果、当該移動体の前記走行状態の変動に関する 変動情報を検出する検出手段と、前記出力手段によって出力された注意喚起情報( 以下、「出力情報」という)と、前記検出手段によって検出された変動情報と、を関連 づけて記録する記録手段と、を備えることを特徴とする。
[0008] また、請求項 6の発明にかかる情報処理方法は、移動体の走行状態に関する走行 状態情報を取得する取得工程と、前記取得工程によって取得された走行状態情報 に応じて、注意喚起情報候補群の中から、前記移動体の運転者に注意喚起する注 意喚起情報を選択する選択工程と、前記選択工程によって選択された注意喚起情 報を出力する出力工程と、前記出力工程によって注意喚起情報が出力された結果、 当該移動体の前記走行状態の変動に関する変動情報を検出する検出工程と、前記 出力工程によって出力された注意喚起情報 (以下、「出力情報」という)と、前記検出 工程によって検出された変動情報と、を関連づけて記録する記録工程と、を含むこと を特徴とする。
[0009] また、請求項 7の発明に力かる情報処理プログラムは、請求項 6に記載の情報処理 方法をコンピュータに実行させることを特徴とする。
[0010] また、請求項 8の発明にかかるコンピュータに読み取り可能な記録媒体は、請求項
7に記載の情報処理プログラムを記録したことを特徴とする。
図面の簡単な説明
[0011] [図 1]図 1は、本実施の形態にかかる情報処理装置の機能的構成の一例を示すプロ ック図である。 [図 2]図 2は、本実施の形態にかかる情報処理装置の処理の内容を示すフローチヤ ートである。
[図 3]図 3は、本実施例に力かるナビゲーシヨン装置が設置された車両のダッシュボ ード付近の一例を示す説明図である。
[図 4]図 4は、本実施例に力かるナビゲーシヨン装置のハードウェア構成の一例を示 すブロック図である。
[図 5]図 5は、本実施例に力かるナビゲーシヨン装置における動作プログラムの選択の 概要を示す説明図である。
[図 6]図 6は、本実施例に力かるナビゲーシヨン装置の処理の内容を示すフローチヤ ートである。
[図 7]図 7は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (そ の 1)を示す説明図である。
[図 8]図 8は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (そ の 2)を示す説明図である。
[図 9]図 9は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (そ の 3)を示す説明図である。
符号の説明
[0012] 100 情報処理装置
101 取得部
102 選択部
103 出力部
104 検出部
105 記録部
発明を実施するための最良の形態
[0013] 以下に添付図面を参照して、この発明にかかる情報処理装置、情報処理方法、情 報処理プログラムおよびコンピュータに読み取り可能な記録媒体の好適な実施の形 態を詳細に説明する。
[0014] (実施の形態) (情報処理装置の機能的構成)
図 1を用いて、本実施の形態にかかる情報処理装置の機能的構成について説明 する。図 1は、本実施の形態に力かる情報処理装置の機能的構成の一例を示すプロ ック図である。
[0015] 図 1において、情報処理装置 100は、取得部 101と、選択部 102と、出力部 103と、 検出部 104と、記録部 105と、力 構成されている。
[0016] 取得部 101は、移動体の走行状態に関する走行状態情報を取得する。走行状態 情報は、たとえば、移動体の運転者の運転傾向や移動体に起きた突発的な事象や 挙動などを含む情報などである。運転傾向は、たとえば、運転者の運転技量や、運 転の激しさ、静かさなどの傾向を含む情報であり、運転者を認証することによって、運 転者の運転履歴力も取得したり、運転中における、運転の挙動に関するセンサの出 力値に基づいて、取得することとしてもよい。
[0017] また、突発的な事象や挙動は、たとえば、他の物体との衝突や、急カ卩 (減)速や、急 な進行方向の変更などでもよぐ図示しない Gセンサや加速度センサなどによる出力 値〖こ応じて検出することとしてもよい。また、走行状態情報には、車内外の状態を示 す情報を含めてもよい。車内外の状態を示す情報とは、たとえば、前後車両との車間 距離や、道路上におけるこの先の障害物の情報、後席の同乗者の状況を示す情報 、右左折地点の情報、渋滞情報などであり、車内外を監視するセンサーやマイク、力 一ナビ力 取得することとしてもよぐメディアやインターネットなどから取得することと してちよい。
[0018] 選択部 102は、取得部 101によって取得された走行状態情報に応じて、注意喚起 情報候補群の中から、移動体の運転者に注意喚起する注意喚起情報を選択する。 注意喚起候補群は、たとえば、図示しない記録媒体などに記録されている構成でも よい。注意喚起情報は、たとえば、移動体の搭乗者に対して注意を促すための情報 であり、後述する出力部 103によって出力されることにより、搭乗者に対して注意が促 されることとなる。また、注意喚起情報には、直接的か間接的かを問わず、走行状態 を改善する目的で出力するあらゆる情報を含む。たとえば、荒い運転の改善を直接 的に要求する言葉でもよぐ運転の状況に応じた喜びや不安などの感情を表現する ことで、運転者にとって車載用ロボットが運転の状況を運転者と共有共感したように 感じられる効果を得て、運転者はその表現感情を改善することを動機として、荒い運 転を進んで改善する効果を得ようとするような間接的な表現であってもよい。
[0019] 具体的には、たとえば、選択部 102は、移動体に搭載されたロボットによって運転 者に注意喚起する注意喚起情報を選択することとしてもよい。すなわち、選択部 102 は、たとえば、ロボットの光出力、動作出力、音出力の少なくともいずれか一つによつ て運転者に注意喚起する注意喚起情報を選択することとしてもよい。
[0020] また、選択部 102は、後述する記録部 105によって記録された出力情報および後 述する検出部 104によって検出された変動情報を参照して、走行状態情報に応じて 注意喚起情報を選択することとしてもょ ヽ。
[0021] 出力部 103は、選択部 102によって選択された注意喚起情報を出力する。具体的 には、たとえば、出力部 103は、ロボットを制御する制御信号を出力情報としてロボッ トに出力する構成でもよい。より具体的には、たとえば、出力部 103は、ロボットの光 出力、動作出力、音出力の少なくともいずれか一つ制御する制御信号を出力情報と してロボットに出力することとしてもよい。
[0022] 検出部 104は、出力部 103によって注意喚起情報が出力された結果、移動体の走 行状態の変動に関する変動情報を検出する。具体的には、たとえば、検出部 104は 、取得部 101によって取得された、出力情報の出力の前後の走行状態情報の差異 によって、走行状態が改善されたか否かを判定し、判定結果に基づいて、変動情報 として走行状態の改善度を算出する。改善度は、たとえば、後述する出力情報と関連 づけられて累積保存される値や、都度増減する値などでもよ ヽ。
[0023] 記録部 105は、出力部 103によって出力された注意喚起情報 (以下、「出力情報」 という)と、検出部 104によって検出された変動情報と、を関連づけて記録する。出力 情報、変動情報は、たとえば、図示しない記録媒体に記録する構成でもよぐ複数の 出力情報について、変動情報である改善度が記録されることとしてもよい。換言すれ ば、運転者に注意喚起するための出力情報によって変動した走行状態を用いて算 出された改善度を、変動の要因となった出力情報と関連づけて記録する構成である [0024] (情報処理装置の処理の内容)
つぎに、図 2を用いて本実施の形態に力かる情報処理装置 100の処理の内容につ いて説明する。図 2は、本実施の形態に力かる情報処理装置の処理の内容を示すフ ローチャートである。図 2のフローチャートにおいて、まず、取得部 101によって移動 体の走行状態情報を取得したか否かを判断する (ステップ S201)。
[0025] ステップ S201にお 、て、走行状態情報を取得するのを待って、取得した場合 (ステ ップ S201: Yes)は、選択部 102によって、ステップ S 201において取得された走行 状態情報に応じて、注意喚起情報候補群の中から、移動体の運転者に注意喚起す る注意喚起情報を選択する (ステップ S202)。
[0026] つぎに、出力部 103によって、ステップ S202において選択された注意喚起情報を 出力する (ステップ S 203)。注意喚起情報の出力は、たとえば、ロボットを制御する制 御信号を出力情報としてロボットに出力することとしてもよい。
[0027] そして、検出部 104によって、ステップ S203において注意喚起情報が出力された 結果、移動体の走行状態の変動に関する変動情報を検出する (ステップ S204)。変 動情報の取得は、たとえば、取得部 101によって取得された、出力情報の出力の前 後の走行状態情報の差異によって、走行状態が改善されたか否かを判定し、判定結 果に基づいて、変動情報として走行状態の改善度を算出することとしてもよい。
[0028] その後、記録部 105によって、出力情報、変動情報を記録して (ステップ S205)、 一連の処理を終了する。具体的には、たとえば、出力情報、変動情報の記録は、出 力部 103によって出力された注意喚起情報である出力情報と、検出部 104によって 検出された変動情報と、を関連づけて記録する。
[0029] また、図 2のフローチャートでは説明を省略するが、ステップ S202では、ステップ S 205において記録された出力情報およびステップ S204において検出された変動情 報を参照して、走行状態情報に応じて注意喚起情報を選択することとしてもよい。す なわち、図 2のフローチャートの処理を繰り返しおこなうことで、 S205において累積的 に記録される出力情報、変動情報を基に、注意喚起するための注意喚起情報を出 力することとしてもよい。また、累積的に記録する代わりに情報を蓄積していき、その 平均や傾向を判定して、それを基に、注意喚起するための注意喚起情報を出力する こととしてもよい。また、図 2のフローチャートの処理をリアルタイムにおこなうことで、 S 205において記録される最新の出力情報、変動情報に基づき、走行状態の変動によ りリアルタイムに内容を見直した注意喚起情報を出力することとしてもよい。
[0030] なお、本発明の情報処理装置、情報処理方法、情報処理プログラムおよびコンビュ ータに読み取り可能な記録媒体は、図 1に示した情報処理装置 100によって、その 機能を実現することとしたが、情報処理装置 100に限ることはなぐ図 1に示す機能部 を備える構成とすれば、複数の装置であってもよい。各機能部を異なる装置として接 続する場合、装置間の接続は、たとえば、有線、無線を問わず、 Bluetooth (登録商 標)などによって通信をおこなって接続することとしてもよい。
[0031] 以上説明したように、本実施の形態によれば、注意喚起情報の出力によって変動し た走行状態を検出して、出力情報と、変動情報とを関連づけて記録することができる 。したがって、出力情報と、変動情報との記録から、出力情報によって効果が得られ た力否かを確認することができ、以降の注意喚起情報の選択に役立てることができる 。すなわち、適切な注意喚起情報の出力によって、運転者による安全運転を図ること ができる。
[0032] また、出力情報および変動情報の記録を繰り返しおこなう構成であるため、常に最 大の効果を得られる注意喚起情報を選択することができる。換言すれば、運転者の 慣れによる効果の低下を予防することができる。
[0033] さらに、走行状態が改善された力否かに基づく改善度によって、変動情報を表すこ とができるため、利用者は、出力情報の効果に関する評価を容易に確認することが できる。
[0034] くわえて、ロボットによる光出力、動作出力、音出力の少なくともいずれか一つを制 御する制御信号を出力して注意喚起をすることができるため、運転者は三次元的に 容易に注意喚起情報を理解して、安全運転を図ることができる。
実施例
[0035] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の情報処理装置を実施した場合の一例について説明する。 [0036] (ナビゲーシヨン装置の周辺機器構成)
まず、図 3を用いて、本実施例に力かるナビゲーシヨン装置の周辺機器構成につい て説明する。図 3は、本実施例に力かるナビゲーシヨン装置が設置された車両のダッ シュボード付近の一例を示す説明図である。
[0037] 図 3において、ナビゲーシヨン装置 300は、車両のダッシュボードに設置されている 。ナビゲーシヨン装置 300は、本体部 Mおよび表示部(ディスプレイ) Dによって構成 され、表示部 Dには車両の現在地点や地図情報、現在時刻などが表示される。
[0038] また、ナビゲーシヨン装置 300には、ダッシュボード上に設置された車載用ロボット 3 10が接続されている。車載用ロボット 310は、図示はしないがカメラ、ランプ、マイク およびスピーカなどを備えており、ナビゲーシヨン装置 300から出力される制御信号 の制御にしたがって、各種出力をおこなう。
[0039] また、車載用ロボット 310は、たとえば、人間や動物を模した形状をしており、たとえ ば、左右側方に腕のような駆動部を備えており、ナビゲーシヨン装置 300から出力さ れる制御信号の制御にしたがって、駆動部の動作出力をおこなってもよい。さらに、 車載用ロボット 310は、頭頂部を上下左右に振る動作をする駆動部を備える構成とし てもよく、ナビゲーシヨン装置 300から出力される制御信号の制御にしたがって、駆動 部の動作出力をおこなうこととしてもよい。
[0040] 具体的には、たとえば、車載用ロボット 310の頭頂部がカメラとして機能してもよぐ カメラは、水平方向および上下方向に回転して、車内および車外の画像を撮像する ことができる。また、車載用ロボット 310は、胴体部にランプ、マイクおよびスピーカを 備える構成としてもよぐランプ、マイクおよびスピーカによって光出力や音声の集音 および出力をおこなうこととしてもよい。また、画像や文字などを表示する表示部を持 つたり言葉を発話する機能を持たせても良い。
[0041] また、車載用ロボット 310は、全身あるいは一部を発光可能としてもよぐナビゲーシ ヨン装置 300から出力される制御信号の制御にしたがって、車載用ロボット 310は様 々な色で点灯および点滅することとしてもよ 、。
[0042] 図 3に示す構成によって、本実施例では、ナビゲーシヨン装置 300から出力される 制御信号の制御にしたがって、車載用ロボット 310が各種出力をおこなうことで、注 意喚起を促す動作を運転者に示す構成となって!/ヽる。
[0043] 詳細は図 5〜図 9を用いて説明する力 ナビゲーシヨン装置 300は、運転の傾向や 挙動や事象、クルマ内外の状況を示す指標や情報を取得して判定されるランクと、そ れぞれのランクに設定された評点とに基づいて、運転者や同乗者などの搭乗者に注 意喚起する動作を示すための車載用ロボット 310における動作プログラムを決定する 。すなわち、決定された動作プログラムによって出力される制御信号の制御にしたが つて動作する車載用ロボット 310によって、運転者に注意喚起を促すことができる。
[0044] 注意喚起する動作は、たとえば、運転の傾向や挙動や事象やクルマ内外の状況に 起因する疑似感情を表現する動作であってもよい。具体的には、たとえば、疑似感情 は、怒りを伴った不安、軽い不安、大きな喜び、悲しみを伴った不安、軽い喜びなど でもよぐ複数の疑似感情の組合せや、同一で程度の異なる感情でもよい。
[0045] すなわち、子供やペットが同乗しているときのように、運転者にとって気になる同乗 者として車載用ロボット 310を用いることにより、運転者に対し、心が和み安全運転を 心がけようとする動機を与えることができる。車載用ロボット 310が運転の状況を取得 し、その運転の状況に応じた喜びや不安などの感情を表現することで、運転者にとつ て車載用ロボットが運転の状況を運転者と共感したように感じられる効果を得て、運 転者はその感情表現を受け取ることを動機として、荒 、運転であれば進んで改善し、 ょ ヽ運転であれば ¾続するようになる。
[0046] (ナビゲーシヨン装置 300のハードウェア構成)
つぎに、図 4を用いて、本実施例に力かるナビゲーシヨン装置 300のハードウェア構 成について説明する。図 4は、本実施例に力かるナビゲーシヨン装置のハードウェア 構成の一例を示すブロック図である。
[0047] 図 4において、ナビゲーシヨン装置 300は、車両などの移動体に搭載されており、 C PU401と、 ROM402と、 RAM403と、磁気ディスクドライブ 404と、磁気ディスク 40 5と、光ディスクドライブ 406と、光ディスク 407と、音声 IZF (インターフェース) 408と 、マイク 409と、スピーカ 410と、入力デバイス 411と、映像 IZF412と、ディスプレイ 4 13と、通信 IZF414と、 GPSユニット 415と、各種センサ 416と、カメラ 417と、駆動ュ ニット 418と、を備えている。また、各構成部 401〜418はバス 420によってそれぞれ 接続されている。
[0048] まず、 CPU401は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM402は、 ブートプログラム、経路探索プログラム、経路誘導プログラム、音声生成プログラム、 地図情報表示プログラム、動作プログラム、などのプログラムを記録している。また、 R AM403は、 CPU401のワークエリアとして使用される。
[0049] ここで、経路探索プログラムは、後述する光ディスク 407に記録されている地図情報 などを利用して、出発地点から目的地点までの最適な経路を探索させる。ここで、最 適な経路とは、目的地点までの最短 (あるいは最速)経路やユーザが指定した条件 に最も合致する経路などである。経路探索プログラムを実行することによって探索さ れた誘導経路は、 CPU401を介して音声 IZF408や映像 IZF412へ出力される。
[0050] また、経路誘導プログラムは、経路探索プログラムを実行することによって探索され た誘導経路情報、通信 IZF414によって取得されたナビゲーシヨン装置 300の現在 地点情報、光ディスク 407から読み出された地図情報に基づいて、リアルタイムな経 路誘導情報の生成をおこなわせる。経路誘導プログラムを実行することによって生成 された経路誘導情報は、 CPU401を介して音声 IZF408や映像 IZF412へ出力さ れる。
[0051] また、音声生成プログラムは、パターンに対応したトーンと音声の情報を生成させる
。すなわち、経路誘導プログラムを実行することによって生成された経路誘導情報に 基づいて、案内ポイントに対応した仮想音源の設定と音声ガイダンス情報の生成を おこない、 CPU401を介して音声 IZF408へ出力する。
[0052] また、地図情報表示プログラムは、映像 I/F412によってディスプレイ 413に表示 する地図情報の表示形式を決定させ、決定された表示形式によって地図情報をディ スプレイ 413に表示させる。
[0053] また、動作プログラムは、車両の運転の傾向や挙動や事象に基づいて、後述する 駆動ユニット 418を駆動させる。詳細は図 5〜図 9を用いて説明するが、動作プロダラ ムは、たとえば、後述する駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)によ つて運転の傾向や挙動や事象によって選択される運転者や同乗者などの搭乗者に 対して注意喚起する動作を示させるように、評点表を用いて動作プログラムを選択し て実行させる。動作は、たとえば、機構的な動作や音出力インジケータによる光出力 や、それらの組合せであってもよい。
[0054] 磁気ディスクドライブ 404は、 CPU401の制御にしたがって磁気ディスク 405に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 405は、磁気ディスクドラ イブ 404の制御で書き込まれたデータを記録する。磁気ディスク 405としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0055] また、光ディスクドライブ 406は、 CPU401の制御にしたがって光ディスク 407に対 するデータの読み取り Z書き込みを制御する。光ディスク 407は、光ディスクドライブ 406の制御にしたがってデータの読み出される着脱自在な記録媒体である。光ディ スク 407は、書き込み可能な記録媒体を利用することもできる。また、この着脱自在な 記録媒体として、光ディスク 407のほ力 MO、メモリカードなどであってもよい。
[0056] 磁気ディスク 405、光ディスク 407に記録される情報の一例として、経路探索'経路 誘導などに用いる地図情報が挙げられる。地図情報は、建物、河川、地表面などの 地物 (フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データと を有しており、ディスプレイ 413の表示画面において二次元または三次元に描画され る。ナビゲーシヨン装置 300が経路誘導中の場合は、地図情報と後述する GPSュ- ット 415によって取得された自車の現在地点とが重ねて表示されることとなる。
[0057] なお、本実施例では地図情報を磁気ディスク 405、光ディスク 407に記録するように したが、これに限るものではない。地図情報は、ナビゲーシヨン装置 300のハードゥエ ァと一体に設けられているものに限って記録されているものではなぐナビゲーシヨン 装置 300外部に設けられていてもよい。その場合、ナビゲーシヨン装置 300は、たと えば、通信 IZF414を通じて、ネットワークを介して地図情報を取得する。取得された 地図情報は RAM403などに記憶される。
[0058] また、音声 IZF408は、音声入力用のマイク 409および音声出力用のスピーカ 41 0に接続される。マイク 409に受音された音声は、音声 IZF408内で AZD変換され る。また、スピーカ 410からは音声が出力される。なお、マイク 409から入力された音 声は、音声データとして磁気ディスク 405あるいは光ディスク 407に記録可能である。
[0059] マイク 409およびスピーカ 410は、たとえば、後述する駆動ユニット 418 (たとえば、 図 3の車載用ロボット 310)に設置されていてもよぐ前述した動作プログラムの制御 にしたがって回転駆動などをおこなうとともに、音声の入出力をおこなうこととしてもよ い。
[0060] また、入力デバイス 411は、文字、数値、各種指示などの入力のための複数のキー を備えたリモコン、キーボード、マウス、タツチパネルなどが挙げられる。
[0061] また、映像 I/F412は、ディスプレイ 413およびカメラ 417に接続される。映像 I/F 412は、具体的には、たとえば、ディスプレイ 413全体の制御をおこなうグラフィックコ ントローラと、即時表示可能な画像情報を一時的に記録する VRAM (Video RAM )などのバッファメモリと、グラフィックコントローラから出力される画像データに基づい て、ディスプレイ 413を表示制御する制御 ICなどによって構成される。
[0062] ディスプレイ 413には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。このディスプレイ 413は、たとえば、 CRT、 TFT 液晶ディスプレイ、プラズマディスプレイなどを採用することができる。ディスプレイ 41 3は、たとえば、図 3の表示部 Dのような態様で設置される。
[0063] また、ディスプレイ 413およびカメラ 417は、たとえば、後述する駆動ユニット 418 ( たとえば、図 3の車載用ロボット 310)に設置されていてもよぐ前述した動作プロダラ ムの制御にしたがって映像の撮影や光出力などをおこなうこととしてもよい。
[0064] 具体的には、たとえば、カメラ 417は、車両内部あるいは外部の映像を撮影する。
映像は静止画あるいは動画のどちらでもよぐたとえば、カメラ 417によって車両内部 の搭乗者の挙動を撮影したり、車両外部の状況を撮影したりしてもよい。撮影した映 像は、たとえば、映像 IZF412を介して磁気ディスク 405や光ディスク 407などの記 録媒体に出力したり、後述する運転の傾向や挙動や事象の判定に用いることとしても よい。
[0065] また、通信 IZF414は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU401とのインターフェースとして機能する。通信 IZF414は、さらに、無線 を介してインターネットなどの通信網に接続され、この通信網と CPU401とのインター フェースとしても機能する。
[0066] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF414は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0067] また、 GPSユニット 415は、 GPS衛星からの受信波や後述する各種センサ 416 (た とえば、角速度センサや加速度センサ、タイヤの回転数など)からの出力値を用いて 、車両の現在地点けピゲーシヨン装置 300の現在地点)を示す情報を算出する。現 在地点を示す情報は、たとえば緯度'経度、高度などの、地図情報上の 1点を特定す る情報である。また、 GPSユニット 415は、各種センサ 416からの出力値を用いて、ォ ドメ一ター、速度変化量、方位変化量を出力する。これにより、急ブレーキ、急ハンド ルなどの動態を解析することができる。
[0068] 各種センサ 416は、車速センサや加速度センサ、角速度センサなどであり、その出 力値は、 GPSユニット 415による現在地点の算出や、速度や方位の変化量の測定に 用いられる。また、各種センサ 416は、運転者による車両の各操作を検知するセンサ なども含む。車両の各操作の検知は、たとえば、ハンドル操作やウィンカーの入力や アクセルペダルの踏み込みやブレーキペダルの踏み込みなどを検知する構成として ちょい。
[0069] さらに、各種センサ 416は、搭乗者の心身状態を検知するものであってもよい。心 身状態の検知は、たとえば、皮膚接地型センサによって、搭乗者の脈拍や血圧を検 知してもよい。あるいは、その他人体センサで搭乗者の発汗を検知するものであって もよい。このような各種センサ 416の出力によって、後述する運転の傾向や挙動や事 象が検出されることとなる。
[0070] なお、図 1に示した情報処理装置 100が備える取得部 101、選択部 102、出力部 1 03、検出部 104、記録部 105は、図 4に示したナビゲーシヨン装置 300における RO M402、 RAM403、磁気ディスク 405、光ディスク 407などに記録されたプログラム やデータを用いて、 CPU401が所定のプログラムを実行し、ナビゲーシヨン装置 300 における各部を制御することによってその機能を実現する。
[0071] すなわち、本実施例のナビゲーシヨン装置 300は、ナビゲーシヨン装置 300おける 記録媒体としての ROM402に記録されているプログラムを実行することにより、図 1 に示した情報処理装置 100が備える機能を、図 2に示した手順で実行することができ る。
[0072] (動作プログラムの選択の概要)
つぎに、図 5を用いて、本実施例に力かるナビゲーシヨン装置 300における駆動ュ ニット 418 (たとえば、図 3の車載用ロボット 310)に対する動作プログラムの選択の概 要について説明する。図 5は、本実施例に力かるナビゲーシヨン装置における動作プ ログラムの選択の概要を示す説明図である。
[0073] 図 5において、評点表 500は、運転の傾向や挙動や事象や車内外の状況などの「 傾向」種類と、搭乗者に対して注意喚起させる駆動ユ ット 418 (たとえば、図 3の車 載用ロボット 310)の動作と、に対応づけられた評点が示されている。
[0074] 「傾向」種類における運転の傾向や挙動や事象は、それぞれランクを設定する構成 でもよい。具体的には、たとえば、傾向 Aは、 Al、 A2および A3の 3段階にランクが設 定されている。 3段階のランクは、たとえば、加速度センサや振動センサなどの出力よ る G値、速度、加速度、ロードノイズ、角速度およびカーブ曲率に応じた速度などを用 いて、各ランクの既定値以上力否かなどを判定することによって、ランク分けをおこな うこととしてちよい。
[0075] より具体的には、たとえば、傾向 Aが荒い運転の傾向を示す場合、 A3のランクが最 も荒 、運転の傾向を示す場合で、 A 1が最もおとなし 、運転の傾向を示すランクとし てもよい。また、ランクの数は、 3つに限ることなぐたとえば、傾向 Bや挙動 Dは 2つ、 挙動 Cや事象 Eについては 1つとしており、 4つ以上のランク分けをする「傾向」種類 があってもよい。
[0076] 動作は、たとえば、搭乗者に対して注意喚起させる駆動ユ ット 418 (たとえば、図 3の車載用ロボット 310)の動作を示しており、「傾向」種類やそのランクに応じた評点 に基づいて選択されることにより、その動作に対応する動作プログラムが選択されるこ ととなる。
[0077] 詳細は図 6〜図 9を用いて説明する力 動作プログラムの選択は、たとえば、動作を 選択するための各「傾向」(傾向、挙動、事象およびそのランク)に対して、その「傾向 」の改善に効果がある力否かについて、評点表 500に示すようにあら力じめ評点を付 けておく。あらかじめの評点は、たとえば、初期設定によって定められる構成でもよく 、試験や調査などによって、「傾向」が改善される動作について高い評点とする構成 でもよい。
[0078] まず、ナビゲーシヨン装置 300は、運転者による車両の運転中に、各種センサ 416 によって取得された出力値に応じて判定される「傾向」に対して、最も高い評点の動 作を選択して、その動作に対応する動作プログラムを実行させる。
[0079] そして、動作プログラムによって、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)を動作させ、動作前後において、運転が改善されたか否かの効果を測定する。 測定の結果に基づいて、評点の変更をリアルタイムにおこない、連続的につぎに高 い評点の動作を選択して、その動作に対応する動作プログラムを実行させる。そして 、所定の改善が得られたところで、今回の「傾向」についての選択を終了する。
[0080] ここで、所定の改善は、たとえば、 1回の「傾向」の取得に対して、決定動作までの 動作の選択の回数に応じて変化させてもよい。このようにすれば、所定の改善に至ら ない場合に、動作の選択を無限に続けることを防ぐことができる。すなわち、連続的 につぎに高い評点の動作を選択する場合に、 1回ごとに所定の改善の程度を小さく することとしてもよい。また特に、各回の「傾向」について、特に顕著な改善が得られ た動作や所定以上の改善が得られた動作、最初に当該「傾向」を改善した動作、最 後に今回の「傾向」についての選択を終了する基準となる改善をした動作など、特に 改善効果のあった動作を「決定動作」として、以後の動作選択に優先順位を高く与え たりより高い評点を与えたりしてもよい。
[0081] その後、つぎに「傾向」を検出した場合は、前回評点が変更された評点表 500を用 いて同様の処理をおこなう。このように評点表の評点を見直しながら動作を選択する ことで、常に最適な動作を選択して、運転者に適切な注意喚起を促すことができる。
[0082] また、最も評点の高!、動作を選択する代わりに、同程度の評点の動作をグループ 化して、グループの中力もランダムあるいは前回の選択力も最も時間の経過して!/、る 動作を選択してもよい。また、同程度の評点のグループの中力も実施回数の少ない 動作を選択することとしてもよい。また、同じ「傾向」に対する決定動作の履歴をダル ープとしてもよい。このような選択とすれば、動作慣れによる注意喚起の効果の減少 を防ぐことができる。
[0083] また、「傾向」を検出した場合、前回の「傾向」に対する決定動作をまず選択して、 改善の効果が得られた力否かを判断してから、最も高 ヽ評点の動作を選択することと してちよい。
[0084] このようにして得られる評点表 500は、運転者ごとに記録される構成でもよい。その 場合、ナビゲーシヨン装置 300は、運転者を認識する機能を備える構成とすればよく 、より的確な動作プログラムの選択が可能となる。
[0085] (ナビゲーシヨン装置 300の処理の内容)
つぎに、図 6を用いて、本実施例に力かるナビゲーシヨン装置 300の処理の内容に ついて説明する。図 6は、本実施例に力かるナビゲーシヨン装置の処理の内容を示 すフローチャートである。図 6のフローチャートにおいて、まず、各種センサ 416によつ て、運転の傾向や挙動や事象や車内外の状況などの「傾向」の判定基準となる指標 値を取得したか否かを判断する (ステップ S601)。指標値は、たとえば、加速度セン サゃ振動センサなどからの出力値でもよい。
[0086] ステップ S601にお 、て、指標値を取得するのを待って、取得した場合 (ステップ S6 01: Yes)は、 CPU401によって、ステップ S601において取得された指標値を用い て、「傾向」の種類とランクを判定する (ステップ S602)。同時に複数の傾向を判定し た場合は、各「傾向」種類とのランクを判定する。
[0087] つぎに、 CPU401によって、磁気ディスク 405や光ディスク 407などの記録媒体に 記録された評点表を読み込む (ステップ S603)。評点表は、たとえば、図 5に示した 評点表 500などで、図 6では説明を省略する力 運転者ごとに記録されている構成で ちょい。
[0088] そして、 CPU401によって、ステップ S603において読み込まれた評点表を用いて 、ステップ S602において判定されたランクに応じて動作を選択する (ステップ S604)
[0089] そして、 CPU401によって、ステップ S604にお!/、て選択された動作に対応する動 作プログラムによって、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)を動作 させた結果における「傾向」の改善に基づいて、評点を見直して (ステップ S605)、一 連の処理を終了する。
[0090] ここで、前述した図 5および図 7〜図 9を用いて、本実施例にかかるナビゲーシヨン 装置 300の処理について、具体的に説明する。
[0091] 評点表 500において、たとえば、動作 aは、駆動ユニット 418 (たとえば、図 3の車載 用ロボット 310)による、怒りを伴った不安を表現する動作とする。より具体的には、た とえば、動作 aは、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)における月同 体部の向きを運転者に向け、全身あるいは一部を赤色に発光させ、頭頂部を運転者 の顔方向に向け、腕を大きく上下に振ることとしてもよい。
[0092] また、動作 bは、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310) による、軽い不安を表現する動作とする。より具体的には、たとえば、動作 bは、駆動 ユニット 418 (たとえば、図 3の車載用ロボット 310)における胴体部の向きを前方に向 け、全身あるいは一部を黄色に発光させ、頭頂部を運転者の方向を基準に左右に数 度振り、腕を中程度に上下に振ることとしてもよい。
[0093] また、動作 cは、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310) による、大きな喜びを表現する動作とする。より具体的には、たとえば、動作 cは、駆 動ユニット 418 (たとえば、図 3の車載用ロボット 310)における胴体部の向きを運転者 の方向に向け、全身あるいは一部を青色に発光させ、頭頂部を上下に大きく振り、腕 を大きく広げてしばらく静止、その後元に戻す動作を繰り返させることとしてもよい。
[0094] また、動作 dは、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310) による、悲しみを伴った不安を表現する動作とする。より具体的には、たとえば、動作 dは、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310)における胴体部の向き を運転者に向け、全身あるいは一部を黄色に発光させ、頭頂部を運転者の方向を基 準に左右に数度振り、腕を中程度に上下に振ることとしてもよい。
[0095] また、動作 zは、たとえば、駆動ユニット 418 (たとえば、図 3の車載用ロボット 310) による、軽い喜びを表現する動作とする。より具体的には、たとえば、動作 dは、駆動 ユニット 418 (たとえば、図 3の車載用ロボット 310)における胴体部の向きを前方に向 け、全身あるいは一部を青色に発光させ、頭頂部を上下に中程度に振り、腕を中程 度に上げ、その後元に戻す動作を繰り返させることとしてもょ 、。
[0096] ナビゲーシヨン装置 300は、たとえば、評点表 500において、傾向 Aについてのラ ンク A3を示す指標を取得すると、 A3に対応する動作の中から最も高い評点の動作 a を選択する。
[0097] そして、ナビゲーシヨン装置 300は、動作 aに対応する動作プログラムを実行させて 、その結果得られる指標を取得し、 A3から改善されたか否かを判定する。そして、ナ ピゲーシヨン装置 300は、改善されたか否かの判定結果に基づいて、評点表 500の 評点を見直すこととなる。
[0098] 具体的には、たとえば、動作の選択は、繰り返しおこなうこととしてもよぐ 1ランク下 降 (すなわち、 1ランク改善)するまで繰り返し選択したり、所定のランク(たとえば、 A1 )になるまで繰り返し選択したりしてもよい。ここでは、 A1ランクに改善されるまで繰り 返すが、 3回目の選択以降は最初のランクから 1ランク以上の改善がなされていれば 終了することとして説明する。また、評点の見直しは、たとえば、つぎに挙げるような方 法でおこなってもよい。
[0099] · 2ランク上昇 (すなわち、 2ランク悪化)した場合、 3点減点する。
•1ランク上昇 (すなわち、 1ランク悪化)した場合、 2点減点する。
'ランクの変動なし (すなわち、効果なし)の場合、 1点減点する。
•1ランク下降 (すなわち、 1ランク改善)した場合、点数を据え置きする。 •2ランク下降 (すなわち、 2ランク改善)した場合、 1点増点する。
•選択の終了直前かつランクが改善した場合、決定動作としてさらに 1点増点する。
[0100] 図 7は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (その
1)を示す説明図である。
[0101] まず、図 5に示した評点表 500における A3に対して動作 aに対応する動作プロダラ ムを実行させた結果得られる指標から、 A3を示す指標が得られた場合、ランクに変 動がないこととなり、動作 aの A3に対する評点が 3から 1点減点されて 2となり、評点見 直しの結果、評点表 700となる。
[0102] つづいて、評点表 700において、 A3に対応する動作の中から最も高い評点の動 作 dを選択する。評点表 700における A3に対して動作 dに対応する動作プログラムを 実行させた結果得られる指標から、 A2を示す指標が得られた場合、動作 dの A3〖こ 対する評点は 2のままとなり、評点見直しの結果、評点表 700のままとなる。なお、ここ では、一例として動作 dを最も高い評点として説明したが、評点表 700において、同じ 評点である動作 aにつ 、て再度評点を見直す構成でもよ!/、。
[0103] そして、 A2に対応する動作の中から最も高い評点の動作 zを選択する。なお、 A2 に対応する動作の中力 最も高い評点は 2であり、動作 a、動作 d、動作 zのいずれで もよいが、本実施例では動作 zとした。
[0104] 図 8は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (その
2)を示す説明図である。評点表 700における A2に対して動作 zに対応する動作プロ グラムを実行させた結果得られる指標から、 A1を示す指標が得られた場合、動作 zを 決定動作として、評点を 1ランク改善の 0点、決定動作の 1点をそれぞれ増点し、動作 zの A2に対する評点が 2から 1点増点されて 3となり、評点見直しの結果、評点表 800 となる。ここで、評点表 800は、評点表 500におけるランク A3からランク A1まで改善 されているため、選択を終了する。
[0105] 図 9は、本実施例に力かるナビゲーシヨン装置における評点の見直しの結果 (その
3)を示す説明図である。評点表 700における A2に対して動作 zに対応する動作プロ グラムを実行させた結果得られる指標から、 A2を示す指標が得られた場合、動作 zの A2に対する評点は 2から 1点減点されて 1となり、評点見直しの結果、評点表 900と なる。ここで、評点表 900は、評点表 500から 3回目の選択動作であり、かつ A3ラン タカ 改善しているため、選択を終了する。
[0106] 以上説明したように、本実施例に力かるナビゲーシヨン装置によれば、「傾向」に応 じて評点の高い動作を選択し、「傾向」が改善された力否かを判断することによって、 評点表を見直すことができるため、動作の選択に最適な評点表を作成することができ る。すなわち、最適な評点表によって動作を選択して、搭乗者に注意喚起するため、 確実に安全運転を図ることができる。
[0107] さらに、本実施例に力かるナビゲーシヨン装置によれば、駆動ユニット(車載用ロボ ット)による光出力、動作出力、音出力の少なくともいずれか一つによって動作を制御 することができるため、運転者は三次元的に容易に注意喚起を示す動作をイメージ できる。くわえて、駆動ユニット(車載用ロボット)の外観を運転者に親しみやすい外観 とすれば、運転者の意識を高めることができ、運転者は、確実かつ最適に動作を理 解して、安全運転を図ることができる。
なお、本実施の形態で説明した情報処理方法は、あら力じめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体の走行状態に関する走行状態情報を取得する取得手段と、
前記取得手段によって取得された走行状態情報に応じて、注意喚起情報候補群 の中から、前記移動体の運転者に注意喚起する注意喚起情報を選択する選択手段 と、
前記選択手段によって選択された注意喚起情報を出力する出力手段と、 前記出力手段によって注意喚起情報が出力された結果、当該移動体の前記走行 状態の変動に関する変動情報を検出する検出手段と、
前記出力手段によって出力された注意喚起情報 (以下、「出力情報」という)と、前 記検出手段によって検出された変動情報と、を関連づけて記録する記録手段と、 を備えることを特徴とする情報処理装置。
[2] 前記検出手段は、
前記出力情報の出力の前後の走行状態情報の差異を取得することによって、前記 走行状態が改善されたか否かを判定する判定手段と、
前記判定手段によって判定された判定結果に基づ!、て、前記変動情報として前記 走行状態の改善度を算出する算出手段と、
を有すること特徴とする請求項 1に記載の情報処理装置。
[3] 前記選択手段は、
さらに、前記記録手段によって記録された前記出力情報および前記変動情報を参 照して、前記走行状態情報に応じた注意喚起情報を選択することを特徴とする請求 項 1に記載の情報処理装置。
[4] 前記選択手段は、
前記移動体に搭載されたロボットによって前記運転者に注意喚起する注意喚起情 報を選択し、
前記出力手段は、
前記ロボットを制御する制御信号を出力情報として当該ロボットに出力することを特 徴とする請求項 1に記載の情報処理装置。
[5] 前記選択手段は、 前記ロボットの光出力、動作出力、音出力の少なくともいずれか一つによって前記 運転者に注意喚起する注意喚起情報を選択し、
前記出力手段は、
前記ロボットの光出力、動作出力、音出力の少なくともいずれか一つを制御する制 御信号を出力情報として当該ロボットに出力することを特徴とする請求項 1に記載の 情報処理装置。
[6] 移動体の走行状態に関する走行状態情報を取得する取得工程と、
前記取得工程によって取得された走行状態情報に応じて、注意喚起情報候補群 の中から、前記移動体の運転者に注意喚起する注意喚起情報を選択する選択工程 と、
前記選択工程によって選択された注意喚起情報を出力する出力工程と、 前記出力工程によって注意喚起情報が出力された結果、当該移動体の前記走行 状態の変動に関する変動情報を検出する検出工程と、
前記出力工程によって出力された注意喚起情報 (以下、「出力情報」という)と、前 記検出工程によって検出された変動情報と、を関連づけて記録する記録工程と、 を含むことを特徴とする情報処理方法。
[7] 請求項 6に記載の情報処理方法をコンピュータに実行させることを特徴とする情報 処理プログラム。
[8] 請求項 7に記載の情報処理プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/319341 2006-09-28 2006-09-28 Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur WO2008038375A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2006/319341 WO2008038375A1 (fr) 2006-09-28 2006-09-28 Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur
JP2008536256A JPWO2008038375A1 (ja) 2006-09-28 2006-09-28 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319341 WO2008038375A1 (fr) 2006-09-28 2006-09-28 Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur

Publications (1)

Publication Number Publication Date
WO2008038375A1 true WO2008038375A1 (fr) 2008-04-03

Family

ID=39229823

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319341 WO2008038375A1 (fr) 2006-09-28 2006-09-28 Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur

Country Status (2)

Country Link
JP (1) JPWO2008038375A1 (ja)
WO (1) WO2008038375A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010127779A (ja) * 2008-11-27 2010-06-10 Denso It Laboratory Inc 情報提供装置、情報提供方法およびプログラム
JP2016066199A (ja) * 2014-09-24 2016-04-28 矢崎エナジーシステム株式会社 警報装置
JP2021072039A (ja) * 2019-11-01 2021-05-06 株式会社東海理化電機製作所 提示装置
JP2022051777A (ja) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 車両用コクピット
WO2023210175A1 (ja) * 2022-04-28 2023-11-02 パイオニア株式会社 運転支援装置、運転支援方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2006195638A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 車両用警報システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3985351B2 (ja) * 1998-07-31 2007-10-03 株式会社デンソー 安全運転判定装置
JP4719960B2 (ja) * 2000-07-26 2011-07-06 マツダ株式会社 車両用警報装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2006195638A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 車両用警報システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010127779A (ja) * 2008-11-27 2010-06-10 Denso It Laboratory Inc 情報提供装置、情報提供方法およびプログラム
JP2016066199A (ja) * 2014-09-24 2016-04-28 矢崎エナジーシステム株式会社 警報装置
JP2022051777A (ja) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 車両用コクピット
JP7327536B2 (ja) 2018-06-12 2023-08-16 トヨタ自動車株式会社 車両用コクピット
JP2021072039A (ja) * 2019-11-01 2021-05-06 株式会社東海理化電機製作所 提示装置
WO2023210175A1 (ja) * 2022-04-28 2023-11-02 パイオニア株式会社 運転支援装置、運転支援方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2008038375A1 (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
JP6703465B2 (ja) 運転支援装置、センタ装置
JP2008015561A (ja) 情報提供車両及び運転支援装置
JP2010237829A (ja) 車両操作診断装置、車両操作診断方法及びコンピュータプログラム
JP4524333B2 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
US20200307644A1 (en) Control system for vehicle, notification method for vehicle, and medium
JP4790020B2 (ja) 疑似感情出力装置、疑似感情出力方法、疑似感情出力プログラムおよびコンピュータに読み取り可能な記録媒体
JP2010237827A (ja) 車両操作診断装置、車両操作診断方法及びコンピュータプログラム
JP2015191256A (ja) 危険度合い判定装置、危険度合い判定方法および危険度合い判定プログラム
JP4421667B2 (ja) 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
WO2008010391A1 (fr) dispositif de distribution d'informations, dispositif de traitement d'informations, procédé de distribution d'informations, procédé de traitement d'informations, programme de distribution d'informations, programme de traitement d'informations, et support d'enregistrement lisible par un ordinateur
JP4421668B2 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
WO2008038375A1 (fr) Processeur d'informations, procédé de traitement d'informations, programme de traitement d'informations, et support d'enregistrement lisible par ordinateur
JP4926182B2 (ja) 信号認識装置、信号認識方法、信号認識プログラム、および記録媒体
WO2007032278A1 (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP2010237969A (ja) 車両操作診断装置、車両操作診断方法及びコンピュータプログラム
WO2008010392A1 (fr) dispositif de traitement d'informations, procédé de traitement d'informations, programme de traitement d'informations et support d'enregistrement lisible par un ordinateur
JP2008157737A (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP2020107365A (ja) 危険度合い判定装置、危険度合い判定方法および危険度合い判定プログラム
JP5388705B2 (ja) 運転診断装置および運転診断方法
JP4987872B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP6332838B2 (ja) 運転支援装置
US11881065B2 (en) Information recording device, information recording method, and program for recording information
JP7280072B2 (ja) 報知制御装置、および、報知制御方法
WO2023073856A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2012212303A (ja) 運転操作支援装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06810788

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008536256

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06810788

Country of ref document: EP

Kind code of ref document: A1