WO2008038369A1 - Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement - Google Patents

Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement Download PDF

Info

Publication number
WO2008038369A1
WO2008038369A1 PCT/JP2006/319328 JP2006319328W WO2008038369A1 WO 2008038369 A1 WO2008038369 A1 WO 2008038369A1 JP 2006319328 W JP2006319328 W JP 2006319328W WO 2008038369 A1 WO2008038369 A1 WO 2008038369A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
information
drive
drive control
risk index
Prior art date
Application number
PCT/JP2006/319328
Other languages
English (en)
French (fr)
Inventor
Kohei Ito
Ryujiro Fujita
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to PCT/JP2006/319328 priority Critical patent/WO2008038369A1/ja
Priority to JP2008536250A priority patent/JP4783430B2/ja
Priority to US12/442,793 priority patent/US8160772B2/en
Publication of WO2008038369A1 publication Critical patent/WO2008038369A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/20Direction indicator values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Definitions

  • Drive control apparatus drive control method, drive control program, and recording medium
  • the present invention relates to a drive control device, a drive control method, a drive control program, and a recording medium that control a drive unit based on the possibility of a dangerous event occurring on a moving body.
  • the use of the present invention is not limited to the drive control device, the drive control method, the drive control program, and the recording medium described above.
  • a driving information output device that uses a driving unit such as a robot to present information related to car navigation for guiding a vehicle to a destination point and information related to driving using a driving unit such as a robot.
  • Patent Document 1 JP 2004-93354 A
  • a drive control device relates to drive means for driving a sensor mounted on a movable body, and the movable body.
  • An information acquisition means for acquiring information
  • a calculation means for calculating a risk index indicating a possibility of a dangerous event with respect to the moving object based on the information acquired by the information acquisition means
  • the calculation Control means for controlling the driving means according to the calculation result calculated by the means.
  • the drive control method according to the invention of claim 8 is dangerous for the moving body based on the information acquisition step of acquiring information about the moving body and the information acquired by the information acquisition step.
  • a drive control program according to claim 9 causes a computer to execute the drive control method according to claim 8.
  • a recording medium according to the invention of claim 10 is characterized in that the drive control program according to claim 9 is recorded in a computer-readable state.
  • FIG. 1 is a block diagram showing a functional configuration of a drive control device that is effective in the present embodiment.
  • FIG. 2 is a flowchart showing a drive control processing procedure of the drive control apparatus which is effective in the present embodiment.
  • FIG. 3 is a block diagram showing a hardware configuration of a navigation apparatus that is effective in the present embodiment.
  • FIG. 4 is a block diagram showing a functional configuration of a drive control device that works on the present embodiment.
  • FIG. 5 is a flowchart showing an outline of processing of the drive control device which is effective in the present embodiment.
  • FIG. 6 is a flowchart showing the contents of processing for acquiring vehicle information and image information.
  • FIG. 7 is a flowchart showing the contents of a process for calculating a first attention point.
  • FIG. 8 is an explanatory diagram showing the vertical distance of one point on the road in the photographed image.
  • FIG. 9 is an explanatory diagram showing the relationship between the distance in the horizontal direction and the distance in the vertical direction from the center point of the photographed image.
  • FIG. 10 is an explanatory diagram for explaining points on the road.
  • FIG. 11 is a flowchart showing the contents of processing for calculating a control signal.
  • FIG. 12 is a flowchart showing the contents of the process for controlling the drive unit.
  • FIG. 13 is a flowchart showing the contents of processing for acquiring image information.
  • FIG. 14 is a flowchart showing the contents of processing for calculating a risk index.
  • FIG. 15 is an explanatory diagram showing image information acquired at time T.
  • FIG. 16 is an explanatory diagram showing image information acquired at time (T + ⁇ ).
  • FIG. 17 is an explanatory view showing image information in which white lines are matched and overlaid.
  • FIG. 18 is an explanatory diagram showing a motion vector M.
  • FIG. 19 is an explanatory diagram showing the magnitude of the risk index D depending on the relationship between the unit vector I and the motion vector M!
  • FIG. 20 is a flowchart showing the contents of the process for calculating the second attention point! /.
  • FIG. 21 is a flowchart showing the contents of a process for determining whether or not the force has returned to normal operation. Explanation of symbols
  • FIG. 1 is a block diagram showing a functional configuration of a drive control device that works according to the present embodiment.
  • the drive control apparatus 100 includes an information acquisition unit 101, a drive unit 102, a calculation unit 103, a notification unit 104, a determination unit 105, and a control unit 106.
  • the information acquisition unit 101 acquires information about a moving object.
  • the information related to the moving object is, for example, image information related to the periphery of the moving object taken by a camera mounted on the moving object.
  • the information on the moving object may be information obtained from various sensor forces.
  • Various sensor forces Acquired information includes, for example, the speed and acceleration information of the moving body, the current position information of the moving body, the volume and direction of the sound inside and outside the moving body, and the temperature and humidity.
  • Information such as 'air component' contact of any object 'pressure' magnetic amount information, distance information from the moving object to any object, information such as user's heart rate, brain wave, breathing, etc.
  • the drive unit 102 drives a sensor mounted on the moving body.
  • the sensor mounted on the moving body is the above-described various sensors, for example, an image sensor (camera). Further, the drive unit 102 may drive the information acquisition unit 101. Therefore, the information acquisition unit 101 and the various sensors may be the same body or separate bodies. Then, the drive unit 102 drives the sensor or information acquisition unit 101 mounted on the moving body in the direction of the arrow and the pitch direction. Furthermore, the drive unit 102 may be, for example, a robot imitating the shape of an animal or a person.
  • the calculation unit 103 calculates a risk index that indicates a possibility that a dangerous event will occur for the mobile object.
  • a dangerous event is, for example, that the moving body is off the route or that the moving body is in contact with the object. Or the state of the user of the mobile object is different from normal.
  • the risk index is a numerical value that represents the magnitude of the likelihood of these dangerous events.
  • the notification unit 104 notifies the passenger of the moving body of the possibility of a dangerous event occurring on the moving body according to the calculation result calculated by the calculating unit 103.
  • the notification unit 104 provides notification by warning sound, voice information, lighting of light, and the like. Specifically, when notifying by voice information, a notification is given of things that may cause an accident such as “There is an obstacle on the right side” or “There is an obstacle on the right side”.
  • the passenger may be notified of the possibility of a dangerous event such as “Open the window because the air is bad” or “Please lower the volume of the audio”. Further, the notification of the possibility of these dangerous events may be notified by driving by the drive unit 102.
  • the determination unit 105 determines whether or not the risk index calculated by the calculation unit 103 is greater than a predetermined value.
  • the predetermined value may be set by the user or may be changed by past history. Further, the determination unit 105 may determine whether or not the risk index calculated by the calculation unit 103 is greater than a predetermined value and is smaller than the predetermined value and then returned to the value.
  • the control unit 106 controls the drive unit 102 according to the calculation result calculated by the calculation unit 103. Further, when the determination unit 105 determines that the risk index is greater than a predetermined value, the control unit 106 stops driving by the drive unit 102. Then, when the determination unit 105 determines that the risk index has returned to a value smaller than the predetermined value, the control unit 106 may resume driving by the drive unit 102.
  • FIG. 2 is a flowchart showing a drive control processing procedure of the drive control apparatus that is useful in the present embodiment.
  • the calculation unit 103 calculates a risk index indicating the possibility of a dangerous event for the moving object (step S 202).
  • the notification unit 104 notifies the passenger of the possibility of a dangerous event occurring on the moving object (step S203).
  • determination unit 105 determines whether or not the risk index calculated in step S202 is greater than a predetermined value (step S204), and if the risk index is greater than a predetermined value (step S204). : Yes), the drive unit 102 is controlled by the control unit 106 to stop the drive (step S205), and the series of processing ends. On the other hand, if the risk index is not greater than the predetermined value in step S204 (step S204: No), the process returns to step S201, and the subsequent processing is repeated.
  • the force to be notified to the passenger in step S203 is not limited to this. Specifically, for example, the process may proceed to step S204 without notifying the passenger. Alternatively, it may be determined whether the risk index is within a predetermined range with the predetermined value as an upper limit in step S205, and when the risk index is within the predetermined range, the passenger may be notified.
  • the force that stops the driving of the driving unit 102 in step S205 is not limited to this.
  • the drive of the drive unit 102 may be limited without stopping the drive.
  • the restriction means for example, narrowing the drive range of the drive unit 102, or performing only blinking of light or outputting of sound while the drive unit 102 is stopped.
  • the calculation unit 103 is dangerous for the moving body based on the information about the moving body acquired by the information acquisition unit 101.
  • a risk index indicating the possibility of occurrence of an event is calculated, and the drive unit 102 that drives the sensor mounted on the moving body can be controlled by the control unit 106 according to the calculated result. Therefore, for example, even if the user is not gazing at the drive unit 102, the drive control device 100 can control the drive unit 102 when it is determined that a dangerous event occurs in the moving body.
  • the user can control the driving unit 102 during dangerous driving so that the user does not disturb the driving judgment.
  • the possibility of a dangerous event occurring in the moving body for the moving body passenger is determined according to the calculation result calculated by the calculating unit 103. Can be notified. Therefore, the drive control device 100 can warn the driver that the vehicle is in danger driving when the danger index is within a predetermined range. This Thus, the user can know that driving is in a dangerous state, and can avoid dangerous events such as accidents.
  • control unit 106 stops driving by drive unit 102 when determination unit 105 determines that the risk index is greater than a predetermined value. can do. Therefore, the drive control apparatus 100 prevents the drive unit 102 from being mistaken for an object (a person or an oncoming vehicle) outside the vehicle by stopping the drive unit 102 in the driver's field of view during dangerous driving. it can. This allows the user to concentrate on driving because there is no extra movement in the field of view.
  • the drive unit 102 can drive the information acquisition unit 101. Therefore, a wide range of information can be acquired by driving the information acquisition unit 101 by the drive unit 102. This allows the user to detect the possibility of dangerous events over a wide range.
  • the information acquisition unit 101 can acquire image information related to the periphery of the moving object. Therefore, it is possible to identify an object having a large risk index with respect to the moving object from the change in the acquired image information. This allows the user to avoid dangerous events such as accidents.
  • drive control apparatus 100 of the present embodiment when determination unit 105 determines that the risk index has returned to a value smaller than a predetermined value, driving by drive unit 102 can be resumed. Therefore, the drive unit 102 can be driven during normal operation. As a result, the user can move again after avoiding a dangerous event even when the movement of a robot mounted on the vehicle is stopped, for example.
  • the drive unit 102 can drive the sensor mounted on the moving body in the direction of the arrow and the pitch. Therefore, the drive control device 100 can acquire information on the moving object over a wide range. This allows users to detect the possibility of dangerous events over a wide area.
  • FIG. 3 is a block diagram showing the hardware configuration of the navigation apparatus that is useful in this embodiment.
  • the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 310, an optical disk 307, an audio IZF (interface) 308, and a microphone 309.
  • Each component 301 to 317 is connected by a bus 320.
  • the CPU 301 governs overall control of the navigation device 300.
  • the ROM 302 records programs such as a boot program and a data update program.
  • RAM 303 is used as a work area for CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.
  • the magnetic disk drive 304 controls reading and writing of data with respect to the magnetic disk 305 according to the control of the CPU 301.
  • the magnetic disk 305 records data written under the control of the magnetic disk drive 304.
  • the magnetic disk 305 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 306 controls reading and writing of data with respect to the optical disk 307 according to the control of the CPU 301.
  • the optical disc 307 is a detachable recording medium from which data is read according to the control of the optical disc drive 306.
  • the optical disk 307 can use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disk 307, a memory card, or the like.
  • Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data and function data.
  • the map data includes background data representing features such as buildings, rivers, and the ground surface, and road shape data representing the shape of the road. It consists of multiple data files divided by district.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in such a state that each map can be divided into blocks such that each map represents a predetermined area on the map displayed on the display screen. Also, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is data for realizing functions such as program data that realizes route search, calculation of required time, route guidance, and the like.
  • Each of the map data and function data is composed of multiple data files divided by district or function.
  • the audio IZF 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output.
  • the voice received by the microphone 309 is AZD converted in the voice IZF308.
  • the microphone 309 may be installed near the sun visor of the vehicle, and the number may be one or more.
  • a sound obtained by DZA-converting a predetermined sound signal in the sound IZF 308 is output. Note that sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.
  • Examples of the input device 311 include a remote controller, a keyboard, and a touch panel provided with a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the input device 311 may be realized by any one form of the remote control, the keyboard, and the touch panel.
  • the input device 311 may be realized by a plurality of forms.
  • the video IZF 312 is connected to the display 313.
  • Video IZF312 can be displayed immediately, for example, with a graphic controller that controls the entire display 313, for example It consists of a buffer memory such as VRAM (Video RAM) that temporarily records image information and a control IC that controls the display 313 based on image data output from the graphic controller.
  • VRAM Video RAM
  • the display 313 displays icons, cursors, menus, windows, or various data such as characters and images.
  • the map data force described above is drawn in two or three dimensions.
  • the map data displayed on the display 313 can be displayed with a mark representing the current position of the vehicle on which the navigation device 300 is mounted.
  • the current position of the vehicle is calculated by the CPU 301.
  • the display 313 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be used.
  • the display 313 is installed near the dashboard of the vehicle, for example.
  • a plurality of displays 313 may be installed on the vehicle, for example, near the dashboard of the vehicle or around the rear seat of the vehicle.
  • Communication IZF 314 is connected to a network via radio and functions as an interface between navigation device 300 and CPU 301.
  • the communication I / F 314 is further connected to a communication network such as the Internet via radio and functions as an interface between the communication network and the CPU 301.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication IZF314 is composed of, for example, an FM tuner, VICS (Vehicle Information and Communication System) Z beacon resino, wireless navigation device, and other navigation devices. Get road traffic information such as traffic regulations. VICS is a registered trademark.
  • the GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle.
  • the output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later.
  • the information indicating the current position is information that identifies one point on the map data, such as latitude'longitude and altitude.
  • Various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output value of each sensor 316 is CPU301 Is used to calculate the current position of the vehicle and the amount of change in speed and direction.
  • Various sensors 316 output information for determining the state inside the vehicle and information for determining the state of the driver.
  • the information for determining the state inside the vehicle is information such as the temperature, humidity, amount of smoke, and air component inside the vehicle.
  • the information for determining the driver's condition is specifically information such as the driver's heartbeat, brain waves, and breathing.
  • the camera 317 captures an image inside or outside the vehicle.
  • the image can be either a still image or a moving image.
  • the camera 317 captures the behavior of passengers inside the vehicle, and the captured image is output to a recording medium such as the magnetic disk 305 or the optical disk 307 via the image IZF312.
  • the situation outside the vehicle is photographed by the camera 317, and the photographed image is output to a recording medium such as the magnetic disk 305 and the optical disk 307 via the video IZF 312.
  • the camera 317 has an infrared camera function, and the surface temperature distribution of an object existing inside the vehicle can be relatively compared based on video information captured using the infrared camera function. .
  • the video output to the recording medium is overwritten and saved.
  • the information acquisition unit 101, the drive unit 102, the calculation unit 103, the notification unit 104, the determination unit 105, and the control unit 106 included in the drive control device 100 illustrated in FIG. 1 are the navigation device 300 illustrated in FIG.
  • the CPU 301 executes a predetermined program using programs and data recorded in the ROM 302, RAM 303, magnetic disk 305, optical disk 307, etc., and controls each part in the navigation device 300 to realize its function.
  • the navigation apparatus 300 of the embodiment includes the drive control apparatus 100 shown in FIG. 1 by executing the drive control program recorded in the ROM 302 as a recording medium in the navigation apparatus 300.
  • the function can be executed by the drive control processing procedure shown in FIG.
  • FIG. 4 is a block diagram showing a functional configuration of a drive control device that is effective in the present embodiment.
  • the drive control device 400 includes a drive unit 401, a control unit 402, a storage unit 403, , An information input unit 404, an information output unit 405, vehicle information IZF 406, an external device IZF 407, an image processing unit 408, and a sensor unit 410.
  • the drive control device 400 may be the same body as the navigation device 300 or may be a separate body. Also, it may be configured to share some functions.
  • the drive unit 401 is controlled by the control unit 402, and can be driven with a plurality of degrees of freedom such as a roll direction and a roll direction accompanying the drive direction and the pitch direction.
  • the driving unit 401 may be equipped with one or a plurality of sensors in the sensor unit 410 described later. Further, the drive unit 401 may be installed at a position where it can enter the field of view of the driver of the vehicle and acquire information around the vehicle. For example, when the drive unit 401 mounts the image sensor unit 411, the drive unit 401 mounted with the image sensor unit 411 is installed on the upper part of the dashboard or around the back mirror.
  • the drive unit 401 may be a robot imitating the appearance of an animal or a person.
  • the drive unit 401 may include all or a part of each component described later.
  • an information output unit 405 is provided to display information to the user by displaying an image or outputting a sound.
  • the drive unit 401 presents information to the user by its own movement. For example, information is presented to the user by raising his arm or shaking his head.
  • the drive unit 401 can change the imaging direction of the camera.
  • the viewing angle of a camera is 40 degrees horizontal and 30 degrees vertical in the case of a normal digital camera or movie camera. Therefore, the camera can image a wide range by changing the visual field direction by the drive unit 401.
  • the control unit 402 controls the drive unit 401. Specifically, a control signal for controlling the drive unit 401 is output to the drive unit 401. Specifically, for example, a control signal for rotating the drive unit 401 in one direction or a pitch direction, or a control signal for controlling ONZOFF of various sensors of the sensor unit 410 mounted on the drive unit 401 is output to the drive unit 401. To do. Further, when the drive unit 401 is a robot imitating an animal or a person, the control unit 402 can simultaneously control a plurality of outputs such as light output, sound output, and operation output.
  • the storage unit 403 stores various types of information. An example of information stored in the storage unit 403 is map information, for example.
  • the map information includes road network data that also has nodes and links, and image data that is drawn using features related to facilities, roads, and other terrain (mountains, rivers, land). Map data may include textual information, information such as facility names and addresses, and road and facility images.
  • the map information may include the types and installation positions of signs and signboards, the position of traffic lights, the range of the school zone, and the like.
  • the storage unit 403 stores the information input unit 404, vehicle information I ZF 406, external device IZF 407, vehicle information acquired by the sensor unit 410, image information, coordinate values of each point, risk index, and the like.
  • the information input unit 404 inputs various types of information.
  • the touch sensor unit 425, the sound sensor unit 415, the image sensor unit 411, or the like may be a touch panel, a remote controller, a mouse, a touch sensor, a microphone, a camera, or the like.
  • the information output unit 405 outputs various types of information. Specifically, for example, there are a display screen for displaying an image and an output device for outputting sound.
  • Vehicle information IZF 406 acquires vehicle information related to vehicle speed and vehicle operation.
  • the vehicle information is, for example, information related to operation of a blinker, a hazard, a steering wheel depression angle, a light, a wiper, and the like, and information related to a vehicle speed from the acceleration sensor unit 413 or the like.
  • the vehicle information IZF 406 may acquire information inside the vehicle. Specifically, for example, information on the behavior of the driver or the state such as the temperature, humidity and air components inside the vehicle may be acquired.
  • External Device IZF 407 functions as an interface with an external device, and is connected to various external devices.
  • the position of the vehicle is specified by information on GPS satellite power.
  • the map information database also refers to the map information.
  • it connects to the navigation device 300 and sets a route to the destination point.
  • the external device IZF 407 may perform its function by, for example, the GPS sensor unit 414 and the storage unit 403.
  • the image processing unit 408 performs image processing using information stored in the storage unit 403, image information acquired from the image sensor unit 411, and the like. Specifically, for example, the direction and speed of movement of objects, recognition of road signs and signs, etc. are performed.
  • the sensor unit 410 A seed sensor unit is provided. Specifically, for example, there are a sensor that acquires information on the state of the vehicle and a sensor that acquires information on the state of the driver.
  • the image sensor unit 411 acquires image information. Specifically, for example, an image inside or outside the vehicle is captured by a CCD camera or the like and acquired as image information.
  • the drive unit position detection unit 412 detects the position or rotation of the drive unit 401. Specifically, for example, the driving angle of the driving unit 401 in the direction of the pitch and the pitch is detected.
  • the acceleration sensor unit 413 detects the acceleration of the vehicle by a gyro or the like.
  • the acceleration of the vehicle for example, a change in the vehicle speed may be detected from the acceleration in the front-rear direction, or the acceleration force in the left-right direction may be detected as a vehicle shake.
  • the GPS sensor unit 414 detects the current position of the vehicle based on radio waves from GPS satellites.
  • the sound sensor unit 415 obtains the volume of sound inside or outside the vehicle, the direction in which the sound is generated, and the like using a microphone or the like.
  • Temperature sensor unit 416 measures the temperature inside or outside the vehicle.
  • the humidity sensor unit 417 measures the humidity inside or outside the vehicle.
  • the illuminance sensor unit 418 measures the intensity of light inside or outside the vehicle. Specifically, for example, it is detected whether or not the vehicle has entered the tunnel and whether or not the sun is out. Further, the illuminance sensor unit 418 may detect the amount of ultraviolet rays in sunlight.
  • the smoke sensor unit 419 detects smoke inside or outside the vehicle. Specifically, for example, cigarette smoke is detected.
  • the air sensor unit 420 measures air components. Specifically, for example, carbon monoxide concentration and impurity concentration inside the vehicle are measured.
  • the ultrasonic sensor unit 421 measures the distance to an object around the vehicle. Specifically, the time until the ultrasonic wave emitted from the ultrasonic sensor unit 421 mounted on the vehicle returns to the vehicle again is acquired, and the vehicle force also measures the distance to the measurement target.
  • the microwave sensor unit 422 measures a distance from an object around the vehicle. Specifically, the distance between the vehicle and the object is measured using microwaves.
  • the laser sensor unit 423 measures a distance from an object around the vehicle. Specifically, the distance to the vehicle force target is measured using a laser.
  • the infrared sensor unit 424 acquires image information using infrared rays.
  • the touch sensor unit 4 25 determines whether or not an arbitrary object is in contact with a target part inside or outside the vehicle. To do.
  • the pressure sensor unit 426 measures the air pressure inside the vehicle and the force applied to each sensor.
  • the biometric sensor unit 427 acquires information such as a user's heartbeat, brain waves, and respiration.
  • the magnetic sensor unit 428 measures magnetism.
  • FIG. 5 is a flowchart showing an outline of the processing of the drive control apparatus according to this embodiment.
  • the drive angle of the drive unit 401 is initialized (step S501). Specifically, for example, the angle in the direction of the driver 401 and the angle in the pitch direction are each set to 0 °.
  • step S502 vehicle information and image information are acquired (step S502).
  • step S503 based on the vehicle information acquired in step S502, it is determined whether or not the winker is used (step S503). If the winker is used (step S503: Yes), the first attention point is calculated (step S504). On the other hand, when the winker is not used in step S503 (step S503: No), the process returns to step S502, and the subsequent processing is repeated.
  • the first point of interest is the point of interest at time T.
  • the point of interest is a point on the road that serves as a reference when calculating the risk index of the vehicle.
  • the control signal to the drive unit 401 is calculated using the first attention point calculated in step S504 (step S505).
  • the control signal is an electrical signal that controls the drive unit 401. Then, when the control signal calculated in step S505 is input to the drive unit 401, it is determined whether or not the first attention point calculated in step S504 is within a photographing range (step S506).
  • the imageable range is the range of the camera viewing angle.
  • step S506 when the first point of interest falls within the shootable range (step S506:
  • step S507 the drive unit 401 is controlled in accordance with the control signal calculated in step S505 (step S507).
  • step S506: No the process returns to step S501 and the subsequent processing is repeated.
  • step S507 by the camera mounted on the drive unit 401 controlled in step S507.
  • the image information is acquired (step S508), and the risk index is calculated based on the image information and the vehicle information acquired in step S502 (step S509), and the second attention point is calculated (step S510).
  • the second point of interest is the point of interest at time (T + ⁇ ).
  • step S511 If the risk index is greater than or equal to threshold A (step S511: Yes), then the risk index It is determined whether or not the force is greater than or equal to threshold value B (step S512).
  • the threshold A is the value B.
  • step S512 if the risk index is greater than or equal to the value B (step S512: Yes), wait until normal operation returns (step S513: No loop), then return to normal operation (step S513: Yes), it is determined whether or not to continue the control of the drive unit 401 (step S514). When not continuing in step S514 (step S514: No), a series of processing is ended as it is.
  • step S511: No if the risk index is greater than or equal to the value A in step S511 (step S511: No), the process returns to step S505, and the subsequent processing is repeated.
  • step S512 if the risk index is less than the threshold value B (step S512: No), the driver is not warned (step S515), the process returns to step S505, and the subsequent processing is repeated.
  • W is a range in the horizontal direction
  • H is a range in the height direction.
  • the drive angle range of the drive unit 401 is 90 ° to + 90 ° when the straight direction angle is 0 ° and the right direction is the positive direction in the direction of the arrow, and the direction parallel to the road in the pitch direction. If the angle is 0 ° and the downward direction is the plus direction, the range is -45 ° to + 45 °.
  • the control unit 402 sets the angle of the drive unit 401 in the horizontal direction to 0 ° and the angle in the pitch direction to 0 °. [0077] (Contents of processing for acquiring vehicle information and image information)
  • FIG. 6 is a flowchart showing the contents of processing for acquiring vehicle information and image information.
  • vehicle information and image information are acquired (step S601).
  • the vehicle information is information acquired by the vehicle information IZF 406, and specifically, information on the blinker, information on the speed of the vehicle, and the like.
  • the image information is information acquired by the image sensor unit 411, and specifically, information related to an image around the vehicle captured by a camera or the like. Then, the vehicle information and the image information acquired in step S601 are stored in the storage unit 403 (step S602), and the series of processes is terminated.
  • FIG. 7 is a flowchart showing the contents of the process of calculating the first attention point.
  • vehicle information and image information stored in the storage unit 403 are read out in step S602 of FIG. 6 (step S701).
  • step S701 the image information is taken with a camera installed at a height of 1 meter from the road with an angle of 0 ° in the pitch direction.
  • FIG. 8 is an explanatory diagram showing the vertical distance of one point on the road in the captured image.
  • the distance from the camera to the lowest road on the image is IX (1Z tanl5 °).
  • the distance of the camera force to the road at the center point in the lower half of the image divided in the vertical direction is calculated as l X (l / tanl5 °) X 2.
  • Fig. 9 is an explanatory diagram showing the relationship between the distance in the horizontal direction and the distance in the vertical direction of the center point force of the photographed image.
  • the horizontal direction of the camera force up to the coordinate (x, y) point
  • Dl l X (lZtanl5 °) X (240Zy) [Equation 1].
  • step S 701 based on the vehicle information and the image information read out, a road edge break in the turning direction is detected (step S 702). Specifically, the direction of the turn signal is determined by the turn signal information in the vehicle information as the turning direction, and the road edge break is detected by analyzing the image information.
  • FIG. 10 is an explanatory diagram for explaining points on the road.
  • Figure 10 shows the remote point (point A) from the vehicle at the edge of the road edge in the turn direction, the point (point B) near the vehicle at the road edge at the turn direction, and the reference point of the road to bend. (C point) and the first point of interest (D point). Point A, point B, point C, and point D all exist on the road.
  • step S702 two points, point A and point B, are detected as road edge breaks.
  • a length L between road edge breaks is calculated (step S703).
  • the length L between the road edge breaks is the length from point A to point B detected in step S702.
  • a reference point (point C) of the road ahead is detected (step S704).
  • point C is the point where the distance between AC is 1Z4, the distance between AB, on the straight line between points A and B.
  • point C is the center point of the road that passes after turning the road as directed by Winker.
  • a first point of interest (point D) is determined (step S705).
  • Point D is a point that is perpendicular to the camera optical axis from point C by the same distance as AB.
  • the coordinate value of the first target point determined in step S705 is stored in the storage unit 403 (step S706), and the series of processes is terminated.
  • the coordinate value of the point D is obtained as follows.
  • Pd (253, 45).
  • FIG. 11 is a flowchart showing the contents of the process for calculating the control signal.
  • step S1101 the coordinate value of the first point of interest stored in the storage unit 403 in step S706 of FIG. 7 is read (step S1101).
  • step S1102 the rotation angle is calculated from the coordinate value of the first point of interest read in step S1101 (step S1102).
  • step S1102 the rotation angle is calculated using the coordinates of point D as Pd.
  • FIG. 12 is a flowchart showing the contents of the process for controlling the drive unit.
  • the control signal stored in the storage unit 403 in step S1103 of FIG. 11 is read (step S1201).
  • the drive unit 401 is controlled according to the control signal read in step S 1201 (step Step S1202), and the series of processing ends.
  • control of the drive unit 401 is, for example, control for rotating the camera to an angle at which the point D described in FIG. 7 to FIG. 10 appears in an image photographed by the camera. Specifically, by controlling the camera by the rotation angle ⁇ in the direction of the arrow using the coordinate value of the point D calculated in FIG. 11 and the rotation angle ⁇ in the direction of the pitch, the point D becomes the image. Since it overlaps with the central point, point D will appear in the image.
  • FIG. 13 is a flowchart showing the contents of the process for acquiring image information.
  • image information at time T is acquired by the camera controlled in step S1202 of FIG. 12 (step S1301). Therefore, the central point of image information overlaps with D point.
  • the center point of the image information acquired in step S1301 is the center.
  • An attention point template in a range of X 10 pixels is acquired (step S1302). Then, the attention point template and the image information at time T acquired in step S1302 are stored in the storage unit 403 (step S1303). Next, image information at ⁇ time after the image is acquired at step S1301, that is, image information at time (T + ⁇ ) is acquired (step S1304). Then, the image information at the time (T + ⁇ ) is stored in the storage unit 403 (step S 1305), and the series of processing ends.
  • FIG. 14 is a flowchart showing the contents of the process for calculating the risk index.
  • FIG. 15 is an explanatory diagram showing image information acquired at time T
  • FIG. 16 is an explanatory diagram showing image information acquired at time ( ⁇ + ⁇ ).
  • image information at time T is read from the storage unit 403 (step S1401).
  • the image information at time T is the image information stored in step S1303 in FIG. 13, and specifically, for example, the image information shown in FIG. Figure In 15, the road 1501, the animal 1502, and the person 1503 that are running are imaged.
  • image information at time (T + ⁇ ) is read from the storage unit 403 (step S 1402).
  • the image information at time ( ⁇ + ⁇ ) is the image information stored in step S1305 in FIG. 13, and specifically, for example, the image information shown in FIG. In FIG. 16, the road 1601, the animal 1602, and the person 1603 that are running are imaged.
  • step S1401 the image information at time T read in step S1401 is superimposed on the image at time (T + ⁇ ) read in step S1402 by matching white lines (step S). 1403).
  • white line matching for example, pedestrian crossings, stop lines, white lines between lanes, and white lines at the ends of lanes are superimposed.
  • FIG. 17 is an explanatory diagram showing image information in which white lines are matched and overlaid.
  • road 1501 in FIG. 15 and road 1601 in FIG. 16 are overlapped by matching white lines. Therefore, it is possible to represent the difference between ⁇ of objects imaged other than on the road. Specifically, for example, the positions of the animal 1502 and the person 1503 at the time T and the positions of the animal 1602 and the person 1603 at the time (T + ⁇ ) can be represented simultaneously.
  • step S1404 a place where the difference between the two image information is large is detected as a moving object.
  • the animal 1 502 or the animal 1602 and the person 1503 (or the person 1603) are detected as moving objects.
  • step S1405 feature points are extracted within the moving object region (step S1405), and a template near the feature points is acquired (step S1406).
  • step S 1406 the template acquired in step S 1406 is matched with the image information at time (T + ⁇ ) to calculate a motion vector M (step S 1407). Specifically, for example, the motion vector M1 and the motion vector M2 shown in FIG. 18 are calculated.
  • FIG. 18 is an explanatory diagram showing the motion vector M.
  • roads 1501 and 1601, animals 1502 and 1602, people 1503 and 1603, vanishing points 1801, and power are shown.
  • the motion vector M indicates the distance and direction moved during ⁇ . Therefore, the motion vector when animal 1502 moves to the position of animal 1602 during ⁇ is Ml, and the motion vector when the person 1503 moves to the position of the person 1603 during ⁇ is M2.
  • the dangerous index D is also calculated for the motion vector ⁇ and the vehicle speed V force calculated in step S1407 (step S1408).
  • FIG. 19 is an explanatory diagram showing the magnitude of the risk index D based on the relationship between the unit vector I and the motion vector M.
  • road 1601, animal 1602, person 16 03, animal motion vector Ml, person motion vector M2, vanishing point 1801, attention point 1901, and unit vector I are shown. ing.
  • risk index D is assumed to be large.
  • the animal motion vector Ml is parallel to the unit vector I, the risk index D is small. Then, the risk index D calculated in step S 1408 is stored (step S 1409), and the series of processing ends.
  • FIG. 20 is a flowchart showing the contents of the process of calculating the second attention point.
  • step S1302 in FIG. 13 the attention point template acquired at time T is read (step S2001).
  • step S 1305 in FIG. 13 the image information at the time (T + ⁇ ) stored in step S 1305 in FIG. 13 is read out, and the attention point template at the time T is matched with the image information at the time (T + ⁇ ) to obtain the time (T + The attention point template of ( ⁇ ) is acquired (step S2002). Then, the coordinate value of the second attention point is stored in the storage unit 403 using the center coordinate of the attention point template at the time (T + ⁇ ) acquired in step S2002 as the second attention point (step S20 03), a series of processing ends.
  • step S511 in FIG. 5 is 20 and threshold B in step S512 is 40
  • the driver goes to step S50 5 without warning. Return and calculate the control signal.
  • the process proceeds to step S515 to warn the driver, and then returns to step S505 to calculate the control signal.
  • the process proceeds to step S513 without warning the driver and waits until the normal operation is restored.
  • FIG. 21 is a flowchart showing the contents of the process for determining whether or not the normal operation is restored.
  • step S2101 it is determined whether or not the vehicle speed is 0 (step S2101). If the vehicle speed is 0 in step S2101 (step S2101: Yes), it is determined that the vehicle has returned to normal operation (step S2102), and the series of processing ends.
  • step S2101 determines whether or not the depression angle is 0 for a predetermined time or more (step S2103). If the depression angle is 0 for a predetermined time or more after step S2103 (step S2103: Yes), the process proceeds to step S2102, and it is determined that the normal operation has been resumed, and the series of processing ends. In step S2103, if the angle force is not more than a certain time (step S2103: No), it is determined that the vehicle is in danger driving (step S2104), the process returns to step S2101, and the subsequent processing is repeated.
  • step S515 in FIG. 5 the details of the processing to warn the driver in step S515 in FIG. 5 will be described in detail. If it is determined in step S2104 in FIG. 21 that the vehicle is dangerously driven, the drive control device 400 warns the driver.
  • the warning to the driver is given by, for example, an image or sound output from the information output unit 405 or a movement of the drive unit 401. In addition, the combination is used to warn the driver of dangerous driving.
  • step S511 when the risk index is less than threshold A at step S511: No in FIG. 5, the process returns to step S505, and when the risk index is less than threshold B at step S512: No. Then, proceed to step S515, warn the driver, and return to step S505.
  • the driving unit 401 may be controlled to track the moving object as it is.
  • the risk may be further avoided by calculating the risk index specifically for these moving objects.
  • the risk index is calculated based on the relationship of the position of the object using the image information.
  • the present invention is not limited to this. For example, when the risk index is larger than normal driving, when turning left or right, changing lanes, looking at signs / signboards, passing through accident-prone areas, passing through narrow roads, passing through branch points such as expressways ,and so on.
  • a risk index is calculated based on the blinker information.
  • turn signal information is detected, and the risk index is set to a value greater than that during normal driving.
  • the risk index is larger because the vehicle crosses the opposite lane when turning right than when turning left. Therefore, when making a right turn, it is detected that the turn signal information makes a right turn, and the risk index is set to a value greater than that for a left turn.
  • Map information is used to calculate a risk index when a sign / signboard is viewed, when an accident occurs frequently, or when a highway or other branching point is passed. For example, if the current location of the vehicle in the map information approaches an important sign 'signboard on the route to the school area or the route to the destination point, a point where accidents occur frequently, or a branch point such as an expressway, the risk index To a value greater than during normal operation.
  • the risk index is calculated from road conditions and other vehicle information.
  • the road width is calculated from the vehicle information IZF406, the external device IZF407, and the image sensor unit 411, and a lane change is detected.
  • the risk index increases the risk index compared to normal operation.
  • the sound sensor unit 415 when calculating the risk index according to other external situations, such as when a horn is ringing outside, the sound sensor unit 415 obtains sound and determines that the driving situation is high in stress. And make the risk index larger than that during normal operation.
  • Other examples of calculating the danger index according to the external situation include weather information acquired by mobile devices such as mobile devices using the external device IZF 407, image processing by the image sensor unit 411, sound, etc.
  • the risk index may be set to a value larger than that during normal operation by judging the force such as rain sound acquired by the sensor unit 415.
  • the risk index may be calculated based on changes in the driver's condition. For example, if it is determined that the driver feels drowsy from information obtained from force such as the image sensor unit 411, the acceleration sensor unit 413, and the biometric sensor unit 427, the risk index is set larger than that during normal driving. The Further, the threshold value A and the threshold value B in steps S511 and S512 in FIG. 5 may be reduced. Furthermore, the imaging direction of the image sensor unit 411 may be directed toward the driver depending on the degree of sleepiness determination. Then, it is possible to determine the driver's condition in detail from the captured image information and calculate the risk index.
  • the calculation of the risk index due to the change in the driver's condition is performed by determining whether or not the vehicle has deviated from the lane based on the image information outside the vehicle captured by the image sensor unit 411. When it is determined that the risk is dangerous, the risk index is increased from that during normal operation. In addition, the number and length of the driver's blinks are detected from the image information inside the vehicle imaged by the image sensor unit 411, and the risk index is made larger than that during normal driving according to the detected result. A little.
  • the calculation of the risk index due to the change in the driver's condition is more specifically detected by detecting the vehicle shake by the acceleration sensor unit 413, and detecting the driver's sleepiness by this vehicle shake force.
  • the risk index may be larger than during normal operation.
  • the calculation of the risk index based on changes in the driver's condition is specifically performed by detecting the driver's pulse, breathing, brain waves, etc. by the biosensor unit 427, and the state of stress where sleepiness is occurring. If it is determined that it is high and overly tense, the risk index may be higher than during normal driving.
  • a number may be calculated depending on the vehicle information acquired by the vehicle information IZF406, A number may be calculated. Specifically, for example, when the winker or wiper is operated, the risk index is set larger than that during normal operation. When the hazard is lit, when the light is lit, increase the risk index compared to normal operation. In addition, when the vehicle speed is larger than the speed limit based on map information or signboard sign recognition, the risk index may be larger than that during normal driving, and the steering angle is greater than or equal to a predetermined value compared to the map information. If there is a deviation, the risk index may be higher than during normal operation.
  • the risk index may be made larger than that during normal driving according to the distance from the preceding vehicle.
  • the distance from the preceding vehicle is obtained by a sensor that obtains the distance to the object such as the image sensor unit 411, the ultrasonic sensor unit 421, and the infrared sensor unit 424, and the inter-vehicle distance from the preceding vehicle is predetermined. If it is less than the distance, or if the relative speed with the preceding vehicle is greater than or equal to a predetermined value, the risk index may be made larger than during normal driving.
  • the image sensor unit 411 or the like has acquired that the preceding vehicle has made a hazard, increase the danger index from that during normal operation.
  • the navigation device 300 or the drive control device 400 of the present embodiment based on the information about the moving object acquired by the information acquiring unit 101, the calculating unit 103 Thus, a risk index indicating the possibility of a dangerous event is calculated, and the drive unit 102 that drives the sensor mounted on the moving body can be controlled by the control unit 106 according to the calculated result. Accordingly, the navigation device 300 or the drive control device 400, for example, if the user is not gazing at the drive unit 102 and determines that a dangerous event occurs in the moving body, the drive unit 102 is used. Can be controlled. Thus, the user can control the driving unit 102 during dangerous driving so that the user does not hinder driving judgment.
  • the navigation device 300 or the drive control device 400 of the present embodiment depending on the calculation result calculated by the calculation unit 103, a dangerous event for the moving object to the moving object It is possible to notify the possibility of occurrence. Therefore, the navigation device 300 or the drive control device 400 can warn the driver that the vehicle is in danger driving when the risk index is within a predetermined range. As a result, the user can know that driving is in a dangerous state, and can avoid dangerous events such as accidents. [0122] Further, according to the navigation device 300 or the drive control device 400 of the embodiment, when the determination unit 105 determines that the risk index is larger than a predetermined value, the control unit 106 drives by the drive unit 102. Can be stopped.
  • the navigation device 300 or the drive control device 400 stops the drive unit 102 in the driver's field of view during dangerous driving, so that the drive unit 102 is regarded as an object (a person or an oncoming vehicle) outside the vehicle. You can prevent mistakes. This allows the user to concentrate on driving because there is no extra movement in the field of view.
  • the drive unit 102 can drive the information acquisition unit 101. Therefore, a wide range of information can be acquired by driving the information acquisition unit 101 by the driving unit 102. As a result, the user can know the possibility of dangerous events over a wide range.
  • the information acquisition unit 101 can acquire image information related to the periphery of the moving object. Therefore, it is possible to identify an object having a large risk index for the moving object from the change in the acquired image information. This allows users to avoid dangerous events such as accidents.
  • the drive by the drive unit 102 is resumed. can do. Therefore, the drive unit 102 can be driven during normal operation. As a result, for example, even if the movement of a vehicle-mounted robot is stopped, the user can move it again after avoiding a dangerous event.
  • the drive unit 102 can drive the sensor mounted on the moving body in the arrow direction and the pitch direction. Therefore, the drive control apparatus 100 can acquire information on the moving object over a wide range. This allows the user to know the possibility of dangerous events over a wide area.
  • the drive control device, drive control method, and drive control program of the present invention According to the recording medium, the navigation device 300 or the drive control device 400 calculates a risk index based on information acquired by various sensors included in the sensor unit 410, and the risk index is equal to or greater than a threshold value. In this case, the drive unit 401 can be controlled. Therefore, even when the driver is not gazing at the drive unit 401, the drive unit 401 can be stopped during dangerous driving. This allows the driver to concentrate on driving because there is no extra movement in the field of view.
  • the drive control method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Description

明 細 書
駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体 技術分野
[0001] この発明は、移動体に対して危険な事象の起こる可能性に基づいて駆動部を制御 する駆動制御装置、駆動制御方法、駆動制御プログラム、および記録媒体に関する 。ただし、この発明の利用は、上述した駆動制御装置、駆動制御方法、駆動制御プ ログラムおよび記録媒体には限られな 、。
背景技術
[0002] 従来、車両を目的地点まで誘導するカーナビゲーシヨンに関する情報や運転の状 態に関する情報を、ロボットなどの駆動部を利用して、運転者になじみやすくわかり やすい提示をおこなう運転情報出力装置がある。
[0003] これらの運転情報出力装置の中には、運転者の状況をカメラなどによって検知し、 駆動部や表示画面を注視している場合は、駆動部の動きを停止したり、表示画面へ の表示や音声出力を停止することで、駆動部や表示画面の注視によって引き起こさ れる危険な運転を防ぎ、安全で適切ナビゲーシヨンをおこなう提案がされて 、る (たと えば、下記特許文献 1参照。 ) o
[0004] 特許文献 1 :特開 2004— 93354号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述の特許文献 1の技術では、たとえば、運転者が駆動部や表示画 面を注視して 、な 、場合でも、駆動部や表示画面が運転者の視野に入って 、れば、 危険運転時において駆動部の動きや操作音、表示画面の表示を、車両に危険を及 ぼす可能性のある車両外部の物体と勘違いしてしまうという問題が一例として挙げら れる。
課題を解決するための手段
[0006] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる駆動制御 装置は、移動体に搭載されたセンサを駆動させる駆動手段と、前記移動体に関する 情報を取得する情報取得手段と、前記情報取得手段によって取得された情報に基 づいて、前記移動体に対して危険な事象の起こる可能性を示す危険指数を算出す る算出手段と、前記算出手段によって算出された算出結果に応じて、前記駆動手段 を制御する制御手段と、を備えることを特徴とする。
[0007] また、請求項 8の発明にかかる駆動制御方法は、移動体に関する情報を取得する 情報取得工程と、前記情報取得工程によって取得された情報に基づいて、前記移 動体に対して危険な事象の起こる可能性を示す危険指数を算出する算出工程と、前 記算出工程によって算出された算出結果に応じて、前記移動体に搭載されたセンサ を駆動させる駆動手段を制御する工程と、を含むことを特徴とする。
[0008] また、請求項 9の発明に力かる駆動制御プログラムは、請求項 8に記載の駆動制御 方法をコンピュータに実行させることを特徴とする。
[0009] また、請求項 10の発明に力かる記録媒体は、請求項 9に記載の駆動制御プロダラ ムをコンピュータに読み取り可能な状態で記録したことを特徴とする。
図面の簡単な説明
[0010] [図 1]図 1は、本実施の形態に力かる駆動制御装置の機能的構成を示すブロック図で ある。
[図 2]図 2は、本実施の形態に力かる駆動制御装置の駆動制御処理手順を示すフロ 一チャートである。
[図 3]図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブロッ ク図である。
[図 4]図 4は、本実施例に力かる駆動制御装置の機能的構成を示すブロック図である
[図 5]図 5は、本実施例に力かる駆動制御装置の処理の概要を示すフローチャートで ある。
[図 6]図 6は、車両情報および画像情報を取得する処理の内容について示したフロー チャートである。
[図 7]図 7は、第 1注目点を算出する処理の内容について示したフローチャートである [図 8]図 8は、撮影された画像における道路上の 1地点の垂直方向の距離を示した説 明図である。
[図 9]図 9は、撮影された画像の中心地点からの水平方向の距離と垂直方向の距離 との関係を示した説明図である。
[図 10]図 10は、道路上の地点について説明する説明図である。
[図 11]図 11は、制御信号を算出する処理の内容につ!/、て示したフローチャートであ る。
[図 12]図 12は、駆動部を制御する処理の内容につ!/、て示したフローチャートである。
[図 13]図 13は、画像情報を取得する処理の内容につ 、て示したフローチャートであ る。
[図 14]図 14は、危険指数を算出する処理の内容を示したフローチャートである。
[図 15]図 15は、時刻 Tに取得された画像情報を示した説明図である。
[図 16]図 16は、時刻 (T+ ΔΤ)に取得された画像情報を示した説明図である。
[図 17]図 17は、白線をマッチングさせて重ね合わした画像情報を示した説明図であ る。
[図 18]図 18は、動きベクトル Mを示した説明図である。
[図 19]図 19は、単位ベクトル Iと、動きベクトル Mとの関係による危険指数 Dの大小に つ!、て示した説明図である。
[図 20]図 20は、第 2注目点を算出する処理の内容につ!/、て示したフローチャートで ある。
[図 21]図 21は、通常運転に復帰した力否かを判断する処理の内容について示した フローチャートである。 符号の説明
100 駆動制御装置
101 情報取得部
102 駆動部
103 算出部
104 報知部 105 判断部
106 制御部
発明を実施するための最良の形態
[0012] 以下に添付図面を参照して、この発明にかかる駆動制御装置、駆動制御方法、駆 動制御プログラム、および記録媒体の好適な実施の形態を詳細に説明する。
[0013] (実施の形態)
(駆動制御装置の機能的構成)
まず、この発明の実施の形態に力かる駆動制御装置 100の機能的構成について 説明する。図 1は、本実施の形態に力かる駆動制御装置の機能的構成を示すブロッ ク図である。図 1において、駆動制御装置 100は、情報取得部 101と、駆動部 102と 、算出部 103と、報知部 104と、判断部 105と、制御部 106と、を備えている。
[0014] 情報取得部 101は、移動体に関する情報を取得する。移動体に関する情報は、具 体的には、たとえば、移動体に搭載されたカメラによって撮影された移動体の周辺に 関する画像情報である。また、移動体に関する情報は、各種センサ力も取得された情 報でもよい。各種センサ力 取得された情報は、たとえば、移動体の速度'加速度情 報、移動体の現在位置情報、移動体内部および外部の音の大きさや方向 '温度'湿 度'光の強さ'煙の量'空気の成分'任意の物体の接触 '圧力'磁気の量などの情報、 移動体から任意の対象物までの距離の情報、利用者の心拍 ·脳波 ·呼吸などの情報 などである。
[0015] 駆動部 102は、移動体に搭載されたセンサを駆動させる。移動体に搭載されたセン サは、上述した各種センサであり、たとえば、画像センサ (カメラ)である。また、駆動 部 102は、情報取得部 101を駆動させてもよい。したがって、情報取得部 101と、各 種センサとは同体でもよいし、別体でもよい。そして、駆動部 102は、移動体に搭載さ れたセンサまたは情報取得部 101を、ョー方向およびピッチ方向に駆動させる。さら に、駆動部 102は、たとえば、動物や人の形を模倣したロボットなどでもよい。
[0016] 算出部 103は、情報取得部 101によって取得された情報に基づいて、移動体に対 して危険な事象の起こる可能性を示す危険指数を算出する。ここで、危険な事象は、 具体的には、たとえば、移動体が経路を外れることや、移動体が物体と接触すること や、移動体の利用者の状態が通常と異なることなどである。また、危険指数は、これら の危険な事象の起こる可能性の大小をあらわす指標となる数値である。
[0017] 報知部 104は、算出部 103によって算出された算出結果に応じて、移動体の搭乗 者に移動体に対して危険な事象の起こる可能性を報知する。報知部 104は、たとえ ば、警告音や音声情報、光の点灯などによって報知する。音声情報によって報知す る場合、具体的には、「車間距離が短いです。」、「右側に障害物があります。」などの 、移動体が事故を起こす可能性のあるものを報知する。また、「空気が悪いので窓を 開けましょう。」、「オーディオの音量を下げてください。」などの搭乗者に対して危険 な事象の起こる可能性を報知してもよい。また、これらの危険な事象の起こる可能性 の報知は、駆動部 102による駆動によって報知してもよい。
[0018] 判断部 105は、算出部 103によって算出された危険指数が所定値より大きい値か 否かを判断する。ここで、所定値は、利用者によって設定可能でもよぐ過去の履歴 によって変更可能でもよい。また、判断部 105は、算出部 103によって算出された危 険指数が所定値より大き 、値と判断された後に、所定値より小さ 、値に戻った力否か を判断してもよい。
[0019] 制御部 106は、算出部 103によって算出された算出結果に応じて、駆動部 102を 制御する。また、制御部 106は、判断部 105によって危険指数が所定値より大きい値 と判断された場合、駆動部 102による駆動を停止する。そして、制御部 106は、判断 部 105によって危険指数が所定値より小さい値に戻ったと判断された場合、駆動部 1 02による駆動を再開してもよい。
[0020] (駆動制御装置の駆動制御処理手順)
つぎに、駆動制御装置 100の駆動制御処理手順について説明する。図 2は、本実 施の形態に力かる駆動制御装置の駆動制御処理手順を示すフローチャートである。 図 2のフローチャートにおいて、まず、情報取得部 101によって移動体に関する情報 を取得する(ステップ S201)。つぎに、ステップ S 201において取得された移動体に 関する情報に基づいて、算出部 103によって、移動体に対して危険な事象の起こる 可能性を示す危険指数を算出する (ステップ S202)。そして、報知部 104によって、 移動体に対して危険な事象の起こる可能性を搭乗者に報知する (ステップ S203)。 [0021] さらに、判断部 105によって、ステップ S202において算出された危険指数が所定 値より大きい値力否かを判断して (ステップ S 204)、危険指数が所定値より大きい値 の場合 (ステップ S204 : Yes)、制御部 106によって駆動部 102を制御して駆動を停 止して(ステップ S205)、一連の処理を終了する。一方、ステップ S204において危 険指数が所定値より大きい値ではない場合 (ステップ S204 : No)、ステップ S 201に 戻り、以降の処理を繰り返しおこなう。
[0022] なお、図 2のフローチャートにおいては、ステップ S203において、搭乗者に報知す るとしている力 これに限るものではない。具体的には、たとえば、搭乗者に報知せず に、ステップ S 204に進んでもよい。もしくは、危険指数がステップ S205における所定 値を上限とした所定範囲内に入っている力否かを判断して、所定範囲内に入ってい る場合に、搭乗者に報知するようにしてもよい。
[0023] また、図 2のフローチャートにおいては、ステップ S205において駆動部 102の駆動 を停止するとしている力 これに限るものではない。具体的には、たとえば、駆動部 1 02の駆動は停止せずに、駆動に制限を設けるようにしてもよい。制限とは、たとえば 、駆動部 102の駆動範囲を狭くしたり、駆動部 102を停止した状態で光の点滅や音 声の出力のみをおこなったりする。
[0024] 上述したように、本実施の形態の駆動制御装置 100によれば、情報取得部 101に よって取得された移動体に関する情報に基づいて、算出部 103によって移動体に対 して危険な事象の起こる可能性を示す危険指数を算出し、算出された算出結果に応 じて、制御部 106によって移動体に搭載されたセンサを駆動させる駆動部 102を制 御することができる。したがって、駆動制御装置 100は、たとえば、利用者が駆動部 1 02を注視していなくても、移動体に危険な事象が起こると判断された場合は、駆動部 102を制御することができる。これによつて、利用者は、危険運転時に駆動部 102を 制御させることで、運転の判断の妨げにならな 、ようにさせることができる。
[0025] また、本実施の形態の駆動制御装置 100によれば、算出部 103によって算出され た算出結果に応じて、移動体の搭乗者に移動体に対して危険な事象の起こる可能 性を報知することができる。したがって、駆動制御装置 100は、危険指数が所定範囲 内の場合は、運転者に危険運転であることの警告をおこなうことができる。これによつ て、利用者は、運転が危険な状態であることを知ることができ、事故などの危険な事 象を回避することができる。
[0026] また、本実施の形態の駆動制御装置 100によれば、制御部 106は、判断部 105に よって危険指数が所定値より大きい値と判断された場合、駆動部 102による駆動を停 止することができる。したがって、本駆動制御装置 100は、危険運転時に運転者の視 野内にある駆動部 102を停止することで、駆動部 102を車両外部の物体 (人や対向 車)と見間違うのを防ぐことができる。これによつて、利用者は、視野内に余計な動き がないため、運転に集中することができる。
[0027] また、本実施の形態の駆動制御装置 100によれば、駆動部 102は、情報取得部 10 1を駆動させることができる。したがって、駆動部 102によって情報取得部 101を駆動 することで広範囲の情報を取得することができる。これによつて、利用者は、広範囲に わたって危険な事象の起こる可能性を検知することができる。
[0028] また、本実施の形態の駆動制御装置 100によれば、情報取得部 101は、移動体の 周辺に関する画像情報を取得することができる。したがって、取得された画像情報の 変化から、移動体に対して危険指数の大きい物体を特定することができる。これによ つて、利用者は、事故などの危険な事象を回避することができる。
[0029] また、本実施の形態の駆動制御装置 100によれば、判断部 105によって危険指数 が所定値より小さい値に戻ったと判断された場合、駆動部 102による駆動を再開する ことができる。したがって、通常運転をしている間は、駆動部 102を駆動させることが できる。これによつて、利用者は、たとえば、車載したロボットなどの動きが停止された 場合も、危険な事象を回避した後は、再び動かすことができる。
[0030] また、本実施の形態の駆動制御装置 100によれば、駆動部 102は、移動体に搭載 されたセンサを、ョー方向およびピッチ方向に駆動させることができる。したがって、 駆動制御装置 100は、広範囲にわたって移動体に関する情報を取得することができ る。これによつて、利用者は、広範囲にわたって危険な事象の起こる可能性を検知す ることがでさる。
実施例
[0031] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の駆動制御装置を実施した場合の一例について説明する。
[0032] (ナビゲーシヨン装置のハードウェア構成)
つぎに、本実施例に力かるナビゲーシヨン装置 300のハードウェア構成について説 明する。図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブ ロック図である。図 3において、ナビゲーシヨン装置 300は、 CPU301と、 ROM302と 、 RAM303と、磁気ディスクドライブ 304と、磁気ディスク 305と、光ディスクドライブ 3 06と、光ディスク 307と、音声 IZF (インターフェース) 308と、マイク 309と、スピーカ 310と、入力デバイス 311と、映像 IZF312と、ディスプレイ 313と、通信 IZF314と、 GPSユニット 315と、各種センサ 316と、カメラ 317と、を備えている。各構成部 301 〜317は、バス 320によってそれぞれ接続されている。
[0033] まず、 CPU301は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM302は、 ブートプログラム、データ更新プログラムなどのプログラムを記録している。また、 RA M303は、 CPU301のワークエリアとして使用される。すなわち、 CPU301は、 RAM 303をワークエリアとして使用しながら、 ROM302に記録された各種プログラムを実 行することによって、ナビゲーシヨン装置 300の全体の制御を司る。
[0034] 磁気ディスクドライブ 304は、 CPU301の制御にしたがって磁気ディスク 305に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 305は、磁気ディスクドラ イブ 304の制御で書き込まれたデータを記録する。磁気ディスク 305としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0035] また、光ディスクドライブ 306は、 CPU301の制御にしたがって光ディスク 307に対 するデータの読み取り Z書き込みを制御する。光ディスク 307は、光ディスクドライブ 306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディ スク 307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体 として、光ディスク 307のほ力 MO、メモリカードなどであってもよい。
[0036] 磁気ディスク 305および光ディスク 307に記録される情報の一例としては、地図デ ータゃ機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フ ィーチヤ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含ん でおり、地区ごとに分けられた複数のデータファイルによって構成されている。
[0037] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0038] 機能データは、地図上の施設の形状をあらわす 3次元データ、当該施設の説明を あらわす文字データ、その他地図データ以外の各種のデータである。地図データや 機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されてい る。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図にお いて所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記 録されている。また、たとえば、機能データは、各々が、 1つの機能を実現するように、 機能ごとに複数にブロック分けすることができる状態で記録されている。
[0039] また、機能データは、上述した 3次元データや文字データに加えて、経路探索、所 要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するた めのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機 能ごとに分けられた複数のデータファイルによって構成されている。
[0040] 音声 IZF308は、音声入力用のマイク 309および音声出力用のスピーカ 310に接 続される。マイク 309に受音された音声は、音声 IZF308内で AZD変換される。マ イク 309は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数 でもよい。スピーカ 310からは、所定の音声信号を音声 IZF308内で DZA変換した 音声が出力される。なお、マイク 309から入力された音声は、音声データとして磁気 ディスク 305あるいは光ディスク 307に記録可能である。
[0041] 入力デバイス 311は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、タツチパネルなどが挙げられる。入力デバイス 311は、リモ コン、キーボード、タツチパネルのうちいずれ力 1つの形態によって実現されてもよい 力 複数の形態によって実現することも可能である。
[0042] 映像 IZF312は、ディスプレイ 313に接続される。映像 IZF312は、具体的には、 たとえば、ディスプレイ 313全体を制御するグラフィックコントローラと、即時表示可能 な画像情報を一時的に記録する VRAM (Video RAM)などのバッファメモリと、グ ラフィックコントローラから出力される画像データに基づ 、てディスプレイ 313を制御 する制御 ICなどによって構成される。
[0043] ディスプレイ 313には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。ディスプレイ 313には、上述した地図データ力 2 次元または 3次元に描画される。ディスプレイ 313に表示された地図データには、ナ ピゲーシヨン装置 300を搭載した車両の現在位置をあらわすマークなどを重ねて表 示することができる。車両の現在位置は、 CPU301によって算出される。
[0044] ディスプレイ 313としては、たとえば、 CRT, TFT液晶ディスプレイ、プラズマデイス プレイなどを用いることができる。ディスプレイ 313は、たとえば、車両のダッシュボー ド付近に設置される。ディスプレイ 313は、車両のダッシュボード付近のほ力、車両の 後部座席周辺などに設置するなどして、車両にぉ 、て複数設置されて 、てもよ 、。
[0045] 通信 IZF314は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU301とのインターフェースとして機能する。通信 I/F314は、さらに、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU301とのインターフエ一 スとしても機能する。
[0046] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF314は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0047] GPSユニット 315は、 GPS衛星からの電波を受信し、車両の現在位置を示す情報 を出力する。 GPSユニット 315の出力情報は、後述する各種センサ 316の出力値とと もに、 CPU301による車両の現在位置の算出に際して利用される。現在位置を示す 情報は、たとえば緯度'経度、高度などの、地図データ上の 1点を特定する情報であ る。
[0048] 各種センサ 316は、車速センサ、加速度センサ、角速度センサなどの、車両の位置 や挙動を判断するための情報を出力する。各種センサ 316の出力値は、 CPU301 による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。また、 各種センサ 316は、車両内部の状態を判断するための情報、運転者の状態を判断 するための情報を出力する。車両内部の状態を判断するための情報は、具体的には 、車両内部の温度、湿度、煙の量、空気の成分などの情報である。また、運転者の状 態を判断するための情報は、具体的には、運転者の心拍、脳波、呼吸などの情報で ある。
[0049] カメラ 317は、車両内部あるいは外部の映像を撮影する。映像は静止画あるいは動 画のどちらでもよぐたとえば、カメラ 317によって車両内部の搭乗者の挙動を撮影し 、撮影した映像を映像 IZF312を介して磁気ディスク 305や光ディスク 307などの記 録媒体に出力する。また、カメラ 317によって車両外部の状況を撮影し、撮影した映 像を映像 IZF312を介して磁気ディスク 305や光ディスク 307などの記録媒体に出 力する。また、カメラ 317は、赤外線カメラ機能を有しており、赤外線カメラ機能を用い て撮影された映像情報に基づいて車両内部に存在する物体の表面温度の分布を相 対的に比較することができる。また、記録媒体に出力された映像は、上書き記録や保 存がおこなわれる。
[0050] 図 1に示した駆動制御装置 100が備える情報取得部 101、駆動部 102、算出部 10 3、報知部 104、判断部 105、制御部 106は、図 3に示したナビゲーシヨン装置 300 における ROM302、 RAM303、磁気ディスク 305、光ディスク 307などに記録され たプログラムやデータを用いて、 CPU301が所定のプログラムを実行し、ナビゲーシ ヨン装置 300における各部を制御することによってその機能を実現する。
[0051] すなわち、実施例のナビゲーシヨン装置 300は、ナビゲーシヨン装置 300における 記録媒体としての ROM302に記録されている駆動制御プログラムを実行することに より、図 1に示した駆動制御装置 100が備える機能を、図 2に示した駆動制御処理手 順で実行することができる。
[0052] (駆動制御装置の機能的構成)
つぎに、図 4を用いて本実施例に力かる駆動制御装置の機能的構成について説明 する。図 4は、本実施例に力かる駆動制御装置の機能的構成を示すブロック図であ る。図 4において駆動制御装置 400は、駆動部 401と、制御部 402と、記憶部 403と 、情報入力部 404と、情報出力部 405と、車両情報 IZF406と、外部装置 IZF407 と、画像処理部 408と、センサ部 410と、を備えている。駆動制御装置 400は、ナビゲ ーシヨン装置 300と同体でもよいし、別体でもよい。また、一部の機能を共有する構成 としてちよい。
[0053] 駆動部 401は、制御部 402によって制御され、ョー方向、ピッチ方向に駆動し、これ に付随するロール方向などの複数の自由度を持って駆動することができる。また、駆 動部 401は、後述するセンサ部 410のうちの単数もしくは複数のセンサを搭載しても よい。さらに、駆動部 401は、車両の運転手の視界に入り車両周辺の情報が取得で きる位置に設置されてもよい。たとえば、駆動部 401が画像センサ部 411を搭載する 場合、画像センサ部 411が搭載された駆動部 401を、ダッシュボード上部やバックミ ラー周辺に設置する。
[0054] また、駆動部 401は、動物や人の姿を模倣したロボットなどでもよ 、。この場合、駆 動部 401は、後述する各構成部をすベて備えていてもよいし、一部を備えていてもよ い。具体的には、たとえば、情報出力部 405を備え、画像を表示することや、音声を 出力することで、利用者に情報を提示する。また、駆動部 401は、自身の動きによつ て、利用者に情報を提示する。たとえば、腕を上げたり、首を振ることによって、利用 者に情報を提示する。
[0055] また、駆動部 401に画像センサ部 411としてのカメラを搭載する場合、駆動部 401 は、カメラの撮像方向を変えることができる。具体的には、たとえば、カメラの視野角 は、通常のデジタルカメラやムービーカメラ程度の場合、水平 40度、垂直 30度であ る。したがって、カメラは、駆動部 401によって視野方向を変えられることで広範囲を 撮像することが可能となる。
[0056] 制御部 402は、駆動部 401を制御する。具体的には、駆動部 401を制御するため の制御信号を駆動部 401へ出力する。具体的には、たとえば、駆動部 401をョ一方 向、ピッチ方向に回転させる制御信号や、駆動部 401に搭載されたセンサ部 410の 各種センサの ONZOFFを制御する制御信号を駆動部 401へ出力する。さらに、制 御部 402は、駆動部 401が動物や人の姿を模倣したロボットなどの場合、光の出力、 音声出力、動作出力など、複数の出力の制御を同時におこなうことができる。 [0057] 記憶部 403は、各種の情報を記憶する。記憶部 403に記憶される情報の一例とし ては、たとえば、地図情報である。地図情報は、ノードおよびリンク力もなる道路ネット ワークデータと、施設や道路その他地形(山、川、土地)に関するフィーチャを用いて 描画される画像データとを含んでいる。地図データは、文字情報、施設の名称や住 所などの情報、道路や施設の画像などを含んで 、てもよ 、。
[0058] さらに、地図情報は、標識および看板の種類や設置位置、信号機の位置、通学圏 の範囲などを含んでいてもよい。また、記憶部 403は、情報入力部 404、車両情報 I ZF406、外部装置 IZF407、センサ部 410によって取得された車両情報、画像情 報、各地点の座標値、危険指数などを記憶する。
[0059] 情報入力部 404は、各種の情報を入力する。たとえば、タツチセンサ部 425ゃ音セ ンサ部 415や画像センサ部 411などがその機能を果たしてもよぐ具体的には、タツ チパネル、リモコン、マウス、タツチセンサ、マイク、カメラなどである。また、情報出力 部 405は、各種の情報を出力する。具体的には、たとえば、画像を表示する表示画 面や、音声を出力する出力機などである。
[0060] 車両情報 IZF406は、車両速度や車両の操作に関する車両情報を取得する。車 両情報は、具体的には、たとえば、ウィンカー、ハザード、ハンドル陀角、ライト、ワイ パーなどの操作に関する情報や、加速度センサ部 413などからの車両の速度に関 する情報である。また、車両情報 IZF406は、車両内部の情報を取得してもよい。具 体的には、たとえば、運転者の挙動、または、車両内部の温度や湿度や空気成分な どの状態に関する情報を取得してもよい。
[0061] 外部装置 IZF407は、外部装置とのインターフェースとして機能し、様々な外部装 置に接続される。たとえば、 GPS衛星力もの情報によって自車位置を特定する。また 、地図情報のデータベースなど力も地図情報を参照する。さらに、ナビゲーシヨン装 置 300に接続して、目的地点までの経路を設定する。外部装置 IZF407は、たとえ ば、 GPSセンサ部 414や記憶部 403によって、その機能を果たしてもよい。
[0062] 画像処理部 408は、記憶部 403に記憶された情報や、画像センサ部 411などから 取得される画像情報を用いて、画像処理をおこなう。具体的には、たとえば、物体の 動く方向や速度、道路標識や看板の認識などをおこなう。また、センサ部 410は、各 種センサ部を備えている。具体的には、たとえば、車両の状態に関する情報を取得 するセンサや運転者の状態に関する情報を取得するセンサなどである。
[0063] 画像センサ部 411は、画像情報を取得する。具体的には、たとえば、 CCDカメラな どによって車両の内部または外部の画像を撮像し、画像情報として取得する。駆動 部位置検出部 412は、駆動部 401の位置、または回転を検出する。具体的には、た とえば、駆動部 401のョ一方向およびピッチ方向の駆動角度を検出する。
[0064] 加速度センサ部 413は、ジャイロなどにより車両の加速度を検出する。車両の加速 度は、たとえば、前後方向の加速度から車両速度の変化を検出してもよいし、左右方 向の加速度力も車両の揺れを検出してもよい。 GPSセンサ部 414は、 GPS衛星から の電波に基づいて車両の現在位置を検出する。音センサ部 415は、マイクなどによ つて車両の内部または外部の音の大きさや、音の発生した方向などを取得する。
[0065] 温度センサ部 416は、車両の内部または外部の温度を測定する。湿度センサ部 41 7は、車両の内部または外部の湿度を測定する。照度センサ部 418は、車両の内部 または外部の光の強さを測定する。具体的には、たとえば、車両がトンネルに入った か否か、太陽が出ている力否かを検出する。また、照度センサ部 418は、太陽光中の 紫外線量を検出してもよい。煙センサ部 419は、車両の内部または外部の煙を感知 する。具体的には、たとえば、タバコの煙を検出する。空気センサ部 420は、空気の 成分を測定する。具体的には、たとえば、車両内部の一酸化炭素濃度や不純物濃 度を測定する。
[0066] 超音波センサ部 421は、車両周囲の物体との距離を測定する。具体的には、車両 に搭載された超音波センサ部 421から発せられた超音波が、再び車両に帰ってくる までの時間を取得し、車両力も測定対象までの距離を測定する。マイクロ波センサ部 422は、車両周囲の物体との距離を測定する。具体的には、マイクロ波を利用して車 両カも対象物までの距離を測定する。レーザーセンサ部 423は、車両周囲の物体と の距離を測定する。具体的には、レーザーを利用して車両力 対象物までの距離を 測定するものである。
[0067] 赤外線センサ部 424は、赤外線を利用して画像情報を取得する。タツチセンサ部 4 25は、車両の内部または外部の対象部位に、任意の物体が接触した力否かを判定 する。圧力センサ部 426は、車両内部の空気圧や各センサにかかる力を測定する。 生体センサ部 427は、利用者の心拍、脳波、呼吸などの情報を取得する。磁気セン サ部 428は、磁気を測定する。
[0068] (駆動制御装置の処理の概要)
つぎに、駆動制御装置 400の処理の概要について説明する。図 5は、本実施例に 力かる駆動制御装置の処理の概要を示すフローチャートである。図 5のフローチヤ一 トにおいて、まず、駆動部 401の駆動角度を初期化する (ステップ S501)。具体的に は、たとえば、駆動部 401のョ一方向の角度およびピッチ方向の角度をそれぞれ 0° にする。
[0069] つぎに、車両情報および画像情報を取得する(ステップ S502)。そして、ステップ S 502にお 、て取得された車両情報に基づ 、て、ウィンカーを使用して 、るか否かを 判断して (ステップ S503)、ウィンカーを使用している場合 (ステップ S503 : Yes)、第 1注目点を算出する(ステップ S504)。一方、ステップ S503においてウィンカーを使 用していない場合 (ステップ S503 :No)、ステップ S502に戻り、以降の処理を繰り返 しおこなう。第 1注目点は、時刻 Tにおける注目点である。注目点は、車両の危険指 数を算出する際の、基準となる道路上の地点である。
[0070] ステップ S504において算出された第 1注目点を用いて、駆動部 401への制御信号 を算出する (ステップ S505)。制御信号は、駆動部 401を制御する電気信号である。 そして、ステップ S505において算出した制御信号を駆動部 401に入力した際に、ス テツプ S504において算出された第 1注目点が撮影可能範囲内に入る力否かを判断 する (ステップ S506)。ステップ S506においては、撮影可能範囲は、カメラの視野角 の範囲である。
[0071] ステップ S506において第 1注目点が撮影可能範囲内に入る場合 (ステップ S506 :
Yes)、ステップ S505において算出された制御信号に応じて駆動部 401を制御する (ステップ S507)。一方、ステップ S506において第 1注目点が撮影可能範囲内に入 らない場合 (ステップ S506 :No)、ステップ S501に戻り、以降の処理を繰り返しおこ なう。
[0072] つぎに、ステップ S507において制御された駆動部 401に搭載されたカメラによって 、画像情報を取得して (ステップ S508)、この画像情報とステップ S502において取 得された車両情報に基づいて、危険指数を算出する (ステップ S509)とともに、第 2 注目点を算出する (ステップ S510)。第 2注目点は、時刻 (T+ ΔΤ)における注目点 である。
[0073] ステップ S509において算出された危険指数がしきい値 A以上力否かを判断して( ステップ S511)、危険指数がしきい値 A以上の場合 (ステップ S511 :Yes)、さらに、 危険指数がしきい値 B以上力否かを判断する(ステップ S512)。ここで、しきい値 Aく しき 、値 Bである。ステップ S512にお 、て危険指数がしき 、値 B以上の場合 (ステツ プ S512 :Yes)、通常運転に復帰するまで待機して(ステップ S513 :Noのループ)、 通常運転に復帰した場合 (ステップ S513 : Yes)、駆動部 401の制御を継続するか否 かを判断する(ステップ S514)。ステップ S514において継続しない場合 (ステップ S5 14 : No)、そのまま一連の処理を終了する。
[0074] 一方、ステップ S511にお!/、て危険指数がしき 、値 A未満の場合 (ステップ S511: No)、ステップ S505に戻り、以降の処理を繰り返しおこなう。また、ステップ S512に おいて危険指数がしきい値 B未満の場合 (ステップ S512 :No)、運転者に警告をお こない(ステップ S515)、ステップ S505に戻り、以降の処理を繰り返しおこなう。
[0075] つぎに、図 5において説明した駆動制御装置 400の各工程における処理について 図 6〜図 21を用いて詳細に説明する。なお、本実施例においては、レンズ画角(W、 H) = (40° 、30° ) ,および、解像度 (W、 H) = (640、 480)の機能性能を有する カメラを使用することとする。ここで、 Wは、横方向の範囲であり、 Hは、高さ方向の範 囲である。また、車両が走行している道路は凹凸がないものとする。また、駆動部 401 の駆動角度の範囲は、ョー方向において直進方向の角度を 0° 、右方向をプラス方 向とした場合に 90° 〜+ 90° の範囲、ピッチ方向において道路と平行な方向の 角度を 0° 、下方向をプラス方向とした場合に—45° 〜+45° の範囲とする。
[0076] (駆動角度を初期化する処理の内容)
まず、図 5のステップ S501にお 、て駆動角度を初期化する処理の内容にっ 、て詳 細に説明する。駆動角度の初期化は、制御部 402によって、駆動部 401のョ一方向 の角度を 0° 、およびピッチ方向の角度を 0° に設定する。 [0077] (車両情報および画像情報を取得する処理の内容)
つぎに、図 6を用いて、図 5のステップ S502において車両情報および画像情報を 取得する処理の内容について詳細に説明する。図 6は、車両情報および画像情報を 取得する処理の内容について示したフローチャートである。図 6のフローチャートに おいて、まず、車両情報および画像情報を取得する (ステップ S601)。
[0078] ここで、車両情報は、車両情報 IZF406によって取得される情報であり、具体的に は、ウィンカーの情報、車両の速度に関する情報などである。また、画像情報は、画 像センサ部 411によって取得される情報であり、具体的には、カメラなどによって撮像 された車両の周囲の画像に関する情報である。そして、ステップ S601において取得 された車両情報および画像情報を記憶部 403に記憶して (ステップ S602)、一連の 処理を終了する。
[0079] (第 1注目点を算出する処理の内容)
つぎに、図 7〜図 10を用いて、図 5のステップ S504における第 1注目点を算出する 処理の内容について詳細に説明する。図 7は、第 1注目点を算出する処理の内容に ついて示したフローチャートである。図 7のフローチャートにおいて、まず、図 6のステ ップ S602にお ヽて記憶部 403に記憶された車両情報および画像情報を読み出す( ステップ S701)。ステップ S 701においては、画像情報は、ピッチ方向の角度が 0° で、道路から 1メートルの高さに設置されたカメラによって撮影されたものとする。
[0080] ここで、道路から 1メートルの高さにカメラを設置した場合に、撮影された画像にお ける道路上の 1地点とカメラとの間の実際の距離の算出について説明する。図 8は、 撮影された画像における道路上の 1地点の垂直方向の距離を示した説明図である。 図 8において、レンズ画角の高さ方向の範囲が 30° のカメラを道路から 1メートルの 高さに設置した場合、画像上の最下地点の道路までのカメラ力もの距離を、 I X (1Z tanl5° )で算出する。また、画像を上下方向に分けた下半分の画像内の中心地点 の道路までのカメラ力もの距離を、 l X (l/tanl5° ) X 2で算出する。
[0081] また、図 9は、撮影された画像の中心地点力 の水平方向の距離と垂直方向の距 離との関係を示した説明図である。図 9において、画像内で画像の中心地点から下 方向に y座標、右方向に X座標とした場合、座標 (x、 y)地点までのカメラ力ゝらの水平 方向の距離を Dlとすると、カメラの解像度の高さ方向の範囲が 480なので、 Dl = l X (lZtanl5° ) X (240Zy) [式 1]となる。さらに、座標 (x、 y)地点のカメラの光軸 に対しての垂直距離を D2とすると、カメラのレンズ画角の横方向の範囲が 40° 、解 像度の横方向の範囲が 640なので、 D2 = D1 X (l/tan20° ) X (xZ320) [式 2]と なる。
[0082] つぎに、ステップ S 701にお 、て読み出された車両情報および画像情報に基づ!/ヽ て、曲がる方向の道路エッジの切れ目を検出する (ステップ S702)。具体的には、車 両情報におけるウィンカー情報によってウィンカーの出された方向を曲がる方向と決 定し、画像情報を解析することで道路エッジの切れ目を検出する。
[0083] ここで、図 10は、道路上の地点について説明する説明図である。図 10は、曲がる 方向の道路エッジの切れ目の車両から遠 ヽ地点 ( A地点)と、曲がる方向の道路エツ ジの切れ目の車両から近 、地点(B地点)と、曲がり先の道路の基準点(C地点)と、 第 1注目点(D地点)と、を示している。また、 A地点、 B地点、 C地点、 D地点は、すべ て道路上に存在することとする。ステップ S702においては、道路エッジの切れ目とし て、 A地点と、 B地点と、の 2つの地点を検出する。
[0084] そして、道路エッジの切れ目間の長さ Lを算出する (ステップ S703)。道路エッジの 切れ目間の長さ Lは、ステップ S702において検出された A地点力 B地点までの長 さである。さらに、曲がり先の道路の基準点(C地点)を検出する (ステップ S704)。 C 地点は、左側通行の場合、 A地点と B地点の直線上で、 AC間の距離が AB間の距離 の 1Z4となる地点である。換言すれば、 C地点は、ウィンカーの指示通りに道路を曲 がった後に、通行する道路の中心の地点である。
[0085] ステップ S704において検出された基準点に応じて、第 1注目点(D地点)を決定す る(ステップ S705)。 D地点は、 C地点からカメラ光軸に対して垂直に AB間の距離と 同じ距離だけ離れた地点である。そして、ステップ S705において決定した第 1注目 点の座標値を記憶部 403に記憶して (ステップ S706)、一連の処理を終了する。
[0086] ここで、 D地点の座標値はつぎのように求める。 A地点の画像内での座標値が Pa=
(120、 40)の場合、 A地点のカメラからの距離(Dla、 D2b)は、 [式 1]、 [式 2]によつ て、(Dlaゝ D2a) = (6Ztanl5° 、 2 X (tan20° /tan 15° ;) )となる。また、 B地点 の画像内での座標値が Pb= (160、 60)の場合、 A地点のカメラからの距離(Dla、 D2b)は、 [式 1]、 [式 2]によって、(Dlb、 D2b) = (4Ztanl5° 、 2 X (tan20° /t an 15。 ) )となる。
[0087] したがって、 AB間の距離 Dabは、三平方の定理によって、 Dab = 7. 5メートルとな る。これによつて、 C地点の画像内での座標値 Pcは、 Pc= (130、 45)となる。そして 、 D地点の画像内での座標値 Pdは、 Pcからカメラの光軸に対して垂直に進行方向に 向かって右に Dab離れた地点であるので、 Pd= (253、 45)となる。
[0088] (制御信号を算出する処理の内容)
つぎに、図 11を用いて、図 5のステップ S505における制御信号を算出する処理の 内容について詳細に説明する。図 11は、制御信号を算出する処理の内容について 示したフローチャートである。図 11においては、まず、図 7のステップ S706において 記憶部 403に記憶された第 1注目点の座標値を読み出す (ステップ S1101)。つぎに 、ステップ S1101において読み出された第 1注目点の座標値から回転角度を算出す る(ステップ S 1102)。
[0089] ステップ S1102においては、回転角度の算出は、具体的には、 D地点の座標を Pd
= (x、 y)とした場合、画像の中心地点が D地点と重なるためのョー方向の回転角度 0は、 0 =tan— l (tan20 (xZ320) )、ピッチ方向の回転角度 φは、 () =tan— l (t anl5 (yZ240) )であらわされる。したがって、図 7のステップ S706において記憶部 403に記憶された D地点の座標値(253、 45)を代入すると、 Θ =tan— 1 (tan20 (2 53/320) ) = 16, φ = &11— 1115 (457240) ) = 3となる。そして、ステップ S1 102において算出された回転角度( θ、 φ ) = (16、 3)に応じた制御信号を記憶部 4 03に記憶して (ステップ S1103)、一連の処理を終了する。
[0090] (駆動部を制御する処理の内容)
つぎに、図 12を用いて、図 5のステップ S507において駆動部 401を制御する処理 の内容について詳細に説明する。図 12は、駆動部を制御する処理の内容について 示したフローチャートである。図 12においては、まず、図 11のステップ S1103におい て記憶部 403に記憶された制御信号を読み出す (ステップ S1201)。そして、ステツ プ S 1201において読み出された制御信号にしたがって駆動部 401を制御して (ステ ップ S1202)、一連の処理を終了する。
[0091] ここで、駆動部 401の制御は、たとえば、カメラによって撮影される画像内に、図 7 〜図 10において説明した D地点が映る角度にカメラを回転させる制御である。具体 的には、図 11において算出された D地点の座標値を用いたョー方向の回転角度 Θ 、およびピッチ方向の回転角度 φだけカメラを制御して回転することで、 D地点が画 像の中心地点と重なるため、 D地点が画像内に映ることとなる。
[0092] (画像情報を取得する処理の内容)
つぎに、図 13を用いて、図 5のステップ S508において画像情報を取得する処理の 内容について詳細に説明する。図 13は、画像情報を取得する処理の内容について 示したフローチャートである。図 13においては、まず、図 12のステップ S1202におい て制御されたカメラによって時刻 Tの画像情報を取得する (ステップ S1301)。したが つて、画像情報の中心地点は、 D地点と重なっている。
[0093] さらに、ステップ S1301において取得された画像情報の中心地点を中心とした 10
X 10ピクセルの範囲の注目点テンプレートを取得する(ステップ S 1302)。そして、記 憶部 403に、ステップ S1302において取得された注目点テンプレートおよび時刻 T の画像情報を記憶する(ステップ S 1303)。つぎに、ステップ S1301において画像を 取得されてから ΔΤ時間後、つまり、時刻 (T+ ΔΤ)の画像情報を取得する (ステップ S1304)。そして、記憶部 403に、時刻 (T+ ΔΤ)の画像情報を記憶して (ステップ S 1305)、一連の処理を終了する。
[0094] (危険指数を算出する処理の内容)
つぎに、図 14〜図 19を用いて、図 5のステップ S509における危険指数を算出する 処理の内容について詳細に説明する。図 14は、危険指数を算出する処理の内容を 示したフローチャートである。また、図 15は、時刻 Tに取得された画像情報を示した 説明図であり、図 16は、時刻 (Τ+ ΔΤ)に取得された画像情報を示した説明図であ る。
[0095] 図 14のフローチャートにおいては、まず、記憶部 403から時刻 Tの画像情報を読み 出す (ステップ S1401)。時刻 Tの画像情報は、図 13のステップ S1303において記 憶された画像情報であり、具体的には、たとえば、図 15に示した画像情報である。図 15においては、走行中の道路 1501と、動物 1502と、人 1503と、が撮像されている 。さらに、記憶部 403から時刻 (T+ ΔΤ)の画像情報を読み出す (ステップ S 1402)。 時刻 (Τ+ ΔΤ)の画像情報は、図 13のステップ S 1305にお 、て記憶された画像情 報であり、具体的には、たとえば、図 16に示した画像情報である。図 16においては、 走行中の道路 1601と、動物 1602と、人 1603と、が撮像されている。
[0096] つぎに、ステップ S 1401において読み出された時刻 Tの画像情報を、ステップ S14 02において読み出された時刻 (T+ ΔΤ)の画像に、白線をマッチングさせて重ね合 わせる (ステップ S 1403)。白線のマッチングは、たとえば、横断歩道、停止線、車線 間の白線、車線の端の白線などを重ね合わせる。具体的には、たとえば、図 17に示 した画像情報である。
[0097] 図 17は、白線をマッチングさせて重ね合わした画像情報を示した説明図である。図 17においては、図 15における道路 1501と、図 16における道路 1601と、を白線をマ ツチングさせることにより重ね合わしている。したがって、道路以外に撮像されている 物体の ΔΤ間の差分をあらわすことができる。具体的には、たとえば、時刻 Tにおける 動物 1502、および人 1503の位置と、時刻(T+ ΔΤ)における動物 1602、および人 1603の位置とを同時にあらわすことができる。
[0098] つぎに、ステップ S1403において重ね合わした画像情報において 2つの画像情報 の差分の大きいところを動体として検出する (ステップ S 1404)。具体的には、動物 1 502 (または、動物 1602)と、人 1503 (または、人 1603)と、を動体として検出する。 そして、動体領域内で特徴点を抽出して (ステップ S1405)、特徴点近辺のテンプレ ートを取得する(ステップ S 1406)。さらに、ステップ S 1406において取得されたテン プレートを時刻(T+ ΔΤ)の画像情報に対してマッチングをおこない、動きベクトル M を算出する (ステップ S 1407)。具体的には、たとえば、図 18に示した動きベクトル M 1と、動きベクトル M2を算出する。
[0099] 図 18は、動きベクトル Mを示した説明図である。図 18においては、道路 1501、 16 01と、動物 1502、 1602と、人 1503、 1603と、消失点 1801と、力 ^示されている。図 18に示されたように動きベクトル Mは、 ΔΤ間に動いた距離および方向を示している 。したがって、動物 1502が ΔΤ間に動物 1602の位置へ動いた際の動きベクトルは Mlであり、人 1503が ΔΤ間に人 1603の位置へ動いた際の動きベクトルは M2であ る。
[0100] ステップ S1407において算出された動きベクトル Μおよび車両速度 V力も危険指 数 Dを算出する (ステップ S 1408)。危険指数 Dは、注目点を始点とし、道路の消失 点 1801を終点方向とする単位ベクトル I、動きベクトル Μ、車両速度 Vを用いて算出 される。危険指数 Dは、具体的には、動きベクトル Μと単位ベクトル Iとの内積の絶対 値と、車両速度 Vと、の積力 危険指数を算出する。また、曲がり先の道路の道幅を L とすると、 D= I I'M I XV/ (L/4)となる。つまり、単位ベクトル Iに対して動きべク トル Mの方向が垂直方向の場合、危険指数 Dは大きく算出され、単位ベクトル Iに対 して動きベクトル Mの方向が平行な方向の場合、危険指数 Dは小さく算出される。
[0101] ここで、図 19は、単位ベクトル Iと、動きベクトル Mとの関係による危険指数 Dの大小 について示した説明図である。図 19においては、道路 1601と、動物 1602と、人 16 03と、動物の動きベクトル Mlと、人の動きベクトル M2と、消失点 1801と、注目点 19 01と、単位ベクトル Iと、を示している。図 19に示したように、人の動きベクトル M2は、 単位ベクトル Iに対して垂直方向なので、危険指数 Dは大きいものとする。また、動物 の動きベクトル Mlは、単位ベクトル Iに対して平行な方向なので、危険指数 Dは小さ いものとする。そして、ステップ S 1408において算出された危険指数 Dを記憶して (ス テツプ S1409)、一連の処理を終了する。
[0102] (第 2注目点を算出する処理の内容)
つぎに、図 20を用いて、図 5のステップ S510における第 2注目点を算出する処理 の内容について詳細に説明する。図 20は、第 2注目点を算出する処理の内容につ いて示したフローチャートである。図 20においては、まず、図 13のステップ S1302に ぉ 、て取得された時刻 Tの注目点テンプレートを読み出す (ステップ S 2001)。
[0103] さらに、図 13のステップ S 1305において記憶された時刻(T+ ΔΤ)の画像情報を 読み出して、時刻 (T+ ΔΤ)の画像情報に時刻 Tの注目点テンプレートをマッチング させて、時刻 (T+ ΔΤ)の注目点テンプレートを取得する(ステップ S2002)。そして 、ステップ S2002において取得された時刻(T+ ΔΤ)の注目点テンプレートの中心 座標を第 2注目点として、記憶部 403に第 2注目点の座標値を記憶し (ステップ S20 03)、一連の処理を終了する。
[0104] (危険指数がしきい値以上である力判断する処理の内容)
つぎに、図 5のステップ S511およびステップ S512における危険指数がしきい値以 上か否かを判断する処理の内容について詳細に説明する。たとえば、動きベクトル M力 単位ベクトル Iと垂直な成分を持ち、道路エッジの切れ目間の長さ Lの場合、 I I'M I Z(LZ4) = 1となる。したがって、危険指数 D=Vとなり、曲がり角での車両速 度 Vが危険指数 Dとなる。具体的には、徐行速度を 20kmZhとすると、危険指数 Dが 20以上の場合に、危険指数 Dが高いと判定する。
[0105] 図 5のステップ S511におけるしきい値 Aを 20、ステップ S512におけるしきい値 Bを 40とすると、危険指数 Dが 20未満の場合、運転者に警告などをせずにステップ S50 5に戻り、制御信号を算出する。また、危険指数 Dが 20以上で 40未満の場合、ステツ プ S515に進み運転者に警告をしてから、ステップ S505に戻り、制御信号を算出す る。さら〖こ、危険指数 Dが 40以上の場合、運転者に警告などをせずに、ステップ S51 3に進み、通常運転に復帰するまで待機する。
[0106] (通常運転に復帰したか否かを判断する処理の内容)
つぎに、図 21を用いて、図 5のステップ S513における通常運転に復帰した力否か を判断する処理の内容について詳細に説明する。図 21は、通常運転に復帰したか 否かを判断する処理の内容にっ 、て示したフローチャートである。図 21にお!/、ては、 まず、車両速度が 0か否かを判断する(ステップ S2101)。ステップ S2101において 車両速度が 0の場合 (ステップ S2101: Yes)、通常運転に復帰したと判断して (ステ ップ S2102)、一連の処理を終了する。
[0107] 一方、ステップ S2101において車両速度力^)ではない場合 (ステップ S2101 :No) 、一定時間以上陀角が 0か否かを判断する(ステップ S2103)。ステップ S2103〖こお いて一定時間以上陀角が 0の場合 (ステップ S2103: Yes)、ステップ S2102に進み 、通常運転に復帰したと判断して、一連の処理を終了する。また、ステップ S2103に おいて、一定時間以上陀角力^ではない場合 (ステップ S2103 : No)、危険運転と判 断して (ステップ S2104)、ステップ S2101に戻り、以降の処理を繰り返しおこなう。
[0108] (運転者に警告する処理の内容) つぎに、図 5のステップ S515における運転者に警告する処理の内容について詳細 に説明する。図 21のステップ S2104において危険運転と判断された場合、駆動制 御装置 400は、運転者に警告をおこなう。運転者への警告は、たとえば、情報出力 部 405から出力される画像や音声、または、駆動部 401の動きなどによって警告する 。また、これらの組み合わせによって、運転者に危険運転であると警告する。
[0109] なお、本実施例においては、図 5のステップ S511 :Noにおいて危険指数がしきい 値 A未満の場合、ステップ S505に戻り、ステップ S512 : Noにおいて危険指数がしき い値 B未満の場合、ステップ S515に進み運転者に警告をして、ステップ S505に戻 るとしている力 これに限るものではない。具体的には、たとえば、駆動部 401を制御 して、動体をそのまま追跡してもよい。さらに、これらの動体に対して特化して危険指 数を算出することで、さらに危険を回避するようにしてもよい。
[0110] なお、本実施例においては、画像情報を用いた物体の位置の関係によって危険指 数を算出したが、これに限るものではない。たとえば、危険指数が通常運転時より大 きい値になる場合として、右左折時、車線変更時、標識 ·看板目視時、事故多発地点 通過時、細い道路通過時、高速道路などの分岐点通過時、などがある。
[0111] 具体的には、右左折時は、ウィンカー情報によって危険指数を算出する。左折時に は、ウィンカー情報力 左折をすることを検出し、危険指数を通常運転時より大きい 値にする。また、左側通行の道路の場合、左折時よりも右折時の方が対向車線を横 切るため危険指数が大きい値になる。したがって、右折時は、ウィンカー情報力 右 折をすることを検出し、危険指数を左折時より大きい値にする。
[0112] また、標識 ·看板目視時、事故多発地点通過時、高速道路などの分岐点通過時な どは、地図情報を使用して危険指数を算出する。たとえば、地図情報における車両 の現在地点が、通学圏内や、目的地点への経路上での重要な標識'看板や、事故 多発地点や、高速道路などの分岐点などに接近した場合に、危険指数を通常運転 時より大きい値にする。
[0113] 同様に、車線変更時、細い道路通過時などは、道路状態や他車両情報から危険 指数を算出する。たとえば、車両情報 IZF406、外部装置 IZF407、画像センサ部 411から道路の幅を算出し、車線変更などを検知し、細い道路を通行する場合や車 線変更する場合には危険指数を通常運転時より大きくする。
[0114] また、その他の外部状況によって危険指数を算出する場合として、外部でクラクショ ンなどが鳴っている場合など、音センサ部 415で音を取得し、ストレスの高い運転状 況にあると判定して危険指数を通常運転時より大きい値にする。外部状況によって危 険指数を算出する他の一例としては、雨が激しく振っている場合など、外部装置 IZF 407によって携帯端末など力 取得した天気の情報や、画像センサ部 411による画 像処理、音センサ部 415によって取得された雨音など力も判断して危険指数を通常 運転時より大きい値にしてもよい。
[0115] また、運転者の状態の変化によって危険指数を算出してもよい。たとえば、画像セ ンサ部 411や、加速度センサ部 413や、生体センサ部 427など力も得られた情報か ら運転者が眠気を感じていると判定した場合に、危険指数を通常運転時より大きくす る。また、図 5のステップ S511およびステップ S512におけるしきい値 Aおよびしきい 値 Bの値を小さくしてもよい。さらに、眠気判定の度合いにより画像センサ部 411の撮 像方向を運転者に向けてもよい。そして、撮像された画像情報から詳しい運転者の 状態の判定をおこない、危険指数を算出してもよい。
[0116] 運転者の状態の変化による危険指数の算出は、具体的には、画像センサ部 411に よって撮像された車両外部の画像情報から、車線を逸脱したカゝ否かを判定し、逸脱 が危険であると判定された場合に、危険指数を通常運転時より大きくする。また、画 像センサ部 411によって撮像された車両内部の画像情報から、運転者の瞬きの数や 長さを検出して、検出された検出結果に応じて危険指数を通常運転時より大きくして ちょい。
[0117] また、運転者の状態の変化による危険指数の算出は、具体的には、加速度センサ 部 413によって車両の揺れを検出して、この車両の揺れ力も運転者の眠気を検出し て、危険指数を通常運転時より大きくしてもよい。さらに、運転者の状態の変化による 危険指数の算出は、具体的には、生体センサ部 427によって、運転者の脈拍、呼吸 、脳波などを検出し、眠気が発生している、ストレスの状態が高い、過度に緊張してい ると判定された場合、危険指数を通常運転時より大きくしてもよい。
[0118] また、車両情報 IZF406によって取得された車両に関する情報に応じて、危険指 数を算出してもよい。具体的には、たとえば、ウィンカー、または、ワイパーが操作さ れた場合に、危険指数を通常運転時より大きくする。ハザードが点灯された場合、ラ イトが点灯された場合に、危険指数を通常運転時より大きくする。また、車両速度が、 地図情報や標識'看板認識による制限速度によりも大きい場合に、危険指数を通常 運転時より大きくしてもよいし、ハンドル陀角が地図情報と比較して、所定値以上ず れている場合に、危険指数を通常運転時より大きくしてもよい。
[0119] また、先行車両との距離に応じて、危険指数を通常運転時より大きくしてもよい。た とえば、画像センサ部 411、超音波センサ部 421、赤外線センサ部 424などの対象 物までの距離を取得するセンサによって、先行車両との距離を取得し、先行車両との 車間距離が所定の距離未満の場合、もしくは、先行車両との相対速度が所定値以上 の場合に、危険指数を通常運転時より大きくしてもよい。また、先行車両がハザードを 付けたことを画像センサ部 411などによって取得した場合に、危険指数を通常運転 時より大さくしてちょい。
[0120] 上述したように、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によ れば、情報取得部 101によって取得された移動体に関する情報に基づいて、算出部 103によって移動体に対して危険な事象の起こる可能性を示す危険指数を算出し、 算出された算出結果に応じて、制御部 106によって移動体に搭載されたセンサを駆 動させる駆動部 102を制御することができる。したがって、ナビゲーシヨン装置 300ま たは駆動制御装置 400は、たとえば、利用者が駆動部 102を注視していなくても、移 動体に危険な事象が起こると判断された場合は、駆動部 102を制御することができる 。これによつて、利用者は、危険運転時に駆動部 102を制御させることで、運転の判 断の妨げにならな 、ようにさせることができる。
[0121] また、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、算出 部 103によって算出された算出結果に応じて、移動体の搭乗者に移動体に対して危 険な事象の起こる可能性を報知することができる。したがって、ナビゲーシヨン装置 3 00または駆動制御装置 400は、危険指数が所定範囲内の場合は、運転者に危険運 転であることの警告をおこなうことができる。これによつて、利用者は、運転が危険な 状態であることを知ることができ、事故などの危険な事象を回避することができる。 [0122] また、実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、制御部 106は、判断部 105によって危険指数が所定値より大きい値と判断された場合、駆 動部 102による駆動を停止することができる。したがって、ナビゲーシヨン装置 300ま たは駆動制御装置 400は、危険運転時に運転者の視野内にある駆動部 102を停止 することで、駆動部 102を車両外部の物体 (人や対向車)と見間違うのを防ぐことがで きる。これによつて、利用者は、視野内に余計な動きがないため、運転に集中すること ができる。
[0123] また、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、駆動 部 102は、情報取得部 101を駆動させることができる。したがって、駆動部 102によつ て情報取得部 101を駆動することで広範囲の情報を取得することができる。これによ つて、利用者は、広範囲にわたって危険な事象の起こる可能性を知ることができる。
[0124] また、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、情報 取得部 101は、移動体の周辺に関する画像情報を取得することができる。したがって 、取得された画像情報の変化から、移動体に対して危険指数の大きい物体を特定す ることができる。これによつて、利用者は、事故などの危険な事象を回避することがで きる。
[0125] また、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、判断 部 105によって危険指数が所定値より小さい値に戻ったと判断された場合、駆動部 1 02による駆動を再開することができる。したがって、通常運転をしている間は、駆動 部 102を駆動させることができる。これによつて、利用者は、たとえば、車載したロボッ トなどの動きが停止された場合も、危険な事象を回避した後は、再び動かすことがで きる。
[0126] また、本実施例のナビゲーシヨン装置 300または駆動制御装置 400によれば、駆動 部 102は、移動体に搭載されたセンサを、ョー方向およびピッチ方向に駆動させるこ とができる。したがって、駆動制御装置 100は、広範囲にわたって移動体に関する情 報を取得することができる。これによつて、利用者は、広範囲にわたって危険な事象 の起こる可能性を知ることができる。
[0127] 以上説明したように、本発明の駆動制御装置、駆動制御方法、駆動制御プログラム 、および記録媒体によれば、ナビゲーシヨン装置 300または駆動制御装置 400は、セ ンサ部 410に含まれる各種センサによって取得された情報に基づいて、危険指数を 算出し、危険指数がしきい値以上の場合は、駆動部 401を制御することができる。し たがって、駆動部 401を運転者が注視していない場合でも、危険運転時には駆動部 401を停止することができる。これによつて、運転者は、視野内に余計な動きがない ために、運転に集中することができる。
なお、本実施の形態で説明した駆動制御方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体に搭載されたセンサを駆動させる駆動手段と、
前記移動体に関する情報を取得する情報取得手段と、
前記情報取得手段によって取得された情報に基づいて、前記移動体に対して危険 な事象の起こる可能性を示す危険指数を算出する算出手段と、
前記算出手段によって算出された算出結果に応じて、前記駆動手段を制御する制 御手段と、
を備えることを特徴とする駆動制御装置。
[2] 前記算出手段によって算出された算出結果に応じて、前記移動体の搭乗者に当 該移動体に対して危険な事象の起こる可能性を報知する報知手段を備えることを特 徴とする請求項 1に記載の駆動制御装置。
[3] 前記算出手段によって算出された危険指数が所定値より大きい値力否かを判断す る判断手段を備え、
前記制御手段は、前記判断手段によって危険指数が所定値より大きい値と判断さ れた場合、前記駆動手段による駆動を停止することを特徴とする請求項 1に記載の 駆動制御装置。
[4] 前記駆動手段は、前記情報取得手段を駆動させることを特徴とする請求項 1に記 載の駆動制御装置。
[5] 前記情報取得手段は、前記移動体の周辺に関する画像情報を取得することを特徴 とする請求項 1に記載の駆動制御装置。
[6] 前記算出手段によって算出された危険指数が所定値より大きい値力否かを判断す る判断手段を備え、
前記制御手段は、前記判断手段によって前記危険指数が所定値より小さい値に戻 つたと判断された場合、前記駆動手段による駆動を再開することを特徴とする請求項 1に記載の駆動制御装置。
[7] 前記駆動手段は、前記移動体に搭載されたセンサを、ョー方向およびピッチ方向 に駆動させることを特徴とする請求項 1〜6のいずれか一つに記載の駆動制御装置。
[8] 移動体に関する情報を取得する情報取得工程と、 前記情報取得工程によって取得された情報に基づいて、前記移動体に対して危険 な事象の起こる可能性を示す危険指数を算出する算出工程と、
前記算出工程によって算出された算出結果に応じて、前記移動体に搭載されたセ ンサを駆動させる駆動手段を制御する工程と、
を含むことを特徴とする駆動制御方法。
[9] 請求項 8に記載の駆動制御方法をコンピュータに実行させることを特徴とする駆動 制御プログラム。
[10] 請求項 9に記載の駆動制御プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/319328 2006-09-28 2006-09-28 Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement WO2008038369A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2006/319328 WO2008038369A1 (fr) 2006-09-28 2006-09-28 Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement
JP2008536250A JP4783430B2 (ja) 2006-09-28 2006-09-28 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
US12/442,793 US8160772B2 (en) 2006-09-28 2006-09-28 Drive control apparatus, drive control method, drive control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319328 WO2008038369A1 (fr) 2006-09-28 2006-09-28 Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement

Publications (1)

Publication Number Publication Date
WO2008038369A1 true WO2008038369A1 (fr) 2008-04-03

Family

ID=39229817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319328 WO2008038369A1 (fr) 2006-09-28 2006-09-28 Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement

Country Status (3)

Country Link
US (1) US8160772B2 (ja)
JP (1) JP4783430B2 (ja)
WO (1) WO2008038369A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2525336A1 (en) * 2010-01-12 2012-11-21 Toyota Jidosha Kabushiki Kaisha Collision position predicting device
KR20170137689A (ko) * 2017-12-01 2017-12-13 팅크웨어(주) 전자 기기 및 상기 전자 기기의 영상 촬영 방법
WO2019022042A1 (ja) * 2017-07-25 2019-01-31 株式会社デンソー 車両用報知装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004051599A1 (de) * 2004-10-22 2006-05-04 Siemens Ag Vorrichtung und Verfahren zum Wiedergeben von Multimediadaten in einem Kraftfahrzeug
TWI486147B (zh) * 2011-10-04 2015-06-01 Univ Nat Taiwan Science Tech 即時生理信號量測及回饋系統
US9293054B2 (en) * 2011-11-11 2016-03-22 Aptima, Inc. Systems and methods to react to environmental input
US9418674B2 (en) * 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting
US9007229B1 (en) 2012-06-20 2015-04-14 Amazon Technologies, Inc. Sensor based recommendations
US20150338227A1 (en) * 2012-11-22 2015-11-26 Freescale Semiconductor, Inc. Navigation system
US10347127B2 (en) * 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
JP6170757B2 (ja) * 2013-06-26 2017-07-26 富士通テン株式会社 表示制御装置、表示システム、情報提供方法及びプログラム
KR101539302B1 (ko) * 2013-12-11 2015-07-30 현대자동차주식회사 차량 및 그 제어방법
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP2017528788A (ja) * 2014-07-04 2017-09-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 空気品質警報システム及び方法
JP2016103249A (ja) * 2014-11-28 2016-06-02 富士通株式会社 運転支援装置および運転支援方法
US9610893B2 (en) 2015-03-18 2017-04-04 Car1St Technologies, Llc Methods and systems for providing alerts to a driver of a vehicle via condition detection and wireless communications
US10328855B2 (en) 2015-03-18 2019-06-25 Uber Technologies, Inc. Methods and systems for providing alerts to a connected vehicle driver and/or a passenger via condition detection and wireless communications
US9507974B1 (en) * 2015-06-10 2016-11-29 Hand Held Products, Inc. Indicia-reading systems having an interface with a user's nervous system
US10373143B2 (en) 2015-09-24 2019-08-06 Hand Held Products, Inc. Product identification using electroencephalography
US9925867B2 (en) * 2016-01-11 2018-03-27 Ford Global Technologies, Llc Fuel control regulator system with acoustic pliability
CN110662682B (zh) * 2017-06-01 2022-08-26 三菱电机株式会社 移动体控制装置、移动体控制方法以及计算机可读存储介质
US10460185B2 (en) 2018-01-30 2019-10-29 Toyota Motor Engineering & Manufacturing North America, Inc. Roadside image tracking system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038601A (ja) * 1996-07-29 1998-02-13 Takaaki Nagai 車両用情報表示装置
JP2000255319A (ja) * 1999-03-10 2000-09-19 Fuji Heavy Ind Ltd 車両の進行方向認識装置
JP2001099661A (ja) * 1999-09-30 2001-04-13 Toshiba Corp バーチャルナビゲーター
JP2001304899A (ja) * 2000-04-25 2001-10-31 Sony Corp カーナビゲーション装置用補助表示装置
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2004009833A (ja) * 2002-06-05 2004-01-15 Nissan Motor Co Ltd 運転状況記録装置
JP2004259069A (ja) * 2003-02-26 2004-09-16 Aisin Seiki Co Ltd 車両危険度に応じた警報信号を出力する警報装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3448822A (en) * 1966-06-23 1969-06-10 Micro Electronics Intern Inc Vehicle anti-collision automatic control-system
JPS6378299A (ja) * 1986-09-22 1988-04-08 アイシン・エィ・ダブリュ株式会社 画像処理技術を用いた信号認識装置を有する自動車
US4833469A (en) * 1987-08-03 1989-05-23 David Constant V Obstacle proximity detector for moving vehicles and method for use thereof
US5327990A (en) * 1989-05-16 1994-07-12 Busquets Albert B Integral automatic system for protection and rescue of occupants in crashed automobiles
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
IL102097A (en) * 1992-06-04 1995-05-26 Davidian Dan Anti-collision system for vehicles
US5465079A (en) * 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
DE4317831C1 (de) * 1993-05-28 1994-07-07 Daimler Benz Ag Display zur Anzeige der Gefahrenträchtigkeit der momentanen Fahrsituation eines Kraftfahrzeugs
JPH07186876A (ja) * 1993-12-27 1995-07-25 Asuko Kk 車両用安全装置のための制御装置
US7085637B2 (en) * 1997-10-22 2006-08-01 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
US6640174B2 (en) * 2001-01-31 2003-10-28 Ford Global Technologies, Llc Restraint and fuel system cutoff control module
ITTO20010282A1 (it) * 2001-03-26 2002-09-26 Fiat Ricerche Sistema di ausilio alla guida di un autoveicolo.
JP4615139B2 (ja) * 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
EP1412930B1 (de) * 2001-07-11 2008-03-26 Robert Bosch Gmbh Verfahren und vorrichtung zum selbsttätigen auslösen einer verzögerung eines fahrzeugs
US6519519B1 (en) * 2002-02-01 2003-02-11 Ford Global Technologies, Inc. Passive countermeasure methods
US7124027B1 (en) * 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
JP2004093354A (ja) 2002-08-30 2004-03-25 Casio Comput Co Ltd 運転情報出力装置およびプログラム
WO2004102500A1 (ja) * 2003-05-16 2004-11-25 Fujitsu Limited 警報システム,警報制御装置,及び警報制御プログラム
JP2005024507A (ja) * 2003-07-03 2005-01-27 Denso Corp ナビゲーション装置及びプログラム
US7055640B2 (en) * 2003-09-10 2006-06-06 Ford Global Technologies, Llc Fuel cut-off control system for a vehicle
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
JP2006115376A (ja) * 2004-10-18 2006-04-27 Matsushita Electric Ind Co Ltd 車載表示装置
JP2007128430A (ja) * 2005-11-07 2007-05-24 Toyota Motor Corp 車両用警報装置
KR100776415B1 (ko) * 2006-07-18 2007-11-16 삼성전자주식회사 동영상 재생 방법 및 그 시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038601A (ja) * 1996-07-29 1998-02-13 Takaaki Nagai 車両用情報表示装置
JP2000255319A (ja) * 1999-03-10 2000-09-19 Fuji Heavy Ind Ltd 車両の進行方向認識装置
JP2001099661A (ja) * 1999-09-30 2001-04-13 Toshiba Corp バーチャルナビゲーター
JP2001304899A (ja) * 2000-04-25 2001-10-31 Sony Corp カーナビゲーション装置用補助表示装置
JP2002331890A (ja) * 2001-05-10 2002-11-19 Toyota Motor Corp 乗物の推奨操作表現システム
JP2004009833A (ja) * 2002-06-05 2004-01-15 Nissan Motor Co Ltd 運転状況記録装置
JP2004259069A (ja) * 2003-02-26 2004-09-16 Aisin Seiki Co Ltd 車両危険度に応じた警報信号を出力する警報装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2525336A1 (en) * 2010-01-12 2012-11-21 Toyota Jidosha Kabushiki Kaisha Collision position predicting device
EP2525336A4 (en) * 2010-01-12 2014-06-11 Toyota Motor Co Ltd COLLISION POINT PREDICTION DEVICE
US8849558B2 (en) 2010-01-12 2014-09-30 Toyota Jidosha Kabushiki Kaisha Collision position predicting device
WO2019022042A1 (ja) * 2017-07-25 2019-01-31 株式会社デンソー 車両用報知装置
JP2019025929A (ja) * 2017-07-25 2019-02-21 株式会社デンソー 車両用報知装置
KR20170137689A (ko) * 2017-12-01 2017-12-13 팅크웨어(주) 전자 기기 및 상기 전자 기기의 영상 촬영 방법
KR102091017B1 (ko) * 2017-12-01 2020-03-19 팅크웨어(주) 전자 기기 및 상기 전자 기기의 영상 촬영 방법

Also Published As

Publication number Publication date
US20100094502A1 (en) 2010-04-15
US8160772B2 (en) 2012-04-17
JPWO2008038369A1 (ja) 2010-01-28
JP4783430B2 (ja) 2011-09-28

Similar Documents

Publication Publication Date Title
JP4783430B2 (ja) 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
US20230311749A1 (en) Communication between autonomous vehicle and external observers
JP4729905B2 (ja) 車両報知装置及びプログラム
KR102046468B1 (ko) 차량용 사이드 미러
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
JP5198835B2 (ja) ビデオ画像を提示する方法およびシステム
US9126533B2 (en) Driving support method and driving support device
JP4311426B2 (ja) 移動体を表示するための表示システム、車載装置及び表示方法
CN107010063A (zh) 基于感知的速度限制估算和学习
EP2085944A1 (en) Driving assistance device, driving assistance method, and program
US20120109521A1 (en) System and method of integrating lane position monitoring with locational information systems
JP2007145095A (ja) 走行制御装置、走行制御方法、走行制御プログラムおよび記録媒体
US20230135641A1 (en) Superimposed image display device
JP4787196B2 (ja) 車載用ナビゲーション装置
US11828613B2 (en) Superimposed-image display device
JP2003178397A (ja) 道路表示等検出警告装置
KR101281629B1 (ko) 센서를 이용한 운전 안내 시스템
CN109070799B (zh) 移动体周围显示方法及移动体周围显示装置
JP2016161483A (ja) 情報提供装置、及び情報提供プログラム
JP2017126213A (ja) 交差点状況確認システム、撮像装置、車載装置、交差点状況確認プログラムおよび交差点状況確認方法
KR20220046553A (ko) 자율 차량 상호 작용 시스템
JP7215191B2 (ja) 運転支援制御装置、運転支援制御方法、およびプログラム
CN117445810A (zh) 车辆辅助驾驶方法、装置、介质及车辆
TW201017106A (en) Road object image display system
WO2008041284A1 (fr) Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06810775

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008536250

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12442793

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06810775

Country of ref document: EP

Kind code of ref document: A1