WO2022202155A1 - 運転支援装置および鞍乗型車両 - Google Patents

運転支援装置および鞍乗型車両 Download PDF

Info

Publication number
WO2022202155A1
WO2022202155A1 PCT/JP2022/008698 JP2022008698W WO2022202155A1 WO 2022202155 A1 WO2022202155 A1 WO 2022202155A1 JP 2022008698 W JP2022008698 W JP 2022008698W WO 2022202155 A1 WO2022202155 A1 WO 2022202155A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
evaluation
recording
driving
straddle
Prior art date
Application number
PCT/JP2022/008698
Other languages
English (en)
French (fr)
Inventor
虎喜 岩丸
崚 武智
修 西岡
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to DE112022001698.1T priority Critical patent/DE112022001698T5/de
Priority to JP2023508867A priority patent/JPWO2022202155A1/ja
Publication of WO2022202155A1 publication Critical patent/WO2022202155A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6895Sport equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Definitions

  • the present invention mainly relates to driving assistance devices.
  • Patent Document 1 describes a technique for evaluating the driver's condition based on the degree of opening and closing of the driver's eyes, line of sight, and the like.
  • An exemplary object of the present invention is to relatively easily evaluate the driving mode of the driver of a straddle-type vehicle.
  • One aspect of the present invention relates to a driving assistance device, the driving assistance device comprising: A driving support device that can be mounted on a straddle-type vehicle, Acquisition means for acquiring driver state information indicating the state of the driver's upper body and lower body; evaluation means for evaluating the driving mode of the driver based on the acquisition result of the acquisition means.
  • FIG. 4 is a flowchart showing an example of contents of driving assistance by the driving assistance device; It is a figure for demonstrating an example of a captured image.
  • FIG. 4 is a diagram showing an example of a calculation method based on inverse kinematics; 6 is a flow chart showing another example of contents of driving assistance by the driving assistance device;
  • FIG. 1 shows an example of the configuration of a straddle-type vehicle 1 according to the first embodiment.
  • the straddle-type vehicle 1 includes wheels 11 , a steering device 12 , an imaging device 13 , a display device 14 and a driving support device 15 .
  • the straddle-type vehicle 1 is a two-wheeled vehicle having a single front wheel and a single rear wheel as wheels 11 in this embodiment, but the number of wheels 11 is not limited to this example.
  • the steering device 12 is a handlebar that can change the orientation of the front wheels 11 with respect to the vehicle body, but it may be another steering operator such as a steering wheel. Power (rotation) from a power source such as an internal combustion engine or an electric motor is transmitted to the rear wheels 11 via a power transmission mechanism.
  • the imaging device 13 may detect the posture of the whole body of the driver 9 (see FIG. 3), specifically, each of the upper body and the lower body, and in this embodiment, the driver 9 is seated. It is intended to be located at each of the forward and rearward portions of the seat 19, but may additionally/alternatively be located at other locations.
  • the imaging device 13 is a camera including a CCD/CMOS image sensor or the like in this embodiment, it may be any device that can detect the posture of the driver 9 as a whole. Therefore, incidentally/alternatively, an infrared sensor, millimeter wave radar, LiDAR (Light Detecting and Ranging), or the like may be used as the imaging device 13 .
  • a liquid crystal display, a mobile terminal, or the like can be used as the display device 14 .
  • the display device 14 is typically installed on the handlebar and displays a notification, which will be described later, so that the driver 9 can visually recognize it.
  • a sound source device capable of notifying the same content by voice guidance may be used, or a vibrating device capable of notifying the driver 9 of the same content by vibration may be used.
  • the driving support device 15 includes a CPU 151 and a memory 152, and the CPU 151 develops a predetermined program on the memory 152 and executes it to perform driving support, which will be described later.
  • the functions of the driving assistance device 15 may be realized by a semiconductor device including a processing circuit such as an ASIC (Application Specific Integrated Circuit). In other words, the functions of the driving assistance device 15 can be realized by both hardware and software.
  • part/all of the above-described elements are typically configured to be attachable to and detachable from the body of the straddle-type vehicle 1. It is a device that can be mounted on the vehicle 1 .
  • FIG. 2 is a flow chart showing the content of driving support by the driving support device 15.
  • FIG. This flowchart is started, for example, after the power source is started, and is mainly executed by the CPU 151 of the driving support device 15 .
  • the outline is to evaluate the driving mode (fatigue level in this embodiment) of the driver 9 based on the posture of the driver 9 whole body.
  • step S1000 (hereinafter simply referred to as "S1000"; the same applies to other steps described later), the imaging device 13 is driven. Although the details will be described later, the imaging device 13 thereby images the driver 9 at a predetermined cycle. In S1000, it can be said that the CPU 151 functions as a driving unit that drives the imaging device 13 at a predetermined cycle.
  • the imaging result is stored in the memory 152, for example, as an image img1 (see FIG. 3), which will be described later.
  • the imaging result may be temporarily stored in a DRAM (Dynamic Random Access Memory) (not shown).
  • a captured image of the driver 9 (for example, an image obtained by capturing the driver 9, such as an image img1, which will be described later; hereinafter, simply referred to as a “captured image”) is acquired from the memory 152/ read out.
  • the CPU 151 can be said to function as an acquisition unit that acquires the captured image or a reading unit that reads out the captured image.
  • driver state information inf1 indicating the respective states (mainly posture states) of the upper and lower bodies of the driver 9 is acquired based on the captured image and analyzed.
  • the driver state information inf1 may be expressed as driver posture information. Details of the analysis method will be described later.
  • the CPU 151 can be said to function as an acquisition unit or an analysis unit that acquires and analyzes the driver condition information inf1.
  • the driving mode of the driver 9 is evaluated based on the analysis result of the driver condition information inf1.
  • the degree of fatigue of the driver 9 is evaluated as the driving mode of the driver 9.
  • the driver's 9 concentration, whether or not the driving operation is appropriate, etc. may be evaluated.
  • the CPU 151 can be said to function as an evaluation unit that evaluates the driving mode of the driver 9. FIG.
  • S1040 it is determined whether the evaluation result of S1030 satisfies the criteria, and in this embodiment, whether the degree of fatigue of the driver 9 is greater than the reference value. If the evaluation result satisfies the criteria (Yes determination), the process proceeds to S1050; otherwise (No determination), the process returns to S1000.
  • the CPU 151 can be said to function as a determination unit that determines whether or not the evaluation result satisfies the criteria.
  • a predetermined notification is given to the driver 9 assuming that the evaluation result of S1030 satisfies the criteria.
  • this notification is made by displaying on the display device 14 .
  • the CPU 151 can be said to function as a notification unit that issues a predetermined notification to the driver 9, a notification output unit that outputs the notification, or a notification instruction unit that instructs the notification.
  • This flow chart may be repeated based on the accuracy required for the above evaluation, and the cycle may be every few minutes to tens of minutes, or every few seconds to tens of seconds, or more or less. It's okay. Therefore, the image pickup by the image pickup device 13 in S1000 may be performed as a moving image, and the above evaluation may be performed based on a portion selected at predetermined intervals from a plurality of still images forming the moving image.
  • FIG. 3 is an example of a captured image img1 for explaining the analysis contents of S1020 described above.
  • S1020 may be performed by analyzing the skeleton of the driver 9 using a known analysis model, and in this embodiment, it is performed by inverse kinematics (IK).
  • IK inverse kinematics
  • IK it is possible to calculate or predict the position of the intermediate point PM based on the start point PS and the end point PE .
  • IK technology is widely used in robot manipulators, animation production, etc. It is utilized.
  • the standard posture of the driver 9 may be registered in advance (prior to the analysis in S1020) as unique information.
  • Examples of standard postures include a sitting posture, an upright posture, intermediate postures/transitional postures therebetween, and the like. By referring to the standard orientation, it becomes possible to calculate or predict the position of the intermediate point from the start point and end point with higher accuracy.
  • a plurality of feature points PCH on each of the upper and lower bodies of driver 9 are extracted from captured image img1 as the start and end points described above.
  • Examples of the characteristic points P CH are the positions of the neck 91, wrists 92, ankles 93, shoulders 94, and hips 95 of the driver 9 in this embodiment, but are not limited to these.
  • the aforementioned driver state information inf1 includes information indicating individual positions (positional coordinates) of the feature points PCH.
  • IK-based analysis it is possible to calculate the position of a knee 96, which will be described later, as an intermediate point based on the positions of the feature points PCH as the start point and the end point. Further, when the positions of the characteristic points PCH as the starting point and the end point are moved, the positional movement of the intermediate points such as the knee 96 can be calculated based on the positions. Thereby, the posture of the whole leg 9Lg, which will be described later, can be evaluated.
  • the position of the knee 96 corresponding to the intermediate point can be calculated based on the waist 95 corresponding to the starting point and the ankle 93 corresponding to the end point. Then, based on the positions of both the knee 96 and the ankle 93, the posture of the entire leg 9Lg can be evaluated. Specifically, when the leg 9Lg is separated from the body of the straddle-type vehicle 1 by a reference value or more, it can be evaluated that the fatigue level of the driver 9 is increasing. In this evaluation, the standard posture may be further considered, and even better, the position of the toes may be additionally considered.
  • the position of the elbow 97 corresponding to the intermediate point can be calculated based on the shoulder 94 corresponding to the starting point and the wrist 92 corresponding to the end point. Then, based on the positions of both the elbow 97 and the wrist 92, the posture of the entire arm 9Ar can be evaluated. Specifically, when the arm 9Ar is down and close to the body 9Bd, it can be evaluated that the driver 9 is getting more tired. In this evaluation, the standard posture may be further considered, and even better, the position of the fingers may be additionally considered.
  • the posture of the entire torso 9Bd can be evaluated based on the neck 91 and/or shoulders 94 corresponding to the starting point and the waist 95 corresponding to the ending point. Specifically, when the torso 9Bd is bent more than the standard and takes a stooped posture, it can be evaluated that the degree of fatigue of the driver 9 is increasing. In this evaluation, the standard posture may be further considered, and the position of the elbow 97 may be additionally considered.
  • the posture of each part such as the leg 9Lg, the arm 9Ar, the body 9Bd, etc. is evaluated by evaluating the intermediate point by the analysis based on the IK, not based only on the captured image img1.
  • highly accurate evaluation is possible regardless of the mode of clothing of the driver 9 .
  • the driving support device 15 is preferably applicable to the straddle-type vehicle 1, and the degree of fatigue of the driver 9 is determined as the driving mode of the driver 9 based on the driver state information inf1. can be evaluated with high accuracy. Since the driver state information inf1 indicates the postures of the upper and lower bodies of the driver 9, it is possible to appropriately evaluate the degree of fatigue of the driver 9 by analyzing the skeleton of the driver 9 based on this information. If the degree of fatigue is greater than the reference value, it is possible to notify the driver 9 to take a break.
  • the driver state information inf1 indicates the postures of the upper and lower bodies of the driver 9.
  • the entire leg 9Lg, the entire arm 9Ar, and the torso It is sufficient that the posture of the entire 9Bd can be evaluated. Therefore, the driver state information inf1 only needs to indicate substantially all of the parts necessary for evaluating the degree of fatigue of the driver 9, and does not have to indicate parts that are not used for the evaluation.
  • FIG. 5 is a flowchart showing details of driving assistance by the driving assistance device 15 according to the second embodiment.
  • This embodiment differs from the above-described first embodiment in that the notification (S1050) is performed based on the transition of the evaluation result (S1030) in a predetermined period. Note that the contents of S1000 to S1050 are the same as in the first embodiment, so the description is omitted here.
  • the time is measured by a timing device (not shown) provided in the straddle-type vehicle 1 .
  • a known timer may be used as the clock device.
  • the CPU 151 can be said to function as a driving unit that drives the timekeeping device or as a timekeeping starter that starts timekeeping by the timekeeping device.
  • the evaluation result of S1030 is recorded.
  • the evaluation results are stored in the memory 152, but may be temporarily stored in a DRAM (not shown).
  • the CPU 151 can be said to function as a recording unit that records the evaluation results.
  • the CPU 151 can be said to function as a determination unit that determines whether or not the predetermined time has passed.
  • S2030 it is determined whether or not the evaluation results recorded over a predetermined period of time satisfy the criteria. ) is determined. If the evaluation result satisfies the criteria (Yes determination), the process proceeds to S1050; otherwise (No determination), the process returns to S1000.
  • the CPU 151 can be said to function as a determination unit that determines whether or not the evaluation result satisfies the criteria.
  • the straddle-type vehicle 1 is started by turning on the power source, for example, by turning on the ignition when the power source is an internal combustion engine, or by turning on the start switch when the power source is an electric motor, for example. to the ON state.
  • the straddle-type vehicle 1 is stopped by stopping the power source, for example, by turning off the ignition when the power source is an internal combustion engine, or by turning off the ignition when the power source is an electric motor. In this case, it corresponds to turning off the start switch.
  • the straddle-type vehicle 1 is started in a relatively short time after being stopped, it is considered that the degree of fatigue of the driver 9 does not substantially change.
  • the relatively short time referred to here is, for example, several minutes to several tens of minutes or about one hour, but may be longer.
  • the determination in S2020 is Yes, and the evaluation result recorded before the straddle-type vehicle 1 is stopped is further referred to in the determination of S2030. According to such driving assistance, it is possible to evaluate the accumulated degree of fatigue of the driver 9 with higher accuracy.
  • the predetermined time in S2020 is typically several tens of minutes, one hour to several hours or more, but it may be less than several tens of minutes. Also, the predetermined time in S2030 may be the same as the predetermined time in S2020, or may be a different value.
  • the driving operation of the driver 9 may show individuality, so in the present embodiment as well, the execution of S1010 to S1030 and S2010 is suppressed during cornering of the straddle-type vehicle 1.
  • the functions of the driving assistance device 15 can be realized by both hardware and software. Therefore, although the contents of each step are realized by the CPU 151 in each embodiment, the functions of the driving support device 15 may be realized by a processing circuit.
  • the driving support device 15 may include a circuit unit that implements each step, for example, may be configured as a SIP (System in Package), or a plurality of semiconductor packages may be mounted on a mounting substrate. may be configured.
  • each element is indicated by a name related to its function for ease of understanding, but each element is not limited to having the content described in the embodiment as a main function. It may be one that does not have it and that has it as an auxiliary. Therefore, each element is not strictly limited to its expression, and its expression can be replaced with a similar expression.
  • the expression “apparatus” is used to refer to "unit”, “component, piece”, “member”, “structure”, “assembly”. assembly)” or the like, or may be omitted.
  • a first aspect relates to a driving assistance device (for example, 15), the driving assistance device comprising: A driving support device that can be mounted on a straddle-type vehicle (for example, 1), Acquisition means (for example, S1010 to S1020) for acquiring driver state information (for example, inf1) indicating the state of the upper and lower bodies of the driver (for example, 9); evaluation means (for example, S1030) for evaluating the driving mode of the driver based on the acquisition result of the acquisition means.
  • the driving mode of the driver can be relatively easily evaluated based on the driver posture information indicating the posture of the driver's whole body.
  • the evaluation means evaluates the degree of fatigue of the driver as the driving mode of the driver. As a result, for example, when the degree of fatigue is greater than the reference value, it is possible to notify the driver to take a rest.
  • the obtaining means obtains the driver state information based on an image obtained by imaging the driver. This makes it possible to appropriately acquire the driver posture information.
  • a fourth aspect further comprising analysis means for extracting feature points (for example, P CH ) in the driver's whole body based on the driver state information;
  • the evaluation means performs the evaluation based on the characteristic points.
  • the analyzing means extracts positions of the driver's wrists and ankles as the characteristic points. This makes it possible to properly implement the analysis described above.
  • the evaluation means calculates a knee position based on the ankle position, and evaluates the posture of the driver's legs based on the positions of both the knee and the ankle. This makes it possible to properly implement the analysis described above.
  • the analysis means further extracts the shoulder position of the driver as the characteristic point,
  • the evaluation means evaluates the posture of the driver's trunk based on the position of the shoulder. This makes it possible to properly implement the analysis described above.
  • the analysis means analyzes the skeleton of the driver using a predetermined analysis model (for example, IK) based on the driver state information;
  • the evaluation means performs the evaluation based on the analysis result of the analysis means. This makes it possible to implement the above analysis relatively easily.
  • notification means for example, S1050 for notifying the evaluation result of the evaluation means. This enables the driver to recognize the evaluation result.
  • the recording means starts the recording after the straddle-type vehicle is started
  • the notification means is characterized in that, after a predetermined time has passed since the recording by the recording means was started, the notification is made based on the transition of the evaluation results of the evaluation means recorded by the recording means. do. This makes it possible to evaluate the driving mode of the driver with higher accuracy.
  • the notifying means is further based on the evaluation result of the evaluating means recorded by the recording means before the stop. It is characterized by notifying. This makes it possible to evaluate the driving mode of the driver with higher accuracy.
  • the recording means suppresses the recording during cornering of the straddle-type vehicle. This prevents the above evaluation from being carried out unnecessarily, since the individuality of the driver may appear during cornering.
  • a fourteenth aspect relates to a straddle-type vehicle (eg, 1), wherein the straddle-type vehicle comprises: It is characterized by comprising the aforementioned driving support device (for example 15) and wheels (for example 11). That is, the driving assistance device according to the embodiment can be applied to a typical straddle-type vehicle.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明の一側面は運転支援装置に係り、前記運転支援装置は、鞍乗型車両に搭載可能な運転支援装置であって、運転者の上半身及び下半身の状態を示す運転者状態情報を取得する取得手段と、前記取得手段の取得結果に基づいて前記運転者の運転態様を評価する評価手段と、を備え、それにより鞍乗型車両の運転者の運転態様を比較的簡便に評価する。

Description

運転支援装置および鞍乗型車両
 本発明は、主に運転支援装置に関する。
 特許文献1には、車両の運転者の眼の開閉の度合い、視線等に基づいて運転者の状態を評価する技術が記載されている。
特許3890062号公報
 上記評価は多様な観点から行われることが好ましく、このことは、一般に、自動二輪車等に代表される鞍乗型車両においては一層考慮されるべきである。
 本発明は、鞍乗型車両の運転者の運転態様を比較的簡便に評価することを例示的目的とする。
 本発明の一つの側面は運転支援装置に係り、前記運転支援装置は、
 鞍乗型車両に搭載可能な運転支援装置であって、
 運転者の上半身及び下半身の状態を示す運転者状態情報を取得する取得手段と、
 前記取得手段の取得結果に基づいて前記運転者の運転態様を評価する評価手段と、を備える
 ことを特徴とする。
 本発明によれば、鞍乗型車両の運転者の運転態様を適切に評価可能となる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
実施形態に係る鞍乗型車両の構成の一例を示す図。 運転支援装置の運転支援の内容の一例を示すフローチャート。 撮像画像の一例を説明するための図である。 インバースキネマティクスに基づく算出方法の一例を示す図。 運転支援装置の運転支援の内容の他の例を示すフローチャート。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
  (第1実施形態)
 図1は、第1実施形態に係る鞍乗型車両1の構成の一例を示す。鞍乗型車両1は、車輪11、操舵装置12、撮像装置13、表示装置14および運転支援装置15を備える。鞍乗型車両1は、本実施形態では単一の前輪および単一の後輪を車輪11として備える二輪車とするが、車輪11の数は本例に限られるものではない。操舵装置12は、本実施形態では、車体に対する前輪11の向きを変更可能なハンドルバーとするが、ステアリングホイール等の他の操舵用操作子であってもよい。尚、後輪11には、内燃機関、電動モータ等の動力源の動力(回転)が動力伝達機構を介して伝達される。
 撮像装置13は、後述の運転者9(図3参照)の全身、具体的には上半身および下半身の其々、の姿勢を検出可能であればよく、本実施形態では、運転者9が着座するシート19の前方部および後方部のそれぞれに設置されるものとするが、付随的/代替的に他の位置に設置されてもよい。撮像装置13は、本実施形態ではCCD/CMOSイメージセンサ等を含むカメラとするが、運転者9の全身の姿勢を検出可能であればよい。そのため、付随的/代替的に、赤外線センサ、ミリ派レーダ、LiDAR(Light Detecting and Ranging)等が撮像装置13として用いられてもよい。
 表示装置14には、液晶ディスプレイ、携帯端末等が用いられうる。表示装置14は、典型的にはハンドルバーに設置され、後述の通知を運転者9が視認可能となるように表示する。代替的/付随的に、同内容を音声ガイドにより通知可能な音源装置が用いられてもよいし、或いは、同内容を運転者9に対する振動により通知可能な振動装置が用いられてもよい。
 運転支援装置15は、CPU151及びメモリ152を含み、CPU151が所定のプログラムをメモリ152上に展開して実行することにより後述の運転支援を行う。運転支援装置15の機能は、ASIC(特定用途向け集積回路)等の処理回路を備える半導体装置によって実現されてもよい。即ち、運転支援装置15の機能は、ハードウェア及びソフトウェアの何れによっても実現可能である。
 尚、上述の要素の一部/全部(例えば撮像装置13、表示装置14、運転支援装置15等)は、典型的には、鞍乗型車両1の車体に着脱可能に構成され、鞍乗型車両1に搭載可能なデバイスである。
 図2は、運転支援装置15の運転支援の内容を示すフローチャートである。本フローチャートは、例えば動力源の始動後に開始され、主に運転支援装置15のCPU151により実行される。その概要は、運転者9の全身の姿勢に基づいて運転者9の運転態様(本実施形態では疲労度)を評価する、というものである。
 ステップS1000(以下、単に「S1000」と示す。後述の他のステップについても同様とする。)では、撮像装置13を駆動する。詳細については後述とするが、これにより、撮像装置13は所定周期で運転者9を撮像する。尚、S1000では、CPU151は、撮像装置13を所定周期で駆動する駆動部として機能すると云える。
 本実施形態では、撮像の結果は、例えば後述の画像img1(図3参照)等として、メモリ152に保存される。他の実施形態として、撮像の結果は、不図示のDRAM(Dynamic Random Access Memory)に一時的に保存されてもよい。
 S1010では、運転者9の撮像画像(例えば後述の画像img1等、運転者9を撮像して得られた画像。以下、単に「撮像画像」と示す場合がある。)をメモリ152から取得する/読み出す。尚、S1010では、CPU151は、撮像画像を取得する取得部、或いは、撮像画像を読み出す読出し部として機能すると云える。
 S1020では、運転者9の上半身および下半身の其々の状態(主に姿勢の状態)を示す運転者状態情報inf1を撮像画像に基づいて取得し、解析する。運転者状態情報inf1は運転者姿勢情報と表現されてもよい。解析方法の詳細については後述とする。尚、S1020では、CPU151は、運転者状態情報inf1を取得して解析する取得部ないし解析部として機能すると云える。
 S1030では、運転者状態情報inf1の解析結果に基づいて運転者9の運転態様を評価する。運転者9の運転態様として、本実施形態では運転者9の疲労度が評価されるものとするが、他の実施形態として運転者9の集中力、運転操作の是非等が評価されてもよい。尚、S1030では、CPU151は、運転者9の運転態様を評価する評価部として機能すると云える。
 S1040では、S1030の評価結果が基準を満たすか否か、本実施形態では運転者9の疲労度が基準値より大きいか否か、を判定する。評価結果が基準を満たす場合(Yes判定の場合)にはS1050に進み、そうでない場合(No判定の場合)にはS1000に戻る。尚、S1040では、CPU151は、評価結果が基準を満たすか否かを判定する判定部として機能すると云える。
 S1050では、S1030の評価結果が基準を満たすものとして、運転者9に対して所定の通知を行う。本実施形態においては、この通知は表示装置14への表示により行われる。その後、S1000に戻る。尚、S1050では、CPU151は、運転者9に対して所定の通知を行う通知部、該通知を出力する通知出力部、或いは、該通知を指示する通知指示部として機能すると云える。
 本フローチャートは、上記評価に求められる精度に基づいて繰り返されればよく、その周期は、数分~数十分毎でもよいし、数秒~数十秒ごとでもよいし、或いは、それ以上またはそれ以下でもよい。よって、S1000の撮像装置13による撮像は動画で行われ、該動画を構成する複数の静止画から所定間隔で選択された一部に基づいて上記評価が行われてもよい。
 図3は、上述のS1020の解析内容を説明するための撮像画像img1の一例である。S1020は、公知の解析モデルにより運転者9の骨格を解析することにより行われればよく、本実施形態ではインバースキネマティクス(IK(Inverse Kinematics))により行われるものとする。
 図4に示されるように、IKによれば始点Pおよび終点Pに基づいて中間点Pの位置を算出ないし予測することが可能であり、IK技術はロボットマニピュレータ、アニメーション制作等において広く活用されている。
 ここで、IKに基づくS1030の評価の高精度化のため、運転者9の標準姿勢が固有情報として予め(S1020の解析に先立って)登録されていてもよい。標準姿勢の例としては、着座姿勢、直立姿勢、其れらの間の中間状態の姿勢/遷移中の姿勢等が挙げられる。標準姿勢を参照することにより、始点および終点から中間点の位置を更に高精度に算出ないし予測可能となる。
 再び図3を参照して、本実施形態では、運転者9の上半身および下半身の其々における複数の特徴点PCHが上述の始点および終点として撮像画像img1から抽出される。特徴点PCHの例としては、本実施形態では、運転者9の首91、手首92、足首93、肩94および腰95の位置とするが、これに限られるものではない。
 ここで、前述の運転者状態情報inf1は、上記特徴点PCHの個々の位置(位置座標)を示す情報を含む。IKに基づく解析によれば、始点および終点としての其れら特徴点PCHの位置に基づいて、中間点としての後述の膝96等の位置が算出可能である。また、始点および終点としての其れら特徴点PCHの位置が移動した場合には該位置に基づいて中間点としての膝96等の位置の移動が算出可能である。これにより、後述の脚9Lg全体の姿勢が評価可能となる。
 一例として、始点に相当する腰95と、終点に相当する足首93とに基づいて、中間点に相当する膝96の位置が算出可能である。そして、膝96および足首93の双方の位置に基づいて脚9Lg全体の姿勢が評価可能となる。具体的には、脚9Lgが鞍乗型車両1の車体から基準以上に離間している場合には、運転者9の疲労度が高まっているものと評価することができる。この評価に際して、標準姿勢が更に考慮されるとよく、また、つま先の位置が付随的に考慮されると更によい。
 他の例として、始点に相当する肩94と、終点に相当する手首92とに基づいて、中間点に相当する肘97の位置が算出可能である。そして、肘97および手首92の双方の位置に基づいて腕9Ar全体の姿勢が評価可能となる。具体的には、腕9Arが下がって胴体9Bdに近接している場合には、運転者9の疲労度が高まっているものと評価することができる。この評価に際して、標準姿勢が更に考慮されるとよく、また、指の位置が付随的に考慮されると更によい。
 同様の手順で、始点に相当する首91及び/又は肩94と、終点に相当する腰95とに基づいて、胴体9Bd全体の姿勢が評価可能となる。具体的には、胴体9Bdが基準以上に曲がって猫背姿勢となっている場合には、運転者9の疲労度が高まっているものと評価することができる。この評価に際して、標準姿勢が更に考慮されるとよく、また、肘97の位置が付随的に考慮されると更によい。
 このような方法によれば、撮像画像img1のみに基づいて評価するのではなく、中間点をIKに基づく解析により評価することにより、脚9Lg、腕9Ar、胴体9Bd等の各部位の姿勢を、例えば運転者9の衣服の態様に関わらず、高精度に評価可能となる。また、このような方法によれば、例えば、撮像画像img1のみに基づく評価を、IKに基づく解析に基づいて補正することも可能となる。このことは、予め登録された固有情報としての運転者9の標準姿勢を参照することにより上記評価を更に高精度化させうる。
 以上、本実施形態によれば、運転支援装置15は、好適には鞍乗型車両1に適用可能であり、運転者状態情報inf1に基づいて運転者9の運転態様として運転者9の疲労度を高精度に評価することができる。運転者状態情報inf1は運転者9の上半身および下半身の姿勢を示すため、これに基づいて運転者9の骨格を解析することにより運転者9の疲労度を適切に評価することが可能となり、例えば疲労度が基準値より大きい場合には運転者9に休憩を促す通知を行うことも可能となる。
 尚、一般に、鞍乗型車両1のコーナリングに際しては、運転者9の運転操作に個性が現れうる。そのため、本実施形態の変形例として、鞍乗型車両1のコーナリングの間においてはS1010~S1030の実行は抑制されてもよい。
 また、本実施形態では、運転者状態情報inf1は、運転者9の上半身および下半身の姿勢を示すものとするが、運転者9の疲労度の評価のため、脚9Lg全体、腕9Ar全体および胴体9Bd全体の姿勢を評価可能に構成されていればよい。よって、運転者状態情報inf1は、運転者9の疲労度の評価に必要な部位の実質的に全部を示していればよく、該評価に用いられない部位を示していなくてもよい。
  (第2実施形態)
 図5は、第2実施形態に係る運転支援装置15の運転支援の内容を示すフローチャートである。本実施形態では、所定期間における評価結果(S1030)の推移に基づいて通知(S1050)を行う、という点で前述の第1実施形態と異なる。尚、S1000~S1050の内容については第1実施形態同様であるため、ここでは説明を省略する。
 S2000では、鞍乗型車両1が備える不図示の計時装置により時間の計測を行う。計時装置には公知のタイマーが用いられればよい。尚、S2000では、CPU151は、計時装置を駆動する駆動部、或いは、計時装置による計時を開始させる計時開始部として機能すると云える。
 S2010では、S1030の評価結果を記録する。評価結果はメモリ152に保存されるものとするが、不図示のDRAMに一時的に保存されてもよい。尚、S2010では、CPU151は、評価結果を記録する記録部として機能すると云える。
 S2020では、S2000の計時結果に基づいて、鞍乗型車両1が起動されてから所定時間が経過したか否かを判定する。所定時間が経過していた場合(Yes判定の場合)にはS2030に進み、そうでない場合(No判定の場合)にはS1000に戻る。尚、S2020では、CPU151は、所定時間が経過したか否かを判定する判定部として機能すると云える。
 S2030では、所定時間に亘って記録された評価結果が基準を満たすか否か、本実施形態では評価結果の推移が基準以上に変化しているか否か(例えば、疲労度が初期値から基準以上に変化しているか否か)を判定する。評価結果が基準を満たす場合(Yes判定の場合)にはS1050に進み、そうでない場合(No判定の場合)にはS1000に戻る。尚、S2030では、CPU151は、評価結果が基準を満たすか否かを判定する判定部として機能すると云える。
 即ち、本フローチャートによれば、鞍乗型車両1が起動されてから評価結果の記録を開始し、該記録が開始されてから所定時間が経過した後、評価結果の推移に基づいて所定の通知(S1050)が行われる。このような運転支援によれば、運転者9の疲労度が蓄積されていく態様を考慮して上記評価を行うことが可能となるため、該評価の高精度化に有利と云える。
 鞍乗型車両1の起動は、動力源を稼働状態にすること、例えば動力源が内燃機関の場合にはイグニッションオンの状態にすること、また、例えば動力源が電動モータの場合にはスタートスイッチをオンの状態にすること、に対応するものとする。これに対して、鞍乗型車両1の停止は、動力源を停止状態にすること、例えば動力源が内燃機関の場合にはイグニッションオフの状態にすること、また、例えば動力源が電動モータの場合にはスタートスイッチをオフの状態にすること、に対応する。
 ここで、鞍乗型車両1が停止された時から比較的短時間で起動された場合、運転者9の疲労度は実質的に変わっていないと考えられる。ここでいう比較的短時間とは、例えば数分~数十分あるいは1時間程度であるが、それ以上の時間等であってもよい。このような場合、S2020ではYes判定とし、かつ、S2030の判定に際しては鞍乗型車両1の停止前に記録された評価結果が更に参照されるとよい。このような運転支援によれば、運転者9の疲労度が蓄積されている様子を更に高精度に評価可能となる。
 S2020の所定時間は、典型的には数十分、1時間~数時間あるいは其れ以上であるが、数十分より小さくてもよい。また、S2030の所定時間は、S2020の所定時間と同じであってもよいし、これとは異なる値であってもよい。
 尚、鞍乗型車両1のコーナリングに際しては運転者9の運転操作に個性が現れうるため、本実施形態においても、鞍乗型車両1のコーナリングの間、S1010~S1030及びS2010の実行は抑制されてもよい。
  (その他)
 前述のとおり、運転支援装置15の機能は、ハードウェア及びソフトウェアの何れによっても実現可能である。よって、各実施形態では各ステップの内容がCPU151により実現されるものとしたが、運転支援装置15の機能は処理回路により実現されてもよい。この場合、運転支援装置15は、各ステップを実現する回路部を備えてもよく、例えば、SIP(System in Package)として構成されてもよいし、複数の半導体パッケージが実装基板上に実装されて構成されていてもよい。
 以上の説明においては、理解の容易化のため、各要素をその機能面に関連する名称で示したが、各要素は、実施形態で説明された内容を主機能として備えるものに限られるものではなく、それを補助的に備えるものであってもよい。よって、各要素は、その表現に厳密に限定されるものではなく、その表現は同様の表現に置換え可能とする。同様の趣旨で、「装置(apparatus)」という表現は、「部(unit)」、「部品(component, piece)」、「部材(member)」、「構造体(structure)」、「組立体(assembly)」等に置換されてもよいし或いは省略されてもよい。
  (実施形態のまとめ)
 第1の態様は運転支援装置(例えば15)に係り、前記運転支援装置は、
 鞍乗型車両(例えば1)に搭載可能な運転支援装置であって、
 運転者(例えば9)の上半身及び下半身の状態を示す運転者状態情報(例えばinf1)を取得する取得手段(例えばS1010~S1020)と、
 前記取得手段の取得結果に基づいて前記運転者の運転態様を評価する評価手段(例えばS1030)と、を備える
 ことを特徴とする。第1の態様によれば、運転者の全身の姿勢を示す運転者姿勢情報に基づいて運転者の運転態様を比較的簡便に評価可能となる。
 第2の態様では、
 前記評価手段は、前記運転者の運転態様として前記運転者の疲労度を評価する
 ことを特徴とする。これにより、例えば疲労度が基準値より大きい場合には運転者に休憩を促す通知を行うことが可能となる。
 第3の態様では、
 前記取得手段は、前記運転者を撮像して得られた画像に基づいて前記運転者状態情報を取得する
 ことを特徴とする。これにより、運転者姿勢情報を適切に取得可能となる。
 第4の態様では、
 前記運転者状態情報に基づいて前記運転者の全身における特徴点(例えばPCH)を抽出する解析手段を更に備え、
 前記評価手段は、前記特徴点に基づいて前記評価を行う
 ことを特徴とする。これにより、運転者の運転態様を解析結果に基づいて比較的簡便に評価可能となる。
 第5の態様では、
 前記解析手段は、前記特徴点として、前記運転者の手首および足首の位置を抽出する
 ことを特徴とする。これにより、上述の解析を適切に実現可能となる。
 第6の態様では、
 前記評価手段は、前記足首の位置に基づいて膝の位置を算出し、該膝および前記足首の双方の位置に基づいて前記運転者の脚の姿勢を評価する
 ことを特徴とする。これにより、上述の解析を適切に実現可能となる。
 第7の態様では、
 前記解析手段は、前記特徴点として、前記運転者の肩の位置を更に抽出し、
 前記評価手段は、前記肩の位置に基づいて前記運転者の胴体の姿勢を評価する
 ことを特徴とする。これにより、上述の解析を適切に実現可能となる。
 第8の態様では、
 前記解析手段は、前記運転者状態情報に基づいて所定の解析モデル(例えばIK)により前記運転者の骨格を解析し、
 前記評価手段は、前記解析手段の解析結果に基づいて前記評価を行う
 ことを特徴とする。これにより、上述の解析を比較的簡便に実現可能となる。
 第9の態様では、
 前記評価手段の評価結果を通知する通知手段(例えばS1050)を更に備える
 ことを特徴とする。これにより、運転者が評価結果を認識可能となる。
 第10の態様では、
 前記評価手段の評価結果を記録する記録手段(例えばS2010)を更に備える
 ことを特徴とする。これにより、上述の通知を適切に実現可能となる。
 第11の態様では、
 前記記録手段は、前記鞍乗型車両が起動されてから前記記録を開始し、
 前記通知手段は、前記記録手段による前記記録が開始されてから所定時間が経過した後、前記記録手段により記録されている前記評価手段の評価結果の推移に基づいて前記通知を行う
 ことを特徴とする。これにより、運転者の運転態様を更に高精度に評価可能となる。
 第12の態様では、
 前記鞍乗型車両が停止された時から所定時間以内に起動された場合には、前記通知手段は、該停止の前に前記記録手段により記録された前記評価手段の評価結果に更に基づいて前記通知を行う
 ことを特徴とする。これにより、運転者の運転態様を更に高精度に評価可能となる。
 第13の態様では、
 前記鞍乗型車両のコーナリング中においては、前記記録手段は前記記録を抑制する
 ことを特徴とする。これにより、コーナリングの間においては運転者の個性が現れうるため、上述の評価が無用に実行されることを防ぐ。
 第14の態様は鞍乗型車両(例えば1)に係り、前記鞍乗型車両は、
 上述の運転支援装置(例えば15)と、車輪(例えば11)とを備える
 ことを特徴とする。即ち、実施形態に係る運転支援装置は典型的な鞍乗型車両に適用可能である。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
 本願は、2021年3月22日提出の日本国特許出願特願2021-047495を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
 1:鞍乗型車両、15:運転支援装置

Claims (14)

  1.  鞍乗型車両に搭載可能な運転支援装置であって、
     運転者の上半身及び下半身の状態を示す運転者状態情報を取得する取得手段と、
     前記取得手段の取得結果に基づいて前記運転者の運転態様を評価する評価手段と、を備える
     ことを特徴とする運転支援装置。
  2.  前記評価手段は、前記運転者の運転態様として前記運転者の疲労度を評価する
     ことを特徴とする請求項1記載の運転支援装置。
  3.  前記取得手段は、前記運転者を撮像して得られた画像に基づいて前記運転者状態情報を取得する
     ことを特徴とする請求項1または請求項2記載の運転支援装置。
  4.  前記運転者状態情報に基づいて前記運転者の全身における特徴点を抽出する解析手段を更に備え、
     前記評価手段は、前記特徴点に基づいて前記評価を行う
     ことを特徴とする請求項1から請求項3の何れか1項記載の運転支援装置。
  5.  前記解析手段は、前記特徴点として、前記運転者の手首および足首の位置を抽出する
     ことを特徴とする請求項4記載の運転支援装置。
  6.  前記評価手段は、前記足首の位置に基づいて膝の位置を算出し、該膝および前記足首の双方の位置に基づいて前記運転者の脚の姿勢を評価する
     ことを特徴とする請求項5記載の運転支援装置。
  7.  前記解析手段は、前記特徴点として、前記運転者の肩の位置を更に抽出し、
     前記評価手段は、前記肩の位置に基づいて前記運転者の胴体の姿勢を評価する
     ことを特徴とする請求項5または請求項6記載の運転支援装置。
  8.  前記解析手段は、前記運転者状態情報に基づいて所定の解析モデルにより前記運転者の骨格を解析し、
     前記評価手段は、前記解析手段の解析結果に基づいて前記評価を行う
     ことを特徴とする請求項4から請求項7の何れか1項記載の運転支援装置。
  9.  前記評価手段の評価結果を通知する通知手段を更に備える
     ことを特徴とする請求項1から請求項8の何れか1項記載の運転支援装置。
  10.  前記評価手段の評価結果を記録する記録手段を更に備える
     ことを特徴とする請求項9記載の運転支援装置。
  11.  前記記録手段は、前記鞍乗型車両が起動されてから前記記録を開始し、
     前記通知手段は、前記記録手段による前記記録が開始されてから所定時間が経過した後、前記記録手段により記録されている前記評価手段の評価結果の推移に基づいて前記通知を行う
     ことを特徴とする請求項10記載の運転支援装置。
  12.  前記鞍乗型車両が停止された時から所定時間以内に起動された場合には、前記通知手段は、該停止の前に前記記録手段により記録された前記評価手段の評価結果に更に基づいて前記通知を行う
     ことを特徴とする請求項11記載の運転支援装置。
  13.  前記鞍乗型車両のコーナリング中においては、前記記録手段は前記記録を抑制する
     ことを特徴とする請求項10から請求項12の何れか1項記載の運転支援装置。
  14.  請求項1から請求項13の何れか1項記載の運転支援装置と、車輪とを備える
     ことを特徴とする鞍乗型車両。
PCT/JP2022/008698 2021-03-22 2022-03-01 運転支援装置および鞍乗型車両 WO2022202155A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112022001698.1T DE112022001698T5 (de) 2021-03-22 2022-03-01 Fahrunterstützungsvorrichtung und fahrzeug vom spreizsitztyp
JP2023508867A JPWO2022202155A1 (ja) 2021-03-22 2022-03-01

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-047495 2021-03-22
JP2021047495 2021-03-22

Publications (1)

Publication Number Publication Date
WO2022202155A1 true WO2022202155A1 (ja) 2022-09-29

Family

ID=83395587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008698 WO2022202155A1 (ja) 2021-03-22 2022-03-01 運転支援装置および鞍乗型車両

Country Status (3)

Country Link
JP (1) JPWO2022202155A1 (ja)
DE (1) DE112022001698T5 (ja)
WO (1) WO2022202155A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09140688A (ja) * 1995-11-24 1997-06-03 Yamaha Motor Co Ltd 作業者の生理状態に基づく作業量制御システム
JP2014502938A (ja) * 2011-01-20 2014-02-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動二輪車ドライバの姿勢を監視するための方法
US20150146918A1 (en) * 2013-11-26 2015-05-28 National Chung Cheng University Video device for realtime pedaling frequency estimation
JP2017178284A (ja) * 2016-03-31 2017-10-05 本田技研工業株式会社 運転者姿勢検出装置
CN108568080A (zh) * 2017-03-08 2018-09-25 财团法人交大思源基金会 估测骑乘自行车的受测者下肢运动状态的方法及系统
JP2019073070A (ja) * 2017-10-12 2019-05-16 京セラ株式会社 車両、判定方法及び判定プログラム
WO2019096683A1 (en) * 2017-11-17 2019-05-23 Jaguar Land Rover Limited Apparatus and method for controlling a vehicle
WO2020202266A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 鞍乗り型車両の運転支援装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004102500A1 (ja) 2003-05-16 2004-11-25 Fujitsu Limited 警報システム,警報制御装置,及び警報制御プログラム
JP2021047495A (ja) 2019-09-17 2021-03-25 株式会社メルカリ 情報処理方法、情報処理装置、プログラム、及び情報処理端末

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09140688A (ja) * 1995-11-24 1997-06-03 Yamaha Motor Co Ltd 作業者の生理状態に基づく作業量制御システム
JP2014502938A (ja) * 2011-01-20 2014-02-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動二輪車ドライバの姿勢を監視するための方法
US20150146918A1 (en) * 2013-11-26 2015-05-28 National Chung Cheng University Video device for realtime pedaling frequency estimation
JP2017178284A (ja) * 2016-03-31 2017-10-05 本田技研工業株式会社 運転者姿勢検出装置
CN108568080A (zh) * 2017-03-08 2018-09-25 财团法人交大思源基金会 估测骑乘自行车的受测者下肢运动状态的方法及系统
JP2019073070A (ja) * 2017-10-12 2019-05-16 京セラ株式会社 車両、判定方法及び判定プログラム
WO2019096683A1 (en) * 2017-11-17 2019-05-23 Jaguar Land Rover Limited Apparatus and method for controlling a vehicle
WO2020202266A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 鞍乗り型車両の運転支援装置

Also Published As

Publication number Publication date
DE112022001698T5 (de) 2024-01-11
JPWO2022202155A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US6708081B2 (en) Electronic equipment with an autonomous function
US11210497B2 (en) Occupant modeling device, occupant modeling method, and occupant modeling program
WO2004051579A3 (en) Apparatus and method for assisting the navigation of a catheter in a vessel
WO2022202155A1 (ja) 運転支援装置および鞍乗型車両
US20210205712A1 (en) Method for operating an electronic display device wearable on the head and display system for displaying virtual content
CN111284498B (zh) 驾驶支援装置、系统、方法、可穿戴装置以及存储介质
CN112915549B (zh) 图像处理装置、显示系统、记录介质以及图像处理方法
WO2017203803A1 (ja) 疲労軽減装置
CN111196230A (zh) 驾驶辅助装置、可穿戴装置、驾驶辅助方法以及程序
WO2020049886A1 (ja) 歩行補助システム
JP2007062602A (ja) ライダー挙動計測方法
US11565714B2 (en) System for estimating riding posture
AU2018316010B2 (en) Visual line movement-related value acquisition device, transport apparatus equipped with same, and visual line movement-related value acquisition method
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
CN107405068A (zh) 用于检测人的视野方向的方法和设备
JP2019136165A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2019133511A (ja) 車載装置、車内通知方法、およびプログラム
JP4263921B2 (ja) 身体誘導装置
CN109498366B (zh) 一种辅助手臂运动的系统
Park et al. Implementation of a driver aware vehicle using multimodal information
WO2019025729A1 (fr) Analyse d'un mouvement et/ou d'une posture d'au moins une partie du corps d'un individu
CN113015673B (zh) 跨乘式车辆行驶数据处理装置以及跨乘式车辆行驶数据处理方法
JP6926839B2 (ja) 計時システムおよび計時プログラム
JP2021102075A (ja) 出力装置、出力方法、及び、プログラム
JP5692562B2 (ja) 設定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774951

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023508867

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 112022001698

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22774951

Country of ref document: EP

Kind code of ref document: A1