WO2015173982A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2015173982A1
WO2015173982A1 PCT/JP2014/079946 JP2014079946W WO2015173982A1 WO 2015173982 A1 WO2015173982 A1 WO 2015173982A1 JP 2014079946 W JP2014079946 W JP 2014079946W WO 2015173982 A1 WO2015173982 A1 WO 2015173982A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driver
expression method
selection unit
display
Prior art date
Application number
PCT/JP2014/079946
Other languages
English (en)
French (fr)
Inventor
洋 西村
洋 浅岡
直樹 鶴
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Publication of WO2015173982A1 publication Critical patent/WO2015173982A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/04Indicating or recording train identities
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving support device that presents necessary information to a driver.
  • the positional relationship between the brake curve and the own train position / speed is displayed, and further, the line conditions such as the gradient and the tunnel are combined and displayed.
  • the driver is allowed to perform a slow deceleration before the brake start point.
  • the driving curve that realizes the scheduled operation, the maximum speed required for the scheduled operation, and the arrival time at which the current speed is reached it is easy to predict early arrival and delay, and the driving can be adjusted by acceleration and deceleration This makes it easy to ensure the driver's punctuality.
  • Patent Document 1 even though the display information can be provided at a timing required by the driver, the ease of recognition of the display information of the driver is taken into consideration. There was a problem that the oversight of the presented information was not taken into consideration.
  • the present invention has been made to solve the above-described problems, and presents presentation information to the driver by an expression method according to the warning level, reduces oversight of the presentation information, and recognizes the presentation information.
  • An object of the present invention is to provide a driving support device that realizes an improvement in recognition speed or an improvement in ease of obtaining presentation information.
  • the driving support device includes a brake state acquisition unit that acquires brake state information, a driving state grasping unit that acquires state information of the surrounding environment and current driving state information, brake state information, and the surrounding environment Based on at least one of the situation information and the current driving situation information, a determination unit that determines an operation to be performed by the driver and an allowance time until the operation, and a warning level determined based on the allowance time until the operation And an expression method selection unit for selecting an expression method of information to be provided to the driver.
  • the presentation information is presented to the driver by an expression method according to the warning level, the oversight of the presentation information is reduced, and the recognition rate of the presentation information, the recognition speed is improved, or the presentation information is acquired. It is possible to provide a driving support device that can improve ease of operation.
  • FIG. 1 is a configuration diagram of a driving support apparatus 1 according to Embodiment 1 of the present invention.
  • the driving support device 1 includes a brake state acquisition unit 10, a driving state grasping unit 11, a determination unit 12, an expression method selection unit 13, a display unit 14, a voice presentation unit 15, And a vibration unit 16.
  • the brake state acquisition unit 10 acquires information (herein referred to as brake state information) obtained by measuring a plurality of gear level setting positions and the degree of deterioration of the brake performance (herein referred to as brake state). Note that the state of the brake is always measured by an external device.
  • the brake state acquisition unit 10 always acquires the brake state as data (brake state information).
  • the acquired data is output to the determination unit 12 as brake state information.
  • the driving status grasping unit 11 receives the current time, the operation plan, the traveling route sign information, the route inspection / maintenance work schedule, the weather information (herein, the status information of the surrounding environment) from the external ground device. ) To get.
  • the driving situation grasping unit 11 acquires the current own vehicle position and information on the current operation speed data (herein, the current driving situation information) from an external on-board device.
  • the driving state grasping unit 11 may acquire the above information by another means. Also good.
  • the status information of the surrounding environment and the current driving status information acquired by the driving status grasping unit 11 are output to the determining unit 12.
  • the determination unit 12 includes the brake state information (a plurality of gear level setting positions and the degree of deterioration of the brake) output from the brake state acquisition unit 10, the state information of the surrounding environment acquired by the driving state grasping unit 11, and the current driving state. Based on at least one of information (current time, operation plan, travel route sign information, route inspection / maintenance work schedule, weather, current vehicle position, current operation speed data) Determine the best action to take. Specifically, the setting contents of a plurality of gear levels to be performed by the driver, the allowance time until setting, and the instruction content of the operation to be performed next to the driver are determined.
  • the expression method selection unit 13 selects an expression method of information to be provided to the driver according to the warning level determined based on the spare time until the operation to be performed by the driver. Then, the expression method selection unit 13 causes the voice presentation unit 15 to output the display instruction information for displaying the operation to be performed by the driver on the display unit 14 and the operation to be performed by the driver according to the selected expression method. Voice output instruction information and vibration instruction information for causing the vibration unit 16 to vibrate are output.
  • the display unit 14 displays visual information based on the display instruction information output from the expression method selection unit 13.
  • the display part 14 shall be provided with the driving assistance apparatus 1, it is good not only as this but with the outside of the driving assistance apparatus 1.
  • the display unit 14 indicates an information system that involves operations. For example, car navigation system, HUD (Head-Up Display), in-vehicle information equipment such as instrument panel, monitor control system display, train driver's seat display, airplane cockpit display, monitor installed in ship driver's seat Including.
  • the voice presentation unit 15 outputs voice information based on the voice output instruction information output from the expression method selection unit 13.
  • the voice presentation unit 15 is provided in the driving assistance device 1, but is not limited thereto, and may be provided outside the driving assistance device 1.
  • the vibration unit 16 vibrates the handle and the like based on the vibration instruction information output from the expression method selection unit 13.
  • the vibration part 16 shall be provided with the driving assistance apparatus 1, it is good not only as this but with the outside of the driving assistance apparatus 1.
  • FIG. 2 is a flowchart of the operation of the driving support apparatus 1 according to Embodiment 1 of the present invention.
  • FIG. 2 an example of information display operation related to a driving operation in the case of information presentation to a driver in train operation and in bad weather (for example, when the forward visibility is bad due to a heavy snowstorm) This will be described below.
  • the brake state acquisition unit 10 acquires brake state information (a plurality of gear level setting positions and a degree of deterioration in brake performance) (step ST001).
  • brake state information a plurality of gear level setting positions and a degree of deterioration in brake performance
  • the brake state acquisition unit 10 always performs the operation of step ST001, and the brake state information acquired by the brake state acquisition unit 10 is output to the determination unit 12.
  • the driving condition grasping unit 11 obtains information on the status of the surrounding environment from the external ground device (current time, operation plan, travel route sign information, route inspection / maintenance work schedule, weather information) and external on-vehicle device.
  • Current driving status information current vehicle position, current operation speed data information
  • the status information of the surrounding environment and the current driving status information acquired by the driving status grasping unit 11 are output to the determining unit 12.
  • the determination unit 12 operates based on the brake state information output by the brake state acquisition unit 10 in step ST001, and the surrounding environment status information and current driving status information acquired by the driving status grasping unit 11 in step ST002.
  • the action to be performed next by the hand is determined (step ST003). That is, the setting contents of a plurality of gear levels to be performed next by the driver, margin time until setting, and the instruction contents of the operation to be performed next to the driver are determined.
  • step ST003 will be described.
  • FIG. 3 is a diagram for explaining an example of input and output definitions when the determination unit 12 determines an action to be performed by the driver. Note that the definitions as shown in FIG. 3 are set in advance.
  • the definition as shown in FIG. 3 is merely an example, and the information of input and output may be increased or decreased, the criterion of the determination result may be changed, and can be set as appropriate. Further, here, as shown in FIG.
  • the brake state information acquired by the brake state acquisition unit 10 the status information of the surrounding environment acquired by the driving status grasping unit 11, and all the information of the current driving status information
  • the present invention is not limited to this, and the output is defined based on at least one of brake state information, surrounding environment status information, and current driving status information. I just need it.
  • the output gear level shown in FIG. 3 is used when notifying the driver of specific gear level as supplementary information when operating on a different route from the route that is always driving. Used for.
  • the expression method selection unit 13 acquires information on “stimulus that can be easily recognized by the driver” from an external device, and based on the acquired information, the driver determines whether the response speed of the information to the visual system is equal to or higher than the average. (Step ST004).
  • the determination of “stimulus that is easy for the driver to recognize” is performed by, for example, setting information indicating whether or not the driver is above the average for the stimulus of the visual system in advance and storing it in an external device.
  • the method selection unit 13 obtains the information from an external device.
  • step ST004 when the response speed of the information to the visual system is higher than the average (in the case of “YES” in step ST004), the expression method selection unit 13 classifies the stimulus with a high response speed capability of the driver. Is determined to be a “visual system” (step ST005), and an expression method for presenting an action to be performed by the driver is determined (step ST009).
  • the representation method selection unit 13 determines the warning level based on the information of “room time until operation” of the determination result determined by the determination unit 12 in step ST003, and the determined warning level and “visual The expression method is selected according to the “stimulus that the driver can easily recognize”.
  • FIG. 4 shows an expression method for presenting an action to be performed by the driver according to a classification of a stimulus having a high response speed capability of the driver and a warning level based on a margin time of the action to be performed by the driver. It is a figure explaining an example of the standard to choose.
  • the larger the warning level number the higher the warning level.
  • the warning level is 1, and the representation method selection unit 13 selects the representation method represented by “text (notification) + icon (small ⁇ transparency 40%)” according to FIG.
  • the expression method selection unit 13 outputs display instruction information for causing the display unit 14 to display an operation to be performed by the driver according to the selected expression method.
  • the expression method selection unit 13 has selected an expression method to be expressed by text (notification) according to FIG.
  • a (notification) text indicating the situation “500 meters ahead, with a sharp curve” and a small icon for alerting as shown in FIG. 4 are displayed with a darkness of 40% transparency.
  • size is just to set suitably about the kind of icon which calls attention, and the definition of a magnitude
  • the warning level is 1, and “text (notification) + icon (small ⁇ transparency 40%)” is expressed, but the higher the level, the greater the amount of stimulus presented and the oversight of display information To reduce the possibility of. For example, when the warning level 2 is increased, the transparency of the icon is changed from 80% to 0%.
  • the content of the text described here is an example.
  • the text of “instruction” does not include a reason (for example, the reason is expressed in bold and underline in the instruction shown in FIG.
  • the text may be shortened to make it easier for the driver to grasp the instruction content instantly.
  • just add “Danger” to the instruction content it is good also as a text which makes a driver
  • the expression method selection unit 13 creates and outputs the display instruction information by appropriately setting the display position of the text and icon, such as moving from the right side of the screen, the left side of the screen, and the right side of the screen to the left side. be able to.
  • the representation method selection unit 13 displays information in consideration of the currently displayed information or position information, size, color, image, character, timing, animation, and display position added to information to be displayed.
  • the display instruction information may be generated and output by appropriately changing the luminance, saturation, and brightness of the text and icon, or the display instruction information may be generated and output by changing the shape.
  • the display unit 14 receives an instruction (display instruction information) to display in the expression method selected by the expression method selection unit 13 in step ST009 from the expression method selection unit 13, and the instruction content determined by the determination unit 12 in step ST003 Are displayed in the expression method designated by the expression method selection unit 13 (step ST010).
  • the expression method selection unit 13 determines that the classification of the stimulus having a high response speed capability of the driver is “visual system”
  • the expression method selection unit 13 includes the voice presentation unit 15 and the vibration unit 16. Are output with “no voice” and “no vibration” instructions (voice output instruction information and vibration instruction information), respectively, and the voice presentation unit 15 and the vibration unit 16 do not present information.
  • step ST004 when the response speed of the information to the visual system is not equal to or higher than the average (in the case of “NO” in step ST004), the expression method selection unit 13 acquires the “driver's Based on the information of “easy to recognize”, the driver determines whether the response speed of the information to the auditory system is higher than the average (step ST006).
  • step ST006 when the response speed of the information to the auditory system is higher than the average (in the case of “YES” in step ST006), the expression method selection unit 13 classifies the stimulus with a high response speed capability of the driver. Is determined to be an “auditory system” (step ST007), and an expression method for presenting an action to be performed by the driver is determined (step ST0011). The specific operation is the same as when “visual system” is determined (step ST009), and the expression method selection unit 13 sets the “allowance time until operation” of the determination result determined by the determination unit 12 in step ST003. A warning level is determined based on the information, and an expression method is selected according to the determined warning level and a “stimulus that the driver can easily recognize”, which is “auditory system”.
  • step ST007 if it is determined in step ST007 that the classification of the stimulus having a high response speed capability of the driver is “auditory system”, it is determined in step ST003 that the margin time for the action to be performed by the driver is 10 seconds. Therefore, the warning level is 1, and the expression method selection unit 13 selects the expression method expressed as “text (notification) + speech (normal)” according to FIG.
  • step ST011 the expression method selection unit 13 outputs display instruction information for causing the display unit 14 to display an operation to be performed by the driver according to the selected expression method.
  • Voice output instruction information for causing the voice presentation unit 15 to output the voice is output to the voice presentation unit 15.
  • the warning level is 1, and “text (notification) + speech (normal)” is expressed.
  • the higher the level the greater the amount of stimulus presented and the possibility of overlooking display information. Try to reduce.
  • the warning level 3 is increased, the sound volume is increased and the speed is increased.
  • what is necessary is just to set beforehand about the definition of the speed of an audio
  • the expression method selection unit 13 creates and outputs display instruction information by appropriately setting the display position of the text, such as moving from the right side of the screen, the left side of the screen, and the right side of the screen to the left side. can do.
  • the representation method selection unit 13 displays information in consideration of the currently displayed information or position information, size, color, image, character, timing, animation, and display position added to information to be displayed.
  • Display instruction information may be generated and output by appropriately changing the luminance, saturation, and brightness of the text, or the display instruction information may be generated and output by changing the shape.
  • voice output instruction information be the content which outputs the text to display with an audio
  • the expression method selection unit 13 may appropriately set the voice color such as female voice or male voice.
  • the display unit 14 receives an instruction (display instruction information) to display in the expression method selected by the expression method selection unit 13 in step ST011 from the expression method selection unit 13, and the instruction content determined by the determination unit 12 in step ST003 Are displayed in the expression method designated by the expression method selection unit 13 (step ST012).
  • the voice presentation unit 15 receives an instruction (voice output instruction information) from the expression method selection unit 13 to output the sound in the expression method selected by the expression method selection unit 13 in step ST011, and the determination unit 12 in step ST003.
  • the instruction content determined by is output as a voice by the expression method specified by the expression method selection unit 13 (step ST013).
  • the expression method selection unit 13 determines that the classification of the stimulus having a high response speed capability of the driver is “auditory system”, the expression method selection unit 13 sends “no vibration” to the vibration unit 16. (Vibration instruction information) is output, and the vibration unit 16 does not present information.
  • step ST006 when the response speed of the information to the auditory system is not higher than the average (in the case of “NO” in step ST006), the expression method selection unit 13 classifies the stimulus having a high response speed capability of the driver. Is determined to be a “tactile system” (step ST008), and an expression method for presenting an action to be performed by the driver is determined (step ST0014).
  • the specific operation is the same as when the “visual system” is determined (step ST 009) and when the “auditory system” is determined (step ST 007), and the expression method selection unit 13 determines the determination unit in step ST 003.
  • the warning level is determined on the basis of the information of “allowance time until operation” of the determination result determined by 12, and the expression according to the determined warning level and “stimulus that is easily recognized by the driver” as “tactile system” Select a method.
  • step ST008 if it is determined in step ST008 that the classification of the stimulus having a high response speed capability of the driver is “auditory system”, it is determined in step ST003 that the margin time for the action to be performed by the driver is 10 seconds. Therefore, the warning level is 1, and the representation method selection unit 13 selects the representation method represented by “text (notification) + small vibration” according to FIG.
  • step ST011 the expression method selection unit 13 outputs display instruction information for causing the display unit 14 to display the operation to be performed by the driver according to the selected expression method, and vibrates the handle.
  • Vibration instruction information is output to the vibration unit 16.
  • the warning level is 1, and “text (notification) + small vibration” is expressed.
  • the higher the level is, the more the amount of stimulus is presented and the possibility of overlooking display information is reduced. Like that. For example, the higher the warning level, the greater the vibration.
  • the handle is assumed to vibrate.
  • the present invention is not limited to this, and what is vibrated can be set as appropriate. Further, the definition of the level of vibration magnitude may be set in advance.
  • the expression method selection unit 13 creates and outputs display instruction information by appropriately setting the display position of the text, such as moving from the right side of the screen, the left side of the screen, and the right side of the screen to the left side. can do.
  • the representation method selection unit 13 displays information in consideration of the currently displayed information or position information, size, color, image, character, timing, animation, and display position added to information to be displayed. Display instruction information may be generated and output by appropriately changing the luminance, saturation, and brightness of the text, or the display instruction information may be generated and output by changing the shape.
  • the display unit 14 receives an instruction (display instruction information) to display in the expression method selected by the expression method selection unit 13 in step ST014 from the expression method selection unit 13, and the instruction content determined by the determination unit 12 in step ST003 Are displayed by the expression method instructed by the expression method selection unit 13 (step ST015).
  • the vibration unit 16 receives an instruction (vibration instruction information) from the expression method selection unit 13 to vibrate at the vibration level selected by the expression method selection unit 13 in step ST014, and is instructed to the expression method selection unit 13. Vibrate at the vibration level (step ST016).
  • the handle may be vibrated.
  • the expression method selection unit 13 determines that the classification of the stimulus having a high response speed capability of the driver is “tactile system”, the expression method selection unit 13 notifies the voice presentation unit 15 that “no sound” ”(Voice output instruction information) is output, and the voice presentation unit 15 does not present information.
  • the expression method selection unit 13 determines the warning level based on the spare time for the action to be performed by the driver.
  • the determination unit 12 is not limited to this, for example, the degree of risk.
  • the difficulty level of the operation may be determined, and the expression method selection unit 13 may determine the warning level based on the index of the risk level or the difficulty level of the operation, or may be another index.
  • the determination of the stimulus that is easily recognized by the driver by the expression method selection unit 13 is performed by three types of “visual system”, “auditory system”, and “tactile system”.
  • the expression method selection unit 13 determines and determines the warning level based on the information of “room time until operation” of the determination result determined by the determination unit 12.
  • the expression method is selected according to the warning level and the “stimulus that can be easily recognized by the driver”.
  • the present invention is not limited to this, and the expression method selection unit 13 uses only the warning level determined by the determination unit 12.
  • the expression method may be selected according to the warning level. That is, any one or more of “display”, “sound output”, and “vibration” arbitrarily determined by the expression method selected according to the warning level, regardless of “stimulus that can be easily recognized by the driver”. Thus, information can be presented.
  • the determination unit 12 determines the next action to be performed by the driver according to the definition of input and output as shown in FIG. 3.
  • the information input to 12 may be increased or decreased, or the information output by the determination unit 12 may be increased or decreased.
  • the operation to be performed by the driver that is, the content of the operation, the reason thereof, the margin time until the operation is determined, and the warning level is determined based on these results. Because information is presented in an expression method that takes into account warning levels and stimuli that are easily recognized by the driver, the presentation information is presented to the driver in an expression method according to the warning level.
  • the recognition delay can be reduced, and the recognition rate of presentation information, the recognition speed can be improved, or the ease of obtaining the presentation information can be improved.
  • the driving support device 1 is configured as shown in FIG. 1, but the driving support device 1 is not limited to this, and the driving support device 1 includes a brake state acquisition unit 10, a driving condition grasping unit 11, and the like. As long as the determination unit 12 and the expression method selection unit 13 are provided.
  • any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.
  • each part used for control of the driving assistance apparatus 1 in Embodiment 1 is performed by the program process using CPU based on software.
  • the driving support device presents the presentation information to the driver by an expression method according to the warning level, reduces oversight of the presentation information, and improves the recognition rate of the presentation information, the recognition speed, or the presentation information. Since it is configured to improve the ease of acquisition of the vehicle, it is suitable for use in a driving support device that presents necessary information to the driver.
  • 1 driving support device 10 brake state acquisition unit, 11 driving status grasping unit, 12 determination unit, 13 expression method selection unit, 14 display unit, 15 voice presentation unit, 16 vibration unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Sustainable Energy (AREA)
  • Power Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

 ブレーキ状態情報を取得するブレーキ状態取得部と、周辺環境の状況情報と現在の運転状況情報とを取得する運転状況把握部と、ブレーキ状態情報と、周辺環境の状況情報と、現在の運転状況情報のうち少なくともいずれか1つに基づき、運転者が行うべき動作と動作までの余裕時間とを判定する判定部と、動作までの余裕時間に基づき判断した警告レベルに応じて、運転者へ提供する情報の表現方法を選択する表現方法選択部とを備えた。

Description

運転支援装置
 この発明は、運転者に必要な情報を提示する運転支援装置に関するものである。
 従来の運転支援装置においては、例えば、特許文献1に開示されているように、ブレーキ曲線と、自列車位置速度の位置関係を表示し、更に勾配やトンネルといった線路条件も合成して表示することで、運転者に対しブレーキ開始点前で緩やかに減速させるといった運転を可能にさせるようにしている。更に、定時運転を実現する運転曲線や、定時運転に必要な最高速度、現在速度で到達する到達時刻を示すことで、早着や遅れの予測が容易となり、加速や減速によって走行を調整させることで、運転者の定時性確保を容易にしている。
特開2005-231447号公報
 しかしながら、特許文献1に開示されているような従来技術では、運転者が必要とするタイミングで表示情報を提供することはできても、運転者の表示情報に対する認知のしやすさは考慮されておらず、提示された情報の見落としについては考慮されていないという課題があった。
 この発明は上記のような課題を解決するためになされたもので、警告レベルに応じた表現方法で提示情報を運転者に提示し、提示情報の見落としをより少なくして、提示情報の認知率、認識速度の向上、あるいは提示情報の取得のしやすさ向上を実現する運転支援装置を提供することを目的とする。
 この発明に係る運転支援装置は、ブレーキ状態情報を取得するブレーキ状態取得部と、周辺環境の状況情報と現在の運転状況情報とを取得する運転状況把握部と、ブレーキ状態情報と、周辺環境の状況情報と、現在の運転状況情報のうち少なくともいずれか1つに基づき、運転者が行うべき動作と動作までの余裕時間とを判定する判定部と、動作までの余裕時間に基づき判断した警告レベルに応じて、運転者へ提供する情報の表現方法を選択する表現方法選択部とを備えたものである。
 この発明によれば、警告レベルに応じた表現方法で提示情報を運転者に提示し、提示情報の見落としをより少なくして、提示情報の認知率、認識速度の向上、あるいは提示情報の取得のしやすさ向上を実現する運転支援装置を提供することができる。
この発明の実施の形態1に係る運転支援装置の構成図である。 この発明の実施の形態1に係る運転支援装置の動作のフローチャートである。 判定部において、運転者が行うべきアクションを判定する際のインプットとアウトプットの定義の一例を説明する図である。 運転者の反応速度能力が高い刺激の分類と、運転者が行うべきアクションの余裕時間に基づく警告レベルとに応じて、運転者が行うべきアクションを提示する表現方法を選択する基準の一例を説明する図である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る運転支援装置1の構成図である。
 図1に示すように、運転支援装置1は、ブレーキ状態取得部10と、運転状況把握部11と、判定部12と、表現方法選択部13と、表示部14と、音声提示部15と、振動部16とを備える。
 ブレーキ状態取得部10は、複数あるギアレベルの設定位置とブレーキ性能の劣化度合いと(ここではブレーキの状態という)を計測した情報(ここではブレーキ状態情報という)を取得する。なお、ブレーキの状態は、外部装置が常に計測しているものとする。ブレーキ状態取得部10は、ブレーキの状態をデータ(ブレーキ状態情報)として常に取得している。取得したデータは、ブレーキ状態情報として判定部12に出力される。
 運転状況把握部11は、外部の地上装置から、現在時刻と、運行計画と、走行路線の標識情報と、路線の点検・保守作業スケジュールと、天候の情報と(ここでは周辺環境の状況情報という)を取得する。また、運転状況把握部11は、外部の車上装置から、現在の自車位置と、現在の運行速度データの情報とを(ここでは現在の運転状況情報とする)取得する。なお、ここでは、外部の地上装置および車上装置から上述した情報を取得することとしているが、これに限らず、運転状況把握部11は、別の手段によって上述した情報を取得するようにしてもよい。運転状況把握部11が取得した周辺環境の状況情報と現在の運転状況情報とは、判定部12に出力される。
 判定部12は、ブレーキ状態取得部10が出力したブレーキ状態情報(複数あるギアレベルの設定位置とブレーキの劣化度合い)と、運転状況把握部11が取得した周辺環境の状況情報と現在の運転状況情報(現在時刻、運行計画、走行経路の標識情報、路線の点検・保守作業スケジュール、天候、現在の自車位置、現在の運行速度データ)のうち少なくともいずれか1つに基づき、運転者が行うべき最適なアクションを判定する。具体的には、運転者が行うべき複数あるギアレベルの設定位置、設定するまでの余裕時間、理由を含む運転者への次に行うべき動作の指示内容を判定する。
 表現方法選択部13は、運転者が行うべき動作までの余裕時間に基づき判断した警告レベルに応じて、運転者へ提供する情報の表現方法を選択する。そして、表現方法選択部13は、選択した表現方法に従い、運転者が行うべき動作を表示部14に表示させるための表示指示情報、運転者が行うべき動作を音声提示部15に音声出力させるための音声出力指示情報、振動部16に振動を起こさせるための振動指示情報を出力する。
 表示部14は、表現方法選択部13から出力された表示指示情報に基づき、視覚情報を表示する。なお、この実施の形態1においては、表示部14は、運転支援装置1が備えるものとしているが、これに限らず、運転支援装置1の外部に備えるものとしてもよい。
 また、表示部14は、操作を伴う情報システムのことを示す。例えば、カーナビゲーションシステム、HUD(Head-Up Display)、インパネなどの車載情報機器、監視制御システムのディスプレイ、電車の運転席のディスプレイ、飛行機のコックピットのディスプレイ、船の運転席に設置されているモニターなども含む。
 音声提示部15は、表現方法選択部13から出力された音声出力指示情報に基づき、音声情報を出力する。なお、この実施の形態1においては、音声提示部15は、運転支援装置1が備えるものとしているが、これに限らず、運転支援装置1の外部に備えるものとしてもよい。
 振動部16は、表現方法選択部13から出力された振動指示情報に基づき、ハンドルなどを振動させる。なお、この実施の形態1においては、振動部16は、運転支援装置1が備えるものとしているが、これに限らず、運転支援装置1の外部に備えるものとしてもよい。
 次に、動作について説明する。
 図2は、この発明の実施の形態1に係る運転支援装置1の動作のフローチャートである。
 なお、ここでは、図2に沿って、列車運行における運転者への情報提示の場合であって、悪天候時(例えば、猛吹雪で前方視界が悪い時)の運転操作に関する情報表示の動作を例に、以下説明する。
 ブレーキ状態取得部10は、ブレーキ状態情報(複数あるギアレベルの設定位置とブレーキ性能の劣化度合い)を取得する(ステップST001)。ここでは、ブレーキ状態取得部10は、現在のギアレベル=6、ブレーキの劣化度合い=20%劣化という情報を計測したものとする。なお、ブレーキ状態取得部10は、このステップST001の動作を常に行っており、ブレーキ状態取得部10が取得したブレーキ状態情報は判定部12に出力される。
 運転状況把握部11は、外部の地上装置から周辺環境の状況情報(現在時刻、運行計画、走行路線の標識情報、路線の点検・保守作業スケジュール、天候の情報)と、外部の車上装置から現在の運転状況情報(現在の自車位置、現在の運行速度データの情報)とを取得する(ステップST002)。ここでは、運転状況把握部11は、現在時刻=14:58:00、運行計画=15:00:00(次駅到着時刻)、走行路線の標識情報=次駅手前1.0km R=400(急カーブ有り)、天候=吹雪、路線の点検・保守作業スケジュール=無し、自車位置=次駅まで1.5km、運行速度=90km/hという情報を取得したものとする。
 運転状況把握部11が取得した周辺環境の状況情報と現在の運転状況情報とは、判定部12に出力される。
 判定部12は、ステップST001にてブレーキ状態取得部10が出力したブレーキ状態情報と、ステップST002にて運転状況把握部11が取得した周辺環境の状況情報および現在の運転状況情報とに基づき、運転手が次に行うべきアクションを判定する(ステップST003)。すなわち、運転手が次に行うべき複数あるギアレベルの設定位置、設定するまでの余裕時間、理由を含む運転者への次に行うべき動作の指示内容を判定する。
 ここで、ステップST003の具体的な動作について説明する。
 図3は、判定部12において、運転者が行うべきアクションを判定する際のインプットとアウトプットの定義の一例を説明する図である。
 なお、図3に示すような定義は、予め設定されているものとする。
 ここでは、判定部12は、ブレーキ状態取得部10から、現在のギアレベル=6、ブレーキの劣化度合い=20%劣化というブレーキ状態情報を取得し、運転状況把握部11から、現在時刻=14:58:00、運行計画=15:00:00(次駅到着時刻)、走行路線の標識情報=次駅手前1.0km R=400(急カーブ有り)、天候=吹雪、路線の点検・保守作業スケジュール=無し、自車位置=次駅まで1.5km、運行速度=90km/hという情報(周辺環境の状況情報および現在の運転状況情報)を取得したものとしているので、図3に示す定義に従い(図3において、該当のケースを色付けして示している)、判定部12は、判定結果として、ギアレベル=4、余裕時間=10秒、指示=「500m先、急カーブ有り。悪天候かつブレーキがやや劣化しているため、10秒後までにノッチを2段階落として下さい。」という情報をアウトプットする。
 なお、図3に示すような定義は一例にすぎず、インプット、アウトプットの情報は増減させてもよいし、判定結果の基準を変更してもよく、適宜設定可能である。
 また、ここでは、図3に示すように、ブレーキ状態取得部10が取得するブレーキ状態情報と、運転状況把握部11が取得する周辺環境の状況情報と、現在の運転状況情報の全ての情報に基づき、アウトプットを定義するものとしたが、これに限らず、ブレーキ状態情報と、周辺環境の状況情報と、現在の運転状況情報のうちの少なくとも1つに基づき、アウトプットを定義するものであればよい。
 なお、図3に示すアウトプットのギアレベルについては、いつも運転している路線から別路線の運行をするような場合に、具体的なギアのレベルを補助情報として、運転士に通知する場合などに使用される。
 図2のフローチャートに戻る。
 表現方法選択部13は、外部装置から「運転者の認識しやすい刺激」の情報を取得し、取得した情報に基づき、運転者が視覚系に対する情報の反応速度が、平均以上かどうかを判定する(ステップST004)。なお、「運転者の認識しやすい刺激」の判定は、例えば運転者が視覚系の刺激に対して、平均以上であるかどうかを示す情報を予め設定して外部装置に記憶しておき、表現方法選択部13が、当該情報を外部装置から取得することで行う。また、例えば、運転者が聴覚系の刺激に対して、平均以上であるかどうかを示す情報を予め設定して外部装置に記憶しておき、表現方法選択部13が、当該情報を外部装置から取得することで行う。
 ステップST004において、運転者が視覚系に対する情報の反応速度が平均以上であった場合(ステップST004の“YES”の場合)、表現方法選択部13は、運転者の反応速度能力が高い刺激の分類は「視覚系」であると判断し(ステップST005)、運転者が行うべきアクションを提示する表現方法を決定する(ステップST009)。具体的には、表現方法選択部13は、ステップST003において判定部12が判定した判定結果の「操作までの余裕時間」の情報に基づいて警告レベルを判定し、判定した警告レベルと、「視覚系」という「運転者の認識しやすい刺激」とに応じた表現方法を選択する。
 ここで、図4は、運転者の反応速度能力が高い刺激の分類と、運転者が行うべきアクションの余裕時間に基づく警告レベルとに応じて、運転者が行うべきアクションを提示する表現方法を選択する基準の一例を説明する図である。
 図4において、警告レベルの数字が大きいほど警告レベルが高いことを示す。
 今、ステップST005において、運転者の反応速度能力が高い刺激の分類は「視覚系」であると判断されたとすると、ステップST003において、運転者が行うべきアクションの余裕時間は10秒であると判断されているので、警告レベルは1となり、表現方法選択部13は、図4に従い、「テキスト(通知)+アイコン(小さい×透明度40%)」で表現する表現方法を選択する。
 そして、表現方法選択部13は、このステップST009において、選択した表現方法に従い、運転者が行うべき動作を表示部14に表示させるための表示指示情報を表示部14に出力する。
 ここで、テキストとアイコンについて、具体的に説明する。今、表現方法選択部13は、図4に従い、テキスト(通知)で表現する表現方法を選択した。この場合、例えば、「500m先、急カーブあり」という、状況を伝える(通知)テキストと、図4に示すような、注意を促す小さいアイコンを透明度40%の濃さで表示する。
 なお、注意を促すアイコンの種類、および、大きさの定義については適宜設定すればよい。
 また、ここでは、警告レベルが1であって、「テキスト(通知)+アイコン(小さい×透明度40%)」で表現することとしているが、レベルが高いほど提示刺激量を増やし、表示情報の見落としの可能性を軽減するようにする。例えば、警告レベル2へと高くなると、アイコンの透明度が80%→0%となる。
 また、テキストの内容について、ここでは、状況を伝える「通知」のテキストを出力するものであったが、「指示」のテキストであった場合は、例えば、「悪天候かつブレーキがやや劣化しているため、10秒後までにノッチを2段階落としてください。」といった、理由を含む具体的な動作を伝えるテキストを出力する。また、「警告」のテキストであった場合は、例えば、「危険、10秒後までにノッチを2段階落とさなければ速度オーバーで脱線する恐れがあります」といった、指示を守らないと発生する影響を伝えるテキストを出力する。指示を守らないと発生する影響については、速度、ブレーキの度合いなどから予め定義しておくようにすればよい。
 なお、ここで述べたテキストの内容は一例であり、例えば、「指示」のテキストについて、理由を含まないものとして(なお、理由とは、例えば、図3に示す指示において太字かつ下線で表現したような内容をいう)、テキストを短くし、より運転者が指示内容を瞬時に把握しやすいようにしてもよいし、「警告」のテキストについて、指示内容に「危険」とだけ付けて、「危険」の文字から運転者に緊急であることをより認識させるようなテキストとしてもよく、適宜設定可能である。
 また、表現方法選択部13は、テキストやアイコンの表示位置についても、画面右側、画面左側、画面の右側から左側に移動させる、など、適宜設定して表示指示情報を作成し出力するようにすることができる。
 また、表現方法選択部13は、現在表示されている情報、あるいはこれから表示する情報に付加されている位置情報、大きさ、色、画像、文字、タイミング、アニメーション、表示位置を考慮し、表示させるテキストやアイコンの輝度・彩度・明度を適宜変更して表示指示情報を作成し出力するようにしてもよいし、形を変形させて表示指示情報を作成し出力するようにしてもよい。このようにすることで、情報過多による煩わしさを軽減することができ、表示情報の取得のしやすさを向上させることができる。
 表示部14は、表現方法選択部13から、ステップST009において表現方法選択部13が選択した表現方法で表示する旨の指示(表示指示情報)を受け、ステップST003において判定部12が判断した指示内容を、表現方法選択部13に指示された表現方法で表示する(ステップST010)。
 なお、表現方法選択部13において、運転者の反応速度能力が高い刺激の分類は「視覚系」であると判断された場合、表現方法選択部13は、音声提示部15、および、振動部16へは、それぞれ「音声無し」、「振動無し」という指示(音声出力指示情報、振動指示情報)を出力し、音声提示部15、振動部16では情報提示を行わない。
 一方、ステップST004において、運転者が視覚系に対する情報の反応速度が平均以上ではなかった場合(ステップST004の“NO”の場合)、表現方法選択部13は、外部装置から取得した「運転者の認識しやすい刺激」の情報に基づき、運転者が聴覚系に対する情報の反応速度が、平均以上かどうかを判定する(ステップST006)。
 ステップST006において、運転者が聴覚系に対する情報の反応速度が平均以上であった場合(ステップST006の“YES”の場合)、表現方法選択部13は、運転者の反応速度能力が高い刺激の分類は「聴覚系」であると判断し(ステップST007)、運転者が行うべきアクションを提示する表現方法を決定する(ステップST0011)。具体的な動作は、「視覚系」と判断した場合(ステップST009)と同様であり、表現方法選択部13は、ステップST003において判定部12が判定した判定結果の「操作までの余裕時間」の情報に基づいて警告レベルを判定し、判定した警告レベルと、「聴覚系」という「運転者の認識しやすい刺激」とに応じた表現方法を選択する。
 すなわち、ステップST007において、運転者の反応速度能力が高い刺激の分類は「聴覚系」であると判断されたとすると、ステップST003において、運転者が行うべきアクションの余裕時間は10秒であると判断されているので、警告レベルは1となり、表現方法選択部13は、図4に従い、「テキスト(通知)+音声(通常)」で表現する表現方法を選択する。
 そして、表現方法選択部13は、このステップST011において、選択した表現方法に従い、運転者が行うべき動作を表示部14に表示させるための表示指示情報を表示部14に出力し、音声提示部15に音声出力させるための音声出力指示情報を音声提示部15に出力する。
 なお、ここでは、警告レベルが1であって、「テキスト(通知)+音声(通常)」で表現することとしているが、レベルが高いほど提示刺激量を増やし、表示情報の見落としの可能性を軽減するようにする。例えば、警告レベル3へと高くなると、音声の音量が大きく、スピードも速くなる。
 なお、音声の速さ、音量の大きさのレベルの定義については、予め設定しておくようにすればよい。
 また、このときも、表現方法選択部13は、テキストの表示位置について、画面右側、画面左側、画面の右側から左側に移動させる、など、適宜設定して表示指示情報を作成し出力するようにすることができる。
 また、表現方法選択部13は、現在表示されている情報、あるいはこれから表示する情報に付加されている位置情報、大きさ、色、画像、文字、タイミング、アニメーション、表示位置を考慮し、表示させるテキストの輝度・彩度・明度を適宜変更して表示指示情報を作成し出力するようにしてもよいし、形を変形させて表示指示情報を作成し出力するようにしてもよい。
 また、音声出力指示情報は、表示するテキストを音声で出力する内容とすればよい。この時、表現方法選択部13は、音声の声色を女性の声、男性の声など、適宜設定するようにしてもよい。
 表示部14は、表現方法選択部13から、ステップST011において表現方法選択部13が選択した表現方法で表示する旨の指示(表示指示情報)を受け、ステップST003において判定部12が判断した指示内容を、表現方法選択部13に指示された表現方法で表示する(ステップST012)。
 また、音声提示部15は、表現方法選択部13から、ステップST011において表現方法選択部13が選択した表現方法で音声出力する旨の指示(音声出力指示情報)を受け、ステップST003において判定部12が判断した指示内容を、表現方法選択部13に指示された表現方法で音声出力する(ステップST013)。
 なお、表現方法選択部13において、運転者の反応速度能力が高い刺激の分類は「聴覚系」であると判断された場合、表現方法選択部13は、振動部16へは、「振動無し」という指示(振動指示情報)を出力し、振動部16では情報提示を行わない。
 ステップST006において、運転者が聴覚系に対する情報の反応速度が平均以上ではなかった場合(ステップST006の“NO”の場合)、表現方法選択部13は、運転者の反応速度能力が高い刺激の分類は「触覚系」であると判断し(ステップST008)、運転者が行うべきアクションを提示する表現方法を決定する(ステップST0014)。具体的な動作は、「視覚系」と判断した場合(ステップST009)、および、「聴覚系」と判断した場合(ステップST007)と同様であり、表現方法選択部13は、ステップST003において判定部12が判定した判定結果の「操作までの余裕時間」の情報に基づいて警告レベルを判定し、判定した警告レベルと、「触覚系」という「運転者の認識しやすい刺激」とに応じた表現方法を選択する。
 すなわち、ステップST008において、運転者の反応速度能力が高い刺激の分類は「聴覚系」であると判断されたとすると、ステップST003において、運転者が行うべきアクションの余裕時間は10秒であると判断されているので、警告レベルは1となり、表現方法選択部13は、図4に従い、「テキスト(通知)+振動小」で表現する表現方法を選択する。
 そして、表現方法選択部13は、このステップST011において、選択した表現方法に従い、運転者が行うべき動作を表示部14に表示させるための表示指示情報を表示部14に出力し、ハンドルを振動させるための振動指示情報を振動部16に出力する。
 なお、ここでは、警告レベルが1であって、「テキスト(通知)+振動小」で表現することとしているが、レベルが高いほど提示刺激量を増やし、表示情報の見落としの可能性を軽減するようにする。例えば、警告レベルが高くなるほど、振動も大きくなる。
 また、ここでは、ハンドルを振動させるものとするが、これに限らず、振動させるものは適宜設定可能である。また、振動の大きさのレベルの定義については、予め設定しておくようにすればよい。
 また、このときも、表現方法選択部13は、テキストの表示位置について、画面右側、画面左側、画面の右側から左側に移動させる、など、適宜設定して表示指示情報を作成し出力するようにすることができる。
 また、表現方法選択部13は、現在表示されている情報、あるいはこれから表示する情報に付加されている位置情報、大きさ、色、画像、文字、タイミング、アニメーション、表示位置を考慮し、表示させるテキストの輝度・彩度・明度を適宜変更して表示指示情報を作成し出力するようにしてもよいし、形を変形させて表示指示情報を作成し出力するようにしてもよい。
 表示部14は、表現方法選択部13から、ステップST014において表現方法選択部13が選択した表現方法で表示する旨の指示(表示指示情報)を受け、ステップST003において判定部12が判断した指示内容を、表現方法選択部13に指示された表現方法で表示する(ステップST015)。
 また、振動部16は、表現方法選択部13から、ステップST014において表現方法選択部13が選択した振動のレベルで振動させる旨の指示(振動指示情報)を受け、表現方法選択部13に指示された振動レベルで振動させる(ステップST016)。例えば、ハンドルを振動させるなどとすればよい。
 なお、表現方法選択部13において、運転者の反応速度能力が高い刺激の分類は「触覚系」であると判断された場合、表現方法選択部13は、音声提示部15へは、「音声無し」という指示(音声出力指示情報)を出力し、音声提示部15では情報提示を行わない。
 なお、この実施の形態1では、表現方法選択部13は、警告レベルを、運転者が行うべきアクションの余裕時間で判定していたが、これに限らず、判定部12は、例えば、危険度や操作の難易度を判定するようにし、表現方法選択部13は、危険度や操作の難易度の指標によって警告レベルを判定するようにしてもよいし、その他の指標としてもよい。
 また、この実施の形態1では、表現方法選択部13による運転者の認識しやすい刺激の判定は、「視覚系」、「聴覚系」、「触覚系」の3種類で判定するようにしたが、これに限らず、1つの種類だけで判定するようにしてもよいし、各種類の判定の順序を変更するようにしてもよい。
 また、この実施の形態1では、上記のように、表現方法選択部13は、判定部12が判定した判定結果の「操作までの余裕時間」の情報に基づいて警告レベルを判定し、判定した警告レベルと、「運転者の認識しやすい刺激」とに応じた表現方法を選択するものとしたが、これに限らず、表現方法選択部13は、判定部12が判定した警告レベルのみを用い、警告レベルに応じて表現方法を選択するものとしてもよい。すなわち、「運転者の認識しやすい刺激」に関わらず、警告レベルに応じて選択された表現方法で、任意に決定された「表示」、「音声出力」、「振動」のいずれか1つ以上により、情報提示を行うようにすることもできる。
 また、この実施の形態1では、判定部12は、図3に示すようなインプットとアウトプットの定義に従って運転手が次に行うべきアクションを判定するようにしたが、これに限らず、判定部12へインプットする情報を増減させたり、判定部12がアウトプットする情報を増減させるようにしてもよい。
 以上のように、この実施の形態1によれば、運転者が行うべき動作、すなわち、操作の内容とその理由、操作までの余裕時間を判定し、これらの結果に基づき、警告レベルを判定し、警告レベルと運転者の認識しやすい刺激とを考慮した表現方法で情報を提示するので、警告レベルに応じた表現方法で提示情報を運転者に提示し、提示情報の見落としや、提示情報の認識遅れを軽減し、提示情報の認知率、認識速度の向上、あるいは提示情報の取得のしやすさを向上することができる。
 なお、この実施の形態1において、運転支援装置1は、図1に示すような構成としたが、これに限らず、運転支援装置1は、ブレーキ状態取得部10と、運転状況把握部11と、判定部12と、表現方法選択部13とを備えるものであればよい。
 なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 また、実施の形態1における運転支援装置1の制御に用いられる各部は、ソフトウェアに基づくCPUを用いたプログラム処理によって実行される。
 この発明に係る運転支援装置は、警告レベルに応じた表現方法で提示情報を運転者に提示し、提示情報の見落としをより少なくして、提示情報の認知率、認識速度の向上、あるいは提示情報の取得のしやすさ向上を実現するように構成したので、運転者に必要な情報を提示する運転支援装置等に用いるのに適している。
 1 運転支援装置、10 ブレーキ状態取得部、11 運転状況把握部、12 判定部、13 表現方法選択部、14 表示部、15 音声提示部、16 振動部。

Claims (4)

  1.  ブレーキ状態情報を取得するブレーキ状態取得部と、
     周辺環境の状況情報と現在の運転状況情報とを取得する運転状況把握部と、
     前記ブレーキ状態情報と、前記周辺環境の状況情報と、前記現在の運転状況情報のうち少なくともいずれか1つに基づき、運転者が行うべき動作と前記動作までの余裕時間とを判定する判定部と、
     前記動作までの余裕時間に基づき判断した警告レベルに応じて、前記運転者へ提供する情報の表現方法を選択する表現方法選択部
     とを備えた運転支援装置。
  2.  前記表現方法選択部は、
     前記運転者の情報に対する反応速度の情報に基づき判断した前記運転者の認識しやすい刺激と、前記警告レベルとに応じて、前記運転者へ提供する情報の表現方法を選択する
     ことを特徴とする請求項1記載の運転支援装置。
  3.  前記表現方法選択部は、
     前記選択した表現方法に従い、前記運転者が行うべき動作を表示させるための表示指示情報、前記運転者が行うべき動作を音声出力させるための音声出力指示情報、または、振動を起こさせるための振動指示情報のうちの1つ以上を出力する
     ことを特徴とする請求項1記載の運転支援装置。
  4.  前記表現方法選択部は、
     前記表示指示情報を、カーナビゲーションシステム、車載情報機器、または、監視制御システムのディスプレイ、電車の運転席のディスプレイ、飛行機のコックピットのディスプレイ、船の運転席に設置されているモニターのいずれかを含む表示部に出力する
     ことを特徴とする請求項3記載の運転支援装置。
PCT/JP2014/079946 2014-05-16 2014-11-12 運転支援装置 WO2015173982A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-102559 2014-05-16
JP2014102559A JP2017121814A (ja) 2014-05-16 2014-05-16 運転支援装置

Publications (1)

Publication Number Publication Date
WO2015173982A1 true WO2015173982A1 (ja) 2015-11-19

Family

ID=54479544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079946 WO2015173982A1 (ja) 2014-05-16 2014-11-12 運転支援装置

Country Status (2)

Country Link
JP (1) JP2017121814A (ja)
WO (1) WO2015173982A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127241A1 (ja) * 2021-12-27 2023-07-06 株式会社日立製作所 列車制御システム、車上制御装置、及び列車制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143191A (ja) * 1999-11-12 2001-05-25 Yazaki Corp 車両用情報処理方法、及びその装置、並びに車両
JP2010079844A (ja) * 2008-09-29 2010-04-08 Mazda Motor Corp 車両用運転支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143191A (ja) * 1999-11-12 2001-05-25 Yazaki Corp 車両用情報処理方法、及びその装置、並びに車両
JP2010079844A (ja) * 2008-09-29 2010-04-08 Mazda Motor Corp 車両用運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127241A1 (ja) * 2021-12-27 2023-07-06 株式会社日立製作所 列車制御システム、車上制御装置、及び列車制御方法

Also Published As

Publication number Publication date
JP2017121814A (ja) 2017-07-13

Similar Documents

Publication Publication Date Title
US10789490B2 (en) Method for calculating a display of additional information for an advertisement, a display unit, apparatus for carrying out the method, and transportation vehicle and computer program
US11325471B2 (en) Method for displaying the course of a safety zone in front of a transportation vehicle or an object by a display unit, device for carrying out the method, and transportation vehicle and computer program
US20160109701A1 (en) Systems and methods for adjusting features within a head-up display
US20200215917A1 (en) Method for operating a driver assistance system of a transportation vehicle and transportation vehicle
US10272783B2 (en) Driver and vehicle responsibility matrix
JP2017045448A (ja) 誤った走行方向で走行中の車両について警告する方法及びシステム
JP6281376B2 (ja) 情報表示システム
CN108202601A (zh) 一种车内多屏交互方法及交互系统
JP2017016457A (ja) 表示制御装置、投影装置、表示制御プログラム、および記録媒体
JP6052865B2 (ja) 車載表示制御装置および車載表示制御方法
US9600942B2 (en) Method and system for notifying alarm state of vehicle
JP5866498B2 (ja) 表示制御装置、投影装置、表示制御プログラム、および記録媒体
EP2957448B1 (en) Display control apparatus, display control method, display control program, and display apparatus
WO2017022150A1 (ja) 自動運転支援装置、自動運転支援方法及び自動運転支援プログラム
WO2015173982A1 (ja) 運転支援装置
CN111216626B (zh) 驾驶辅助装置及方法、保存有程序的非瞬时性记录介质
JP6093338B2 (ja) 標識情報表示システム及び標識情報表示方法
JP6124745B2 (ja) 車載システム
WO2013069141A1 (ja) ヘッドアップディスプレイ、表示方法、及び案内装置
JP6384794B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム、および投影装置
US20200156657A1 (en) Information Control Apparatus
US11768650B2 (en) Display control device, display system, and display control method for controlling display of information
JP2013154712A (ja) 表示制御装置
WO2013069140A1 (ja) ヘッドアップディスプレイ、表示方法、及び道路情報表示装置
US20230019934A1 (en) Presentation control apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14891755

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14891755

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP