JP2021135694A - 処理装置、処理方法、報知システム及びプログラム - Google Patents
処理装置、処理方法、報知システム及びプログラム Download PDFInfo
- Publication number
- JP2021135694A JP2021135694A JP2020030842A JP2020030842A JP2021135694A JP 2021135694 A JP2021135694 A JP 2021135694A JP 2020030842 A JP2020030842 A JP 2020030842A JP 2020030842 A JP2020030842 A JP 2020030842A JP 2021135694 A JP2021135694 A JP 2021135694A
- Authority
- JP
- Japan
- Prior art keywords
- person
- vehicle
- unit
- driver
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims abstract description 38
- 230000001133 acceleration Effects 0.000 description 37
- 238000000034 method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 11
- 238000010191 image analysis Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/0755—Position control; Position detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/20—Means for actuating or controlling masts, platforms, or forks
- B66F9/24—Electrical devices or systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F17/00—Safety devices, e.g. for limiting or indicating lifting force
- B66F17/003—Safety devices, e.g. for limiting or indicating lifting force for fork-lift trucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Structural Engineering (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Geology (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Civil Engineering (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Traffic Control Systems (AREA)
- Forklifts And Lifting Vehicles (AREA)
Abstract
Description
特許文献1には、関連する技術として、フォークリフトの後進時に運転者に注意を喚起する技術が記載されている。
そのため、車両の運転者の状態に応じた態様で、車両の周囲の対象物の存在を報知することのできる技術が求められている。
以下、本開示の第1実施形態による報知システム100について説明する。
(報知システムの構成)
報知システム100は、産業車両1(車両の一例)、上位装置2を備える。
産業車両1は、運転者が対象物に気づいているか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らす車両である。
産業車両1は、図1に示すように、操作装置10、車内カメラ15、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20d、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30d、処理装置40を備える。なお、処理装置40は、図示していないセンサや操作装置10の状態から産業車両1の現在速度、加速度、操舵角の情報を取得する。
なお、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dを総称して撮影装置20と呼ぶ。また、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを総称して出力装置30と呼ぶ。
図2は、産業車両1を真上から俯瞰した場合の概略図である。撮影装置20は、複数のカメラが各々産業車両1の外周方向を撮影するように設けられており、産業車両1の全周囲を撮影する。
例えば、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dは、図1に示すように、それぞれ産業車両1の上部前方、上部右側、上部後方、上部左側に設けられる。そして、例えば、第1カメラ20aは、図2に示す第1撮影領域A1を撮影する。同様に、第2カメラ20b、第3カメラ20c、第4カメラ20dは、それぞれ図2に示す第2撮影領域A2、第3撮影領域A3、第4撮影領域A4を撮影する。
なお、本開示の第1実施形態では、産業車両1の上部前方、上部右側、上部後方、上部左側のそれぞれにカメラを設けたが、異なる向きに設けてもよい。また、上記カメラが魚眼レンズなどの視野角の広いレンズを備えることで、さらにカメラの台数を減らすことができる。また、死角ができる場合は5台以上のカメラを設けることもできる。これらのカメラによって認識される対象物には人物が含まれる。なお、ここで死角とは、産業車両1の近傍の対象物を認識すべき領域のうち、いずれのカメラにも撮影されない領域のことである。
例えば、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dは、図1に示すように、それぞれ運転席の右前方、右後方、左後方、左前方に設けられる。そして、処理装置40によって、撮影装置20が撮影した画像において対象物が検出された場合に、その対象物の位置に対応する方向に設けられているスピーカは、音を出力する。
なお、出力装置30は、対象物が複数検出された場合には、検出された対象物それぞれに対応するスピーカから音を出力する。
処理装置40は、図3に示すように、認識部401、算出部402、取得部403、特定部404、第1検出部405、第1判定部406、推定部407、決定部408、タグ付け部409、記録部410、制御部411、記憶部412、を備える。
例えば、認識部401は、人物を含む対象物についての特徴を予め記憶する。そして、認識部401は、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dの順に、撮影された画像を繰り返し取得する。認識部401は、画像を取得する度に、パターン認識の技術を用いて、取得した画像において予め記憶している人物を含む対象物が含まれていると判定した場合、対象物を認識したと判定する。
算出部402は、例えば、以下の手順で画像から産業車両1に対する対象物の位置を算出する。産業車両1に対する対象物の位置は、産業車両1に対する対象物の方向および距離によって表される。
また、算出部402は、例えば以下の手順で認識した対象物と産業車両1との間の距離を算出する。例えば、算出部402は、対象物の寸法に対応する画像サイズ(画素数)を記憶しておき、記憶した画像サイズと画像内で認識した対象物のサイズ(画素数)との比から産業車両1から対象物までの距離を算出する。
これにより、算出部402は、産業車両1に対する対象物の方向と距離情報とを特定することで、産業車両1に対する対象物の位置を算出することができる。
なお、距離情報に含まれる産業車両1から対象物までの距離は、対象物を認識したカメラからの距離である。そのため、算出部402は、対象物を認識したカメラの産業車両1に設けられる位置や向きを考慮することで、産業車両1から見た対象物の位置を特定することができる。
例えば、取得部403は、産業車両1に設けられた図示していないセンサから現在の産業車両1の車速を取得する。また、取得部403は、操作装置10の変化によって出力される信号を取得する、もしくは定期的に操作装置10の状態を示す信号を取得する。ここで、取得部403が産業車両1に設けられた図示していないセンサ及び操作装置10から取得する産業車両1の車両状態は、車速のほかにも運転者がステアリングを回転させたときの産業車両1の操舵角、運転者がシフトレバーを前進や後退に切り替えたときの産業車両1の進行方向、運転者がアクセルを踏み込んだときの産業車両1の正の加速度、運転者がブレーキを踏み込んだ時の産業車両1の減速度(負の加速度)などの状態が含まれる。
具体的には、第1判定部406は、運転者の視線方向を中心とする運転者の認識範囲内に対象物が存在する場合、運転者が対象物を認識していると判定する。
より具体的には、第1判定部406は、基準である運転者の視線方向と対象物が存在する方向との成す角度が0度である場合にタグ情報が関連付けられた危険度を最も低くする重みを生成する。例えば、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が0度である場合に、重みを1未満の重み候補のうち最も小さい値に決定する。
また、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が大きくなるにつれて、タグ情報が関連付けられた危険度を高くなるような重みを生成する。例えば、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が大きくなるにつれて重みの値を大きい値に決定する。
また、第1判定部406は、運転者の視線方向が、運転者が対象物を認識可能である範囲外にある場合、運転者が対象物を認識していないと判定し、タグ情報が関連付けられた危険度を最も高くする重み値を生成する。例えば、第1判定部406は、運転者の視線方向が、運転者の認識範囲外にある場合に、重みを1を超える重み候補のうち最も大きい値に決定する。
推定部407は、以下の手順で危険度を推定する。
推定部407は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部407は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部407による危険度の具体的な推定方法は、後述する。
推定部407は、以下の手順で危険度を推定する。
推定部407は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部407は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間と、第1判定部の判定結果である重みとを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部407による危険度の具体的な推定方法は、後述する。
なお、記録部410は、すべての危険度情報を上位装置2に書き込むのではなく、危険度情報のうち、危険度が第1しきい値以上であり、かつ、第2しきい値以下であるものを上位装置2に送信するものであってもよい。なお、第1しきい値は、これ以下であれば産業車両1を安全に運転できることを示すしきい値である。また、第2しきい値は、これ以上は産業車両1と対象物との接触の可能性が高く危険であることを示すしきい値である。この第1しきい値以上であり、かつ、第2しきい値以下である危険度が、直接事故には至らないが危険な状態(すなわち、「ヒヤリハット」の状態)を示す危険度となる。また、運転者ごとに第1しきい値と第2しきい値とを設定することにより、上位装置2は、運転者ごとに、ヒヤリハットを通知することが可能となる。また、記録部410は、第1しきい値以上である危険度を上位装置2に書き込むものであってもよい。
決定部408は、危険度が予め定めたしきい値を超えていると判定した場合、アラームの音量を相対的に大きな音量(第1音量の一例)に決定する。
また、決定部408は、危険度が予め定めたしきい値を超えていないと判定した場合、アラームの音量を第1音量に比べて小さな音量(第2音量の一例)に決定する。
また、算出部402が算出した対象物の方向が右前方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第1スピーカ30aに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が右後方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第2スピーカ30bに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が右後方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第2スピーカ30bに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が左後方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第3スピーカ30cに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が左後方である場合、危険度が予め定めたしきい値を超えていないときに、決定部は、第3スピーカ30cに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が左前方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第4スピーカ30dに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が左前方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第4スピーカ30dに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、本開示の別の実施形態では、決定部408は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されないように、アラームの態様を決定するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
また、本開示の別の実施形態では、決定部408は、危険度によらず第1判定部406の判定結果である重みに基づいて、アラームの態様を決定するものであってもよい。
例えば、取得した画像から求められた産業車両1に対する対象物の位置が産業車両1の右前方である場合、その画像と関連付けられた危険度が予め定めた第3しきい値を超えているときに、制御部411は、第1スピーカ30aから音が出力されるように、出力装置30を制御する。なお、第3しきい値は、音を出力するか否かを判定するための危険度のしきい値である。第3しきい値は、第1しきい値または第2しきい値と同一の値であってもよい。第3しきい値が、第1しきい値または第2しきい値と異なる場合は、第1しきい値または第2しきい値とは異なる制御を行ってもよい。
記憶部412は、処理装置40が行う処理に必要な種々の情報を記憶する。
ここで、推定部407による危険度の推定方法の例について説明する。
まず、特定部404は、図4に示すように、産業車両1に対する対象物の位置と産業車両1の現在の車速とを初期条件として、産業車両1が取り得る操舵角範囲における複数の操舵角(例えば1度刻み)について、産業車両1が対象物に接触するような加速度を算出する。例えば、特定部404は、初速、加速度および操舵角を定数とし、および時間を説明変数とし、産業車両1の位置を目的変数とする関数(すなわち産業車両1の軌跡を描く曲線関数)において、産業車両1の軌跡が対象物の位置を通過するような加速度を求める。なお、操舵角によっては、産業車両1が対象物に接触するような加速度が存在しないこともある。特定部404は、複数の操舵角のうち、産業車両1が対象物に接触するような加速度が存在するものを抽出する。以下、抽出した操舵角と加速度の組み合わせを接触ケースともいう。図4に示すように、特定部404は各接触ケースにはケースNoを割り振る。なお、図4においては、産業車両1との接触が生じるか否かに関わらず、産業車両1の現在の状態に、ケースNo.0を割り振っている。
具体的には、図4に示す例では、ケースNo.2のギャップは8である。それに対して、ケースNo.3は、ケースNo.2に比べて現状との差が操舵角と加速度の両方とも大きい。そのため、ケースNo.3のギャップは、ケースNo.2のギャップよりも大きい10となる。
上位装置2は、図5に示すように、受信部21、データベース22、通知部23を備える。
受信部21は、産業車両1から危険度情報を受信する。受信部21は、受信した危険度情報をデータベース22に記録する。
データベース22は、上位装置2が行う処理に必要な種々の情報を記憶する。
次に、危険度を推定する処理装置40が行う処理について説明する。
ここでは、図6に示す処理装置40の処理フローについて説明する。
なお、撮影装置20は、産業車両1の全周囲を撮影しているものとする。処理装置40は、所定の制御周期ごとに、図6に示す処理を実行する。
以上、本開示の第1実施形態による報知システム100について説明した。
報知システム100の処理装置40において、制御部411は、産業車両1の運転者が対象物となり得る対象物を認識しているか否かに基づいて、異なる態様の音を、対象物の存在を示すスピーカ(第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dのいずれか)から出力させる。
こうすることで、処理装置40は、産業車両1の運転者の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
次に、本開示の第2実施形態による報知システム100について説明する。
なお、本開示の第2実施形態における対象物は、人物である。
第2実施形態に係る報知システム100は、第1実施形態と処理装置40の構成が異なる。
本開示の第2実施形態による処理装置40は、第1の実施形態の構成に加え、図7に示すように、第2検出部413及び第2判定部414を備える。
具体的には、第2判定部414は、人物の視線方向が、人物が産業車両1を認識可能である範囲内にある場合、人物が産業車両1を認識していると判定し、人物の視線方向を基準(0度)として、産業車両1が何度の方向に存在するかに応じて重みを生成する。
より具体的には、第2判定部414は、産業車両1が存在する方向の基準からの角度が0度である場合に、危険度を最も低くする重みを生成する。また、第2判定部414は、産業車両1が存在する方向の角度が基準から大きくなるにつれて、危険度を高くするような重みを生成する。
また、例えば、第2判定部414は、人物の視線方向が、人物が産業車両1を認識可能である範囲外にある場合、人物が産業車両1を認識していないと判定し、危険度を最も高くする重みを生成する。
次に、産業車両1の運転が危険な状態であることを運転者に報知する産業車両1が行う処理について説明する。
ここでは、図8に示す産業車両1の処理フローについて説明する。
また、ここで示す例では、運転者に対象物の存在する方向に設けられたスピーカから音を出力させるか否かを判定する基準となるしきい値として、第4しきい値、第5しきい値、第6しきい値の3つを用いる場合について処理フローを説明する。なお、第4しきい値は第5しきい値よりも大きく、第5しきい値は第6しきい値よりも大きいものとする。なお、3つのしきい値を設定する理由は、運転者が人物を認識しているか否かで2つの場合分けが行われ、人物が産業車両1を認識しているか否かで2つの場合分けが行われる、つまり、危険度が4つに場合分けされて重み付けが行われるためである。ここでの4つの場合分けとは、運転者が人物を認識しており、かつ、人物が産業車両1を認識している場合、運転者が人物を認識しており、人物が産業車両1を認識していない場合、運転者が人物を認識しておらず、人物が産業車両1を認識している場合、運転者が人物を認識しておらず、さらに、人物が産業車両1を認識していない場合である。
決定部408は、危険度が予め定めた第4しきい値を超えていると判定した場合(ステップS33においてYES)、アラームの音量を1番大きな音量(第3音量の一例)に決定する(ステップS34)。
また、決定部408は、危険度が予め定めた第4しきい値を超えていないと判定した場合(ステップS33においてNO)、ステップS10で推定した危険度が予め定めた第5しきい値を超えているか否かを判定する(ステップS35)。
また、決定部408は、危険度が予め定めた第5しきい値を超えていないと判定した場合(ステップS35においてNO)、ステップS10で推定した危険度が予め定めた第6しきい値を超えているか否かを判定する(ステップS37)。
また、決定部408は、危険度が予め定めた第6しきい値を超えていないと判定した場合(ステップS37においてNO)、アラームの音量を1番小さな音量(第2音量の一例)に決定する(ステップS39)。そして、処理装置40は、第1の実施形態と同様のステップS14からステップS17の処理を行い、処理を終了する。
また、本開示の別の実施形態では、制御部411は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されないように、出力装置30を制御するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
以上、本開示の第2実施形態による報知システム100について説明した。
報知システム100の処理装置40において、決定部408は、対象物である人物が産業車両1を認識しているか否かに基づいて、アラームの態様を決定する。
こうすることで、処理装置40は、人物の視線方向を検出することで、産業車両1の運転者の状態のみならず、人物の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
次に、本開示の第3実施形態による報知システム100について説明する。
なお、本開示の第3実施形態における対象物は、人物である。
第3実施形態に係る報知システム100は、第1実施形態と処理装置40の構成が異なる。
本開示の第3実施形態による処理装置40は、図9に示すように、第1の実施形態の構成に加え、第3検出部415及び第3判定部416第3検出部415を備える。
例えば、第3検出部415は、人物の全体の画像を取得し、パターンマッチングなどの画像解析を行うことによって、人物の姿勢が立位であるか座位であるかなどの姿勢を検出する。
具体的には、第3判定部416は、人物の姿勢が立位である場合、人物が移動可能な状態であると判定し、危険度を低くする重みを生成する。また、第3判定部416は、人物の姿勢が、座位である場合、人物が移動し難い状態であると判定し、危険度を人物の姿勢が立位である場合の危険度に比べて高くする。
また、本開示の別の実施形態では、制御部411は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されない(第6音量の一例)ように、通知装置30を制御するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
この場合、第3判定部416を機械学習の学習モデルで実現してもよい。そして、実績情報を関連付けた画像を学習モデルに入力して、入力した画像に対応する人物の実際の移動結果に学習モデルの出力が一致するように、学習モデルの係数を調整することによって、学習済みモデルを生成する。この学習済みモデルに第3検出部415が新たに取得した姿勢を示す画像を入力することにより、人物が移動し産業車両1との接触を回避できるか否かを判定して、危険度の重み付けを行うものであってもよい。
以上、本開示の第3実施形態による報知システム100について説明した。
報知システム100の処理装置40において、制御部411は、対象物である人物が移動できる状態であるか否かに基づいて、異なる態様の音を、対象物の存在を示すスピーカ(第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dのいずれか)から出力させる。
こうすることで、処理装置40は、産業車両1の運転者の状態のみならず、対象物である人物の状態に応じた態様で、産業車両1の周囲の人物や対象物の存在を報知することができる。
推定部407は、運転者が人物を認識しているか否かに基づく重み、人物が産業車両1を認識しているか否かに基づく重み、および人物が移動可能な状態であるか否かに基づく重みを用いて、危険度を推定するものであってもよい。
こうすることで、処理装置40は、人物の姿勢を検出することで、産業車両1の運転者の状態のみならず、人物の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
以上説明した本開示の第1〜第3実施形態の概要について述べる。
本開示の第1実施形態では、産業車両の運転者が障害物となり得る対象物に気づいているか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らすことにより、運転者に対象物の存在を報知する報知システムについて説明した(図1における「実施形態1」)。
例えば、撮影装置20は、1台のカメラを備えるものであってもよい。この場合、例えば、その1台のカメラは、産業車両1の上部中央に設けられ、そのカメラが回転を繰り返すことで産業車両1の全周囲を撮影するものであってもよい。
また、産業車両1の大きさやカメラの撮影可能な範囲によっては、本開示の一実施形態で例示した4台のカメラでは死角が大きすぎる可能性がある。このような場合には、例えば、撮影装置20は、5台以上のカメラを備え、死角をより小さくするものであってもよい。
運転者は常に産業車両1の正面を向いているとは限らない。そのため、例えば、運転者が産業車両1から右側に顔を向けている場合に、産業車両1の左前のスピーカ(図1、図2におけるスピーカ30d)から音が出力されると、運転者の視界に入っていないスピーカから音が出力されることになる。このような場合、運転者によっては、例えば、運転者の左後方から音がなったように感じることがある。そのため、運転者は、実際の対象物が産業車両1の左前方に存在するにも関わらず、産業車両1の左後方に対象物が存在すると誤認識してしまう可能性がある。
そこで、本開示の別の実施形態では、制御部411は、産業車両1の正面を基準として産業車両1の右前方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの右前方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の右後方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの右後方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の左後方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの左後方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の左前方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの左前方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。例えば、制御部411は、各スピーカら出力される音の位相を調整し、産業車両1の運転者の顔の向きを基準として方向から音が聞こえるようにするものであってもよい。
図11は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ5は、図11に示すように、CPU6、メインメモリ7、ストレージ8、インターフェース9を備える。
例えば、上述の処理装置40、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
なお、他の実施形態においては、制御装置50、その他の制御装置のそれぞれは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、及びこれらに類する処理装置を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
本開示の各実施形態に記載の処理装置40、処理方法及びプログラムは、例えば以下のように把握される。
2・・・上位装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・操作装置
20・・・撮影装置
20a・・・第1カメラ
20b・・・第2カメラ
20c・・・第3カメラ
20d・・・第4カメラ
21・・・受信部
22・・・記憶部
23・・・通知部
30・・・出力装置
30a・・・第1スピーカ
30b・・・第2スピーカ
30c・・・第3スピーカ
30d・・・第4スピーカ
40・・・処理装置
401・・・認識部
402・・・算出部
403・・・取得部
404・・・特定部
405・・・第1検出部
406・・・第1判定部
407・・・推定部
408・・・決定部
409・・・タグ付け部
410・・・記録部
411・・・制御部
412・・・記憶部
413・・・第2検出部
414・・・第2判定部
415・・・第3検出部
416・・・第3判定部
Claims (14)
- 車両に対する障害物となり得る対象物の位置を検出する算出部と、
前記車両の運転者の視線方向を検出する第1検出部と、
前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定する決定部と、
前記位置に対応するスピーカを、前記態様の音を出力するように制御する制御部と、
を備える処理装置。 - 前記位置と前記運転者の視線方向とに基づいて、前記運転者が前記対象物を認識しているか否かを判定する第1判定部をさらに備え、
前記決定部は、
前記運転者が前記対象物を認識していないと前記第1判定部が判定した場合、前記態様を第1音量の態様に決定し、前記運転者が前記対象物を認識していると前記第1判定部が判定した場合、前記態様を前記第1音量よりも小さな第2音量の態様に決定する、
請求項1に記載の処理装置。 - 前記対象物が人物であり、前記人物の視線方向を検出する第2検出部
をさらに備え、
前記決定部は、
前記人物の視線方向に基づいて、前記態様を決定する
請求項1または請求項2に記載の処理装置。 - 前記人物の視線方向に基づいて、前記人物が前記車両を認識しているか否かを判定する第2判定部をさらに備え、
前記決定部は、
前記人物が前記車両を認識していないと前記第2判定部が判定した場合、前記態様を第3音量の態様に決定し、前記人物が前記車両を認識していると前記第2判定部が判定した場合、前記態様を前記第3音量よりも小さな第4音量の態様に決定する、
請求項3に記載の処理装置。 - 前記第2判定部は、前記人物の視線方向が、前記人物が前記車両を認識可能とする範囲外に存在する場合に、前記人物が前記車両を認識していないと判定する
請求項4に記載の処理装置。 - 前記対象物が人物であり、前記人物の姿勢を検出する第3検出部
をさらに備え、
前記決定部は、
前記姿勢に基づいて、前記態様を決定する、
請求項1から請求項5の何れか一項に記載の処理装置。 - 前記姿勢に基づいて前記人物が移動できる状態であるか否かを判定する第3判定部をさらに備え、
前記決定部は、
前記人物が移動できない状態であると前記第3判定部が判定した場合、前記態様を第5音量の態様に決定し、前記人物が移動できる状態であると前記第3判定部が判定した場合、前記態様を前記第5音量よりも小さな第6音量の態様に決定する、
請求項6に記載の処理装置。 - 前記第3検出部は、前記人物の姿勢を検出可能な画像を取得し、
前記第3判定部は、学習済みモデルに前記画像を入力することで前記人物が移動できる状態であるか否かを判定し、
前記学習済みモデルは、人物が写る画像と当該人物の実際の移動結果を示す実績情報とを含む学習用データセットを用いてパラメータが学習された
請求項7に記載の処理装置。 - 前記算出部が検出した前記対象物の位置と前記第1検出部が検出した前記視線方向とに基づいて前記対象物に係る危険度を推定する推定部をさらに備え、
前記決定部は、前記危険度に基づいて前記態様を決定し、
前記制御部は、前記危険度がしきい値より低い場合に、前記アラームを出力しない
請求項1から請求項8の何れか1項に記載の処理装置。 - 前記算出部が検出した前記対象物の位置に基づいて前記車両と前記対象物とが接触し得る第1状態を特定する特定部をさらに備え、
前記推定部は、
前記算出部が検出した前記対象物の位置、前記第1検出部が検出した前記視線方向、および前記対象物の位置を検出したときの車両の状態である第2状態と前記第1状態との距離に基づいて、前記危険度を推定する
請求項9に記載の処理装置。 - 前記制御部は、前記運転者に、前記対象物の位置に係る方向を前記運転者の顔の角度だけ回転させた方向から、音が聞こえるように前記スピーカを制御する
請求項1から請求項10の何れか1項に記載の処理装置。 - 請求項1から請求項11の何れか1項に記載の処理装置と
前記車両とを備える
報知システム。 - 車両に対する障害物となり得る対象物の位置を検出することと、
前記車両の運転者の視線方向を検出することと、
前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、
前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、
を含む処理方法。 - コンピュータに、
車両に対する障害物となり得る対象物の位置を検出することと、
前記車両の運転者の視線方向を検出することと、
前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、
前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、
を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030842A JP7267222B2 (ja) | 2020-02-26 | 2020-02-26 | 処理装置、処理方法、報知システム及びプログラム |
US17/179,851 US11802032B2 (en) | 2020-02-26 | 2021-02-19 | Processing device, processing method, notification system, and recording medium |
CN202110197250.9A CN113307192B (zh) | 2020-02-26 | 2021-02-22 | 处理装置、处理方法、通报系统及存储介质 |
EP21158985.8A EP3872787B1 (en) | 2020-02-26 | 2021-02-24 | Processing device, processing method, notification system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030842A JP7267222B2 (ja) | 2020-02-26 | 2020-02-26 | 処理装置、処理方法、報知システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135694A true JP2021135694A (ja) | 2021-09-13 |
JP7267222B2 JP7267222B2 (ja) | 2023-05-01 |
Family
ID=74946951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020030842A Active JP7267222B2 (ja) | 2020-02-26 | 2020-02-26 | 処理装置、処理方法、報知システム及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11802032B2 (ja) |
EP (1) | EP3872787B1 (ja) |
JP (1) | JP7267222B2 (ja) |
CN (1) | CN113307192B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023223524A1 (ja) * | 2022-05-20 | 2023-11-23 | 三菱電機株式会社 | 運転支援装置、路車間運転支援システム、運転支援方法、および運転支援プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (ja) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | 運転行動危険度演算装置 |
JP2006350934A (ja) * | 2005-06-20 | 2006-12-28 | Denso Corp | 情報表示装置 |
JP2011198247A (ja) * | 2010-03-23 | 2011-10-06 | Toyota Motor Corp | 運転支援装置 |
JP2014059841A (ja) * | 2012-09-19 | 2014-04-03 | Daimler Ag | 運転支援装置 |
WO2015037117A1 (ja) * | 2013-09-13 | 2015-03-19 | 日立マクセル株式会社 | 情報表示システム及び情報表示装置 |
JP2017224165A (ja) * | 2016-06-15 | 2017-12-21 | 矢崎総業株式会社 | 車両用方向提示装置 |
JP2018156176A (ja) * | 2017-03-15 | 2018-10-04 | 株式会社Subaru | 車両の表示システム及び車両の表示システムの制御方法 |
JP2019171901A (ja) * | 2018-03-27 | 2019-10-10 | パナソニックIpマネジメント株式会社 | 車両警告システム、コントローラ及びプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5354514B2 (ja) | 2008-03-31 | 2013-11-27 | 現代自動車株式会社 | 脇見運転検出警報システム |
US20110187844A1 (en) | 2008-09-12 | 2011-08-04 | Kabushiki Kaisha Toshiba | Image irradiation system and image irradiation method |
CN101630369B (zh) * | 2009-07-30 | 2012-03-07 | 南京航空航天大学 | 一种基于小波分形特征的行人检测方法 |
CN102249169B (zh) | 2010-05-18 | 2013-06-26 | 南京梅山冶金发展有限公司 | 炮筒叉车操作可视定位方法及装置 |
CN102298702B (zh) | 2010-06-28 | 2015-08-05 | 北京中星微电子有限公司 | 一种人体姿态的检测方法及装置 |
JP5659991B2 (ja) | 2011-09-13 | 2015-01-28 | 株式会社豊田自動織機 | 産業車両 |
CN103601113A (zh) * | 2013-10-25 | 2014-02-26 | 青岛现代海麟重工有限公司 | 一种无门架叉车的使用方法 |
US9786177B2 (en) * | 2015-04-10 | 2017-10-10 | Honda Motor Co., Ltd. | Pedestrian path predictions |
JP5985704B1 (ja) | 2015-06-01 | 2016-09-06 | サンコー・エア・セルテック株式会社 | フォークリフト安全装置 |
US9864918B2 (en) | 2015-11-04 | 2018-01-09 | Ford Global Technologies, Llc | Predicting vehicle movements based on driver body language |
JP6589734B2 (ja) | 2016-04-20 | 2019-10-16 | 株式会社デンソー | 乗員状態推定装置 |
JP2018036937A (ja) | 2016-09-01 | 2018-03-08 | 住友電気工業株式会社 | 画像処理装置、画像処理システム、画像処理プログラムおよびラベル |
US11249544B2 (en) * | 2016-11-21 | 2022-02-15 | TeleLingo | Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness |
CN107176567B (zh) | 2016-12-19 | 2019-06-04 | 林德(中国)叉车有限公司 | 一种叉车门架防撞方法及装置 |
CN207468161U (zh) | 2017-11-16 | 2018-06-08 | 国网江苏省电力公司泰州供电公司 | 一种基于UWB技术和LoRa技术的叉车防撞智能报警系统 |
JP2019209917A (ja) * | 2018-06-07 | 2019-12-12 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、及びプログラム |
CN112534487B (zh) * | 2018-08-09 | 2024-03-08 | 索尼半导体解决方案公司 | 信息处理设备、移动体、信息处理方法和程序 |
US20200398743A1 (en) * | 2019-06-24 | 2020-12-24 | GM Global Technology Operations LLC | Method and apparatus for learning how to notify pedestrians |
-
2020
- 2020-02-26 JP JP2020030842A patent/JP7267222B2/ja active Active
-
2021
- 2021-02-19 US US17/179,851 patent/US11802032B2/en active Active
- 2021-02-22 CN CN202110197250.9A patent/CN113307192B/zh active Active
- 2021-02-24 EP EP21158985.8A patent/EP3872787B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (ja) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | 運転行動危険度演算装置 |
JP2006350934A (ja) * | 2005-06-20 | 2006-12-28 | Denso Corp | 情報表示装置 |
JP2011198247A (ja) * | 2010-03-23 | 2011-10-06 | Toyota Motor Corp | 運転支援装置 |
JP2014059841A (ja) * | 2012-09-19 | 2014-04-03 | Daimler Ag | 運転支援装置 |
WO2015037117A1 (ja) * | 2013-09-13 | 2015-03-19 | 日立マクセル株式会社 | 情報表示システム及び情報表示装置 |
JP2017224165A (ja) * | 2016-06-15 | 2017-12-21 | 矢崎総業株式会社 | 車両用方向提示装置 |
JP2018156176A (ja) * | 2017-03-15 | 2018-10-04 | 株式会社Subaru | 車両の表示システム及び車両の表示システムの制御方法 |
JP2019171901A (ja) * | 2018-03-27 | 2019-10-10 | パナソニックIpマネジメント株式会社 | 車両警告システム、コントローラ及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023223524A1 (ja) * | 2022-05-20 | 2023-11-23 | 三菱電機株式会社 | 運転支援装置、路車間運転支援システム、運転支援方法、および運転支援プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN113307192B (zh) | 2024-02-06 |
EP3872787B1 (en) | 2022-10-12 |
US20210261136A1 (en) | 2021-08-26 |
CN113307192A (zh) | 2021-08-27 |
JP7267222B2 (ja) | 2023-05-01 |
EP3872787A1 (en) | 2021-09-01 |
US11802032B2 (en) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6573193B2 (ja) | 判定装置、判定方法、および判定プログラム | |
JP2009040107A (ja) | 画像表示制御装置及び画像表示制御システム | |
WO2019204495A1 (en) | Methods, systems, and media for determining characteristics of roads | |
WO2018150580A1 (ja) | 走行計画修正装置および走行計画修正方法 | |
JP2008018872A (ja) | 運転支援装置、自動車及び運転支援方法 | |
US20150183369A1 (en) | Method, apparatus, computer program and system for controlling a vehicle's alert output | |
KR102080124B1 (ko) | 음성 처리장치 및 음성 처리방법 | |
WO2019188926A1 (ja) | 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体 | |
JP6806107B2 (ja) | 障害物認識支援装置、障害物認識支援方法、プログラム | |
US20180022357A1 (en) | Driving recorder system | |
JP2021135694A (ja) | 処理装置、処理方法、報知システム及びプログラム | |
JP7013722B2 (ja) | 運転支援装置 | |
US20220301185A1 (en) | Information processing apparatus, information processing method, and storage medium for estimating movement amount of moving object | |
JPWO2020174601A1 (ja) | 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 | |
JP2020160850A (ja) | 処理装置 | |
US11383733B2 (en) | Method and system for detecting a dangerous driving condition for a vehicle, and non-transitory computer readable medium storing program for implementing the method | |
US20230075659A1 (en) | Object ranging apparatus, method, and computer readable medium | |
CN110167781A (zh) | 显示装置以及显示方法 | |
JP7267221B2 (ja) | 処理装置、処理方法、推定システム及びプログラム | |
CN115690748B (zh) | 用于占据类预测的方法和用于遮挡值确定的方法 | |
WO2020250962A1 (ja) | 画像処理装置、画像処理方法、記録媒体 | |
CN114648504B (zh) | 自动驾驶方法、装置、电子设备和存储介质 | |
US20220165067A1 (en) | Method, system and computer program product for detecting movements of the vehicle body in the case of a motor vehicle | |
WO2021182484A1 (ja) | 安全運転判定装置 | |
WO2021156989A1 (ja) | 予兆検知装置、運転支援制御装置及び予兆検知方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267222 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |