JP2021135694A - 処理装置、処理方法、報知システム及びプログラム - Google Patents

処理装置、処理方法、報知システム及びプログラム Download PDF

Info

Publication number
JP2021135694A
JP2021135694A JP2020030842A JP2020030842A JP2021135694A JP 2021135694 A JP2021135694 A JP 2021135694A JP 2020030842 A JP2020030842 A JP 2020030842A JP 2020030842 A JP2020030842 A JP 2020030842A JP 2021135694 A JP2021135694 A JP 2021135694A
Authority
JP
Japan
Prior art keywords
person
vehicle
unit
driver
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020030842A
Other languages
English (en)
Other versions
JP7267222B2 (ja
Inventor
成寿 亀尾
Shigetoshi Kameo
成寿 亀尾
喜一 杉本
Kiichi Sugimoto
喜一 杉本
健太 中尾
Kenta Nakao
健太 中尾
聡 飯尾
Satoshi Iio
聡 飯尾
弘司 椎崎
Koji Shiizaki
弘司 椎崎
昭伍 南
Shogo Minami
昭伍 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2020030842A priority Critical patent/JP7267222B2/ja
Priority to US17/179,851 priority patent/US11802032B2/en
Priority to CN202110197250.9A priority patent/CN113307192B/zh
Priority to EP21158985.8A priority patent/EP3872787B1/en
Publication of JP2021135694A publication Critical patent/JP2021135694A/ja
Application granted granted Critical
Publication of JP7267222B2 publication Critical patent/JP7267222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F17/00Safety devices, e.g. for limiting or indicating lifting force
    • B66F17/003Safety devices, e.g. for limiting or indicating lifting force for fork-lift trucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Structural Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Geology (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Civil Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Forklifts And Lifting Vehicles (AREA)

Abstract

【課題】車両の運転者の状態に応じた態様で、車両の周囲の人物や障害物の存在を報知することのできる処理装置を提供する。【解決手段】処理装置は、車両に対する障害物となり得る対象物の位置を検出する算出部と、前記車両の運転者の視線方向を検出する第1検出部と、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定する決定部と、前記位置に対応するスピーカを、前記態様の音を出力するように制御する制御部と、を備える。【選択図】図4

Description

本開示は、処理装置、処理方法、報知システム及びプログラムに関する。
フォークリフトなどの産業車両は、車両本体が備える車輪の切れ角や車両の構造など、一般的な乗用車とは異なる特徴を有している。そのため、特に産業車両の運転経験の少ない運転者にとっては、産業車両を操作しているときに実際に車両が移動する領域が予想と異なる可能性や、産業車両を操作しているときに死角となる領域が存在する可能性がある。
特許文献1には、関連する技術として、フォークリフトの後進時に運転者に注意を喚起する技術が記載されている。
特開2016−222428号公報
ところで、車両の周囲に、人物や荷物など障害物となり得る対象物を検出すると、車両は、運転者が対象物を認識しているか否かに関わらず、対象物を検出したことを運転者に報知する。すると、報知がなされているとき、運転者は実際には対象物を認識しており危険度が低い状況である場合も考えられる。このような報知が繰り返されることにより、運転者は、その報知に慣れてしまう可能性がある。
そのため、車両の運転者の状態に応じた態様で、車両の周囲の対象物の存在を報知することのできる技術が求められている。
本開示の少なくとも一実施形態は、上述の事情に鑑みてなされたものであり、車両の運転者の状態に応じた態様で、車両の周囲の対象物の存在を報知することのできる処理装置、処理方法、報知システム及びプログラムを提供することを目的としている。
上記課題を解決するために、本開示に係る処理装置は、車両に対する障害物となり得る対象物の位置を検出する算出部と、前記車両の運転者の視線方向を検出する第1検出部と、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定する決定部と、前記位置に対応するスピーカを、前記態様の音を出力するように制御する制御部と、を備える。
本開示に係る処理方法は、車両に対する障害物となり得る対象物の位置を検出することと、前記車両の運転者の視線方向を検出することと、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、を含む。
本開示に係るプログラムは、コンピュータに、車両に対する障害物となり得る対象物の位置を検出することと、前記車両の運転者の視線方向を検出することと、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、を実行させる。
本開示の実施形態による処理装置、処理方法及びプログラムによれば、車両の運転者の状態に応じた態様で、車両の周囲の対象物の存在を報知することができる。
本開示の少なくとも一実施形態に係る産業車両の構成の一例を示す図である。 本開示の少なくとも一実施形態に係る産業車両を真上から俯瞰した場合の概略図である。 本開示の少なくとも一実施形態に係る処理装置の構成の一例を示す図である。 本開示の少なくとも一実施形態に係る産業車両の状態及びギャップの一例を示す図である。 本開示の少なくとも一実施形態に係る上位装置の構成の一例を示す図である。 本開示の少なくとも一実施形態に係る処理装置の処理フローの一例を示す図である。 本開示の少なくとも一実施形態に係る処理装置の構成の一例を示す図である。 本開示の少なくとも一実施形態に係る産業車両の処理フローの一例を示す図である。 本開示の少なくとも一実施形態に係る処理装置の構成の一例を示す図である。 本開示の少なくとも一実施形態に係る処理装置の構成の一例を示す図である。 本開示の少なくとも一実施形態に係るコンピュータの構成を示す概略ブロック図である。 本開示の少なくとも一実施形態に係る報知システムの概要を示す図である。
<第1実施形態>
以下、本開示の第1実施形態による報知システム100について説明する。
(報知システムの構成)
報知システム100は、産業車両1(車両の一例)、上位装置2を備える。
(産業車両の構成)
産業車両1は、運転者が対象物に気づいているか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らす車両である。
産業車両1は、例えば、図1に示すようなフォークリフトである。ただし、ホイルローダーなどの建設機械、荷役装置や後輪操舵などの同様の機構を持つ車両、もしくは同様の課題を持つ車両でもよい。
産業車両1は、図1に示すように、操作装置10、車内カメラ15、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20d、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30d、処理装置40を備える。なお、処理装置40は、図示していないセンサや操作装置10の状態から産業車両1の現在速度、加速度、操舵角の情報を取得する。
なお、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dを総称して撮影装置20と呼ぶ。また、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを総称して出力装置30と呼ぶ。
操作装置10は、運転者が移動または荷役作業を産業車両1にさせる操作を受け付ける装置である。例えば、操作装置10は、産業車両1を前進・後退を決定するシフトレバー、産業車両1の車輪の操舵角を決定するステアリング、産業車両1の車速や加速度を調整するためのアクセル及びブレーキなどである。
車内カメラ15は、産業車両の運転室内を撮影する。車内カメラ15が撮影する画像には、少なくとも運転者の顔が写る。
図2は、産業車両1を真上から俯瞰した場合の概略図である。撮影装置20は、複数のカメラが各々産業車両1の外周方向を撮影するように設けられており、産業車両1の全周囲を撮影する。
例えば、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dは、図1に示すように、それぞれ産業車両1の上部前方、上部右側、上部後方、上部左側に設けられる。そして、例えば、第1カメラ20aは、図2に示す第1撮影領域A1を撮影する。同様に、第2カメラ20b、第3カメラ20c、第4カメラ20dは、それぞれ図2に示す第2撮影領域A2、第3撮影領域A3、第4撮影領域A4を撮影する。
なお、本開示の第1実施形態では、産業車両1の上部前方、上部右側、上部後方、上部左側のそれぞれにカメラを設けたが、異なる向きに設けてもよい。また、上記カメラが魚眼レンズなどの視野角の広いレンズを備えることで、さらにカメラの台数を減らすことができる。また、死角ができる場合は5台以上のカメラを設けることもできる。これらのカメラによって認識される対象物には人物が含まれる。なお、ここで死角とは、産業車両1の近傍の対象物を認識すべき領域のうち、いずれのカメラにも撮影されない領域のことである。
出力装置30は、処理装置40による制御の下、音を出力する。
例えば、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dは、図1に示すように、それぞれ運転席の右前方、右後方、左後方、左前方に設けられる。そして、処理装置40によって、撮影装置20が撮影した画像において対象物が検出された場合に、その対象物の位置に対応する方向に設けられているスピーカは、音を出力する。
なお、出力装置30は、対象物が複数検出された場合には、検出された対象物それぞれに対応するスピーカから音を出力する。
処理装置40は、産業車両1の状態と撮影された画像における対象物の位置とに基づいて、産業車両1の運転の危険度をする装置である。産業車両1の状態とは、産業車両1の操舵角、産業車両1の進行方向、産業車両の車速、産業車両の加速度を含む状態である。また、処理装置40は、産業車両1の状態に基づいて、出力装置30を制御する装置である。なお、処理装置40は、対象物が複数検出された場合、各対象物について危険度を推定する。
処理装置40は、図3に示すように、認識部401、算出部402、取得部403、特定部404、第1検出部405、第1判定部406、推定部407、決定部408、タグ付け部409、記録部410、制御部411、記憶部412、を備える。
認識部401は、撮影装置20が撮影した画像において対象物を認識する。
例えば、認識部401は、人物を含む対象物についての特徴を予め記憶する。そして、認識部401は、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dの順に、撮影された画像を繰り返し取得する。認識部401は、画像を取得する度に、パターン認識の技術を用いて、取得した画像において予め記憶している人物を含む対象物が含まれていると判定した場合、対象物を認識したと判定する。
算出部402は、認識部401が取得した画像において対象物を認識した場合、その画像から、産業車両1に対する対象物の位置を算出する。つまり、算出部402は、産業車両1を基準とする対象物の相対位置を算出する。
算出部402は、例えば、以下の手順で画像から産業車両1に対する対象物の位置を算出する。産業車両1に対する対象物の位置は、産業車両1に対する対象物の方向および距離によって表される。
算出部402は、例えば以下の手順で産業車両1に対する対象物の方向を算出する。まず、算出部402は、対象物が写る部分が、画像のどの位置に含まれているかによって撮影装置20に対する対象物の方向を特定する(以下、認識方向情報)。次に、算出部402は、対象物が認識された画像が、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dのうちのどのカメラから取得したかを特定する(以下、認識カメラ情報)。算出部402は、認識カメラ情報に基づいて、産業車両1に対するカメラの位置及び向きを特定する。そして、算出部402は、特定したカメラの位置及び向きと認識方向情報とに基づいて、産業車両1に対する対象物の方向を算出する。
また、算出部402は、例えば以下の手順で認識した対象物と産業車両1との間の距離を算出する。例えば、算出部402は、対象物の寸法に対応する画像サイズ(画素数)を記憶しておき、記憶した画像サイズと画像内で認識した対象物のサイズ(画素数)との比から産業車両1から対象物までの距離を算出する。
これにより、算出部402は、産業車両1に対する対象物の方向と距離情報とを特定することで、産業車両1に対する対象物の位置を算出することができる。
なお、距離情報に含まれる産業車両1から対象物までの距離は、対象物を認識したカメラからの距離である。そのため、算出部402は、対象物を認識したカメラの産業車両1に設けられる位置や向きを考慮することで、産業車両1から見た対象物の位置を特定することができる。
なお、例えば、撮影装置20がステレオカメラである場合、算出部402は、ステレオカメラが撮影した各撮影タイミングの一対の撮影画像に対して三角測量技術を用いることで、産業車両1から対象物までの距離を算出することができる。その他、算出部402は、産業車両1に設けられた距離センサが出力する検出信号に基づいて産業車両1と対象物との距離を算出してもよい。
取得部403は、産業車両1に設けられた図示していないセンサ、及び、操作装置10の状態から産業車両1の車両状態を取得する。
例えば、取得部403は、産業車両1に設けられた図示していないセンサから現在の産業車両1の車速を取得する。また、取得部403は、操作装置10の変化によって出力される信号を取得する、もしくは定期的に操作装置10の状態を示す信号を取得する。ここで、取得部403が産業車両1に設けられた図示していないセンサ及び操作装置10から取得する産業車両1の車両状態は、車速のほかにも運転者がステアリングを回転させたときの産業車両1の操舵角、運転者がシフトレバーを前進や後退に切り替えたときの産業車両1の進行方向、運転者がアクセルを踏み込んだときの産業車両1の正の加速度、運転者がブレーキを踏み込んだ時の産業車両1の減速度(負の加速度)などの状態が含まれる。
特定部404は、算出部402が算出した産業車両1に対する対象物の位置と、特定部404が取得した産業車両1の車両状態とに基づいて、産業車両1と対象物とが接触し得る車両状態(第1状態)を特定する。具体的には、特定部404は、産業車両1に対する対象物の位置と産業車両1の現在の車速とに基づいて、産業車両1と対象物とが接触し得る操舵角と加速度の組み合わせを特定する。加速度は、アクセルによる正の加速度と、ブレーキによる負の加速度の両方を含む。なお、接触するような操舵角と加速度の組み合わせは、複数存在し得る。これは、加速度によって車両の速度が変化し、操舵角との組み合わせによって検出物と衝突する走行軌跡が複数存在するためである。すなわち、産業車両1の旋回半径は操舵角が大きいほど小さく、また速度が速いほど(加速度が高いほど)大きくなるため、走行軌跡は操舵角と速度(加速度)との組み合わせによって変化する。
第1検出部405は、運転者の視線方向を検出する。例えば、第1検出部405は、車内カメラ15から運転者の顔の画像を取得し、画像解析を行うことによって、顔の向き、または、顔の向き及び目の向きを特定する。そして、第1検出部405は、顔の向き、または、顔の向き及び目の向きを、運転者の視線方向として検出する。
第1判定部406は、算出部402が算出した対象物の位置と第1検出部405が検出した運転者の視線方向とに基づいて、運転者が対象物を認識しているか否かを判定し、判定結果に応じた重みを生成する。
具体的には、第1判定部406は、運転者の視線方向を中心とする運転者の認識範囲内に対象物が存在する場合、運転者が対象物を認識していると判定する。
より具体的には、第1判定部406は、基準である運転者の視線方向と対象物が存在する方向との成す角度が0度である場合にタグ情報が関連付けられた危険度を最も低くする重みを生成する。例えば、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が0度である場合に、重みを1未満の重み候補のうち最も小さい値に決定する。
また、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が大きくなるにつれて、タグ情報が関連付けられた危険度を高くなるような重みを生成する。例えば、第1判定部406は、運転者の視線方向と対象物が存在する方向との成す角度が大きくなるにつれて重みの値を大きい値に決定する。
また、第1判定部406は、運転者の視線方向が、運転者が対象物を認識可能である範囲外にある場合、運転者が対象物を認識していないと判定し、タグ情報が関連付けられた危険度を最も高くする重み値を生成する。例えば、第1判定部406は、運転者の視線方向が、運転者の認識範囲外にある場合に、重みを1を超える重み候補のうち最も大きい値に決定する。
推定部407は、取得部403が取得した産業車両1の車両状態と、特定部404が特定した産業車両1と対象物とが接触し得る車両状態に基づいて、産業車両1の危険度を推定する。
推定部407は、以下の手順で危険度を推定する。
推定部407は、特定部404が特定した操舵角と加速度の組み合わせごとに、特定部404が特定した現在の操舵角と加速度(第2加速度の一例)の組み合わせとの差(ギャップ)を算出する。なお、ギャップが小さい値であるほど、少しの車両状態の変化で対象物と接触しうることを意味する。なお、現在の車両状態を維持した場合に対象物と接触し得る場合はギャップが0となる。
推定部407は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部407は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部407による危険度の具体的な推定方法は、後述する。
推定部407は、取得部403が取得した産業車両1の車両状態と、特定部404が特定した産業車両1と対象物とが接触し得る車両状態に基づいて、産業車両1の危険度を推定する。
推定部407は、以下の手順で危険度を推定する。
推定部407は、特定部404が特定した操舵角と加速度の組み合わせごとに、特定部404が特定した現在の操舵角と加速度(第2加速度の一例)の組み合わせとの差(ギャップ)を算出する。なお、ギャップが小さい値であるほど、少しの車両状態の変化で対象物と接触しうることを意味する。なお、現在の車両状態を維持した場合に対象物と接触し得る場合はギャップが0となる。
推定部407は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部407は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間と、第1判定部の判定結果である重みとを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部407による危険度の具体的な推定方法は、後述する。
タグ付け部409は、推定部407が危険度を演算する度に、当該危険度と、所定のタグ情報とを関連付けて、記憶部412に書き込む。タグ情報は、産業車両1の運転者のID、危険度が演算された時刻、取得部403が取得した産業車両1の車両状態、当該危険度の推定に用いられた画像、ならびに認識部401が特定した産業車両1に対する対象物の位置の関係を含む情報である。以下、危険度とタグ情報とを関連付けた情報を、危険度情報ともいう。
記録部410は、記憶部412に書き込まれた危険度情報を上位装置2に送信することで、危険度情報を上位装置2のデータベース22に記録する。
なお、記録部410は、すべての危険度情報を上位装置2に書き込むのではなく、危険度情報のうち、危険度が第1しきい値以上であり、かつ、第2しきい値以下であるものを上位装置2に送信するものであってもよい。なお、第1しきい値は、これ以下であれば産業車両1を安全に運転できることを示すしきい値である。また、第2しきい値は、これ以上は産業車両1と対象物との接触の可能性が高く危険であることを示すしきい値である。この第1しきい値以上であり、かつ、第2しきい値以下である危険度が、直接事故には至らないが危険な状態(すなわち、「ヒヤリハット」の状態)を示す危険度となる。また、運転者ごとに第1しきい値と第2しきい値とを設定することにより、上位装置2は、運転者ごとに、ヒヤリハットを通知することが可能となる。また、記録部410は、第1しきい値以上である危険度を上位装置2に書き込むものであってもよい。
決定部408は、推定部407が演算した危険度に基づいて、出力装置30に出力させるアラームの音量を決定する。アラームの音量は、アラームの態様の一例である。なお、他の実施形態に係る決定部408は、音量に代えて、アラームの音色や周波数などの他の態様を決定してもよい。
決定部408は、危険度が予め定めたしきい値を超えていると判定した場合、アラームの音量を相対的に大きな音量(第1音量の一例)に決定する。
また、決定部408は、危険度が予め定めたしきい値を超えていないと判定した場合、アラームの音量を第1音量に比べて小さな音量(第2音量の一例)に決定する。
具体的には、算出部402が算出した対象物の方向が右前方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第1スピーカ30aに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が右前方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第1スピーカ30aに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が右後方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第2スピーカ30bに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が右後方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第2スピーカ30bに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が左後方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第3スピーカ30cに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が左後方である場合、危険度が予め定めたしきい値を超えていないときに、決定部は、第3スピーカ30cに出力させるアラームの音量を小さな音(第2音量)に決定する。
また、算出部402が算出した対象物の方向が左前方である場合、危険度が予め定めたしきい値を超えているときに、決定部408は、第4スピーカ30dに出力させるアラームの音量を大きな音(第1音量)に決定する。
また、算出部402が算出した対象物の方向が左前方である場合、危険度が予め定めたしきい値を超えていないときに、決定部408は、第4スピーカ30dに出力させるアラームの音量を小さな音(第2音量)に決定する。
なお、ここで示した具体例では、決定部408は、推定部407から受けた危険度が、予め定めた1つのしきい値を超えているか否かに応じて、大きな音またはその音よりも小さな音を出力するものとして説明した。しかしながら、本開示の別の実施形態では、複数のしきい値を予め設定し、決定部は、推定部407から受けた危険度と、それら複数のしきい値とを比較し、推定部407から受けた危険度の高さに応じた音、すなわち、推定部407から受けた危険度が高くなるにつれて音が大きくなるように、出力装置30を制御するものであってもよい。
また、本開示の別の実施形態では、決定部408は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されないように、アラームの態様を決定するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
また、本開示の別の実施形態では、決定部408は、危険度によらず第1判定部406の判定結果である重みに基づいて、アラームの態様を決定するものであってもよい。
制御部411は、対象物の位置に対応するスピーカを、決定部408が決定した音量のアラームを出力するように制御する。
例えば、取得した画像から求められた産業車両1に対する対象物の位置が産業車両1の右前方である場合、その画像と関連付けられた危険度が予め定めた第3しきい値を超えているときに、制御部411は、第1スピーカ30aから音が出力されるように、出力装置30を制御する。なお、第3しきい値は、音を出力するか否かを判定するための危険度のしきい値である。第3しきい値は、第1しきい値または第2しきい値と同一の値であってもよい。第3しきい値が、第1しきい値または第2しきい値と異なる場合は、第1しきい値または第2しきい値とは異なる制御を行ってもよい。
同様に、産業車両1に対する対象物の位置が産業車両1の右後方、左後方、左前方である場合、その画像と関連付けられた危険度が第3しきい値を超えているときに、制御部411は、それぞれ、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dから音が出力されるように、出力装置30を制御する。
記憶部412は、処理装置40が行う処理に必要な種々の情報を記憶する。
(危険度の推定方法)
ここで、推定部407による危険度の推定方法の例について説明する。
まず、特定部404は、図4に示すように、産業車両1に対する対象物の位置と産業車両1の現在の車速とを初期条件として、産業車両1が取り得る操舵角範囲における複数の操舵角(例えば1度刻み)について、産業車両1が対象物に接触するような加速度を算出する。例えば、特定部404は、初速、加速度および操舵角を定数とし、および時間を説明変数とし、産業車両1の位置を目的変数とする関数(すなわち産業車両1の軌跡を描く曲線関数)において、産業車両1の軌跡が対象物の位置を通過するような加速度を求める。なお、操舵角によっては、産業車両1が対象物に接触するような加速度が存在しないこともある。特定部404は、複数の操舵角のうち、産業車両1が対象物に接触するような加速度が存在するものを抽出する。以下、抽出した操舵角と加速度の組み合わせを接触ケースともいう。図4に示すように、特定部404は各接触ケースにはケースNoを割り振る。なお、図4においては、産業車両1との接触が生じるか否かに関わらず、産業車両1の現在の状態に、ケースNo.0を割り振っている。
推定部407は、抽出した接触ケースのそれぞれについて、産業車両1の現在の状態(ケースNo.0に係る状態)と接触ケースに係る状態とのギャップを算出する。例えば、推定部407は、現在の操舵角と接触ケースに係る操舵角との差に所定の重みを乗じた値と、現在の加速度と接触ケースに係る加速度との差に所定の重みを乗じた値との和(加重マンハッタン距離)を、ギャップとして算出する。また、推定部407は、ユークリッド距離などの他の基準に基づいてギャップを算出してもよい。
具体的には、図4に示す例では、ケースNo.2のギャップは8である。それに対して、ケースNo.3は、ケースNo.2に比べて現状との差が操舵角と加速度の両方とも大きい。そのため、ケースNo.3のギャップは、ケースNo.2のギャップよりも大きい10となる。
推定部407は、抽出した接触ケースのそれぞれについて、産業車両1の現在の車速と、当該接触ケースに係る加速度とに基づいて、産業車両1が対象物に接触するまでの時間を算出する。例えば、推定部407は、上記の曲線関数に基づいて産業車両1の位置が対象物の位置と一致するときの時間を求める。
そして、推定部407は、各接触ケースについて、ギャップと、対象物に接触するまでの時間と、運転者による対象物の認識に係る重みとを危険度を表す所定の関数に代入することで危険度を推定する。推定部407は、図5に示すように、ギャップが小さくなるにつれて危険度が高くなり、対象物に接触するまでの時間が短くなるにつれて危険度が高くなる所定の関数を用いて危険度を推定する。例えば、推定部407は、ギャップに所定の重みを乗じた値と接触するまでの時間に所定の重みを乗じた値と、運転者による対象物の認識に係る重みの和の逆数を求めることで危険度を推定してよい。
(上位装置の構成)
上位装置2は、図5に示すように、受信部21、データベース22、通知部23を備える。
受信部21は、産業車両1から危険度情報を受信する。受信部21は、受信した危険度情報をデータベース22に記録する。
データベース22は、上位装置2が行う処理に必要な種々の情報を記憶する。
通知部23は、運転者ごとに、記憶部21が記憶するタグ情報と画像とが関連付けられた危険度を通知する。これにより、運転者は、産業車両1の運転において、ヒヤリハットが生じる状態における操作を把握することができる。運転者は、そのヒヤリハットが生じる状態における操作を練習することで、産業車両1の運転技能が向上する。その結果、危険な運転が低減し、事故を低減させることができる。
(処理装置が行う処理)
次に、危険度を推定する処理装置40が行う処理について説明する。
ここでは、図6に示す処理装置40の処理フローについて説明する。
なお、撮影装置20は、産業車両1の全周囲を撮影しているものとする。処理装置40は、所定の制御周期ごとに、図6に示す処理を実行する。
認識部401は、撮影装置20から撮影された画像を取得する(ステップS1)。認識部401は、パターン認識の技術を用いて、ステップS1で、取得した画像に対象物が含まれているか否かを判定する(ステップS2)。
認識部401は、取得した画像に対象物が含まれていないと判定した場合(ステップS2においてNO)、処理を終了する。
また、認識部401は、取得した画像に対象物が含まれていると判定した場合(ステップS2においてYES)、算出部402は、その画像に基づいて、産業車両1に対する対象物の位置を算出する(ステップS3)。
取得部403は、産業車両に設けられた図示していないセンサ等から現在の産業車両1の車両状態を取得する(ステップS4)。
第1検出部405は、運転者の顔の画像を取得し、画像解析を行うことによって、運転者の視線方向を検出する(ステップS5)。第1判定部406は、ステップS3で検出した対象物の位置とステップS5で検出した運転者の視線方向とに基づいて、運転者が対象物を認識しているか否かを判定し、判定結果に応じた重みを生成する(ステップS6)。
特定部404は、ステップS3で認識部401が特定した産業車両1に対する対象物の位置と、ステップS4で取得した産業車両1の現在の車速とに基づいて、産業車両1が対象物に接触するような操舵角と加速度の組み合わせ(接触ケース)を特定する(ステップS7)。
推定部407は、特定した接触ケースごとに、ステップS4で取得した現在の車両状態と接触ケースに係る車両状態とのギャップを算出する(ステップS8)。
推定部407は、ステップS4で取得した産業車両1の車速及び特定した接触ケースに係る加速度と操舵角から求められる軌跡に基づいて、特定した接触ケースごとに、対象物に接触するまでの時間を算出する(ステップS9)。
推定部407は、各接触ケースについて、ステップS8で算出したギャップと、ステップS9で算出した対象物に接触するまでの時間と、ステップS6で算出した重みとに基づいて危険度を推定する(ステップS10)。
決定部408は、ステップS10で推定した危険度が予め定められたしきい値を超えているか否かを判定する(ステップS11)。危険度がしきい値を超える場合(ステップS11においてYES)、決定部408は、アラームの態様を大きい音量である第1音量の態様に決定する(ステップS12)。他方、危険度がしきい値を超えない場合(ステップS11においてNO)、決定部408は、アラームの態様を小さい音量である第2音量の態様に決定する(ステップS13)。
制御部411は、推定部407が推定した危険度が予め定めた第3しきい値を超えているか否かを判定する(ステップS14)。危険度が第3しきい値を超えている場合(ステップS14においてYES)、制御部411は、対象物に対応するスピーカから決定部408が決定した態様の音が出力されるように、出力装置30を制御する(ステップS15)。他方、危険度が第3しきい値を超えない場合(ステップS14においてNO)、制御部411は、スピーカから音を出力させない。
タグ付け部409は、推定部407が危険度を算出する度に、危険度に所定のタグ情報を関連付けて危険度情報を生成して記憶部412に書き込む(ステップS16)。そして、記録部410は、記憶部412に関連付けられた危険度情報を、即時に、または、規定のタイミングに、上位装置2に送信する(ステップS17)。
上位装置2の受信部21は、危険度情報を受信し、当該危険度情報をデータベース22に記録する。通知部23は、データベース22が記憶する危険度情報に基づいて、運転者ごとにヒヤリハットレポートを生成する。そして、通知部23は、生成したヒヤリハットレポートを各運転者に、通知する。これにより、運転者は、産業車両1の運転において、ヒヤリハットが生じる状態における操作を把握することができる。
(作用、効果)
以上、本開示の第1実施形態による報知システム100について説明した。
報知システム100の処理装置40において、制御部411は、産業車両1の運転者が対象物となり得る対象物を認識しているか否かに基づいて、異なる態様の音を、対象物の存在を示すスピーカ(第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dのいずれか)から出力させる。
こうすることで、処理装置40は、産業車両1の運転者の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
<第2実施形態>
次に、本開示の第2実施形態による報知システム100について説明する。
なお、本開示の第2実施形態における対象物は、人物である。
第2実施形態に係る報知システム100は、第1実施形態と処理装置40の構成が異なる。
(処理装置の構成)
本開示の第2実施形態による処理装置40は、第1の実施形態の構成に加え、図7に示すように、第2検出部413及び第2判定部414を備える。
第2検出部413は、人物の視線方向を検出する。例えば、第2検出部413は、人物の顔の画像を取得し、画像解析を行うことによって、顔の向き、または、顔の向き及び目の向きを特定する。そして、第2検出部413は、顔の向き、または、顔の向き及び目の向きを、人物の視線方向として検出する。
第2判定部414は、運転者が人物を認識しているか否かに基づいて重み付けされた危険度について、さらに、人物が産業車両1を認識しているか否かを判定し、重みを生成する。すなわち、第2判定部414は、第2検出部413が検出した人物の視線方向に応じた重み付けを行う。
具体的には、第2判定部414は、人物の視線方向が、人物が産業車両1を認識可能である範囲内にある場合、人物が産業車両1を認識していると判定し、人物の視線方向を基準(0度)として、産業車両1が何度の方向に存在するかに応じて重みを生成する。
より具体的には、第2判定部414は、産業車両1が存在する方向の基準からの角度が0度である場合に、危険度を最も低くする重みを生成する。また、第2判定部414は、産業車両1が存在する方向の角度が基準から大きくなるにつれて、危険度を高くするような重みを生成する。
また、例えば、第2判定部414は、人物の視線方向が、人物が産業車両1を認識可能である範囲外にある場合、人物が産業車両1を認識していないと判定し、危険度を最も高くする重みを生成する。
(産業車両が行う処理)
次に、産業車両1の運転が危険な状態であることを運転者に報知する産業車両1が行う処理について説明する。
ここでは、図8に示す産業車両1の処理フローについて説明する。
また、ここで示す例では、運転者に対象物の存在する方向に設けられたスピーカから音を出力させるか否かを判定する基準となるしきい値として、第4しきい値、第5しきい値、第6しきい値の3つを用いる場合について処理フローを説明する。なお、第4しきい値は第5しきい値よりも大きく、第5しきい値は第6しきい値よりも大きいものとする。なお、3つのしきい値を設定する理由は、運転者が人物を認識しているか否かで2つの場合分けが行われ、人物が産業車両1を認識しているか否かで2つの場合分けが行われる、つまり、危険度が4つに場合分けされて重み付けが行われるためである。ここでの4つの場合分けとは、運転者が人物を認識しており、かつ、人物が産業車両1を認識している場合、運転者が人物を認識しており、人物が産業車両1を認識していない場合、運転者が人物を認識しておらず、人物が産業車両1を認識している場合、運転者が人物を認識しておらず、さらに、人物が産業車両1を認識していない場合である。
産業車両1の処理装置40は、ステップS1からステップS6まで第1の実施形態と同様の処理を行う。次に、処理装置40の第2検出部413は、人物の顔の画像を取得し、画像解析を行うことによって、人物の視線方向を検出する(ステップS31)。第2判定部414は、人物が産業車両1を認識しているか否かを判定し、重みを生成する(ステップS32)。
処理装置40は、ステップS32の後、第1の実施形態と同様のステップS7からステップS10の処理を行う。なお、ステップS10において推定部407は、各接触ケースについて、ステップS8で算出したギャップと、ステップS9で算出した対象物に接触するまでの時間と、ステップS6で生成した重みと、ステップS32で生成した重みとに基づいて危険度を推定する。
次に、決定部408は、ステップS10で推定した危険度が予め定めた第4しきい値を超えているか否かを判定する(ステップS33)。
決定部408は、危険度が予め定めた第4しきい値を超えていると判定した場合(ステップS33においてYES)、アラームの音量を1番大きな音量(第3音量の一例)に決定する(ステップS34)。
また、決定部408は、危険度が予め定めた第4しきい値を超えていないと判定した場合(ステップS33においてNO)、ステップS10で推定した危険度が予め定めた第5しきい値を超えているか否かを判定する(ステップS35)。
決定部408は、危険度が予め定めた第5しきい値を超えていると判定した場合(ステップS35においてYES)、アラームの音量を2番目に大きな音量(第4音量の一例)に決定する(ステップS36)。
また、決定部408は、危険度が予め定めた第5しきい値を超えていないと判定した場合(ステップS35においてNO)、ステップS10で推定した危険度が予め定めた第6しきい値を超えているか否かを判定する(ステップS37)。
決定部408は、危険度が予め定めた第6しきい値を超えていると判定した場合(ステップS37においてYES)、アラームの音量を3番目に大きな音量(第1音量の一例)に決定する(ステップS38)。
また、決定部408は、危険度が予め定めた第6しきい値を超えていないと判定した場合(ステップS37においてNO)、アラームの音量を1番小さな音量(第2音量の一例)に決定する(ステップS39)。そして、処理装置40は、第1の実施形態と同様のステップS14からステップS17の処理を行い、処理を終了する。
なお、ここで示した具体例では、決定部408は、推定部407から受けた危険度が、予め定めた3つのしきい値を超えているか否かに応じて、アラームの音量を4段階の大きさの音量の何れかに決定するものとして説明した。しかしながら、本開示の別の実施形態では、3つ以外の単数または複数のしきい値を予め設定し、決定部408は、推定部407から受けた危険度と、しきい値とを比較し、推定部407から受けた危険度の高さに応じた音、すなわち、推定部407から受けた危険度が高くなるにつれて音が大きくなるように、出力装置30を制御するものであってもよい。
また、本開示の別の実施形態では、制御部411は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されないように、出力装置30を制御するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
また、本開示の別の実施形態では、決定部408は、危険度があるしきい値以上であると判定された場合に、一定の大きさの音を出力すると決定し、その一定の大きさの音に対して、運転者が人物を認識しており、かつ、人物が産業車両1を認識している場合、運転者が人物を認識しており、人物が産業車両1を認識していない場合、運転者が人物を認識しておらず、人物が産業車両1を認識している場合、運転者が人物を認識しておらず、さらに、人物が産業車両1を認識していない場合のそれぞれに応じた音の大きさの重み付けを行うものであってもよい。
また、本開示の別の実施形態では、決定部408は、第2判定部414が行った人物が産業車両1を認識しているか否かに基づく重みを取得し、取得した重みが産業車両1を人物が認識していないことを示す重みである場合、または、取得した重みが産業車両1を人物が認識していることを示す重みであるが所定以上の重みである場合、人物に対してアラーム(例えば、クラクション)を鳴らすものであってもよい。
(作用、効果)
以上、本開示の第2実施形態による報知システム100について説明した。
報知システム100の処理装置40において、決定部408は、対象物である人物が産業車両1を認識しているか否かに基づいて、アラームの態様を決定する。
こうすることで、処理装置40は、人物の視線方向を検出することで、産業車両1の運転者の状態のみならず、人物の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
<第3実施形態>
次に、本開示の第3実施形態による報知システム100について説明する。
なお、本開示の第3実施形態における対象物は、人物である。
第3実施形態に係る報知システム100は、第1実施形態と処理装置40の構成が異なる。
(処理装置の構成)
本開示の第3実施形態による処理装置40は、図9に示すように、第1の実施形態の構成に加え、第3検出部415及び第3判定部416第3検出部415を備える。
第3検出部415は、人物の姿勢を検出する。
例えば、第3検出部415は、人物の全体の画像を取得し、パターンマッチングなどの画像解析を行うことによって、人物の姿勢が立位であるか座位であるかなどの姿勢を検出する。
第3判定部416は、第3検出部の検出結果に基づいて人物が移動可能な状態であるか否かを判定し、重みを生成する。すなわち、第3判定部416は、第3検出部415が検出した人物の姿勢に応じた重み付けを行う。
具体的には、第3判定部416は、人物の姿勢が立位である場合、人物が移動可能な状態であると判定し、危険度を低くする重みを生成する。また、第3判定部416は、人物の姿勢が、座位である場合、人物が移動し難い状態であると判定し、危険度を人物の姿勢が立位である場合の危険度に比べて高くする。
なお、推定部407から受けた危険度と比較する、運転者に対象物の存在する方向に設けられたスピーカから音を出力させるか否かを判定する基準となるしきい値を、第1実施形態におけるしきい値と同一のものとした場合、産業車両1が行う処理は、図6に示す産業車両1の処理フローと同様に説明することができる。
なお、本開示の別の実施形態では、複数のしきい値を予め設定し、決定部408は、推定部407から受けた危険度と、それら複数のしきい値とを比較し、推定部407から受けた危険度の高さに応じた音、すなわち、推定部407から受けた危険度が高くなるにつれて音が大きくなる(第5音量の一例)ように、出力装置30を制御するものであってもよい。
また、本開示の別の実施形態では、制御部411は、推定部407から受けた危険度がしきい値よりも低い場合に、音が出力されない(第6音量の一例)ように、通知装置30を制御するものであってもよい。
また、本開示の別の実施形態では、危険度の重み付け自体をより多くの条件に応じて場合分けするものであってもよい。
また、本開示の別の実施形態では、制御部411は、第3判定部416が行った人物が移動可能か否かに基づく重みを取得し、取得した重みがその人物は移動可能でないことを示す重みである場合、または、取得した重みがその人物は移動可能であることを示す重みであるが所定以上の重みである場合、人物に対してアラーム(例えば、クラクション)を鳴らすものであってもよい。
なお、本発明の別の実施形態では、例えば、第3検出部415は、人物の全体の画像を取得する。第3検出部415が取得した人物の全体の画像ごとに、人物の実際の移動結果を示す実績情報を関連付ける。これらの画像を教師データとする。
この場合、第3判定部416を機械学習の学習モデルで実現してもよい。そして、実績情報を関連付けた画像を学習モデルに入力して、入力した画像に対応する人物の実際の移動結果に学習モデルの出力が一致するように、学習モデルの係数を調整することによって、学習済みモデルを生成する。この学習済みモデルに第3検出部415が新たに取得した姿勢を示す画像を入力することにより、人物が移動し産業車両1との接触を回避できるか否かを判定して、危険度の重み付けを行うものであってもよい。
(作用、効果)
以上、本開示の第3実施形態による報知システム100について説明した。
報知システム100の処理装置40において、制御部411は、対象物である人物が移動できる状態であるか否かに基づいて、異なる態様の音を、対象物の存在を示すスピーカ(第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dのいずれか)から出力させる。
こうすることで、処理装置40は、産業車両1の運転者の状態のみならず、対象物である人物の状態に応じた態様で、産業車両1の周囲の人物や対象物の存在を報知することができる。
なお、本開示の別の実施形態では、処理装置40は、図10に示すように、第3実施形態の構成に加え、さらに第2検出部413および第2判定部414を備えてもよい。当該第2検出部413および第2判定部414は、第2実施形態に係る第2検出部413および第2判定部414と同じ機能を有するものである。
推定部407は、運転者が人物を認識しているか否かに基づく重み、人物が産業車両1を認識しているか否かに基づく重み、および人物が移動可能な状態であるか否かに基づく重みを用いて、危険度を推定するものであってもよい。
こうすることで、処理装置40は、人物の姿勢を検出することで、産業車両1の運転者の状態のみならず、人物の状態に応じた態様で、産業車両1の周囲の対象物の存在を報知することができる。
(各実施形態の概要)
以上説明した本開示の第1〜第3実施形態の概要について述べる。
本開示の第1実施形態では、産業車両の運転者が障害物となり得る対象物に気づいているか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らすことにより、運転者に対象物の存在を報知する報知システムについて説明した(図1における「実施形態1」)。
本開示の第2実施形態では、対象物が人物であり、人物が産業車両の存在に気づいているか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らすことにより、運転者に対象物の存在を報知する報知システムについて説明した(図1における「実施形態2−1」)。また、本開示の第2実施形態では、人物が産業車両の存在に気づいているか否かに応じて、人物に産業車両の存在を音で報知する報知システムについて説明した(図1における「実施形態2−2」)。
本開示の第3実施形態では、対象物が人物であり、人物が移動できる状態であるか否かに応じて、対象物の存在する方向から異なる態様の音を鳴らすことにより、運転者に対象物の存在を報知する報知システムについて説明した(図1における「実施形態3−1」)。また、本開示の第3実施形態では、対象物が人物であり、人物が移動できる状態であるか否かに応じて、人物に産業車両の存在を音で報知する報知システムについて説明した(図1における「実施形態3−2」)。
なお、本開示の第1〜第3実施形態では、撮影装置20は、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dを備えるものとして説明した。しかしながら、本開示の別の実施形態では、撮影装置20は、産業車両1の全周囲を大きな死角を作ることなく撮影することができればよく、撮影装置20に含まれるカメラの台数及びカメラが設けられる位置は限定されない。
例えば、撮影装置20は、1台のカメラを備えるものであってもよい。この場合、例えば、その1台のカメラは、産業車両1の上部中央に設けられ、そのカメラが回転を繰り返すことで産業車両1の全周囲を撮影するものであってもよい。
また、産業車両1の大きさやカメラの撮影可能な範囲によっては、本開示の一実施形態で例示した4台のカメラでは死角が大きすぎる可能性がある。このような場合には、例えば、撮影装置20は、5台以上のカメラを備え、死角をより小さくするものであってもよい。
なお、本開示の第1〜第3実施形態では、出力装置30は、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを備えるものとして説明した。しかしながら、本開示の別の実施形態では、出力装置30は、対象物が検出された場合に、産業車両1を基準としたその対象物が存在する位置に対応する方向または領域から音が出力されるスピーカであれば、スピーカの台数及びスピーカが設けられる位置は限定されない。
なお、本開示の第1〜第3実施形態では、制御部411によって音を出力するように制御されるスピーカが、産業車両1の正面を基準とした対象物の方向のスピーカであるものとして説明した。しかしながら、本開示の別の実施形態では、制御部411によって音を出力するように制御されるスピーカが、産業車両1の運転者の顔の向きを基準とした対象物の方向のスピーカであってもよい。つまり、制御部411は、対象物が存在する方向から運転者の顔の角度だけ回転させた方向から、音が聞こえるようにスピーカを制御するものであってよい。
運転者は常に産業車両1の正面を向いているとは限らない。そのため、例えば、運転者が産業車両1から右側に顔を向けている場合に、産業車両1の左前のスピーカ(図1、図2におけるスピーカ30d)から音が出力されると、運転者の視界に入っていないスピーカから音が出力されることになる。このような場合、運転者によっては、例えば、運転者の左後方から音がなったように感じることがある。そのため、運転者は、実際の対象物が産業車両1の左前方に存在するにも関わらず、産業車両1の左後方に対象物が存在すると誤認識してしまう可能性がある。
そこで、本開示の別の実施形態では、制御部411は、産業車両1の正面を基準として産業車両1の右前方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの右前方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の右後方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの右後方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の左後方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの左後方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。また、制御部411は、産業車両1の正面を基準として産業車両1の左前方に対象物が存在する場合には、産業車両1の運転者の顔の向きを基準に、顔の向きの左前方から音が聞こえるように、スピーカ30a、30b、30c、30dから出力される音の位相を調整するものであってもよい。例えば、制御部411は、各スピーカら出力される音の位相を調整し、産業車両1の運転者の顔の向きを基準として方向から音が聞こえるようにするものであってもよい。
なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
本開示の実施形態におけるデータベース22、記憶部412、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、データベース22、記憶部412、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。
本開示の実施形態について説明したが、上述の処理装置40、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
図11は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ5は、図11に示すように、CPU6、メインメモリ7、ストレージ8、インターフェース9を備える。
例えば、上述の処理装置40、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。
また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
なお、他の実施形態においては、制御装置50、その他の制御装置のそれぞれは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、及びこれらに類する処理装置を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。
<付記>
本開示の各実施形態に記載の処理装置40、処理方法及びプログラムは、例えば以下のように把握される。
(1)第1の態様に係る処理装置(40)は、車両に対する障害物となり得る対象物の位置を検出する算出部(402)と、前記車両の運転者の視線方向を検出する第1検出部(405)と、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定する決定部(408)と、前記位置に対応するスピーカを、前記態様の音を出力するように制御する制御部(411)と、を備える。
この処理装置(40)により、車両(1)の運転者の状態に応じた態様で、車両(1)の周囲の人物や対象物の存在を報知することができる。
(2)第2の態様に係る処理装置(40)は、(1)の処理装置(40)であって、前記位置と前記運転者の視線方向とに基づいて、前記運転者が前記対象物を認識しているか否かを判定する第1判定部(406)をさらに備え、前記制御部(411)は、前記運転者が前記対象物を認識していないと前記第1判定部(406)が判定した場合、第1音量の音を前記スピーカ(30a、30b、30c、30dのいずれか)から出力させ、前記運転者が前記対象物を認識していると前記第1判定部(406)が判定した場合、前記第1音量よりも小さな第2音量の音を前記スピーカから出力させるものであってもよい。
この処理装置(40)により、制御部(411)による制御内容がより明確になり、車両(1)の周囲の人物や対象物の存在を報知する制御を明確にすることができる。
(3)第3の態様に係る処理装置(40)は、(1)または(2)の処理装置(40)であって、前記対象物が人物であり、前記人物の視線方向を検出する第2検出部(413)をさらに備え、前記決定部(408)は、前記人物の視線方向に基づいて、前記態様を決定するものであってもよい。
この処理装置(40)により、車両(1)の運転者の状態に加えて、対象物である人物の状態に応じた態様で、車両(1)の周囲の人物や対象物の存在を報知することができる。
(4)第4の態様に係る処理装置(40)は、(3)の処理装置(40)であって、前記人物の視線方向に基づいて、前記人物が前記車両を認識しているか否かを判定する第2判定部(414)をさらに備え、前記制御部(405)は、前記人物が前記車両(1)を認識していないと前記第2判定部(414)が判定した場合、第3音量の音を前記スピーカ(30a、30b、30c、30dのいずれか)から出力させ、前記人物が前記車両(1)を認識していると前記第2判定部(414)が判定した場合、前記第3音量よりも小さな第4音量の音を前記スピーカ(30a、30b、30c、30dのいずれか)から出力させるものであってもよい。
この処理装置(40)により、制御部(405)による制御内容がより明確になり、車両(1)の周囲の人物や対象物の存在を報知する制御を明確にすることができる。
(5)第5の態様に係る処理装置(40)は、(1)から(4)のいずれか1つの処理装置(40)であって、前記第2判定部(414)は、前記人物の視線方向が、前記人物が前記車両(1)を認識可能とする範囲外に存在する場合に、前記人物が前記車両(1)を認識していないと判定する。
この処理装置(40)により、対象物である人物の視線方向に基づいて、当該人物が車両(1)を認識しているか否かを適切に判定することができる。
(6)第6の態様に係る処理装置(40)は、(1)から(5)のいずれか1つの処理装置(40)であって、前記対象物が人物であり、前記人物の姿勢を検出する第3検出部(415)をさらに備え、前記決定部(408)は、前記姿勢に基づいて、前記態様を決定するものであってもよい。
この処理装置(40)により、車両(1)の運転者の状態に加えて、対象物である人物の状態に応じた態様で、車両(1)の周囲の人物や対象物の存在を報知することができる。
(7)第7の態様に係る処理装置(40)は、(5)の処理装置(40)であって、前記姿勢に基づいて前記人物が移動できる状態であるか否かを判定する第3判定部(416)をさらに備え、前記決定部(408)は、前記人物が移動できない状態であると前記第3判定部(416)が判定した場合、第5音量の音を前記スピーカ(30a、30b、30c、30dのいずれか)から出力させ、前記人物が移動できる状態であると前記第3判定部(416)が判定した場合に比べて、前記第5音量よりも小さな第6音量の音を前記スピーカ(30a、30b、30c、30dのいずれか)から出力させるものであってもよい。
この処理装置(40)により、制御部(405)による制御内容がより明確になり、車両(1)の周囲の人物や対象物の存在を報知する制御を明確にすることができる。
(8)第8の態様に係る処理装置(40)は、(7)の処理装置(40)であって、前記第3検出部(415)は、前記人物の姿勢を検出可能な画像を取得し、前記第3判定部(416)は、学習済みモデルに前記画像を入力することで前記人物が移動できる状態であるか否かを判定し、前記学習モデルは、人物が写る画像と当該人物の実際の移動結果を示す実績情報とを含む学習用データセットを用いてパラメータが学習されたものであってよい。
この処理装置(40)により、第3判定部(416)は、実績に基づいて人物が移動できる状態にあるか否かを判定することができる。
(9)第9の態様に係る処理装置(40)は、(1)から(8)の何れか1つの処理装置(40)であって、前記算出部(402)が検出した前記対象物の位置と前記第1検出部(405)が検出した前記視線方向とに基づいて前記対象物に係る危険度を推定する推定部(407)をさらに備え、前記決定部(408)は、前記危険度に基づいて前記態様を決定し、前記制御部(411)は、前記危険度がしきい値より低い場合に、前記アラームを出力しないものであってよい。
この処理装置(40)により、対象物が検出されたとしても、ヒヤリハットにつながらないような状態である場合には、アラームの出力を抑制することができる。これにより、不要なアラームにより運転者がアラームに慣れてしまうことを防ぐことができる。
(10)第10の態様に係る処理装置(40)は、(1)から(9)の何れか1つの処理装置(40)であって、前記算出部(402)が検出した前記対象物の位置に基づいて前記車両と前記対象物とが接触し得る第1状態を特定する特定部(404)をさらに備え、前記推定部(407)は、前記算出部(402)が検出した前記対象物の位置、前記第1検出部(405)が検出した前記視線方向、および前記対象物の位置を検出したときの車両の状態である第2状態と前記第1状態との距離に基づいて、前記危険度を推定する。
この処理装置(40)により、運転者の認識だけでなく、対象物と車両の状態から総合的に危険度を算出してアラームを出力するか否かを決めることができる。
(11)第11の態様に係る処理装置(40)は、(1)から(10)の何れか1つの処理装置(40)であって、前記制御部(411)は、前記運転者に、前記対象物の位置に係る方向を前記運転者の顔の角度だけ回転させた方向から、音が聞こえるように前記スピーカを制御するものであってよい。
この処理装置(40)により、運転者が正面を向いていない場合にも、運転者にどの方向に対象物が存在するのかを適切に知らせることができる。
(12)第12の態様に係る処理方法は、車両(1)に対する障害物となり得る対象物の位置を検出することと、前記車両(1)の運転者の視線方向を検出することと、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、を含む。
この処理方法により、車両(1)の運転者の状態に応じた態様で、車両(1)の周囲の人物や対象物の存在を報知することができる。
(13)第13の態様に係るプログラムは、コンピュータに、車両(1)に対する障害物となり得る対象物の位置を検出することと、前記車両の運転者の視線方向を検出することと、前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、を実行させる。
このプログラムにより、車両(1)の運転者の状態に応じた態様で、車両(1)の周囲の人物や対象物の存在を報知することができる。
1・・・産業車両
2・・・上位装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・操作装置
20・・・撮影装置
20a・・・第1カメラ
20b・・・第2カメラ
20c・・・第3カメラ
20d・・・第4カメラ
21・・・受信部
22・・・記憶部
23・・・通知部
30・・・出力装置
30a・・・第1スピーカ
30b・・・第2スピーカ
30c・・・第3スピーカ
30d・・・第4スピーカ
40・・・処理装置
401・・・認識部
402・・・算出部
403・・・取得部
404・・・特定部
405・・・第1検出部
406・・・第1判定部
407・・・推定部
408・・・決定部
409・・・タグ付け部
410・・・記録部
411・・・制御部
412・・・記憶部
413・・・第2検出部
414・・・第2判定部
415・・・第3検出部
416・・・第3判定部

Claims (14)

  1. 車両に対する障害物となり得る対象物の位置を検出する算出部と、
    前記車両の運転者の視線方向を検出する第1検出部と、
    前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定する決定部と、
    前記位置に対応するスピーカを、前記態様の音を出力するように制御する制御部と、
    を備える処理装置。
  2. 前記位置と前記運転者の視線方向とに基づいて、前記運転者が前記対象物を認識しているか否かを判定する第1判定部をさらに備え、
    前記決定部は、
    前記運転者が前記対象物を認識していないと前記第1判定部が判定した場合、前記態様を第1音量の態様に決定し、前記運転者が前記対象物を認識していると前記第1判定部が判定した場合、前記態様を前記第1音量よりも小さな第2音量の態様に決定する、
    請求項1に記載の処理装置。
  3. 前記対象物が人物であり、前記人物の視線方向を検出する第2検出部
    をさらに備え、
    前記決定部は、
    前記人物の視線方向に基づいて、前記態様を決定する
    請求項1または請求項2に記載の処理装置。
  4. 前記人物の視線方向に基づいて、前記人物が前記車両を認識しているか否かを判定する第2判定部をさらに備え、
    前記決定部は、
    前記人物が前記車両を認識していないと前記第2判定部が判定した場合、前記態様を第3音量の態様に決定し、前記人物が前記車両を認識していると前記第2判定部が判定した場合、前記態様を前記第3音量よりも小さな第4音量の態様に決定する、
    請求項3に記載の処理装置。
  5. 前記第2判定部は、前記人物の視線方向が、前記人物が前記車両を認識可能とする範囲外に存在する場合に、前記人物が前記車両を認識していないと判定する
    請求項4に記載の処理装置。
  6. 前記対象物が人物であり、前記人物の姿勢を検出する第3検出部
    をさらに備え、
    前記決定部は、
    前記姿勢に基づいて、前記態様を決定する、
    請求項1から請求項5の何れか一項に記載の処理装置。
  7. 前記姿勢に基づいて前記人物が移動できる状態であるか否かを判定する第3判定部をさらに備え、
    前記決定部は、
    前記人物が移動できない状態であると前記第3判定部が判定した場合、前記態様を第5音量の態様に決定し、前記人物が移動できる状態であると前記第3判定部が判定した場合、前記態様を前記第5音量よりも小さな第6音量の態様に決定する、
    請求項6に記載の処理装置。
  8. 前記第3検出部は、前記人物の姿勢を検出可能な画像を取得し、
    前記第3判定部は、学習済みモデルに前記画像を入力することで前記人物が移動できる状態であるか否かを判定し、
    前記学習済みモデルは、人物が写る画像と当該人物の実際の移動結果を示す実績情報とを含む学習用データセットを用いてパラメータが学習された
    請求項7に記載の処理装置。
  9. 前記算出部が検出した前記対象物の位置と前記第1検出部が検出した前記視線方向とに基づいて前記対象物に係る危険度を推定する推定部をさらに備え、
    前記決定部は、前記危険度に基づいて前記態様を決定し、
    前記制御部は、前記危険度がしきい値より低い場合に、前記アラームを出力しない
    請求項1から請求項8の何れか1項に記載の処理装置。
  10. 前記算出部が検出した前記対象物の位置に基づいて前記車両と前記対象物とが接触し得る第1状態を特定する特定部をさらに備え、
    前記推定部は、
    前記算出部が検出した前記対象物の位置、前記第1検出部が検出した前記視線方向、および前記対象物の位置を検出したときの車両の状態である第2状態と前記第1状態との距離に基づいて、前記危険度を推定する
    請求項9に記載の処理装置。
  11. 前記制御部は、前記運転者に、前記対象物の位置に係る方向を前記運転者の顔の角度だけ回転させた方向から、音が聞こえるように前記スピーカを制御する
    請求項1から請求項10の何れか1項に記載の処理装置。
  12. 請求項1から請求項11の何れか1項に記載の処理装置と
    前記車両とを備える
    報知システム。
  13. 車両に対する障害物となり得る対象物の位置を検出することと、
    前記車両の運転者の視線方向を検出することと、
    前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、
    前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、
    を含む処理方法。
  14. コンピュータに、
    車両に対する障害物となり得る対象物の位置を検出することと、
    前記車両の運転者の視線方向を検出することと、
    前記位置と前記運転者の視線方向とに基づいてアラームの態様を決定することと、
    前記位置に対応するスピーカを、前記態様の音を出力するように制御することと、
    を実行させるプログラム。
JP2020030842A 2020-02-26 2020-02-26 処理装置、処理方法、報知システム及びプログラム Active JP7267222B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020030842A JP7267222B2 (ja) 2020-02-26 2020-02-26 処理装置、処理方法、報知システム及びプログラム
US17/179,851 US11802032B2 (en) 2020-02-26 2021-02-19 Processing device, processing method, notification system, and recording medium
CN202110197250.9A CN113307192B (zh) 2020-02-26 2021-02-22 处理装置、处理方法、通报系统及存储介质
EP21158985.8A EP3872787B1 (en) 2020-02-26 2021-02-24 Processing device, processing method, notification system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030842A JP7267222B2 (ja) 2020-02-26 2020-02-26 処理装置、処理方法、報知システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2021135694A true JP2021135694A (ja) 2021-09-13
JP7267222B2 JP7267222B2 (ja) 2023-05-01

Family

ID=74946951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030842A Active JP7267222B2 (ja) 2020-02-26 2020-02-26 処理装置、処理方法、報知システム及びプログラム

Country Status (4)

Country Link
US (1) US11802032B2 (ja)
EP (1) EP3872787B1 (ja)
JP (1) JP7267222B2 (ja)
CN (1) CN113307192B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223524A1 (ja) * 2022-05-20 2023-11-23 三菱電機株式会社 運転支援装置、路車間運転支援システム、運転支援方法、および運転支援プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2006350934A (ja) * 2005-06-20 2006-12-28 Denso Corp 情報表示装置
JP2011198247A (ja) * 2010-03-23 2011-10-06 Toyota Motor Corp 運転支援装置
JP2014059841A (ja) * 2012-09-19 2014-04-03 Daimler Ag 運転支援装置
WO2015037117A1 (ja) * 2013-09-13 2015-03-19 日立マクセル株式会社 情報表示システム及び情報表示装置
JP2017224165A (ja) * 2016-06-15 2017-12-21 矢崎総業株式会社 車両用方向提示装置
JP2018156176A (ja) * 2017-03-15 2018-10-04 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP2019171901A (ja) * 2018-03-27 2019-10-10 パナソニックIpマネジメント株式会社 車両警告システム、コントローラ及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5354514B2 (ja) 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
US20110187844A1 (en) 2008-09-12 2011-08-04 Kabushiki Kaisha Toshiba Image irradiation system and image irradiation method
CN101630369B (zh) * 2009-07-30 2012-03-07 南京航空航天大学 一种基于小波分形特征的行人检测方法
CN102249169B (zh) 2010-05-18 2013-06-26 南京梅山冶金发展有限公司 炮筒叉车操作可视定位方法及装置
CN102298702B (zh) 2010-06-28 2015-08-05 北京中星微电子有限公司 一种人体姿态的检测方法及装置
JP5659991B2 (ja) 2011-09-13 2015-01-28 株式会社豊田自動織機 産業車両
CN103601113A (zh) * 2013-10-25 2014-02-26 青岛现代海麟重工有限公司 一种无门架叉车的使用方法
US9786177B2 (en) * 2015-04-10 2017-10-10 Honda Motor Co., Ltd. Pedestrian path predictions
JP5985704B1 (ja) 2015-06-01 2016-09-06 サンコー・エア・セルテック株式会社 フォークリフト安全装置
US9864918B2 (en) 2015-11-04 2018-01-09 Ford Global Technologies, Llc Predicting vehicle movements based on driver body language
JP6589734B2 (ja) 2016-04-20 2019-10-16 株式会社デンソー 乗員状態推定装置
JP2018036937A (ja) 2016-09-01 2018-03-08 住友電気工業株式会社 画像処理装置、画像処理システム、画像処理プログラムおよびラベル
US11249544B2 (en) * 2016-11-21 2022-02-15 TeleLingo Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
CN107176567B (zh) 2016-12-19 2019-06-04 林德(中国)叉车有限公司 一种叉车门架防撞方法及装置
CN207468161U (zh) 2017-11-16 2018-06-08 国网江苏省电力公司泰州供电公司 一种基于UWB技术和LoRa技术的叉车防撞智能报警系统
JP2019209917A (ja) * 2018-06-07 2019-12-12 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
CN112534487B (zh) * 2018-08-09 2024-03-08 索尼半导体解决方案公司 信息处理设备、移动体、信息处理方法和程序
US20200398743A1 (en) * 2019-06-24 2020-12-24 GM Global Technology Operations LLC Method and apparatus for learning how to notify pedestrians

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2006350934A (ja) * 2005-06-20 2006-12-28 Denso Corp 情報表示装置
JP2011198247A (ja) * 2010-03-23 2011-10-06 Toyota Motor Corp 運転支援装置
JP2014059841A (ja) * 2012-09-19 2014-04-03 Daimler Ag 運転支援装置
WO2015037117A1 (ja) * 2013-09-13 2015-03-19 日立マクセル株式会社 情報表示システム及び情報表示装置
JP2017224165A (ja) * 2016-06-15 2017-12-21 矢崎総業株式会社 車両用方向提示装置
JP2018156176A (ja) * 2017-03-15 2018-10-04 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP2019171901A (ja) * 2018-03-27 2019-10-10 パナソニックIpマネジメント株式会社 車両警告システム、コントローラ及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223524A1 (ja) * 2022-05-20 2023-11-23 三菱電機株式会社 運転支援装置、路車間運転支援システム、運転支援方法、および運転支援プログラム

Also Published As

Publication number Publication date
CN113307192B (zh) 2024-02-06
EP3872787B1 (en) 2022-10-12
US20210261136A1 (en) 2021-08-26
CN113307192A (zh) 2021-08-27
JP7267222B2 (ja) 2023-05-01
EP3872787A1 (en) 2021-09-01
US11802032B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
JP2009040107A (ja) 画像表示制御装置及び画像表示制御システム
WO2019204495A1 (en) Methods, systems, and media for determining characteristics of roads
WO2018150580A1 (ja) 走行計画修正装置および走行計画修正方法
JP2008018872A (ja) 運転支援装置、自動車及び運転支援方法
US20150183369A1 (en) Method, apparatus, computer program and system for controlling a vehicle's alert output
KR102080124B1 (ko) 음성 처리장치 및 음성 처리방법
WO2019188926A1 (ja) 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
JP6806107B2 (ja) 障害物認識支援装置、障害物認識支援方法、プログラム
US20180022357A1 (en) Driving recorder system
JP2021135694A (ja) 処理装置、処理方法、報知システム及びプログラム
JP7013722B2 (ja) 運転支援装置
US20220301185A1 (en) Information processing apparatus, information processing method, and storage medium for estimating movement amount of moving object
JPWO2020174601A1 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP2020160850A (ja) 処理装置
US11383733B2 (en) Method and system for detecting a dangerous driving condition for a vehicle, and non-transitory computer readable medium storing program for implementing the method
US20230075659A1 (en) Object ranging apparatus, method, and computer readable medium
CN110167781A (zh) 显示装置以及显示方法
JP7267221B2 (ja) 処理装置、処理方法、推定システム及びプログラム
CN115690748B (zh) 用于占据类预测的方法和用于遮挡值确定的方法
WO2020250962A1 (ja) 画像処理装置、画像処理方法、記録媒体
CN114648504B (zh) 自动驾驶方法、装置、电子设备和存储介质
US20220165067A1 (en) Method, system and computer program product for detecting movements of the vehicle body in the case of a motor vehicle
WO2021182484A1 (ja) 安全運転判定装置
WO2021156989A1 (ja) 予兆検知装置、運転支援制御装置及び予兆検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150