JP7267221B2 - Processing device, processing method, estimation system and program - Google Patents
Processing device, processing method, estimation system and program Download PDFInfo
- Publication number
- JP7267221B2 JP7267221B2 JP2020030841A JP2020030841A JP7267221B2 JP 7267221 B2 JP7267221 B2 JP 7267221B2 JP 2020030841 A JP2020030841 A JP 2020030841A JP 2020030841 A JP2020030841 A JP 2020030841A JP 7267221 B2 JP7267221 B2 JP 7267221B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- risk
- state
- degree
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本開示は、処理装置、処理方法、推定システム及びプログラムに関する。 The present disclosure relates to a processing device, a processing method, an estimation system and a program.
フォークリフトやホイルローダーなどの産業車両は、車両本体が備える車輪の切れ角や車両の構造など、一般的な乗用車とは異なる特徴を有している。そのため、特に産業車両の運転経験の少ない運転者にとっては、産業車両の運転や荷役などの作業をしているときに実際に車両が移動する領域が予想と異なる可能性があったり、運転者が死角となる領域を認識できていなかったりする可能性がある。
特許文献1には、関連する技術として、フォークリフトの後進時に運転者に注意を喚起する技術が記載されている。
Industrial vehicles such as forklifts and wheel loaders have characteristics that differ from general passenger vehicles, such as the steering angle of the wheels of the vehicle body and the structure of the vehicle. Therefore, especially for drivers who have little experience driving industrial vehicles, there is a possibility that the area where the vehicle actually moves may differ from what they expected when driving industrial vehicles or performing work such as loading and unloading. There is a possibility that the blind spot area is not recognized.
ところで、運転者が車両を操作しているときに、その車両がその周囲に存在する人の近くを通り過ぎたり、人がその車両の前を横切ったりするなど、事故にならないまでも危険な状態に一時的になる、いわゆる「ヒヤリハット」の状態となる場合がある。運転者は、ヒヤリハットの状態となったこと自体に気づかない場合もある。またカメラやセンサなどの安全装置が備えられている場合でも、直接事故にならない、いわゆる「ヒヤリハット」の状態は通知されない場合もある。しかしながら、運転者がヒヤリハットの状態となったことに気づけば、それ以降、同様のヒヤリハットの状態となった場合に慎重に運転することができる。
そのため、運転者が運転中の車両の危険度を適切に推定することのできる技術が求められている。
By the way, while the driver is operating the vehicle, if the vehicle passes near people in the surroundings or crosses in front of the vehicle, a dangerous situation may occur, even if it does not result in an accident. In some cases, a so-called “hiyari-hatto” state, which is temporary, may occur. In some cases, the driver does not even notice that the near-miss situation has occurred. In addition, even if a safety device such as a camera or sensor is provided, there are cases in which a so-called "hiyari-hatto" state, which does not directly lead to an accident, is not notified. However, once the driver becomes aware of the near-miss situation, he/she can drive cautiously in the event of similar near-miss situations thereafter.
Therefore, there is a demand for a technology that allows a driver to appropriately estimate the degree of danger of a vehicle that is being driven.
本開示の少なくとも一実施形態は、上述の事情に鑑みてなされたものであり、運転者が運転中の車両の危険度を推定することのできる処理装置、処理方法、推定システム及びプログラムを提供することを目的としている。 At least one embodiment of the present disclosure has been made in view of the circumstances described above, and provides a processing device, processing method, estimation system, and program capable of estimating the degree of risk of a vehicle being driven by a driver. It is intended to
上記課題を解決するために、本開示に係る処理装置は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定する特定部と、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定する推定部とを備える。
また、本開示に係る処理装置は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定する特定部と、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部と、を備え、前記推定部は、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行う。
In order to solve the above problems, a processing device according to the present disclosure includes a calculation unit that calculates a position of a target object relative to the vehicle based on an image captured from the vehicle; a specifying unit for specifying a plurality of first states indicating a state of the vehicle when drawing a travel locus in contact with an object; a second state indicating the state of the vehicle when the image is captured; and a plurality of the first states. an estimating unit for estimating the degree of risk associated with the object based on the difference from each state.
Further, the processing device according to the present disclosure includes a calculation unit that calculates a position of an object with respect to the vehicle based on an image captured from the vehicle, and a contact between the vehicle and the object based on the position. an identifying unit for identifying a first state; and an estimating unit for estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state. and, when the object is a person, the estimating unit estimates the degree of risk when the moving direction of the person intersects with a first line-of-sight direction indicating the line-of-sight direction of the driver. Weighting is performed so that the degree of risk is lower than that in the case where the moving direction and the first line-of-sight direction do not intersect.
本開示に係る処理方法は、コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記コンピュータが、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、を含む。
また、本開示に係る処理方法は、コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、前記コンピュータが、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うこととを含む。
A processing method according to the present disclosure comprises: a computer detecting a position of an object relative to the vehicle based on an image taken from the vehicle; specifying a plurality of first states indicating the state of the vehicle when the contact traveling locus is drawn; and specifying a second state and the plurality of the second states indicating the state of the vehicle when the image is captured by the computer. estimating a risk associated with the object based on the difference from each of the one states.
Further, the processing method according to the present disclosure includes: a computer calculating a position of an object with respect to the vehicle based on an image taken from the vehicle; identifying a first state in which an object can come into contact; and when the object is a person, the degree of risk when the movement direction of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is calculated by estimating the degree of risk of the person and weighting the movement direction less than the risk if the first line-of-sight direction does not intersect.
本開示に係るプログラムは、コンピュータに、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、を実行させる。
また、本開示に係るプログラムは、コンピュータに、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うこととを実行させる。
A program according to the present disclosure causes a computer to detect a position of an object with respect to the vehicle based on an image taken from the vehicle, and based on the position, determine a travel trajectory in which the vehicle contacts the object. Based on identifying a plurality of first states indicating the state of the vehicle when the image is drawn, and a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states. , and estimating the degree of risk associated with the object.
Further, the program according to the present disclosure causes a computer to calculate a position of an object with respect to the vehicle based on an image taken from the vehicle, and based on the position, the vehicle and the object contact each other. identifying a first state to be obtained; and estimating the degree of risk associated with the object based on the difference between a second state indicating the state of the vehicle when the image was captured and the first state. , when the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction; weighting the risk to be lower than the risk when they do not intersect with each other.
本開示の少なくとも一実施形態によれば、運転者が運転中の車両の危険度を推定することができる。 According to at least one embodiment of the present disclosure, it is possible to estimate the degree of danger of the vehicle being driven by the driver.
<第1実施形態>
以下、本開示の第1実施形態による危険度推定システム100について説明する。
(危険度推定システムの構成)
危険度推定システム100は、産業車両1(車両の一例)、上位装置2を備える。
(産業車両の構成)
産業車両1は、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度、その他の検知しうる産業車両1の情報(以下、車両状態)及び、産業車両1に対して検出される対象物の位置に基づいて、産業車両1の危険度を推定する車両である。
<First embodiment>
The
(Configuration of risk estimation system)
A
(Construction of industrial vehicle)
The
産業車両1は、例えば、図1に示すようなフォークリフトである。ただし、ホイルローダーなどの建設機械、荷役装置や後輪操舵などの同様の機構を持つ車両、もしくは同様の課題を持つ車両でもよい。
産業車両1は、図1に示すように、操作装置10、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20d、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30d、処理装置40を備える。なお、処理装置40は、図示していないセンサや操作装置10の状態から産業車両1の車両状態を取得する。
なお、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dを総称して撮影装置20と呼ぶ。また、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを総称して通知装置30と呼ぶ。
The
As shown in FIG. 1, the
The
操作装置10は、運転者が移動または荷役作業を産業車両1にさせる操作を受け付ける装置である。例えば、操作装置10は、産業車両1の前進・後退を決定するシフトレバー、産業車両1の操舵角を決定するステアリング、産業車両1の車速や加速度を調整するためのアクセル及びブレーキなどである。
The
図2は、産業車両1を真上から俯瞰した場合の概略図である。撮影装置20は、複数のカメラが各々産業車両1の外周方向を撮影するように設けられており、産業車両1の全周囲を撮影する。
例えば、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dは、図1に示すように、それぞれ産業車両1の上部前方、上部右側、上部後方、上部左側に設けられる。そして、例えば、第1カメラ20aは、図2に示す第1撮影領域A1を撮影する。同様に、第2カメラ20b、第3カメラ20c、第4カメラ20dは、それぞれ図2に示す第2撮影領域A2、第3撮影領域A3、第4撮影領域A4を撮影する。
なお、本開示の第1実施形態では、産業車両1の上部前方、上部右側、上部後方、上部左側のそれぞれにカメラを設けたが、異なる向きに設けてもよい。また、上記カメラが魚眼レンズなどの視野角の広いレンズを備えることで、さらにカメラの台数を減らすことができる。また、死角ができる場合は5台以上のカメラを設けることもできる。これらのカメラによって認識される対象物には人物が含まれる。なお、ここで死角とは、産業車両1の近傍の対象物を認識すべき領域のうち、いずれのカメラにも撮影されない領域のことである。
FIG. 2 is a schematic diagram of the
For example, the
In addition, in the first embodiment of the present disclosure, the cameras are provided in the upper front, the upper right, the upper rear, and the upper left of the
通知装置30は、処理装置40による制御の下、音を出力する。
例えば、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dは、図1に示すように、それぞれ運転席の右前方、右後方、左後方、左前方に設けられる。そして、処理装置40によって、撮影装置20が撮影した画像において対象物が発見された場合に、その対象物の位置に対応する方向に設けられているスピーカは、音を出力する。
なお、通知装置30は、対象物が複数発見された場合には、認識された対象物それぞれに対応するスピーカから音を出力する。
For example, the
Note that, when a plurality of objects are found, the
処理装置40は、産業車両1の車両状態と、撮影された画像により認識した対象物の状態(対象物状態)とに基づいて、産業車両1の危険度を推定する装置である。産業車両1の車両状態とは、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度を含む状態である。また、処理装置40は、車両状態と対象物状態に基づいて、通知装置30を制御する装置である。なお、処理装置40は、対象物が複数認識された場合、各対象物について危険度を推定する。
処理装置40は、図3に示すように、認識部401、位置算出部402、(算出部の一例)、取得部403、特定部404、推定部405、タグ付け部406、記録部407、制御部408、記憶部409を備える。
The
As shown in FIG. 3, the
認識部401は、撮影装置20が撮影した画像において対象物を認識する。
例えば、認識部401は、人物を含む対象物についての特徴を予め記憶する。そして、認識部401は、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dの順に、撮影された画像を繰り返し取得する。認識部401は、画像を取得する度に、パターン認識の技術を用いて、取得した画像において予め記憶している人物を含む対象物が含まれていると判定した場合、対象物を認識したと判定する。
The
For example, the
位置算出部402は、認識部401が取得した画像において対象物を認識した場合、その画像から、産業車両1に対する対象物の位置を算出する。つまり、位置算出部402は、産業車両1を基準とする対象物の相対位置を算出する。
位置算出部402は、例えば、以下の手順で画像から産業車両1に対する対象物の位置を算出する。産業車両1に対する対象物の位置は、産業車両1に対する対象物の方向および距離によって表される。
The
For example, the
位置算出部402は、例えば以下の手順で産業車両1に対する対象物の方向を算出する。まず、位置算出部402は、対象物が写る部分が、画像のどの位置に含まれているかによって撮影装置20に対する対象物の方向を特定する(以下、認識方向情報)。次に、位置算出部402は、対象物が認識された画像が、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dのうちのどのカメラから取得したかを特定する(以下、認識カメラ情報)。位置算出部402は、認識カメラ情報に基づいて、産業車両1に対するカメラの位置及び向きを特定する。そして、位置算出部402は、特定したカメラの位置及び向きと認識方向情報とに基づいて、産業車両1に対する対象物の方向を算出する。
また、位置算出部402は、例えば以下の手順で認識した対象物と産業車両1との間の距離を算出する。例えば、位置算出部402は、対象物の寸法に対応する画像サイズ(画素数)を記憶しておき、記憶した画像サイズと画像内で認識した対象物のサイズ(画素数)との比から産業車両1から対象物までの距離を算出する。
これにより、位置算出部402は、産業車両1に対する対象物の方向と距離情報とを特定することで、産業車両1に対する対象物の位置を算出することができる。
なお、距離情報に含まれる産業車両1から対象物までの距離は、対象物を認識したカメラからの距離である。そのため、位置算出部402は、対象物を認識したカメラの産業車両1に設けられる位置や向きを考慮することで、産業車両1から見た対象物の位置を特定することができる。
The
Further, the
Accordingly, the
The distance from the
なお、例えば、撮影装置20がステレオカメラである場合、位置算出部402は、ステレオカメラが撮影した各撮影タイミングの一対の撮影画像に対して三角測量技術を用いることで、産業車両1から対象物までの距離を算出することができる。その他、位置算出部402は、産業車両1に設けられた距離センサが出力する検出信号に基づいて産業車両1と対象物との距離を算出してもよい。
Note that, for example, when the
取得部403は、産業車両1に設けられた図示していないセンサ、及び、操作装置10の状態から産業車両1の車両状態を取得する。
例えば、取得部403は、産業車両1に設けられた図示していないセンサから現在の産業車両1の車速を取得する。また、取得部403は、操作装置10の変化によって出力される信号を取得する、もしくは定期的に操作装置10の状態を示す信号を取得する。ここで、取得部403が産業車両1に設けられた図示していないセンサ及び操作装置10から取得する産業車両1の車両状態は、車速のほかにも運転者がステアリングを回転させたときの産業車両1の操舵角、運転者がシフトレバーを前進や後退に切り替えたときの産業車両1の進行方向、運転者がアクセルを踏み込んだときの産業車両1の正の加速度、運転者がブレーキを踏み込んだ時の産業車両1の減速度(負の加速度)などの状態が含まれる。
The
For example, the
特定部404は、位置算出部402が算出した産業車両1に対する対象物の位置と、特定部404が取得した産業車両1の車両状態とに基づいて、産業車両1と対象物とが接触し得る車両状態(第1状態)を特定する。具体的には、特定部404は、産業車両1に対する対象物の位置と産業車両1の現在の車速とに基づいて、産業車両1と対象物とが接触し得る操舵角と加速度の組み合わせを特定する。加速度は、アクセルによる正の加速度と、ブレーキによる負の加速度の両方を含む。なお、接触するような操舵角と加速度の組み合わせは、複数存在し得る。これは、加速度によって車両の速度が変化し、操舵角との組み合わせによって検出物と衝突する走行軌跡が複数存在するためである。すなわち、産業車両1の旋回半径は操舵角が大きいほど小さく、また速度が速いほど(加速度が高いほど)大きくなるため、走行軌跡は操舵角と速度(加速度)との組み合わせによって変化する。
Based on the position of the object relative to the
推定部405は、取得部403が取得した産業車両1の車両状態と、特定部404が特定した産業車両1と対象物とが接触し得る車両状態に基づいて、産業車両1の危険度を推定する。
推定部405は、以下の手順で危険度を推定する。
The estimating
The
推定部405は、特定部404が特定した操舵角と加速度の組み合わせごとに、特定部404が特定した現在の操舵角と加速度(第2加速度の一例)の組み合わせとの差(ギャップ)を算出する。なお、ギャップが小さい値であるほど、少しの車両状態の変化で対象物と接触しうることを意味する。なお、現在の車両状態を維持した場合に対象物と接触し得る場合はギャップが0となる。
推定部405は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部405は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部405による危険度の具体的な計算方法は、後述する。
The
Based on the vehicle speed of the
Then, the
A specific method of calculating the degree of risk by the
タグ付け部406は、推定部405が危険度を演算する度に、当該危険度と、所定のタグ情報とを関連付けて、記憶部409に書き込む。タグ付け部406は、危険度をタグ情報と関連付けて記憶部409に記録する記録部の一例である。タグ情報は、産業車両1の運転者のID、危険度が演算された時刻、取得部403が取得した産業車両1の車両状態、当該危険度の推定に用いられた画像、ならびに認識部401が特定した産業車両1に対する対象物の位置の関係を含む情報である。以下、危険度とタグ情報とを関連付けた情報を、危険度情報ともいう。
Each time the
記録部407は、記憶部409に書き込まれた危険度情報を上位装置2に送信することで、危険度情報を上位装置2のデータベース22に記録する。
なお、記録部407は、すべての危険度情報を上位装置2に書き込むのではなく、危険度情報のうち、危険度が第1しきい値以上であり、かつ、第2しきい値以下であるものを上位装置2に送信するものであってもよい。なお、第1しきい値は、これ以下であれば産業車両1を安全に運転できることを示すしきい値である。また、第2しきい値は、これ以上は産業車両1と対象物との接触の可能性が高く危険であることを示すしきい値である。この第1しきい値以上であり、かつ、第2しきい値以下である危険度が、直接事故には至らないが危険な状態(すなわち、「ヒヤリハット」の状態)を示す危険度となる。また、運転者ごとに第1しきい値と第2しきい値とを設定することにより、上位装置2は、運転者ごとに、ヒヤリハットを通知することが可能となる。また、記録部407は、第1しきい値以上である危険度を上位装置2に書き込むものであってもよい。
The
It should be noted that the
制御部408は、推定部405が演算した危険度に基づいて、通知装置30を制御する。
The
例えば、取得した画像から求められた産業車両1に対する対象物の位置が産業車両1の右前方である場合、その画像と関連付けられた危険度が予め定めた第3しきい値を超えているときに、制御部408は、第1スピーカ30aから音が出力されるように、通知装置30を制御する。なお、第3しきい値は、音を出力するか否かを判定するための危険度のしきい値である。第3しきい値は、第1しきい値または第2しきい値と同一の値であってもよい。第3しきい値が、第1しきい値または第2しきい値と異なる場合は、第1しきい値または第2しきい値とは異なる制御を行ってもよい。
同様に、産業車両1に対する対象物の位置が産業車両1の右後方、左後方、左前方である場合、その画像と関連付けられた危険度が第3しきい値を超えているときに、制御部408は、それぞれ、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dから音が出力されるように、通知装置30を制御する。
For example, when the position of the object relative to the
Similarly, if the position of the object relative to the
記憶部409は、前述のように処理装置40が行う処理に必要な種々の情報を記憶する。
The
(危険度の計算方法)
ここで、推定部405による危険度の推定方法の例について説明する。
まず、特定部404は、図4に示すように、産業車両1に対する対象物の位置と産業車両1の現在の車速とを初期条件として、産業車両1が取り得る操舵角範囲における複数の操舵角(例えば1度刻み)について、産業車両1が対象物に接触するような加速度を算出する。例えば、特定部404は、初速、加速度および操舵角を定数とし、および時間を説明変数とし、産業車両1の位置を目的変数とする関数(すなわち産業車両1の軌跡を描く曲線関数)において、産業車両1の軌跡が対象物の位置を通過するような加速度を求める。なお、操舵角によっては、産業車両1が対象物に接触するような加速度が存在しないこともある。特定部404は、複数の操舵角のうち、産業車両1が対象物に接触するような加速度が存在するものを抽出する。以下、抽出した操舵角と加速度の組み合わせを接触ケースともいう。図4に示すように、特定部404は各接触ケースにはケースNoを割り振る。なお、図4においては、産業車両1との接触が生じるか否かに関わらず、産業車両1の現在の状態に、ケースNo.0を割り振っている。
(How to calculate the degree of risk)
Here, an example of a method of estimating the degree of risk by the estimating
First, as shown in FIG. 4, the specifying
推定部405は、抽出した接触ケースのそれぞれについて、産業車両1の現在の状態(ケースNo.0に係る状態)と接触ケースに係る状態とのギャップ(差)を算出する。例えば、推定部405は、現在の操舵角と接触ケースに係る操舵角との差に所定の重みを乗じた値と、現在の加速度と接触ケースに係る加速度との差に所定の重みを乗じた値との和(加重マンハッタン距離)を、ギャップとして算出する。また、推定部405は、ユークリッド距離などの他の基準に基づいてギャップを算出してもよい。
具体的には、図4に示す例では、ケースNo.2のギャップは8である。それに対して、ケースNo.3は、ケースNo.2に比べて現状との差が操舵角と加速度の両方とも大きい。そのため、ケースNo.3のギャップは、ケースNo.2のギャップよりも大きい10となる。
The
Specifically, in the example shown in FIG. The gap of 2 is 8. In contrast, case no. 3 is case no. Compared to 2, the difference from the current situation is large in both the steering angle and the acceleration. Therefore, case no. 3 gap is case no. 10, which is greater than the gap of 2.
推定部405は、抽出した接触ケースのそれぞれについて、産業車両1の現在の車速と、当該接触ケースに係る加速度とに基づいて、産業車両1が対象物に接触するまでの時間を算出する。例えば、推定部405は、上記の曲線関数に基づいて産業車両1の位置が対象物の位置と一致するときの時間を求める。
For each of the extracted contact cases, the
そして、推定部405は、各接触ケースについて、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を推定する。推定部405は、図5に示すように、ギャップが小さくなるにつれて危険度が高くなり、対象物に接触するまでの時間が短くなるにつれて危険度が高くなる所定の関数を用いて危険度を推定する。例えば、推定部405は、ギャップに所定の重みを乗じた値と接触するまでの時間に所定の重みを乗じた値との和の逆数を求めることで危険度を推定してよい。
なお、ギャップが一定の値よりも大きい、または、対象物に接触するまでの時間が一定時間よりも長い場合には、産業車両1がそのような状況になる可能性が低く危険度が低い、または、危険を回避するための時間が十分にあり危険度が低いという考えに基づいて、推定部405は、図5に示すように、それらの場合を危険度の推定の対象外にしてもよい。
また、推定部405は、状況に応じて、危険度の推定に使用する関数を変更するものであってもよい。例えば、推定部405は、ギャップが小さくなるにつれて比例する危険度に比べて、より危険度が高くなる重み付けを行うものであってもよい。また、推定部405は、対象物に接触するまでの時間が短くなるにつれて比例する危険度に比べて、より危険度が高くなる重み付けを行うものであってもよい。
Then, the estimating
Note that if the gap is larger than a certain value, or if the time until contact with the object is longer than the certain time, the possibility that the
Also, the
(上位装置の構成)
上位装置2は、図6に示すように、受信部21、データベース22(記憶部の一例)、通知部23を備える。
受信部21は、産業車両1から危険度情報を受信する。受信部21は、受信した危険度情報をデータベース22に記録する。
データベース22は、上位装置2が行う処理に必要な種々の情報を記憶する。
(Configuration of host device)
The
The receiving
The
通知部23は、運転者ごとに、データベース22が記憶するタグ情報が関連付けられた危険度を通知する。すなわち、通知部23は、データベース22が記憶する危険度情報のうち、通知対象の運転者のIDが保持されたタグ情報を含むものを、当該通知対象の運転者に通知する。これにより、運転者は、産業車両1の運転において生じたヒヤリハット、およびそのヒヤリハットが生じる状態における操作を把握することができる。つまり、上位装置2は、運転者の自覚なくヒヤリハットが生じた場合にも、そのヒヤリハットの存在を運転者に気付かせることができる。これにより、以降、同様のヒヤリハットの状態となった場合に運転者が慎重に運転することを期待することができる。
また、当該通知により、運転者は、そのヒヤリハットが生じる状態における操作を練習することで、産業車両1の運転技能を向上させることができる。その結果、危険な運転が低減し、事故を低減させることができる。
The
In addition, the notification allows the driver to improve the driving skill of the
(情報処理装置が行う処理)
次に、危険度を算出する危険度推定システム100が行う処理について説明する。
ここでは、図7に示す危険度推定システム100の処理フローについて説明する。
なお、撮影装置20は、産業車両1の全周囲を撮影しているものとする。処理装置40は、所定の制御周期ごとに、図7に示す処理を実行する。
(Processing performed by information processing device)
Next, the processing performed by the
Here, the processing flow of the
It is assumed that the
認識部401は、撮影装置20から撮影された画像を取得する(ステップS1)。認識部401は、パターン認識の技術を用いて、ステップS1で、取得した画像に対象物が含まれているか否かを判定する(ステップS2)。
The
認識部401は、取得した画像に対象物が含まれていないと判定した場合(ステップS2においてNO)、処理を終了する。
When the recognizing
また、認識部401は、取得した画像に対象物が含まれていると判定した場合(ステップS2においてYES)、位置算出部402は、その画像に基づいて、産業車両1に対する対象物の位置を算出する(ステップS3)。
When the
取得部403は、産業車両に設けられた図示していないセンサ等から現在の産業車両1の車両状態を取得する(ステップS4)。
The
特定部404は、ステップS3で認識部401が特定した産業車両1に対する対象物の位置と、ステップS4で取得した産業車両1の現在の車速とに基づいて、産業車両1が対象物に接触するような操舵角と加速度の組み合わせ(接触ケース)を特定する(ステップS5)。
The
推定部405は、特定した接触ケースごとに、ステップS4で取得した現在の車両状態と接触ケースに係る車両状態とのギャップを算出する(ステップS6)。
The
推定部405は、ステップS4で取得した産業車両1の車速及び特定した接触ケースに係る加速度と操舵角から求められる軌跡に基づいて、特定した接触ケースごとに、対象物に接触するまでの時間を算出する(ステップS7)。
The estimating
推定部405は、各接触ケースについて、ステップS6で算出したギャップと、ステップS7で算出した対象物に接触するまでの時間とに基づいて危険度を推定する(ステップS8)。
The
制御部408は、推定部405が推定した危険度が予め定めた第3しきい値を超えているか否かを判定する(ステップS9)。危険度が第3しきい値を超えている場合(ステップS9においてYES)、制御部408は、対象物に対応するスピーカから音が出力されるように、通知装置30を制御する(ステップS10)。他方、危険度が第3しきい値を超えない場合(ステップS9においてNO)、制御部408は、スピーカから音を出力させない。
The
タグ付け部406は、推定部405が危険度を算出する度に、危険度に所定のタグ情報を関連付けて危険度情報を生成して記憶部409に書き込む(ステップS11)。そして、記録部407は、記憶部409に関連付けられた危険度情報を、即時に、または、規定のタイミングに、上位装置2に送信する(ステップS12)。
Each time the
上位装置2の受信部21は、危険度情報を受信し、当該危険度情報をデータベース22に記録する。通知部23は、データベース22が記憶する危険度情報に基づいて、運転者ごとにヒヤリハットレポートを生成する。そして、通知部23は、生成したヒヤリハットレポートを各運転者に、通知する。これにより、運転者は、産業車両1の運転において、ヒヤリハットが生じる状態における操作を把握することができる。
The receiving
(作用、効果)
以上、本開示の第1実施形態による危険度推定システム100について説明した。
位置算出部402は、取得した画像において対象物を認識したと判定した場合、その画像と対象物状態から、産業車両1に対する認識した対象物の位置を算出する。推定部405は、産業車両1に対する対象物の位置と、産業車両1の現在の車速とに基づいて、産業車両1が対象物に接触するような操舵角と加速度の組み合わせを特定する。推定部405は、特定した操舵角と加速度の組み合わせごとに、現在の操舵角と加速度の組み合わせとの差(ギャップ)を算出する。推定部405は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、対象物に接触するまでの時間を算出する。そして、推定部405は、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
こうすることで、処理装置40は、現状の産業車両1の状態から、接触の可能性のある産業車両1の状態への遷移のしにくさをギャップとして客観的に評価することができる。そして、処理装置40は、接触までの時間とギャップとを用いることで、産業車両1の危険度を客観的に特定することができる。
(action, effect)
The
When determining that the object is recognized in the acquired image, the
By doing so, the
<第2実施形態>
次に、本開示の第2実施形態による危険度推定システム100について説明する。
なお、本開示の第2実施形態における対象物は、歩行者(人物の一例)である。
第2の実施形態に係る推定システム100は、第1の実施形態の構成と、産業車両1及び処理装置40の構成が異なる。
第2の実施形態に係る産業車両1は、第1の実施形態の構成に加え、運転室内に運転者の顔の画像を撮影する図示しないカメラをさらに備える。
<Second embodiment>
Next, the
A target object in the second embodiment of the present disclosure is a pedestrian (an example of a person).
The
In addition to the configuration of the first embodiment, the
(情報処理装置の構成)
本開示の第2実施形態による処理装置40は、図8に示すように、第1の実施形態の構成に加え、さらに運転者視線検出部410及び歩行者視線検出部411を備える。
(Configuration of information processing device)
A
運転者視線検出部410は、運転者の視線方向を検出する。例えば、運転者視線検出部410は、図視しないカメラから運転者の顔の画像を取得し、画像解析を行うことによって、顔の向きや目の向きを特定し、これに基づいて運転者の視線方向を検出する。運転者の視線方向は、例えば、産業車両1を基準とした座標系において原点から伸びるベクトルとして表される。
Driver line-of-
歩行者視線検出部411は、歩行者の視線方向を検出する。例えば、歩行者視線検出部411は、歩行者の顔の画像を取得し、画像解析を行うことによって、顔の向きや目の向きから歩行者の視線方向を検出する。歩行者の視線方向は、産業車両1を基準とした座標系において、認識部401によって特定された歩行者の位置から伸びるベクトルとして表される。
また、歩行者視線検出部411は、歩行者の移動方向を検出する。例えば、歩行者視線検出部411は、歩行者の顔や身体の画像を取得し、画像解析を行うことによって、画像内での顔や身体の移動方向を歩行者の移動方向として検出する。歩行者の移動方向は、産業車両1を基準とした座標系において、認識部401によって特定された歩行者の位置から伸びるベクトルとして表される。
The pedestrian line-of-
Also, the pedestrian line of
推定部405は、運転者の視線方向(第1視線方向の一例)及び歩行者の視線方向(第2視線方向の一例)の少なくとも一方に基づいて、危険度に重み付けを行う。
The
例えば、推定部405は、歩行者の移動方向を示すベクトル(第1ベクトルの一例)と、運転者の視線方向を示すベクトル(第2ベクトルの一例)とが交差すると判定した場合、危険度を低くする重み付けを行う。また、推定部405は、歩行者の移動方向を示すベクトルと、運転者の視線方向を示す第1視線方向を示すベクトルとが交差しないと判定した場合、危険度を高くする重み付けを行う。
これは、運転者の視線方向に歩行者が移動していることを示すため、運転者の視界に歩行者が入り、運転者が歩行者を認識するという考えに基づくものである。
For example, if the
This is based on the idea that the pedestrian comes into the driver's field of vision and the driver recognizes the pedestrian in order to indicate that the pedestrian is moving in the line-of-sight direction of the driver.
また、推定部405は、運転者の視線方向が、運転者が歩行者を認識可能である範囲(第1範囲の一例)内にある場合、危険度を低くする重み付けを行う。また、推定部405は、運転者の視線方向が、運転者が歩行者を認識可能である範囲外にある場合、危険度を高くする重み付けを行う。
In addition, the estimating
また、推定部405は、歩行者の視線方向が、産業車両1を認識可能である範囲を示す範囲(第2範囲の一例)内にある場合、危険度を低くする重み付けを行う。また、推定部405は、歩行者の視線方向が、産業車両1を認識可能である範囲を示す範囲外にある場合、危険度を高くする重み付けを行う。
In addition, the estimating
(作用、効果)
以上、本開示の第2実施形態による危険度推定システム100について説明した。
危険度推定システム100の処理装置40において、推定部405は、運転者の視線方向及び歩行者の視線方向の少なくとも一方に基づいて、危険度に重み付けを行う。
こうすることで、処理装置40は、運転者が歩行者に気付いているか否か、および歩行者が産業車両1に気付いているか否かの少なくとも一方を、危険度に反映することができるため、産業車両1の危険度を実際の状況にあったより適切な値として特定することができる。
(action, effect)
The
In the
By doing so, the
<第3実施形態>
次に、本開示の第3実施形態による危険度推定システム100について説明する。
第3の実施形態に係る推定システム100は、第1の実施形態の構成と上位装置2の構成が異なる。
<Third Embodiment>
Next, the
The
(上位装置の構成)
第3の実施形態に係る上位装置は、図9に示すように、第1の実施形態の構成に加えさらに学習部24および分析部25を備える。
(Configuration of host device)
As shown in FIG. 9, the host device according to the third embodiment further includes a
学習部24は、データベース22に記憶された危険度情報に基づいて、運転者ごとに危険度が高くなる時の運転の傾向を分析する。具体的には、学習部24は、データベース22に記憶された危険度情報のうち、運転者ごとにヒヤリハットに相当するもの、すなわち危険度が第1しきい値を超えるものを用いて、ヒヤリハットが生じるときの産業車両1の状態を機械学習する。例えば、学習部24は、危険度が第3しきい値を超える危険度情報に係るタグ情報のうち、時刻、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度、対象物の方向、対象物までの距離をサンプルとして、教師なし学習により、混合ガウスモデルのパラメータを学習させる。これにより、混合ガウスモデルは、ヒヤリハットが生じるときの産業車両1の状態の分布を表すことができる。混合ガウスモデルは、機械学習モデルの一例である。学習部24は、運転者ごとにパラメータの学習を行う。つまり、学習済みモデルは運転者ごとに生成される。
Based on the risk information stored in the
分析部25は、学習部24によって学習された混合ガウスモデルのパラメータを解析し、運転者ごとにヒヤリハットが生じやすい産業車両1の状態を特定する。具体的には、分析部25は、以下の手順でヒヤリハットが生じやすい状態を特定する。まず、分析部25は、混合ガウスモデルを構成する複数の確率密度関数について、分散のパラメータが所定のしきい値以下となるものをすべて抽出する。そして分析部25は、各確率密度関数について、抽出された属性が平均値の近傍の値をとる組み合わせを、ヒヤリハットが生じやすい状態として抽出する。例えば、ある確率密度関数が時刻の分散が所定のしきい値以下であり、その平均値が17時を示し、また対象物の方向の分散が所定のしきい値以下であり、その平均値が右前方を示す場合、その運転者は17時ごろに右前方に対象物が存在するときにヒヤリハットが生じやすいことが分かる。
そして、通知部23は、運転者ごとに、分析部25の分析結果が示すヒヤリハットが生じやすい状況を表すレポートを生成し、運転者に通知する。
The
Then, the
(作用、効果)
以上、本開示の第3実施形態による危険度推定システム100について説明した。
危険度推定システム100の上位装置2において、学習部24は、運転者ごとの危険度情報を用いて混合ガウスモデルなどの機械学習のモデルの学習を行う。そして、分析部25は、学習された機械学習モデルを分析し、運転者ごとにヒヤリハットが生じやすい状況を推定する。
こうすることで、上位装置2は、ヒヤリハットが生じやすい状況を運転者ごとに通知することができる。ヒヤリハットが生じやすい状況は、運転者ごとに異なるため、運転者は、当該情報を用いて自分の苦手な状況や癖を認識することができる。
(action, effect)
The
In the
By doing so, the
なお、第3の実施形態に係る推定システム100は、上位装置2が機械学習を行うが、これに限られない。例えば、他の実施形態に係る推定システム100は、処理装置40にて機械学習を行ってもよい。
In the
<第4実施形態>
次に、本開示の第4実施形態による危険度推定システム100について説明する。
第4の実施形態に係る産業車両1は、処理装置40が算出した危険度に応じて、運転者の意思に関わらず運転操作を制限する。
第4の実施形態に係る推定システム100は、第1の実施形態と処理装置40の構成が異なる。
<Fourth Embodiment>
Next, a
The
The
図10に示すように、第4の実施形態に係る処理装置40は、第1の実施形態の構成に加え、さらに学習部412、分析部413および生成部414を備える。
学習部412は、第3の実施形態に係る上位装置2の学習部24と同様に、記憶部409が記憶する運転者ごとの危険度情報に基づいて、運転者ごとにヒヤリハットが生じやすい産業車両1の状態の分布を学習する。
分析部413は、第3の実施形態に係る上位装置2の分析部25と同様に、学習部412の学習結果からヒヤリハットが生じやすい産業車両1の状態を分析する。
生成部414は、分析部413の分析結果に基づいて、ヒヤリハットが生じやすい状況に近づく産業車両1の操作を制限するための制御信号を生成する。例えば、生成部414は、分析部413による分析の結果、最高速度近傍においてヒヤリハットが生じやすいことが分かった場合、危険度が第1閾値より高いときに産業車両1が最高速度とならないように速度を制限する制御信号を生成する。速度の制限方法は、例えばアクセルを物理的に最大まで踏み込めないようにアクセルの可動範囲を制限する方法や、アクセルの踏み込み量に対する加速度の大きさを低減させる方法などが挙げられる。また、例えば、生成部414は、分析部413による分析の結果、操舵角が左右の最大値近傍となるときにヒヤリハットが生じやすいことが分かった場合、危険度が第1閾値より高いときに操舵角が最大操舵角にならないように制限する制御信号を生成する。操舵角の制限方法は、例えばステアリングを物理的に最大まで回せないようにステアリングの可動範囲を制限する方法や、ステアリングの操作量に対する操舵角の大きさを低減させる方法などが挙げられる。
そして、生成部414は、生成した制御信号を操作装置10に出力する。
As shown in FIG. 10, the
Similar to the
The
Based on the analysis result of the
The generating
(作用、効果)
以上、本開示の第4実施形態による危険度推定システム100について説明した。
危険度推定システム100の処理装置40において、生成部414は、算出した危険度に応じて操作範囲を制限させる制御信号を生成する。生成部414は、生成した制御信号を操作装置10に出力する。
こうすることで、産業車両1は、危険度の高い状態になり難くなる。その結果、産業車両1による事故を低減することができる。
(action, effect)
The
In the
By doing so, the
<他の実施形態>
なお、本開示の第1~第4実施形態では、通知装置30は、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを備えるものとして説明した。しかしながら、本開示の別の実施形態では、通知装置30は、対象物が認識された場合に、産業車両1を基準としたその対象物が存在する位置に対応する方向または領域から音が出力されるスピーカであれば、スピーカの台数及びスピーカが設けられる位置は限定されない。
<Other embodiments>
Note that, in the first to fourth embodiments of the present disclosure, the
なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。 It should be noted that the order of the processes in the embodiment of the present disclosure may be changed as long as appropriate processes are performed.
本開示の実施形態におけるデータベース22、記憶部409、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、データベース22、記憶部409、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。
Each of the
本開示の実施形態について説明したが、上述の処理装置40、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
図11は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ5は、図11に示すように、CPU6、メインメモリ7、ストレージ8、インターフェース9を備える。
例えば、上述の処理装置40、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
Although embodiments of the present disclosure have been described, the
FIG. 11 is a schematic block diagram showing the configuration of a computer according to at least one embodiment;
The
For example, each of the
ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。
Examples of the
また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
なお、他の実施形態においては、処理装置40、その他の制御装置のそれぞれは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、及びこれらに類する処理装置を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
Further, the program may implement part of the functions described above. Furthermore, the program may be a file capable of realizing the above functions in combination with a program already recorded in the computer system, that is, a so-called difference file (difference program).
In other embodiments, each of the
本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。 While several embodiments of the disclosure have been described, these embodiments are examples and do not limit the scope of the disclosure. Various additions, omissions, replacements, and modifications may be made to these embodiments without departing from the gist of the disclosure.
<付記>
本開示の各実施形態に記載の処理装置40、情報処理方法、推定システム及びプログラムは、例えば以下のように把握される。
<Appendix>
The
(1)第1の態様に係る処理装置(40)は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部(402)と、前記位置に基づいて、前記車両(1)と前記対象物とが接触し得る状態を示す第1状態を特定する特定部(404)と、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部(405)と、を備える。 (1) A processing device (40) according to a first aspect includes a calculation unit (402) that calculates the position of an object relative to the vehicle based on an image taken from the vehicle, and the vehicle based on the position. A specifying unit (404) that specifies a first state indicating a state in which (1) can come into contact with the object, and a second state and the first state that indicate the state of the vehicle when the image was captured. and an estimating unit (405) for estimating the degree of risk associated with the object based on the difference between.
この処理装置(40)により、運転者が運転中の車両(1)の危険度を適切に特定することができる。 This processing device (40) can appropriately identify the degree of risk of the vehicle (1) being driven by the driver.
(2)第2の態様に係る処理装置(40)は、(1)の処理装置(40)であって、前記特定部(404)は、前記位置に基づいて、前記車両(1)が前記対象物に接触するまでの時間を算出し、前記推定部(405)は、前記差と、前記時間とに基づいて、前記危険度を推定するものであってもよい。 (2) A processing device (40) according to a second aspect is the processing device (40) of (1), wherein the specifying unit (404) determines based on the position that the vehicle (1) is the The time until contact with the object may be calculated, and the estimation unit (405) may estimate the degree of risk based on the difference and the time.
この処理装置(40)により、車両(1)が対象物に接触するまでの時間を考慮したより実際の状態に近い危険度を算出することができる。 With this processing device (40), it is possible to calculate a degree of risk that is closer to the actual state than the time it takes for the vehicle (1) to come into contact with the object.
(3)第3の態様に係る処理装置(40)は、(1)または(2)の処理装置(40)であって、前記推定部(405)は、前記差が小さいほど前記危険度を高く算出するものであってもよい。 (3) A processing device (40) according to a third aspect is the processing device (40) of (1) or (2), wherein the estimation unit (405) estimates the degree of risk as the difference becomes smaller. It may be calculated to be high.
対象物に接触し得る第1状態と現在の第2状態とが近い場合、運転者による操作量が小さくても対象物に接触する可能性が高いことが分かる。そのため、この処理装置(40)により、運転中の車両(1)の危険度を適切に推定することができる。 It can be seen that when the first state in which the object can be contacted is close to the current second state, the possibility of contact with the object is high even if the amount of operation by the driver is small. Therefore, the processing device (40) can appropriately estimate the degree of risk of the vehicle (1) being driven.
(4)第4の態様に係る処理装置(40)は、(1)から(3)のいずれか1つの処理装置(40)であって、前記第1状態及び前記第2状態は、前記車両(1)の操舵角及び前記車両の加速度を含むものであってもよい。 (4) A processing device (40) according to a fourth aspect is the processing device (40) according to any one of (1) to (3), wherein the first state and the second state are the vehicle It may include the steering angle of (1) and the acceleration of the vehicle.
車両(1)の操舵角及び加速度によって、車両(1)の進行方向が決定されるため、この処理装置(40)により、運転中の車両(1)の危険度を適切に特定することができる。 Since the direction of travel of the vehicle (1) is determined by the steering angle and acceleration of the vehicle (1), the processing device (40) can appropriately identify the degree of risk of the vehicle (1) during driving. .
(5)第5の態様に係る処理装置(40)は、(1)から(4)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記運転者の視線方向を示す第1視線方向、または前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向に基づいて、前記危険度に重み付けを行うものであってもよい。 (5) A processing device (40) according to a fifth aspect is the processing device (40) according to any one of (1) to (4), wherein the estimation unit (405) The degree of risk may be weighted based on a first line-of-sight direction indicating a direction, or a second line-of-sight direction indicating a line-of-sight direction of a person when the object is a person.
この処理装置(40)により、運転者の状態、または対象物である人物の状態も危険度に反映させることができ、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the state of the driver or the state of the target person can be reflected in the degree of risk, and the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately. be able to.
(6)第6の態様に係る処理装置(40)は、(5)の処理装置(40)であって、前記推定部(405)は、前記対象物が人物である場合、前記人物の移動方向と、前記第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うものであってもよい。 (6) The processing device (40) according to the sixth aspect is the processing device (40) of (5), wherein the estimation unit (405), when the object is a person, Weighting is performed so that a risk level when the direction intersects with the first line-of-sight direction is lower than a risk level when the moving direction of the person and the first line-of-sight direction do not intersect. good too.
この処理装置(40)により、運転者の状態を危険度に反映させることができるため、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the driver's condition can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.
(7)第7の態様に係る処理装置(40)は、(5)または(6)の処理装置(40)であって、前記推定部(405)は、前記第1視線方向が、前記運転者が前記対象物を認識可能である範囲を示す第1範囲内にある場合、前記危険度を低くする重み付けを行い、前記第1視線方向が、前記第1範囲外にある場合、前記危険度を高くする重み付けを行うものであってもよい。 (7) A processing device (40) according to a seventh aspect is the processing device (40) according to (5) or (6), wherein the estimating unit (405) determines that the first line-of-sight direction is the driving direction. When the target object is within a first range indicating the range in which a person can recognize the target object, the risk level is weighted to be low, and when the first line-of-sight direction is outside the first range, the risk level is determined. may be weighted to increase
この処理装置(40)により、運転者の状態を危険度に反映させることができるため、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the driver's condition can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.
(8)第8の態様に係る処理装置(40)は、(5)から(7)いずれか1つの処理装置(40)であって、前記推定部(405)は、前記第2視線方向が、前記人物が前記車両(1)を認識可能である範囲を示す第2範囲内にある場合、前記危険度を低くする重み付けを行い、前記第2視線方向が、前記第2範囲外にある場合、前記危険度を高くする重み付けを行うものであってもよい。 (8) The processing device (40) according to the eighth aspect is the processing device (40) according to any one of (5) to (7), wherein the estimation unit (405) is configured such that the second line-of-sight direction is , when the person is within a second range indicating the range in which the vehicle (1) can be recognized, weighting is performed to lower the risk, and when the second line-of-sight direction is outside the second range , weighting may be performed to increase the degree of risk.
この処理装置(40)により、対象物である人物の状態を危険度に反映させることができるため、運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the state of a person, who is an object, can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven can be more appropriately specified.
(9)第9の態様に係る処理装置(40)は、(1)から(8)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記対象物が人物である場合、前記人物の移動方向に基づいて、前記危険度に重み付けを行うものであってもよい。 (9) A processing device (40) according to a ninth aspect is the processing device (40) according to any one of (1) to (8), wherein the estimation unit (405) determines that the object is a person. , the degree of risk may be weighted based on the moving direction of the person.
この処理装置(40)により、対象物である人物の状態も危険度に反映させることができ、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), it is possible to reflect the state of a person, who is an object, on the degree of risk, so that the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.
(10)第10の態様に係る処理装置(40)は、(1)から(9)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記第1状態のうち、距離が一定の値より大きいもの、または前記車両が前記対象物に接触するまでの時間が一定時間より長いものを、危険度の推定の対象外とする。 (10) The processing device (40) according to the tenth aspect is the processing device (40) according to any one of (1) to (9), wherein the estimation unit (405) is in the first state If the distance is greater than a certain value or the time required for the vehicle to come into contact with the object is longer than the certain time, the degree of risk is not estimated.
ある第1状態について、対象物に接触するまでの距離が長い場合、車両(1)がそのような状態になる可能性が低く危険度が低い。また、車両(1)が対象物に接触するまでの時間が長い場合、危険を回避するための時間が十分にあり危険度が低い。そのため、処理装置(40)はこのような第1状態について危険度の推定の対象外とすることで、不要な計算を減らすことができる。 Regarding a certain first state, if the distance until contact with the object is long, the possibility that the vehicle (1) will be in such a state is low and the degree of danger is low. Also, when the time until the vehicle (1) contacts the object is long, there is enough time to avoid danger and the degree of danger is low. Therefore, the processing device (40) can reduce unnecessary calculations by excluding such a first state from risk estimation.
(11)第11の態様に係る処理装置(40)は、(1)から(10)のいずれか1つの処理装置(40)であって、前記危険度のうち第1しきい値以上である危険度を、タグ情報と関連付けてデータベース(22、409)に記録する記録部(406、407)、を備えるものであってもよい。 (11) The processing device (40) according to the eleventh aspect is the processing device (40) according to any one of (1) to (10), wherein the degree of risk is equal to or higher than the first threshold A recording unit (406, 407) that records the degree of risk in a database (22, 409) in association with tag information may be provided.
この処理装置(40)により、ヒヤリハットなどの危険度の高いものを記録することができる。 With this processing device (40), it is possible to record high-risk incidents such as near misses.
(12)第12の態様に係る処理装置(40)は、(11)の処理装置(40)であって、記録部(406、407)が、前記危険度のうち第1しきい値以上かつ前記第1しきい値より大きい第2しきい値以下の危険度を、タグ情報と関連付けてデータベース(22、409)に記録するものであってもよい。 (12) A processing device (40) according to a twelfth aspect is the processing device (40) of (11), wherein the recording units (406, 407) have a first threshold value or more of the degrees of risk and Risk levels equal to or lower than a second threshold greater than the first threshold may be recorded in a database (22, 409) in association with tag information.
この処理装置(40)により、危険度が低すぎずかつ高すぎない、ヒヤリハットに相当するものを選択的に記録することができる。 With this processing device (40), it is possible to selectively record near-miss incidents that are neither too low nor too high in risk.
(13)第13の態様に係る処理装置(40)は、(11)または(12)の処理装置(40)であって、前記記録部(406、407)は、前記運転者ごとに、前記危険度と前記タグ情報とを関連付けて前記データベース(22、409)に記録するものであってもよい。 (13) A processing device (40) according to a thirteenth aspect is the processing device (40) of (11) or (12), wherein the recording units (406, 407) record the The degree of risk and the tag information may be associated with each other and recorded in the database (22, 409).
この処理装置(40)により、運転者ごとに危険度の管理を容易に行うことができる。 This processing device (40) makes it possible to easily manage the degree of risk for each driver.
(14)第14の態様に係る処理装置(40)は、(13)の処理装置(40)であって、前記運転者ごとに前記タグ情報を用いて機械学習モデルのパラメータを学習させる学習部(412)と、前記学習された機械学習モデルから危険度が高いときの前記車両の状態を前記運転者ごとに分析する分析部(413)とをさらに備える。 (14) A processing device (40) according to a fourteenth aspect is the processing device (40) of (13), wherein the learning unit learns parameters of a machine learning model using the tag information for each driver. (412) and an analysis unit (413) that analyzes the state of the vehicle when the degree of danger is high from the learned machine learning model for each driver.
この情報処理装置(40)により、運転者ごとにヒヤリハットが生じやすい状況を分析することができ、運転者別に当該状況をフィードバックすることができる。 With this information processing device (40), it is possible to analyze situations in which near misses are likely to occur for each driver, and to feed back the situation for each driver.
(15)第15の態様に係る処理装置(40)は、(1)から(14)のいずれか1つの処理装置(40)であって、前記運転者ごとに、前記危険度に応じた前記車両の操作範囲を制限する制御信号を生成する生成部(414)、を備えるものであってもよい。 (15) A processing device (40) according to a fifteenth aspect is the processing device (40) according to any one of (1) to (14), wherein said A generator (414) that generates a control signal that limits the operating range of the vehicle.
この処理装置(40)により、運転者が意識しなくとも危険度が高い状態になり難くなり、事故を低減させることができる。 With this processing device (40), it becomes difficult for the driver to be in a high-risk state even if the driver is not aware of it, and accidents can be reduced.
(16)第16の態様に係る処理装置(40)は、(15)の処理装置(40)であって、前記生成部(414)は、前記危険度が前記第1しきい値より高い場合に、前記運転者ごとに前記危険度が高いときの車両の状態に近づく前記車両の操作を制限する前記制御信号を生成する。 (16) The processing device (40) according to the sixteenth aspect is the processing device (40) of (15), wherein the generation unit (414) generates Then, the control signal is generated for each driver to limit the operation of the vehicle to approach the state of the vehicle when the degree of danger is high.
この処理装置(40)により、運転者ごとに、危険度が高い状態になりやすい操作を制限し、事故を低減させることができる。 With this processing device (40), it is possible to reduce accidents by restricting operations that tend to lead to a high-risk state for each driver.
(17)第17の態様に係る推定システム(100)は、(11)から(16)の何れか1つに記載の処理装置(40)と、前記データベース(22)を備える上位装置(2)とを備え、前記データベース(22)は、前記運転者ごとに、前記危険度と前記タグ情報とを関連付けて記憶する。 (17) An estimation system (100) according to a seventeenth aspect comprises a host device (2) comprising the processing device (40) according to any one of (11) to (16) and the database (22) The database (22) associates and stores the risk level and the tag information for each driver.
この推定システム(100)により、上位装置(2)は、運転者ごとに危険度が高い状態を収集することができる。 This estimation system (100) allows the host device (2) to collect high-risk states for each driver.
(18)第18の態様に係る推定システム(100)は、(17)の推定システムであって、前記上位装置(2)は、前記データベース(22)に記録された前記危険度に関する情報を、前記運転者ごとに通知する通知部(23)をさらに備える。 (18) The estimation system (100) according to the eighteenth aspect is the estimation system of (17), wherein the higher-level device (2) receives information about the risk recorded in the database (22), A notification unit (23) that notifies each driver is further provided.
この推定システム(100)により、運転者の危険度に関する情報を運転者ごとに個別に知らせることができる。 With this estimation system (100), it is possible to individually inform each driver of information regarding the degree of danger of the driver.
(19)第19の態様に係る処理方法は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、を含む。 (19) A processing method according to a nineteenth aspect includes detecting a position of an object relative to the vehicle based on an image taken from the vehicle, and detecting contact between the vehicle and the object based on the position. identifying a possible first state; and estimating the degree of risk associated with the object based on the difference between a second state indicating the state of the vehicle when the image was captured and the first state. and including.
この処理方法により、運転者が運転中の車両(1)の危険度を適切に推定することができる。 This processing method allows the driver to appropriately estimate the degree of risk of the vehicle (1) being driven.
(20)第20の態様に係るプログラムは、コンピュータに、運転される車両から撮影した画像に基づいて、前記車両に対する対象物の位置を特定することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、を実行させる。 (20) A program according to a twentieth aspect causes a computer to identify a position of an object relative to the vehicle based on an image taken from the vehicle being driven, and based on the position, identify the vehicle and the object. Identifying a first state in which an object may come into contact with the object, and detecting a danger associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state. estimating the degree;
このプログラムにより、運転者が運転中の車両(1)の危険度を適切に推定することができる。 This program enables the driver to appropriately estimate the degree of risk of the vehicle (1) being driven.
1・・・産業車両
2・・・上位装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・操作装置
20・・・撮影装置
20a・・・第1カメラ
20b・・・第2カメラ
20c・・・第3カメラ
20d・・・第4カメラ
21・・・受信部
22・・・データベース
23・・・通知部
24・・・学習部
25・・・分析部
30・・・通知装置
30a・・・第1スピーカ
30b・・・第2スピーカ
30c・・・第3スピーカ
30d・・・第4スピーカ
40・・・処理装置
401・・・認識部
402・・・算出部
403・・・取得部
404・・・特定部
405・・・推定部
406・・・タグ付け部
407・・・記録部
408・・・制御部
409・・・記憶部
410・・・運転者視線検出部
411・・・歩行者視線検出部
412・・・学習部
413・・・分析部
414・・・生成部
DESCRIPTION OF
7
Claims (22)
前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定する特定部と、
前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定する推定部と、
を備える処理装置。 a calculation unit that calculates the position of an object relative to the vehicle based on an image captured from the vehicle;
a specifying unit that specifies, based on the position, a plurality of first states indicating states of the vehicle when the vehicle draws a travel trajectory in which the vehicle contacts the object;
an estimating unit for estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
A processing device comprising:
前記位置に基づいて、前記車両が前記対象物に接触するまでの時間を算出し、
前記推定部は、
前記差と、前記時間とに基づいて、前記危険度を推定する、
請求項1に記載の処理装置。 The identification unit
calculating the time until the vehicle contacts the object based on the position;
The estimation unit
estimating the risk based on the difference and the time;
2. The processing apparatus of claim 1.
前記差が小さいほど前記危険度を高く推定する、
請求項1または請求項2に記載の処理装置。 The estimation unit
estimating the risk higher as the difference is smaller,
3. The processing apparatus according to claim 1 or 2.
請求項1から請求項3の何れか一項に記載の処理装置。 4. The processing device according to any one of claims 1 to 3, wherein said first state and said second state include a steering angle of said vehicle and an acceleration of said vehicle.
運転者の視線方向を示す第1視線方向、及び前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向の少なくとも一方に基づいて、前記危険度に重み付けを行う、
請求項1から請求項4の何れか一項に記載の処理装置。 The estimation unit
weighting the degree of risk based on at least one of a first line-of-sight direction indicating a line-of-sight direction of a driver and a second line-of-sight direction indicating a line-of-sight direction of the person when the object is a person;
The processing apparatus according to any one of claims 1 to 4.
前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定する特定部と、
前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部と、
を備え、
前記推定部は、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行う、
処理装置。 a calculation unit that calculates the position of an object relative to the vehicle based on an image captured from the vehicle;
a specifying unit that specifies a first state in which the vehicle and the object can come into contact based on the position;
an estimating unit for estimating a degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
with
The estimation unit
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. give a low weight relative to the risk of not crossing,
processing equipment.
前記第1視線方向が、前記運転者が前記対象物を認識可能である範囲を示す第1範囲内にある場合、前記危険度を低くする重み付けを行い、前記第1視線方向が、前記第1範囲外にある場合、前記危険度を高くする重み付けを行う、
請求項5または請求項6に記載の処理装置。 The estimation unit
When the first line-of-sight direction is within a first range indicating a range in which the driver can recognize the object, weighting is performed to lower the risk, and the first line-of-sight direction If out of range, weighting the risk to increase;
7. A processing apparatus according to claim 5 or claim 6.
前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向が、前記人物が前記車両を認識可能である範囲を示す第2範囲内にある場合、前記危険度を低くする重み付けを行い、前記第2視線方向が、前記第2範囲外にある場合、前記危険度を高くする重み付けを行う、
請求項5から請求項7の何れか1項に記載の処理装置。 The estimation unit
Weighting to lower the degree of risk when a second line-of-sight direction indicating a line-of-sight direction of the person when the object is a person is within a second range indicating a range in which the person can recognize the vehicle. and if the second line-of-sight direction is outside the second range, weighting is performed to increase the risk;
The processing apparatus according to any one of claims 5 to 7.
前記対象物が人物である場合、前記人物の移動方向に基づいて、前記危険度に重み付けを行う、
請求項1から請求項8の何れか一項に記載の処理装置。 The estimation unit
When the object is a person, weighting the degree of risk based on the moving direction of the person;
The processing apparatus according to any one of claims 1 to 8.
前記第1状態のうち、距離が一定の値より大きいもの、または前記車両が前記対象物に接触するまでの時間が一定時間より長いものを、危険度の推定の対象外とする
請求項1から請求項9の何れか一項に記載の処理装置。 The estimation unit
from claim 1, wherein, among the first states, a state in which the distance is greater than a predetermined value or a state in which the time until the vehicle contacts the object is longer than a predetermined time is excluded from the estimation of the degree of risk. 10. A processing apparatus according to any one of claims 9 to 10.
を備える請求項1から請求項10の何れか一項に記載の処理装置。 a recording unit that records in a database the degree of risk that is equal to or greater than a first threshold among the degrees of risk in association with tag information;
The processing apparatus according to any one of claims 1 to 10, comprising:
運転者ごとに、前記危険度と前記タグ情報とを関連付けて前記データベースに記録する、
請求項11または請求項12に記載の処理装置。 The recording unit
For each driver, the risk level and the tag information are associated and recorded in the database;
13. A processing apparatus according to claim 11 or 12.
前記学習された機械学習モデルから危険度が高いときの前記車両の状態を前記運転者ごとに分析する分析部と
をさらに備える請求項13に記載の処理装置。 a learning unit for learning parameters of a machine learning model using the tag information for each driver;
14. The processing device according to claim 13, further comprising: an analysis unit that analyzes, for each driver, the state of the vehicle when the degree of danger is high from the learned machine learning model.
をさらに備える請求項1から請求項14の何れか一項に記載の処理装置。 a generation unit that generates a control signal that limits an operation range of the vehicle according to the degree of risk;
15. A processing apparatus according to any one of claims 1 to 14, further comprising:
請求項15に記載の処理装置。 wherein, when the degree of risk is higher than a first threshold value, the generation unit generates the control signal for limiting the operation of the vehicle that approaches the state of the vehicle when the degree of risk is high for each driver. 16. The processing apparatus according to 15.
前記データベースを備える上位装置と
を備え、
前記データベースは、運転者ごとに、前記危険度と前記タグ情報とを関連付けて記憶する、
推定システム。 a processing apparatus according to any one of claims 11 to 14;
a host device comprising the database; and
The database associates and stores the risk level and the tag information for each driver.
estimation system.
前記データベースに記録された前記危険度に関する情報を、前記運転者ごとに通知する通知部、
をさらに備える請求項17に記載の推定システム。 The host device is
a notification unit that notifies each driver of information about the degree of risk recorded in the database;
18. The estimation system of claim 17, further comprising:
前記コンピュータが、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、
前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、
を含む処理方法。 a computer detecting a position of an object relative to the vehicle based on an image taken from the vehicle;
the computer identifying, based on the positions, a plurality of first states indicating states of the vehicle when the vehicle draws a travel trajectory in which the vehicle contacts the object;
the computer estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
processing methods, including;
車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、 前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、
前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、
を実行させるプログラム。 to the computer,
Detecting a position of an object relative to the vehicle based on an image taken from the vehicle; and Based on the position, a plurality of states of the vehicle when drawing a travel trajectory in which the vehicle contacts the object. identifying a first state of
estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
program to run.
前記コンピュータが、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、
前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うことと
を含む処理方法。 a computer calculating a position of an object relative to the vehicle based on images taken from the vehicle;
the computer identifying a first state in which the vehicle and the object may contact based on the position;
the computer estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. weighting it lower than the risk if it does not cross.
車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、 前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、
前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うことと
を実行させるプログラム。 to the computer,
calculating a position of an object with respect to the vehicle based on an image captured from the vehicle; identifying a first state in which the vehicle and the object can contact based on the position;
estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. A program that causes the weighting to be low relative to the risk of not crossing and
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030841A JP7267221B2 (en) | 2020-02-26 | 2020-02-26 | Processing device, processing method, estimation system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030841A JP7267221B2 (en) | 2020-02-26 | 2020-02-26 | Processing device, processing method, estimation system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135693A JP2021135693A (en) | 2021-09-13 |
JP7267221B2 true JP7267221B2 (en) | 2023-05-01 |
Family
ID=77661240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020030841A Active JP7267221B2 (en) | 2020-02-26 | 2020-02-26 | Processing device, processing method, estimation system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7267221B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (en) | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | Device for operating degree of risk of driving behavior |
JP2005165422A (en) | 2003-11-28 | 2005-06-23 | Denso Corp | Collision probability determination device |
JP2006350934A (en) | 2005-06-20 | 2006-12-28 | Denso Corp | Information display device |
JP2008003762A (en) | 2006-06-21 | 2008-01-10 | Honda Motor Co Ltd | Obstacle recognition determining device |
JP2008257582A (en) | 2007-04-06 | 2008-10-23 | Denso Corp | Driving support device |
JP2009244986A (en) | 2008-03-28 | 2009-10-22 | Toyota Central R&D Labs Inc | Warning notification device |
JP2010257282A (en) | 2009-04-27 | 2010-11-11 | Alps Electric Co Ltd | Obstacle detection device and vehicle with the device mounted thereon |
JP2013117809A (en) | 2011-12-02 | 2013-06-13 | Mazda Motor Corp | Safety driving support information distribution system and information collection vehicle |
-
2020
- 2020-02-26 JP JP2020030841A patent/JP7267221B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (en) | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | Device for operating degree of risk of driving behavior |
JP2005165422A (en) | 2003-11-28 | 2005-06-23 | Denso Corp | Collision probability determination device |
JP2006350934A (en) | 2005-06-20 | 2006-12-28 | Denso Corp | Information display device |
JP2008003762A (en) | 2006-06-21 | 2008-01-10 | Honda Motor Co Ltd | Obstacle recognition determining device |
JP2008257582A (en) | 2007-04-06 | 2008-10-23 | Denso Corp | Driving support device |
JP2009244986A (en) | 2008-03-28 | 2009-10-22 | Toyota Central R&D Labs Inc | Warning notification device |
JP2010257282A (en) | 2009-04-27 | 2010-11-11 | Alps Electric Co Ltd | Obstacle detection device and vehicle with the device mounted thereon |
JP2013117809A (en) | 2011-12-02 | 2013-06-13 | Mazda Motor Corp | Safety driving support information distribution system and information collection vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2021135693A (en) | 2021-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10300851B1 (en) | Method for warning vehicle of risk of lane change and alarm device using the same | |
US11034294B2 (en) | Driving notification method and driving notification system | |
US20160159217A1 (en) | System and method for determining drowsy state of driver | |
EP3588372A1 (en) | Controlling an autonomous vehicle based on passenger behavior | |
CN107415861A (en) | It is used for detecting the method and apparatus that use of the driver to the equipment of electronics for vehicle | |
TW201836888A (en) | Ensuring occupant awareness in vehicles | |
WO2015186395A1 (en) | Vehicle periphery monitoring device | |
JP2016066231A (en) | Collision prevention device, collision prevention method, collision prevention program, and recording medium | |
CN112689587A (en) | Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required | |
JP7267222B2 (en) | Processing device, processing method, notification system and program | |
JP7267221B2 (en) | Processing device, processing method, estimation system and program | |
US10726728B2 (en) | System and method for controlling movable body | |
US20230075659A1 (en) | Object ranging apparatus, method, and computer readable medium | |
CN109823344A (en) | Drive reminding method and system | |
TWI579173B (en) | An driver fatigue monitoring and detection method base on an ear-angle | |
JP6641633B2 (en) | Moving object detection system and data consistency determination method thereof | |
CN115690748B (en) | Method for occupancy class prediction and method for occlusion value determination | |
JP2018169667A (en) | Driving information recording system, driving information recording method, and program | |
JP7259957B2 (en) | Judgment system, processing method, program | |
US20220028258A1 (en) | Warning presentation control device, warning presentation control system, method of controlling warning presentation, and recording medium storing warning presentation control program | |
CN112334944B (en) | Mark recognition method and mark recognition device for camera device | |
US20230267718A1 (en) | Systems and methods for training event prediction models for camera-based warning systems | |
US20230109171A1 (en) | Operator take-over prediction | |
KR20230159739A (en) | Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same | |
CN116923392A (en) | Danger identification method, danger identification system, and danger notification method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |