JP7267221B2 - Processing device, processing method, estimation system and program - Google Patents

Processing device, processing method, estimation system and program Download PDF

Info

Publication number
JP7267221B2
JP7267221B2 JP2020030841A JP2020030841A JP7267221B2 JP 7267221 B2 JP7267221 B2 JP 7267221B2 JP 2020030841 A JP2020030841 A JP 2020030841A JP 2020030841 A JP2020030841 A JP 2020030841A JP 7267221 B2 JP7267221 B2 JP 7267221B2
Authority
JP
Japan
Prior art keywords
vehicle
risk
state
degree
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020030841A
Other languages
Japanese (ja)
Other versions
JP2021135693A (en
Inventor
健太 中尾
喜一 杉本
成寿 亀尾
聡 飯尾
弘司 椎崎
肇 小平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2020030841A priority Critical patent/JP7267221B2/en
Publication of JP2021135693A publication Critical patent/JP2021135693A/en
Application granted granted Critical
Publication of JP7267221B2 publication Critical patent/JP7267221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、処理装置、処理方法、推定システム及びプログラムに関する。 The present disclosure relates to a processing device, a processing method, an estimation system and a program.

フォークリフトやホイルローダーなどの産業車両は、車両本体が備える車輪の切れ角や車両の構造など、一般的な乗用車とは異なる特徴を有している。そのため、特に産業車両の運転経験の少ない運転者にとっては、産業車両の運転や荷役などの作業をしているときに実際に車両が移動する領域が予想と異なる可能性があったり、運転者が死角となる領域を認識できていなかったりする可能性がある。
特許文献1には、関連する技術として、フォークリフトの後進時に運転者に注意を喚起する技術が記載されている。
Industrial vehicles such as forklifts and wheel loaders have characteristics that differ from general passenger vehicles, such as the steering angle of the wheels of the vehicle body and the structure of the vehicle. Therefore, especially for drivers who have little experience driving industrial vehicles, there is a possibility that the area where the vehicle actually moves may differ from what they expected when driving industrial vehicles or performing work such as loading and unloading. There is a possibility that the blind spot area is not recognized.
Patent Literature 1 describes, as a related technique, a technique for calling the driver's attention when the forklift moves backward.

特開2016-222428号公報JP 2016-222428 A

ところで、運転者が車両を操作しているときに、その車両がその周囲に存在する人の近くを通り過ぎたり、人がその車両の前を横切ったりするなど、事故にならないまでも危険な状態に一時的になる、いわゆる「ヒヤリハット」の状態となる場合がある。運転者は、ヒヤリハットの状態となったこと自体に気づかない場合もある。またカメラやセンサなどの安全装置が備えられている場合でも、直接事故にならない、いわゆる「ヒヤリハット」の状態は通知されない場合もある。しかしながら、運転者がヒヤリハットの状態となったことに気づけば、それ以降、同様のヒヤリハットの状態となった場合に慎重に運転することができる。
そのため、運転者が運転中の車両の危険度を適切に推定することのできる技術が求められている。
By the way, while the driver is operating the vehicle, if the vehicle passes near people in the surroundings or crosses in front of the vehicle, a dangerous situation may occur, even if it does not result in an accident. In some cases, a so-called “hiyari-hatto” state, which is temporary, may occur. In some cases, the driver does not even notice that the near-miss situation has occurred. In addition, even if a safety device such as a camera or sensor is provided, there are cases in which a so-called "hiyari-hatto" state, which does not directly lead to an accident, is not notified. However, once the driver becomes aware of the near-miss situation, he/she can drive cautiously in the event of similar near-miss situations thereafter.
Therefore, there is a demand for a technology that allows a driver to appropriately estimate the degree of danger of a vehicle that is being driven.

本開示の少なくとも一実施形態は、上述の事情に鑑みてなされたものであり、運転者が運転中の車両の危険度を推定することのできる処理装置、処理方法、推定システム及びプログラムを提供することを目的としている。 At least one embodiment of the present disclosure has been made in view of the circumstances described above, and provides a processing device, processing method, estimation system, and program capable of estimating the degree of risk of a vehicle being driven by a driver. It is intended to

上記課題を解決するために、本開示に係る処理装置は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定する特定部と、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定する推定部とを備える。
また、本開示に係る処理装置は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定する特定部と、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部と、を備え、前記推定部は、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行う。
In order to solve the above problems, a processing device according to the present disclosure includes a calculation unit that calculates a position of a target object relative to the vehicle based on an image captured from the vehicle; a specifying unit for specifying a plurality of first states indicating a state of the vehicle when drawing a travel locus in contact with an object; a second state indicating the state of the vehicle when the image is captured; and a plurality of the first states. an estimating unit for estimating the degree of risk associated with the object based on the difference from each state.
Further, the processing device according to the present disclosure includes a calculation unit that calculates a position of an object with respect to the vehicle based on an image captured from the vehicle, and a contact between the vehicle and the object based on the position. an identifying unit for identifying a first state; and an estimating unit for estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state. and, when the object is a person, the estimating unit estimates the degree of risk when the moving direction of the person intersects with a first line-of-sight direction indicating the line-of-sight direction of the driver. Weighting is performed so that the degree of risk is lower than that in the case where the moving direction and the first line-of-sight direction do not intersect.

本開示に係る処理方法は、コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記コンピュータが、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、を含む。
また、本開示に係る処理方法は、コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、前記コンピュータが、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うこととを含む。
A processing method according to the present disclosure comprises: a computer detecting a position of an object relative to the vehicle based on an image taken from the vehicle; specifying a plurality of first states indicating the state of the vehicle when the contact traveling locus is drawn; and specifying a second state and the plurality of the second states indicating the state of the vehicle when the image is captured by the computer. estimating a risk associated with the object based on the difference from each of the one states.
Further, the processing method according to the present disclosure includes: a computer calculating a position of an object with respect to the vehicle based on an image taken from the vehicle; identifying a first state in which an object can come into contact; and when the object is a person, the degree of risk when the movement direction of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is calculated by estimating the degree of risk of the person and weighting the movement direction less than the risk if the first line-of-sight direction does not intersect.

本開示に係るプログラムは、コンピュータに、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、を実行させる。
また、本開示に係るプログラムは、コンピュータに、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うこととを実行させる。
A program according to the present disclosure causes a computer to detect a position of an object with respect to the vehicle based on an image taken from the vehicle, and based on the position, determine a travel trajectory in which the vehicle contacts the object. Based on identifying a plurality of first states indicating the state of the vehicle when the image is drawn, and a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states. , and estimating the degree of risk associated with the object.
Further, the program according to the present disclosure causes a computer to calculate a position of an object with respect to the vehicle based on an image taken from the vehicle, and based on the position, the vehicle and the object contact each other. identifying a first state to be obtained; and estimating the degree of risk associated with the object based on the difference between a second state indicating the state of the vehicle when the image was captured and the first state. , when the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction; weighting the risk to be lower than the risk when they do not intersect with each other.

本開示の少なくとも一実施形態によれば、運転者が運転中の車両の危険度を推定することができる。 According to at least one embodiment of the present disclosure, it is possible to estimate the degree of danger of the vehicle being driven by the driver.

本開示の少なくとも一実施形態に係る危険度推定システムの構成の一例を示す図である。1 is a diagram illustrating an example configuration of a risk estimation system according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係る産業車両を真上から俯瞰した場合の概略図である。1 is a schematic diagram of an industrial vehicle viewed from directly above according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係る情報処理装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an information processing device according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係る上位装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a host device according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係る危険度推定システムの処理フローの一例を示す図である。FIG. 4 is a diagram showing an example of a processing flow of a risk estimation system according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態におけるギャップの算出を説明するための図である。FIG. 5 is a diagram for explaining gap calculation in at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態における危険度の推定を説明するための図である。FIG. 4 is a diagram for explaining risk estimation in at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係るによる情報処理装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an information processing apparatus according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係るによる上位装置の構成の一例を示す図である。2 is a diagram illustrating an example of a configuration of a higher-level device according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係るによる情報処理装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an information processing apparatus according to at least one embodiment of the present disclosure; FIG. 本開示の少なくとも一実施形態に係るコンピュータの構成を示す概略ブロック図である。1 is a schematic block diagram showing the configuration of a computer according to at least one embodiment of the present disclosure; FIG.

<第1実施形態>
以下、本開示の第1実施形態による危険度推定システム100について説明する。
(危険度推定システムの構成)
危険度推定システム100は、産業車両1(車両の一例)、上位装置2を備える。
(産業車両の構成)
産業車両1は、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度、その他の検知しうる産業車両1の情報(以下、車両状態)及び、産業車両1に対して検出される対象物の位置に基づいて、産業車両1の危険度を推定する車両である。
<First embodiment>
The risk estimation system 100 according to the first embodiment of the present disclosure will be described below.
(Configuration of risk estimation system)
A risk estimation system 100 includes an industrial vehicle 1 (an example of a vehicle) and a host device 2 .
(Construction of industrial vehicle)
The industrial vehicle 1 can detect the steering angle of the industrial vehicle 1, the traveling direction of the industrial vehicle 1, the vehicle speed of the industrial vehicle 1, the acceleration of the industrial vehicle 1, and other detectable information of the industrial vehicle 1 (hereinafter referred to as the vehicle state) and the industrial vehicle 1. This vehicle estimates the degree of danger of the industrial vehicle 1 based on the position of the object detected with respect to the vehicle 1 .

産業車両1は、例えば、図1に示すようなフォークリフトである。ただし、ホイルローダーなどの建設機械、荷役装置や後輪操舵などの同様の機構を持つ車両、もしくは同様の課題を持つ車両でもよい。
産業車両1は、図1に示すように、操作装置10、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20d、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30d、処理装置40を備える。なお、処理装置40は、図示していないセンサや操作装置10の状態から産業車両1の車両状態を取得する。
なお、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dを総称して撮影装置20と呼ぶ。また、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを総称して通知装置30と呼ぶ。
The industrial vehicle 1 is, for example, a forklift as shown in FIG. However, construction machines such as wheel loaders, vehicles with similar mechanisms such as cargo handling equipment and rear wheel steering, or vehicles with similar problems may be used.
As shown in FIG. 1, the industrial vehicle 1 includes an operating device 10, a first camera 20a, a second camera 20b, a third camera 20c, a fourth camera 20d, a first speaker 30a, a second speaker 30b and a third speaker 30c. , a fourth speaker 30 d and a processing device 40 . The processing device 40 acquires the vehicle state of the industrial vehicle 1 from sensors (not shown) and the state of the operation device 10 .
The first camera 20a, the second camera 20b, the third camera 20c, and the fourth camera 20d are collectively referred to as an imaging device 20. As shown in FIG. Also, the first speaker 30a, the second speaker 30b, the third speaker 30c, and the fourth speaker 30d are collectively referred to as the notification device 30. FIG.

操作装置10は、運転者が移動または荷役作業を産業車両1にさせる操作を受け付ける装置である。例えば、操作装置10は、産業車両1の前進・後退を決定するシフトレバー、産業車両1の操舵角を決定するステアリング、産業車両1の車速や加速度を調整するためのアクセル及びブレーキなどである。 The operation device 10 is a device that receives an operation by a driver to cause the industrial vehicle 1 to move or perform cargo handling work. For example, the operation device 10 includes a shift lever that determines forward/backward movement of the industrial vehicle 1, a steering wheel that determines the steering angle of the industrial vehicle 1, an accelerator and a brake that adjust the vehicle speed and acceleration of the industrial vehicle 1, and the like.

図2は、産業車両1を真上から俯瞰した場合の概略図である。撮影装置20は、複数のカメラが各々産業車両1の外周方向を撮影するように設けられており、産業車両1の全周囲を撮影する。
例えば、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dは、図1に示すように、それぞれ産業車両1の上部前方、上部右側、上部後方、上部左側に設けられる。そして、例えば、第1カメラ20aは、図2に示す第1撮影領域A1を撮影する。同様に、第2カメラ20b、第3カメラ20c、第4カメラ20dは、それぞれ図2に示す第2撮影領域A2、第3撮影領域A3、第4撮影領域A4を撮影する。
なお、本開示の第1実施形態では、産業車両1の上部前方、上部右側、上部後方、上部左側のそれぞれにカメラを設けたが、異なる向きに設けてもよい。また、上記カメラが魚眼レンズなどの視野角の広いレンズを備えることで、さらにカメラの台数を減らすことができる。また、死角ができる場合は5台以上のカメラを設けることもできる。これらのカメラによって認識される対象物には人物が含まれる。なお、ここで死角とは、産業車両1の近傍の対象物を認識すべき領域のうち、いずれのカメラにも撮影されない領域のことである。
FIG. 2 is a schematic diagram of the industrial vehicle 1 viewed from directly above. The photographing device 20 is provided so that a plurality of cameras respectively photograph the outer peripheral direction of the industrial vehicle 1 , and photograph the entire periphery of the industrial vehicle 1 .
For example, the first camera 20a, the second camera 20b, the third camera 20c, and the fourth camera 20d are provided on the upper front, upper right, upper rear, and upper left sides of the industrial vehicle 1, respectively, as shown in FIG. Then, for example, the first camera 20a photographs the first photographing area A1 shown in FIG. Similarly, the second camera 20b, the third camera 20c, and the fourth camera 20d photograph the second imaging area A2, the third imaging area A3, and the fourth imaging area A4 shown in FIG. 2, respectively.
In addition, in the first embodiment of the present disclosure, the cameras are provided in the upper front, the upper right, the upper rear, and the upper left of the industrial vehicle 1, but they may be provided in different directions. In addition, the number of cameras can be further reduced by using a lens with a wide viewing angle such as a fisheye lens. Also, if there is a blind spot, five or more cameras can be installed. Objects recognized by these cameras include people. Here, the blind spot is an area that is not photographed by any camera among the areas in which objects in the vicinity of the industrial vehicle 1 should be recognized.

通知装置30は、処理装置40による制御の下、音を出力する。
例えば、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dは、図1に示すように、それぞれ運転席の右前方、右後方、左後方、左前方に設けられる。そして、処理装置40によって、撮影装置20が撮影した画像において対象物が発見された場合に、その対象物の位置に対応する方向に設けられているスピーカは、音を出力する。
なお、通知装置30は、対象物が複数発見された場合には、認識された対象物それぞれに対応するスピーカから音を出力する。
Notification device 30 outputs sound under the control of processing device 40 .
For example, the first speaker 30a, the second speaker 30b, the third speaker 30c, and the fourth speaker 30d are provided at the front right, rear right, rear left, and front left of the driver's seat, respectively, as shown in FIG. When the processing device 40 detects an object in the image captured by the imaging device 20, the speaker provided in the direction corresponding to the position of the object outputs sound.
Note that, when a plurality of objects are found, the notification device 30 outputs sounds from speakers corresponding to each of the recognized objects.

処理装置40は、産業車両1の車両状態と、撮影された画像により認識した対象物の状態(対象物状態)とに基づいて、産業車両1の危険度を推定する装置である。産業車両1の車両状態とは、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度を含む状態である。また、処理装置40は、車両状態と対象物状態に基づいて、通知装置30を制御する装置である。なお、処理装置40は、対象物が複数認識された場合、各対象物について危険度を推定する。
処理装置40は、図3に示すように、認識部401、位置算出部402、(算出部の一例)、取得部403、特定部404、推定部405、タグ付け部406、記録部407、制御部408、記憶部409を備える。
The processing device 40 is a device for estimating the degree of danger of the industrial vehicle 1 based on the vehicle state of the industrial vehicle 1 and the state of the object (object state) recognized from the photographed image. The vehicle state of the industrial vehicle 1 includes the steering angle of the industrial vehicle 1 , the traveling direction of the industrial vehicle 1 , the vehicle speed of the industrial vehicle 1 , and the acceleration of the industrial vehicle 1 . Also, the processing device 40 is a device that controls the notification device 30 based on the vehicle state and the object state. Note that when a plurality of objects are recognized, the processing device 40 estimates the degree of risk for each object.
As shown in FIG. 3, the processing device 40 includes a recognition unit 401, a position calculation unit 402, (an example of a calculation unit), an acquisition unit 403, an identification unit 404, an estimation unit 405, a tagging unit 406, a recording unit 407, a control A unit 408 and a storage unit 409 are provided.

認識部401は、撮影装置20が撮影した画像において対象物を認識する。
例えば、認識部401は、人物を含む対象物についての特徴を予め記憶する。そして、認識部401は、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dの順に、撮影された画像を繰り返し取得する。認識部401は、画像を取得する度に、パターン認識の技術を用いて、取得した画像において予め記憶している人物を含む対象物が含まれていると判定した場合、対象物を認識したと判定する。
The recognition unit 401 recognizes an object in the image captured by the imaging device 20 .
For example, the recognition unit 401 stores in advance features of objects including people. Then, the recognition unit 401 repeatedly acquires images shot by the first camera 20a, the second camera 20b, the third camera 20c, and the fourth camera 20d in this order. Each time an image is acquired, the recognition unit 401 uses pattern recognition technology to determine that the acquired image includes a target object including a person stored in advance. judge.

位置算出部402は、認識部401が取得した画像において対象物を認識した場合、その画像から、産業車両1に対する対象物の位置を算出する。つまり、位置算出部402は、産業車両1を基準とする対象物の相対位置を算出する。
位置算出部402は、例えば、以下の手順で画像から産業車両1に対する対象物の位置を算出する。産業車両1に対する対象物の位置は、産業車両1に対する対象物の方向および距離によって表される。
The position calculation unit 402 calculates the position of the object with respect to the industrial vehicle 1 from the image when the object is recognized in the image acquired by the recognition unit 401 . That is, the position calculation unit 402 calculates the relative position of the object with the industrial vehicle 1 as a reference.
For example, the position calculation unit 402 calculates the position of the object with respect to the industrial vehicle 1 from the image in the following procedure. The position of the object relative to the industrial vehicle 1 is represented by the direction and distance of the object relative to the industrial vehicle 1 .

位置算出部402は、例えば以下の手順で産業車両1に対する対象物の方向を算出する。まず、位置算出部402は、対象物が写る部分が、画像のどの位置に含まれているかによって撮影装置20に対する対象物の方向を特定する(以下、認識方向情報)。次に、位置算出部402は、対象物が認識された画像が、第1カメラ20a、第2カメラ20b、第3カメラ20c、第4カメラ20dのうちのどのカメラから取得したかを特定する(以下、認識カメラ情報)。位置算出部402は、認識カメラ情報に基づいて、産業車両1に対するカメラの位置及び向きを特定する。そして、位置算出部402は、特定したカメラの位置及び向きと認識方向情報とに基づいて、産業車両1に対する対象物の方向を算出する。
また、位置算出部402は、例えば以下の手順で認識した対象物と産業車両1との間の距離を算出する。例えば、位置算出部402は、対象物の寸法に対応する画像サイズ(画素数)を記憶しておき、記憶した画像サイズと画像内で認識した対象物のサイズ(画素数)との比から産業車両1から対象物までの距離を算出する。
これにより、位置算出部402は、産業車両1に対する対象物の方向と距離情報とを特定することで、産業車両1に対する対象物の位置を算出することができる。
なお、距離情報に含まれる産業車両1から対象物までの距離は、対象物を認識したカメラからの距離である。そのため、位置算出部402は、対象物を認識したカメラの産業車両1に設けられる位置や向きを考慮することで、産業車両1から見た対象物の位置を特定することができる。
The position calculation unit 402 calculates the direction of the object with respect to the industrial vehicle 1, for example, in the following procedure. First, the position calculation unit 402 identifies the direction of the object with respect to the photographing device 20 according to the position in the image where the part where the object is captured is included (hereinafter referred to as recognition direction information). Next, the position calculation unit 402 identifies from which of the first camera 20a, the second camera 20b, the third camera 20c, and the fourth camera 20d the image in which the object is recognized was acquired ( Recognition camera information below). The position calculation unit 402 identifies the position and orientation of the camera with respect to the industrial vehicle 1 based on the recognition camera information. Then, the position calculation unit 402 calculates the direction of the object with respect to the industrial vehicle 1 based on the specified position and orientation of the camera and the recognition direction information.
Further, the position calculation unit 402 calculates the distance between the recognized object and the industrial vehicle 1, for example, in the following procedure. For example, the position calculation unit 402 stores the image size (number of pixels) corresponding to the dimensions of the object, and calculates the industrial size from the ratio of the stored image size to the size (number of pixels) of the object recognized in the image. A distance from the vehicle 1 to the object is calculated.
Accordingly, the position calculation unit 402 can calculate the position of the object with respect to the industrial vehicle 1 by specifying the direction and distance information of the object with respect to the industrial vehicle 1 .
The distance from the industrial vehicle 1 to the object included in the distance information is the distance from the camera that recognized the object. Therefore, the position calculation unit 402 can specify the position of the target as viewed from the industrial vehicle 1 by considering the position and orientation of the camera that recognizes the target, which is provided on the industrial vehicle 1 .

なお、例えば、撮影装置20がステレオカメラである場合、位置算出部402は、ステレオカメラが撮影した各撮影タイミングの一対の撮影画像に対して三角測量技術を用いることで、産業車両1から対象物までの距離を算出することができる。その他、位置算出部402は、産業車両1に設けられた距離センサが出力する検出信号に基づいて産業車両1と対象物との距離を算出してもよい。 Note that, for example, when the imaging device 20 is a stereo camera, the position calculation unit 402 uses a triangulation technique for a pair of captured images at each imaging timing captured by the stereo camera to determine whether the industrial vehicle 1 is the target object. You can calculate the distance to Alternatively, the position calculation unit 402 may calculate the distance between the industrial vehicle 1 and the object based on the detection signal output by the distance sensor provided on the industrial vehicle 1 .

取得部403は、産業車両1に設けられた図示していないセンサ、及び、操作装置10の状態から産業車両1の車両状態を取得する。
例えば、取得部403は、産業車両1に設けられた図示していないセンサから現在の産業車両1の車速を取得する。また、取得部403は、操作装置10の変化によって出力される信号を取得する、もしくは定期的に操作装置10の状態を示す信号を取得する。ここで、取得部403が産業車両1に設けられた図示していないセンサ及び操作装置10から取得する産業車両1の車両状態は、車速のほかにも運転者がステアリングを回転させたときの産業車両1の操舵角、運転者がシフトレバーを前進や後退に切り替えたときの産業車両1の進行方向、運転者がアクセルを踏み込んだときの産業車両1の正の加速度、運転者がブレーキを踏み込んだ時の産業車両1の減速度(負の加速度)などの状態が含まれる。
The acquisition unit 403 acquires the vehicle state of the industrial vehicle 1 from a sensor (not shown) provided on the industrial vehicle 1 and the state of the operation device 10 .
For example, the acquisition unit 403 acquires the current vehicle speed of the industrial vehicle 1 from a sensor (not shown) provided on the industrial vehicle 1 . Further, the acquisition unit 403 acquires a signal output according to changes in the operating device 10 or periodically acquires a signal indicating the state of the operating device 10 . Here, the vehicle state of the industrial vehicle 1 acquired by the acquisition unit 403 from a sensor (not shown) provided in the industrial vehicle 1 and the operation device 10 includes not only the vehicle speed but also the industrial vehicle state when the driver turns the steering wheel. The steering angle of the vehicle 1, the traveling direction of the industrial vehicle 1 when the driver switches the shift lever to forward or backward, the positive acceleration of the industrial vehicle 1 when the driver depresses the accelerator, and the driver depresses the brake. A state such as deceleration (negative acceleration) of the industrial vehicle 1 is included.

特定部404は、位置算出部402が算出した産業車両1に対する対象物の位置と、特定部404が取得した産業車両1の車両状態とに基づいて、産業車両1と対象物とが接触し得る車両状態(第1状態)を特定する。具体的には、特定部404は、産業車両1に対する対象物の位置と産業車両1の現在の車速とに基づいて、産業車両1と対象物とが接触し得る操舵角と加速度の組み合わせを特定する。加速度は、アクセルによる正の加速度と、ブレーキによる負の加速度の両方を含む。なお、接触するような操舵角と加速度の組み合わせは、複数存在し得る。これは、加速度によって車両の速度が変化し、操舵角との組み合わせによって検出物と衝突する走行軌跡が複数存在するためである。すなわち、産業車両1の旋回半径は操舵角が大きいほど小さく、また速度が速いほど(加速度が高いほど)大きくなるため、走行軌跡は操舵角と速度(加速度)との組み合わせによって変化する。 Based on the position of the object relative to the industrial vehicle 1 calculated by the position calculating unit 402 and the vehicle state of the industrial vehicle 1 acquired by the identifying unit 404, the identifying unit 404 can contact the industrial vehicle 1 with the object. A vehicle state (first state) is specified. Specifically, the identification unit 404 identifies a combination of steering angle and acceleration that can cause contact between the industrial vehicle 1 and the object based on the position of the object with respect to the industrial vehicle 1 and the current vehicle speed of the industrial vehicle 1. do. Acceleration includes both positive acceleration due to acceleration and negative acceleration due to braking. It should be noted that there may be a plurality of combinations of steering angle and acceleration that cause contact. This is because the speed of the vehicle changes depending on the acceleration, and there are a plurality of travel trajectories that collide with the detected object depending on the combination with the steering angle. That is, the larger the steering angle, the smaller the turning radius of the industrial vehicle 1, and the higher the speed (the higher the acceleration), the larger the turning radius.

推定部405は、取得部403が取得した産業車両1の車両状態と、特定部404が特定した産業車両1と対象物とが接触し得る車両状態に基づいて、産業車両1の危険度を推定する。
推定部405は、以下の手順で危険度を推定する。
The estimating unit 405 estimates the degree of danger of the industrial vehicle 1 based on the vehicle state of the industrial vehicle 1 acquired by the acquiring unit 403 and the vehicle state that the industrial vehicle 1 identified by the identifying unit 404 may come into contact with an object. do.
The estimation unit 405 estimates the degree of risk in the following procedure.

推定部405は、特定部404が特定した操舵角と加速度の組み合わせごとに、特定部404が特定した現在の操舵角と加速度(第2加速度の一例)の組み合わせとの差(ギャップ)を算出する。なお、ギャップが小さい値であるほど、少しの車両状態の変化で対象物と接触しうることを意味する。なお、現在の車両状態を維持した場合に対象物と接触し得る場合はギャップが0となる。
推定部405は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、特定した操舵角と加速度の組み合わせごとに、対象物に接触するまでの時間を算出する。
そして、推定部405は、操舵角と加速度の組み合わせごとに、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
なお、推定部405による危険度の具体的な計算方法は、後述する。
The estimation unit 405 calculates a difference (gap) between the current combination of the steering angle and the acceleration (an example of the second acceleration) specified by the specifying unit 404 for each combination of the steering angle and the acceleration specified by the specifying unit 404. . It should be noted that a smaller value of the gap means that the vehicle can come into contact with the object with a slight change in the vehicle state. Note that the gap is 0 when the vehicle can come into contact with the object while maintaining the current vehicle state.
Based on the vehicle speed of the industrial vehicle 1 and the trajectory obtained from the specified acceleration and steering angle, the estimation unit 405 calculates the time until contact with the object for each combination of the specified steering angle and acceleration.
Then, the estimation unit 405 calculates the degree of risk by substituting the gap and the time until contact with the object into a predetermined function representing the degree of risk for each combination of steering angle and acceleration.
A specific method of calculating the degree of risk by the estimation unit 405 will be described later.

タグ付け部406は、推定部405が危険度を演算する度に、当該危険度と、所定のタグ情報とを関連付けて、記憶部409に書き込む。タグ付け部406は、危険度をタグ情報と関連付けて記憶部409に記録する記録部の一例である。タグ情報は、産業車両1の運転者のID、危険度が演算された時刻、取得部403が取得した産業車両1の車両状態、当該危険度の推定に用いられた画像、ならびに認識部401が特定した産業車両1に対する対象物の位置の関係を含む情報である。以下、危険度とタグ情報とを関連付けた情報を、危険度情報ともいう。 Each time the estimating unit 405 calculates the degree of risk, the tagging unit 406 associates the degree of risk with predetermined tag information and writes it to the storage unit 409 . The tagging unit 406 is an example of a recording unit that associates the degree of risk with tag information and records it in the storage unit 409 . The tag information includes the ID of the driver of the industrial vehicle 1, the time when the degree of danger was calculated, the vehicle state of the industrial vehicle 1 acquired by the acquisition unit 403, the image used to estimate the degree of danger, and the recognition unit 401 This information includes the positional relationship of the object with respect to the specified industrial vehicle 1 . Hereinafter, information that associates the degree of risk with tag information is also referred to as degree of risk information.

記録部407は、記憶部409に書き込まれた危険度情報を上位装置2に送信することで、危険度情報を上位装置2のデータベース22に記録する。
なお、記録部407は、すべての危険度情報を上位装置2に書き込むのではなく、危険度情報のうち、危険度が第1しきい値以上であり、かつ、第2しきい値以下であるものを上位装置2に送信するものであってもよい。なお、第1しきい値は、これ以下であれば産業車両1を安全に運転できることを示すしきい値である。また、第2しきい値は、これ以上は産業車両1と対象物との接触の可能性が高く危険であることを示すしきい値である。この第1しきい値以上であり、かつ、第2しきい値以下である危険度が、直接事故には至らないが危険な状態(すなわち、「ヒヤリハット」の状態)を示す危険度となる。また、運転者ごとに第1しきい値と第2しきい値とを設定することにより、上位装置2は、運転者ごとに、ヒヤリハットを通知することが可能となる。また、記録部407は、第1しきい値以上である危険度を上位装置2に書き込むものであってもよい。
The recording unit 407 records the risk information in the database 22 of the host device 2 by transmitting the risk information written in the storage unit 409 to the host device 2 .
It should be noted that the recording unit 407 does not write all the risk information to the host device 2, but rather writes the risk in the risk information that is greater than or equal to the first threshold value and less than or equal to the second threshold value. It may be a device that transmits an object to the higher-level device 2 . Note that the first threshold is a threshold indicating that the industrial vehicle 1 can be driven safely if it is less than the first threshold. Moreover, the second threshold is a threshold indicating that the possibility of contact between the industrial vehicle 1 and the object is high and dangerous beyond the threshold. The degree of risk that is greater than or equal to the first threshold value and less than or equal to the second threshold value is a degree of risk that does not directly lead to an accident but indicates a dangerous state (that is, a near-miss state). Also, by setting the first threshold value and the second threshold value for each driver, the higher-level device 2 can notify each driver of near misses. Also, the recording unit 407 may write the degree of risk equal to or higher than the first threshold value in the host device 2 .

制御部408は、推定部405が演算した危険度に基づいて、通知装置30を制御する。 The control unit 408 controls the notification device 30 based on the degree of risk calculated by the estimation unit 405 .

例えば、取得した画像から求められた産業車両1に対する対象物の位置が産業車両1の右前方である場合、その画像と関連付けられた危険度が予め定めた第3しきい値を超えているときに、制御部408は、第1スピーカ30aから音が出力されるように、通知装置30を制御する。なお、第3しきい値は、音を出力するか否かを判定するための危険度のしきい値である。第3しきい値は、第1しきい値または第2しきい値と同一の値であってもよい。第3しきい値が、第1しきい値または第2しきい値と異なる場合は、第1しきい値または第2しきい値とは異なる制御を行ってもよい。
同様に、産業車両1に対する対象物の位置が産業車両1の右後方、左後方、左前方である場合、その画像と関連付けられた危険度が第3しきい値を超えているときに、制御部408は、それぞれ、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dから音が出力されるように、通知装置30を制御する。
For example, when the position of the object relative to the industrial vehicle 1 obtained from the acquired image is the right front of the industrial vehicle 1, the degree of risk associated with the image exceeds a predetermined third threshold. Furthermore, the control unit 408 controls the notification device 30 so that sound is output from the first speaker 30a. The third threshold is a risk level threshold for determining whether or not to output sound. The third threshold may be the same value as the first threshold or the second threshold. If the third threshold is different from the first threshold or the second threshold, control different from the first threshold or the second threshold may be performed.
Similarly, if the position of the object relative to the industrial vehicle 1 is the right rear, left rear, and left front of the industrial vehicle 1, when the risk associated with the image exceeds the third threshold, the control The unit 408 controls the notification device 30 so that sounds are output from the second speaker 30b, the third speaker 30c, and the fourth speaker 30d, respectively.

記憶部409は、前述のように処理装置40が行う処理に必要な種々の情報を記憶する。 The storage unit 409 stores various information necessary for processing performed by the processing device 40 as described above.

(危険度の計算方法)
ここで、推定部405による危険度の推定方法の例について説明する。
まず、特定部404は、図4に示すように、産業車両1に対する対象物の位置と産業車両1の現在の車速とを初期条件として、産業車両1が取り得る操舵角範囲における複数の操舵角(例えば1度刻み)について、産業車両1が対象物に接触するような加速度を算出する。例えば、特定部404は、初速、加速度および操舵角を定数とし、および時間を説明変数とし、産業車両1の位置を目的変数とする関数(すなわち産業車両1の軌跡を描く曲線関数)において、産業車両1の軌跡が対象物の位置を通過するような加速度を求める。なお、操舵角によっては、産業車両1が対象物に接触するような加速度が存在しないこともある。特定部404は、複数の操舵角のうち、産業車両1が対象物に接触するような加速度が存在するものを抽出する。以下、抽出した操舵角と加速度の組み合わせを接触ケースともいう。図4に示すように、特定部404は各接触ケースにはケースNoを割り振る。なお、図4においては、産業車両1との接触が生じるか否かに関わらず、産業車両1の現在の状態に、ケースNo.0を割り振っている。
(How to calculate the degree of risk)
Here, an example of a method of estimating the degree of risk by the estimating unit 405 will be described.
First, as shown in FIG. 4, the specifying unit 404 sets a plurality of steering angles in the steering angle range that the industrial vehicle 1 can take, using the position of the object with respect to the industrial vehicle 1 and the current vehicle speed of the industrial vehicle 1 as initial conditions. Acceleration that causes the industrial vehicle 1 to come into contact with the object is calculated (for example, in increments of 1 degree). For example, the identification unit 404 uses a function (i.e., a curve function that draws the trajectory of the industrial vehicle 1) in which the initial velocity, the acceleration, and the steering angle are constants, the time is the explanatory variable, and the position of the industrial vehicle 1 is the objective variable. Acceleration is obtained so that the trajectory of the vehicle 1 passes the position of the object. Note that, depending on the steering angle, there may be no acceleration that causes the industrial vehicle 1 to contact the object. The identifying unit 404 extracts steering angles that have such an acceleration that the industrial vehicle 1 contacts an object from among the plurality of steering angles. Hereinafter, the combination of the extracted steering angle and acceleration will also be referred to as a contact case. As shown in FIG. 4, the specifying unit 404 assigns a case number to each contact case. In FIG. 4, regardless of whether or not contact with the industrial vehicle 1 occurs, the current state of the industrial vehicle 1 is shown in case no. 0 is assigned.

推定部405は、抽出した接触ケースのそれぞれについて、産業車両1の現在の状態(ケースNo.0に係る状態)と接触ケースに係る状態とのギャップ(差)を算出する。例えば、推定部405は、現在の操舵角と接触ケースに係る操舵角との差に所定の重みを乗じた値と、現在の加速度と接触ケースに係る加速度との差に所定の重みを乗じた値との和(加重マンハッタン距離)を、ギャップとして算出する。また、推定部405は、ユークリッド距離などの他の基準に基づいてギャップを算出してもよい。
具体的には、図4に示す例では、ケースNo.2のギャップは8である。それに対して、ケースNo.3は、ケースNo.2に比べて現状との差が操舵角と加速度の両方とも大きい。そのため、ケースNo.3のギャップは、ケースNo.2のギャップよりも大きい10となる。
The estimation unit 405 calculates the gap (difference) between the current state of the industrial vehicle 1 (state related to case No. 0) and the state related to the contact case for each of the extracted contact cases. For example, the estimation unit 405 multiplies a value obtained by multiplying the difference between the current steering angle and the steering angle related to the contact case by a predetermined weight, and multiplies the difference between the current acceleration and the acceleration related to the contact case by a predetermined weight. The sum with the value (weighted Manhattan distance) is calculated as the gap. Alternatively, the estimation unit 405 may calculate the gap based on other criteria such as Euclidean distance.
Specifically, in the example shown in FIG. The gap of 2 is 8. In contrast, case no. 3 is case no. Compared to 2, the difference from the current situation is large in both the steering angle and the acceleration. Therefore, case no. 3 gap is case no. 10, which is greater than the gap of 2.

推定部405は、抽出した接触ケースのそれぞれについて、産業車両1の現在の車速と、当該接触ケースに係る加速度とに基づいて、産業車両1が対象物に接触するまでの時間を算出する。例えば、推定部405は、上記の曲線関数に基づいて産業車両1の位置が対象物の位置と一致するときの時間を求める。 For each of the extracted contact cases, the estimation unit 405 calculates the time until the industrial vehicle 1 contacts the object based on the current vehicle speed of the industrial vehicle 1 and the acceleration related to the contact case. For example, the estimation unit 405 obtains the time when the position of the industrial vehicle 1 matches the position of the object based on the curve function.

そして、推定部405は、各接触ケースについて、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を推定する。推定部405は、図5に示すように、ギャップが小さくなるにつれて危険度が高くなり、対象物に接触するまでの時間が短くなるにつれて危険度が高くなる所定の関数を用いて危険度を推定する。例えば、推定部405は、ギャップに所定の重みを乗じた値と接触するまでの時間に所定の重みを乗じた値との和の逆数を求めることで危険度を推定してよい。
なお、ギャップが一定の値よりも大きい、または、対象物に接触するまでの時間が一定時間よりも長い場合には、産業車両1がそのような状況になる可能性が低く危険度が低い、または、危険を回避するための時間が十分にあり危険度が低いという考えに基づいて、推定部405は、図5に示すように、それらの場合を危険度の推定の対象外にしてもよい。
また、推定部405は、状況に応じて、危険度の推定に使用する関数を変更するものであってもよい。例えば、推定部405は、ギャップが小さくなるにつれて比例する危険度に比べて、より危険度が高くなる重み付けを行うものであってもよい。また、推定部405は、対象物に接触するまでの時間が短くなるにつれて比例する危険度に比べて、より危険度が高くなる重み付けを行うものであってもよい。
Then, the estimating unit 405 estimates the degree of risk for each contact case by substituting the gap and the time until contact with the object into a predetermined function representing the degree of risk. As shown in FIG. 5, the estimating unit 405 estimates the degree of danger using a predetermined function in which the degree of danger increases as the gap becomes smaller, and the degree of danger increases as the time until contact with the object becomes shorter. do. For example, the estimation unit 405 may estimate the degree of risk by obtaining the reciprocal of the sum of the value obtained by multiplying the gap by a predetermined weight and the value obtained by multiplying the time until contact by a predetermined weight.
Note that if the gap is larger than a certain value, or if the time until contact with the object is longer than the certain time, the possibility that the industrial vehicle 1 will be in such a situation is low and the risk is low. Alternatively, based on the idea that there is sufficient time to avoid danger and the degree of danger is low, the estimation unit 405 may exclude those cases from the estimation of the degree of danger, as shown in FIG. .
Also, the estimation unit 405 may change the function used for estimating the degree of risk according to the situation. For example, the estimating unit 405 may perform weighting such that the smaller the gap, the higher the degree of risk compared to the proportionate degree of risk. In addition, the estimation unit 405 may perform weighting such that the degree of risk becomes higher as the time until contact with the object becomes shorter, compared to the degree of risk proportional to the time.

(上位装置の構成)
上位装置2は、図6に示すように、受信部21、データベース22(記憶部の一例)、通知部23を備える。
受信部21は、産業車両1から危険度情報を受信する。受信部21は、受信した危険度情報をデータベース22に記録する。
データベース22は、上位装置2が行う処理に必要な種々の情報を記憶する。
(Configuration of host device)
The host device 2 includes a receiving unit 21, a database 22 (an example of a storage unit), and a notification unit 23, as shown in FIG.
The receiving unit 21 receives risk information from the industrial vehicle 1 . The receiving unit 21 records the received risk information in the database 22 .
The database 22 stores various information necessary for processing performed by the host device 2 .

通知部23は、運転者ごとに、データベース22が記憶するタグ情報が関連付けられた危険度を通知する。すなわち、通知部23は、データベース22が記憶する危険度情報のうち、通知対象の運転者のIDが保持されたタグ情報を含むものを、当該通知対象の運転者に通知する。これにより、運転者は、産業車両1の運転において生じたヒヤリハット、およびそのヒヤリハットが生じる状態における操作を把握することができる。つまり、上位装置2は、運転者の自覚なくヒヤリハットが生じた場合にも、そのヒヤリハットの存在を運転者に気付かせることができる。これにより、以降、同様のヒヤリハットの状態となった場合に運転者が慎重に運転することを期待することができる。
また、当該通知により、運転者は、そのヒヤリハットが生じる状態における操作を練習することで、産業車両1の運転技能を向上させることができる。その結果、危険な運転が低減し、事故を低減させることができる。
The notification unit 23 notifies each driver of the risk associated with the tag information stored in the database 22 . That is, the notification unit 23 notifies the driver of the notification target of the risk information stored in the database 22 that includes the tag information that holds the ID of the driver of the notification target. As a result, the driver can grasp a near-miss that occurred while driving the industrial vehicle 1 and the operation in the state in which the near-miss occurred. In other words, even when a near-miss occurs without the driver's awareness, the host device 2 can make the driver aware of the existence of the near-miss. As a result, the driver can be expected to drive cautiously when similar near-miss situations occur thereafter.
In addition, the notification allows the driver to improve the driving skill of the industrial vehicle 1 by practicing the operation in the near-miss state. As a result, dangerous driving can be reduced and accidents can be reduced.

(情報処理装置が行う処理)
次に、危険度を算出する危険度推定システム100が行う処理について説明する。
ここでは、図7に示す危険度推定システム100の処理フローについて説明する。
なお、撮影装置20は、産業車両1の全周囲を撮影しているものとする。処理装置40は、所定の制御周期ごとに、図7に示す処理を実行する。
(Processing performed by information processing device)
Next, the processing performed by the risk estimation system 100 for calculating the risk will be described.
Here, the processing flow of the risk estimation system 100 shown in FIG. 7 will be described.
It is assumed that the imaging device 20 is imaging the entire circumference of the industrial vehicle 1 . The processing device 40 executes the processing shown in FIG. 7 at each predetermined control cycle.

認識部401は、撮影装置20から撮影された画像を取得する(ステップS1)。認識部401は、パターン認識の技術を用いて、ステップS1で、取得した画像に対象物が含まれているか否かを判定する(ステップS2)。 The recognition unit 401 acquires an image captured by the imaging device 20 (step S1). The recognition unit 401 uses a pattern recognition technique to determine whether or not the image acquired in step S1 includes an object (step S2).

認識部401は、取得した画像に対象物が含まれていないと判定した場合(ステップS2においてNO)、処理を終了する。 When the recognizing unit 401 determines that the acquired image does not include the target object (NO in step S2), the process ends.

また、認識部401は、取得した画像に対象物が含まれていると判定した場合(ステップS2においてYES)、位置算出部402は、その画像に基づいて、産業車両1に対する対象物の位置を算出する(ステップS3)。 When the recognition unit 401 determines that the acquired image includes the object (YES in step S2), the position calculation unit 402 calculates the position of the object with respect to the industrial vehicle 1 based on the image. Calculate (step S3).

取得部403は、産業車両に設けられた図示していないセンサ等から現在の産業車両1の車両状態を取得する(ステップS4)。 The acquisition unit 403 acquires the current vehicle state of the industrial vehicle 1 from a sensor or the like (not shown) provided on the industrial vehicle (step S4).

特定部404は、ステップS3で認識部401が特定した産業車両1に対する対象物の位置と、ステップS4で取得した産業車両1の現在の車速とに基づいて、産業車両1が対象物に接触するような操舵角と加速度の組み合わせ(接触ケース)を特定する(ステップS5)。 The identification unit 404 determines whether the industrial vehicle 1 contacts the object based on the position of the object relative to the industrial vehicle 1 identified by the recognition unit 401 in step S3 and the current vehicle speed of the industrial vehicle 1 acquired in step S4. Such a combination of steering angle and acceleration (contact case) is identified (step S5).

推定部405は、特定した接触ケースごとに、ステップS4で取得した現在の車両状態と接触ケースに係る車両状態とのギャップを算出する(ステップS6)。 The estimation unit 405 calculates the gap between the current vehicle state acquired in step S4 and the vehicle state related to the contact case for each identified contact case (step S6).

推定部405は、ステップS4で取得した産業車両1の車速及び特定した接触ケースに係る加速度と操舵角から求められる軌跡に基づいて、特定した接触ケースごとに、対象物に接触するまでの時間を算出する(ステップS7)。 The estimating unit 405 calculates the time until contact with the target object for each specified contact case based on the vehicle speed of the industrial vehicle 1 acquired in step S4 and the trajectory obtained from the acceleration and steering angle related to the specified contact case. Calculate (step S7).

推定部405は、各接触ケースについて、ステップS6で算出したギャップと、ステップS7で算出した対象物に接触するまでの時間とに基づいて危険度を推定する(ステップS8)。 The estimation unit 405 estimates the degree of risk for each contact case based on the gap calculated in step S6 and the time until contact with the object calculated in step S7 (step S8).

制御部408は、推定部405が推定した危険度が予め定めた第3しきい値を超えているか否かを判定する(ステップS9)。危険度が第3しきい値を超えている場合(ステップS9においてYES)、制御部408は、対象物に対応するスピーカから音が出力されるように、通知装置30を制御する(ステップS10)。他方、危険度が第3しきい値を超えない場合(ステップS9においてNO)、制御部408は、スピーカから音を出力させない。 The control unit 408 determines whether or not the risk estimated by the estimation unit 405 exceeds a predetermined third threshold (step S9). If the degree of danger exceeds the third threshold (YES in step S9), control unit 408 controls notification device 30 so that sound is output from the speaker corresponding to the object (step S10). . On the other hand, if the degree of danger does not exceed the third threshold (NO in step S9), control unit 408 does not output sound from the speaker.

タグ付け部406は、推定部405が危険度を算出する度に、危険度に所定のタグ情報を関連付けて危険度情報を生成して記憶部409に書き込む(ステップS11)。そして、記録部407は、記憶部409に関連付けられた危険度情報を、即時に、または、規定のタイミングに、上位装置2に送信する(ステップS12)。 Each time the estimating unit 405 calculates the degree of risk, the tagging unit 406 associates the degree of risk with predetermined tag information to generate the degree of risk information and writes it to the storage unit 409 (step S11). Then, the recording unit 407 transmits the risk level information associated with the storage unit 409 to the host device 2 immediately or at a prescribed timing (step S12).

上位装置2の受信部21は、危険度情報を受信し、当該危険度情報をデータベース22に記録する。通知部23は、データベース22が記憶する危険度情報に基づいて、運転者ごとにヒヤリハットレポートを生成する。そして、通知部23は、生成したヒヤリハットレポートを各運転者に、通知する。これにより、運転者は、産業車両1の運転において、ヒヤリハットが生じる状態における操作を把握することができる。 The receiving unit 21 of the host device 2 receives the risk information and records the risk information in the database 22 . The notification unit 23 generates a near-miss report for each driver based on the degree-of-risk information stored in the database 22 . Then, the notification unit 23 notifies each driver of the generated near-miss report. As a result, the driver can grasp the operation in a state in which a near-miss occurs while driving the industrial vehicle 1 .

(作用、効果)
以上、本開示の第1実施形態による危険度推定システム100について説明した。
位置算出部402は、取得した画像において対象物を認識したと判定した場合、その画像と対象物状態から、産業車両1に対する認識した対象物の位置を算出する。推定部405は、産業車両1に対する対象物の位置と、産業車両1の現在の車速とに基づいて、産業車両1が対象物に接触するような操舵角と加速度の組み合わせを特定する。推定部405は、特定した操舵角と加速度の組み合わせごとに、現在の操舵角と加速度の組み合わせとの差(ギャップ)を算出する。推定部405は、産業車両1の車速及び特定した加速度と操舵角から求められる軌跡に基づいて、対象物に接触するまでの時間を算出する。そして、推定部405は、ギャップと、対象物に接触するまでの時間とを危険度を表す所定の関数に代入することで危険度を演算する。
こうすることで、処理装置40は、現状の産業車両1の状態から、接触の可能性のある産業車両1の状態への遷移のしにくさをギャップとして客観的に評価することができる。そして、処理装置40は、接触までの時間とギャップとを用いることで、産業車両1の危険度を客観的に特定することができる。
(action, effect)
The risk estimation system 100 according to the first embodiment of the present disclosure has been described above.
When determining that the object is recognized in the acquired image, the position calculation unit 402 calculates the position of the recognized object with respect to the industrial vehicle 1 from the image and the state of the object. Based on the position of the object with respect to the industrial vehicle 1 and the current vehicle speed of the industrial vehicle 1, the estimation unit 405 identifies a combination of steering angle and acceleration that causes the industrial vehicle 1 to contact the object. The estimating unit 405 calculates a difference (gap) between the current combination of the steering angle and the acceleration for each specified combination of the steering angle and the acceleration. The estimation unit 405 calculates the time until contact with the object based on the vehicle speed of the industrial vehicle 1 and the trajectory obtained from the specified acceleration and steering angle. Then, the estimation unit 405 calculates the degree of risk by substituting the gap and the time until contact with the object into a predetermined function representing the degree of risk.
By doing so, the processing device 40 can objectively evaluate the difficulty of transition from the current state of the industrial vehicle 1 to the state of the industrial vehicle 1 with the possibility of contact as a gap. Then, the processing device 40 can objectively identify the degree of danger of the industrial vehicle 1 by using the time until contact and the gap.

<第2実施形態>
次に、本開示の第2実施形態による危険度推定システム100について説明する。
なお、本開示の第2実施形態における対象物は、歩行者(人物の一例)である。
第2の実施形態に係る推定システム100は、第1の実施形態の構成と、産業車両1及び処理装置40の構成が異なる。
第2の実施形態に係る産業車両1は、第1の実施形態の構成に加え、運転室内に運転者の顔の画像を撮影する図示しないカメラをさらに備える。
<Second embodiment>
Next, the risk estimation system 100 according to the second embodiment of the present disclosure will be described.
A target object in the second embodiment of the present disclosure is a pedestrian (an example of a person).
The estimation system 100 according to the second embodiment differs from the configuration of the first embodiment in the configuration of the industrial vehicle 1 and the processing device 40 .
In addition to the configuration of the first embodiment, the industrial vehicle 1 according to the second embodiment further includes a camera (not shown) for capturing an image of the driver's face in the driver's cab.

(情報処理装置の構成)
本開示の第2実施形態による処理装置40は、図8に示すように、第1の実施形態の構成に加え、さらに運転者視線検出部410及び歩行者視線検出部411を備える。
(Configuration of information processing device)
A processing device 40 according to the second embodiment of the present disclosure further includes a driver line-of-sight detection unit 410 and a pedestrian line-of-sight detection unit 411 in addition to the configuration of the first embodiment, as shown in FIG.

運転者視線検出部410は、運転者の視線方向を検出する。例えば、運転者視線検出部410は、図視しないカメラから運転者の顔の画像を取得し、画像解析を行うことによって、顔の向きや目の向きを特定し、これに基づいて運転者の視線方向を検出する。運転者の視線方向は、例えば、産業車両1を基準とした座標系において原点から伸びるベクトルとして表される。 Driver line-of-sight detection unit 410 detects the line-of-sight direction of the driver. For example, the driver line-of-sight detection unit 410 acquires an image of the driver's face from a camera (not shown), performs image analysis, identifies the direction of the face and the direction of the eyes, and based on this, identifies the direction of the driver's face and the direction of the eyes. Detect eye direction. The line-of-sight direction of the driver is represented, for example, as a vector extending from the origin in a coordinate system based on the industrial vehicle 1 .

歩行者視線検出部411は、歩行者の視線方向を検出する。例えば、歩行者視線検出部411は、歩行者の顔の画像を取得し、画像解析を行うことによって、顔の向きや目の向きから歩行者の視線方向を検出する。歩行者の視線方向は、産業車両1を基準とした座標系において、認識部401によって特定された歩行者の位置から伸びるベクトルとして表される。
また、歩行者視線検出部411は、歩行者の移動方向を検出する。例えば、歩行者視線検出部411は、歩行者の顔や身体の画像を取得し、画像解析を行うことによって、画像内での顔や身体の移動方向を歩行者の移動方向として検出する。歩行者の移動方向は、産業車両1を基準とした座標系において、認識部401によって特定された歩行者の位置から伸びるベクトルとして表される。
The pedestrian line-of-sight detection unit 411 detects the line-of-sight direction of the pedestrian. For example, the pedestrian line-of-sight detection unit 411 acquires an image of the pedestrian's face and performs image analysis to detect the line-of-sight direction of the pedestrian based on the direction of the face and the direction of the eyes. The line-of-sight direction of the pedestrian is expressed as a vector extending from the position of the pedestrian identified by the recognition unit 401 in a coordinate system based on the industrial vehicle 1 .
Also, the pedestrian line of sight detection unit 411 detects the moving direction of the pedestrian. For example, the pedestrian line-of-sight detection unit 411 acquires an image of a pedestrian's face and body, and performs image analysis to detect the moving direction of the face and body in the image as the pedestrian's moving direction. The moving direction of the pedestrian is expressed as a vector extending from the position of the pedestrian specified by the recognition unit 401 in the coordinate system with the industrial vehicle 1 as a reference.

推定部405は、運転者の視線方向(第1視線方向の一例)及び歩行者の視線方向(第2視線方向の一例)の少なくとも一方に基づいて、危険度に重み付けを行う。 The estimation unit 405 weights the degree of risk based on at least one of the driver's line-of-sight direction (an example of the first line-of-sight direction) and the pedestrian's line-of-sight direction (an example of the second line-of-sight direction).

例えば、推定部405は、歩行者の移動方向を示すベクトル(第1ベクトルの一例)と、運転者の視線方向を示すベクトル(第2ベクトルの一例)とが交差すると判定した場合、危険度を低くする重み付けを行う。また、推定部405は、歩行者の移動方向を示すベクトルと、運転者の視線方向を示す第1視線方向を示すベクトルとが交差しないと判定した場合、危険度を高くする重み付けを行う。
これは、運転者の視線方向に歩行者が移動していることを示すため、運転者の視界に歩行者が入り、運転者が歩行者を認識するという考えに基づくものである。
For example, if the estimating unit 405 determines that a vector indicating the moving direction of the pedestrian (an example of the first vector) and a vector indicating the line-of-sight direction of the driver (an example of the second vector) intersect, the estimating unit 405 determines the degree of risk. Weighting to lower. If the estimating unit 405 determines that the vector indicating the moving direction of the pedestrian and the vector indicating the first line-of-sight direction indicating the line-of-sight direction of the driver do not intersect, the estimating unit 405 performs weighting to increase the degree of risk.
This is based on the idea that the pedestrian comes into the driver's field of vision and the driver recognizes the pedestrian in order to indicate that the pedestrian is moving in the line-of-sight direction of the driver.

また、推定部405は、運転者の視線方向が、運転者が歩行者を認識可能である範囲(第1範囲の一例)内にある場合、危険度を低くする重み付けを行う。また、推定部405は、運転者の視線方向が、運転者が歩行者を認識可能である範囲外にある場合、危険度を高くする重み付けを行う。 In addition, the estimating unit 405 performs weighting to lower the degree of risk when the line-of-sight direction of the driver is within a range (an example of the first range) in which the driver can recognize the pedestrian. In addition, the estimation unit 405 performs weighting to increase the degree of danger when the line-of-sight direction of the driver is outside the range in which the driver can recognize the pedestrian.

また、推定部405は、歩行者の視線方向が、産業車両1を認識可能である範囲を示す範囲(第2範囲の一例)内にある場合、危険度を低くする重み付けを行う。また、推定部405は、歩行者の視線方向が、産業車両1を認識可能である範囲を示す範囲外にある場合、危険度を高くする重み付けを行う。 In addition, the estimating unit 405 performs weighting to lower the degree of danger when the line-of-sight direction of the pedestrian is within the range (an example of the second range) indicating the range in which the industrial vehicle 1 can be recognized. Moreover, the estimation unit 405 performs weighting to increase the degree of danger when the line-of-sight direction of the pedestrian is outside the range indicating the range in which the industrial vehicle 1 can be recognized.

(作用、効果)
以上、本開示の第2実施形態による危険度推定システム100について説明した。
危険度推定システム100の処理装置40において、推定部405は、運転者の視線方向及び歩行者の視線方向の少なくとも一方に基づいて、危険度に重み付けを行う。
こうすることで、処理装置40は、運転者が歩行者に気付いているか否か、および歩行者が産業車両1に気付いているか否かの少なくとも一方を、危険度に反映することができるため、産業車両1の危険度を実際の状況にあったより適切な値として特定することができる。
(action, effect)
The risk estimation system 100 according to the second embodiment of the present disclosure has been described above.
In the processing device 40 of the risk estimation system 100, the estimation unit 405 weights the risk based on at least one of the line-of-sight direction of the driver and the line-of-sight direction of the pedestrian.
By doing so, the processing device 40 can reflect at least one of whether or not the driver is aware of the pedestrian and whether or not the pedestrian is aware of the industrial vehicle 1 in the degree of risk. The degree of danger of the industrial vehicle 1 can be specified as a more appropriate value that matches the actual situation.

<第3実施形態>
次に、本開示の第3実施形態による危険度推定システム100について説明する。
第3の実施形態に係る推定システム100は、第1の実施形態の構成と上位装置2の構成が異なる。
<Third Embodiment>
Next, the risk estimation system 100 according to the third embodiment of the present disclosure will be described.
The estimation system 100 according to the third embodiment differs from the configuration of the first embodiment in the configuration of the host device 2 .

(上位装置の構成)
第3の実施形態に係る上位装置は、図9に示すように、第1の実施形態の構成に加えさらに学習部24および分析部25を備える。
(Configuration of host device)
As shown in FIG. 9, the host device according to the third embodiment further includes a learning section 24 and an analysis section 25 in addition to the configuration of the first embodiment.

学習部24は、データベース22に記憶された危険度情報に基づいて、運転者ごとに危険度が高くなる時の運転の傾向を分析する。具体的には、学習部24は、データベース22に記憶された危険度情報のうち、運転者ごとにヒヤリハットに相当するもの、すなわち危険度が第1しきい値を超えるものを用いて、ヒヤリハットが生じるときの産業車両1の状態を機械学習する。例えば、学習部24は、危険度が第3しきい値を超える危険度情報に係るタグ情報のうち、時刻、産業車両1の操舵角、産業車両1の進行方向、産業車両1の車速、産業車両1の加速度、対象物の方向、対象物までの距離をサンプルとして、教師なし学習により、混合ガウスモデルのパラメータを学習させる。これにより、混合ガウスモデルは、ヒヤリハットが生じるときの産業車両1の状態の分布を表すことができる。混合ガウスモデルは、機械学習モデルの一例である。学習部24は、運転者ごとにパラメータの学習を行う。つまり、学習済みモデルは運転者ごとに生成される。 Based on the risk information stored in the database 22, the learning unit 24 analyzes the driving tendency of each driver when the risk increases. Specifically, the learning unit 24 uses information corresponding to a near-miss incident for each driver, that is, information with a degree of danger exceeding a first threshold, out of the risk information stored in the database 22, to determine whether a near-miss incident occurs. The state of the industrial vehicle 1 when it occurs is machine-learned. For example, the learning unit 24 selects the time, the steering angle of the industrial vehicle 1, the traveling direction of the industrial vehicle 1, the vehicle speed of the industrial vehicle 1, the industrial Using the acceleration of the vehicle 1, the direction of the object, and the distance to the object as samples, the parameters of the Gaussian mixture model are learned by unsupervised learning. Thereby, the Gaussian mixture model can represent the distribution of the state of the industrial vehicle 1 when a near miss occurs. A Gaussian mixture model is an example of a machine learning model. The learning unit 24 learns parameters for each driver. In other words, a trained model is generated for each driver.

分析部25は、学習部24によって学習された混合ガウスモデルのパラメータを解析し、運転者ごとにヒヤリハットが生じやすい産業車両1の状態を特定する。具体的には、分析部25は、以下の手順でヒヤリハットが生じやすい状態を特定する。まず、分析部25は、混合ガウスモデルを構成する複数の確率密度関数について、分散のパラメータが所定のしきい値以下となるものをすべて抽出する。そして分析部25は、各確率密度関数について、抽出された属性が平均値の近傍の値をとる組み合わせを、ヒヤリハットが生じやすい状態として抽出する。例えば、ある確率密度関数が時刻の分散が所定のしきい値以下であり、その平均値が17時を示し、また対象物の方向の分散が所定のしきい値以下であり、その平均値が右前方を示す場合、その運転者は17時ごろに右前方に対象物が存在するときにヒヤリハットが生じやすいことが分かる。
そして、通知部23は、運転者ごとに、分析部25の分析結果が示すヒヤリハットが生じやすい状況を表すレポートを生成し、運転者に通知する。
The analysis unit 25 analyzes the parameters of the Gaussian mixture model learned by the learning unit 24, and identifies the state of the industrial vehicle 1 in which near misses are likely to occur for each driver. Specifically, the analysis unit 25 identifies a state in which near misses are likely to occur according to the following procedure. First, the analysis unit 25 extracts all of the probability density functions that make up the Gaussian mixture model and whose variance parameters are equal to or less than a predetermined threshold. Then, for each probability density function, the analysis unit 25 extracts a combination in which the extracted attributes take values close to the average value as a state in which near misses are likely to occur. For example, a certain probability density function has a time variance less than or equal to a predetermined threshold value, the mean value of which is 17 o'clock, and an object direction variance of which is less than or equal to a predetermined threshold value, and the mean value of which is In the case of indicating the right front, it can be seen that the driver is likely to have a near miss when there is an object in the right front around 17:00.
Then, the notification unit 23 generates, for each driver, a report indicating the situation in which near misses are likely to occur, which is indicated by the analysis result of the analysis unit 25, and notifies the driver.

(作用、効果)
以上、本開示の第3実施形態による危険度推定システム100について説明した。
危険度推定システム100の上位装置2において、学習部24は、運転者ごとの危険度情報を用いて混合ガウスモデルなどの機械学習のモデルの学習を行う。そして、分析部25は、学習された機械学習モデルを分析し、運転者ごとにヒヤリハットが生じやすい状況を推定する。
こうすることで、上位装置2は、ヒヤリハットが生じやすい状況を運転者ごとに通知することができる。ヒヤリハットが生じやすい状況は、運転者ごとに異なるため、運転者は、当該情報を用いて自分の苦手な状況や癖を認識することができる。
(action, effect)
The risk estimation system 100 according to the third embodiment of the present disclosure has been described above.
In the host device 2 of the risk estimation system 100, the learning unit 24 learns a machine learning model such as a Gaussian mixture model using the risk information for each driver. Then, the analysis unit 25 analyzes the machine learning model that has been learned, and estimates situations in which near misses are likely to occur for each driver.
By doing so, the host device 2 can notify each driver of a situation in which near misses are likely to occur. Situations in which near misses are likely to occur differ from driver to driver, so the driver can use the information to recognize the situations and habits that the driver is not good at.

なお、第3の実施形態に係る推定システム100は、上位装置2が機械学習を行うが、これに限られない。例えば、他の実施形態に係る推定システム100は、処理装置40にて機械学習を行ってもよい。 In the estimation system 100 according to the third embodiment, the host device 2 performs machine learning, but the present invention is not limited to this. For example, the estimation system 100 according to another embodiment may perform machine learning in the processing device 40 .

<第4実施形態>
次に、本開示の第4実施形態による危険度推定システム100について説明する。
第4の実施形態に係る産業車両1は、処理装置40が算出した危険度に応じて、運転者の意思に関わらず運転操作を制限する。
第4の実施形態に係る推定システム100は、第1の実施形態と処理装置40の構成が異なる。
<Fourth Embodiment>
Next, a risk estimation system 100 according to the fourth embodiment of the present disclosure will be described.
The industrial vehicle 1 according to the fourth embodiment restricts the driving operation regardless of the intention of the driver according to the degree of danger calculated by the processing device 40 .
The estimation system 100 according to the fourth embodiment differs from the first embodiment in the configuration of the processing device 40 .

図10に示すように、第4の実施形態に係る処理装置40は、第1の実施形態の構成に加え、さらに学習部412、分析部413および生成部414を備える。
学習部412は、第3の実施形態に係る上位装置2の学習部24と同様に、記憶部409が記憶する運転者ごとの危険度情報に基づいて、運転者ごとにヒヤリハットが生じやすい産業車両1の状態の分布を学習する。
分析部413は、第3の実施形態に係る上位装置2の分析部25と同様に、学習部412の学習結果からヒヤリハットが生じやすい産業車両1の状態を分析する。
生成部414は、分析部413の分析結果に基づいて、ヒヤリハットが生じやすい状況に近づく産業車両1の操作を制限するための制御信号を生成する。例えば、生成部414は、分析部413による分析の結果、最高速度近傍においてヒヤリハットが生じやすいことが分かった場合、危険度が第1閾値より高いときに産業車両1が最高速度とならないように速度を制限する制御信号を生成する。速度の制限方法は、例えばアクセルを物理的に最大まで踏み込めないようにアクセルの可動範囲を制限する方法や、アクセルの踏み込み量に対する加速度の大きさを低減させる方法などが挙げられる。また、例えば、生成部414は、分析部413による分析の結果、操舵角が左右の最大値近傍となるときにヒヤリハットが生じやすいことが分かった場合、危険度が第1閾値より高いときに操舵角が最大操舵角にならないように制限する制御信号を生成する。操舵角の制限方法は、例えばステアリングを物理的に最大まで回せないようにステアリングの可動範囲を制限する方法や、ステアリングの操作量に対する操舵角の大きさを低減させる方法などが挙げられる。
そして、生成部414は、生成した制御信号を操作装置10に出力する。
As shown in FIG. 10, the processing device 40 according to the fourth embodiment further includes a learning unit 412, an analysis unit 413 and a generation unit 414 in addition to the configuration of the first embodiment.
Similar to the learning unit 24 of the host device 2 according to the third embodiment, the learning unit 412, based on the risk information for each driver stored in the storage unit 409, detects industrial vehicles that are likely to cause near misses for each driver. Learn the distribution of 1 states.
The analysis unit 413 analyzes the state of the industrial vehicle 1 in which near misses are likely to occur from the learning result of the learning unit 412, like the analysis unit 25 of the host device 2 according to the third embodiment.
Based on the analysis result of the analysis unit 413, the generation unit 414 generates a control signal for restricting the operation of the industrial vehicle 1 that is likely to cause near misses. For example, if the result of the analysis by the analysis unit 413 is that near-miss incidents are likely to occur near the maximum speed, the generation unit 414 sets the speed so that the industrial vehicle 1 does not reach the maximum speed when the degree of danger is higher than the first threshold. generates a control signal that limits the Examples of speed limiting methods include a method of limiting the movable range of the accelerator so that the accelerator cannot be physically depressed to the maximum, and a method of reducing the magnitude of acceleration relative to the amount of depression of the accelerator. Further, for example, if the result of the analysis by the analysis unit 413 indicates that near-miss incidents are likely to occur when the steering angle is close to the left-right maximum value, the generation unit 414 generates a steering angle when the degree of risk is higher than the first threshold. A control signal is generated to limit the angle so that it does not reach the maximum steering angle. Methods of limiting the steering angle include, for example, a method of limiting the movable range of the steering so that the steering cannot be physically turned to the maximum, and a method of reducing the magnitude of the steering angle relative to the amount of operation of the steering.
The generating unit 414 then outputs the generated control signal to the operating device 10 .

(作用、効果)
以上、本開示の第4実施形態による危険度推定システム100について説明した。
危険度推定システム100の処理装置40において、生成部414は、算出した危険度に応じて操作範囲を制限させる制御信号を生成する。生成部414は、生成した制御信号を操作装置10に出力する。
こうすることで、産業車両1は、危険度の高い状態になり難くなる。その結果、産業車両1による事故を低減することができる。
(action, effect)
The risk estimation system 100 according to the fourth embodiment of the present disclosure has been described above.
In the processing device 40 of the risk estimation system 100, the generator 414 generates a control signal for limiting the operation range according to the calculated risk. The generator 414 outputs the generated control signal to the operating device 10 .
By doing so, the industrial vehicle 1 is less likely to be in a high-risk state. As a result, accidents caused by the industrial vehicle 1 can be reduced.

<他の実施形態>
なお、本開示の第1~第4実施形態では、通知装置30は、第1スピーカ30a、第2スピーカ30b、第3スピーカ30c、第4スピーカ30dを備えるものとして説明した。しかしながら、本開示の別の実施形態では、通知装置30は、対象物が認識された場合に、産業車両1を基準としたその対象物が存在する位置に対応する方向または領域から音が出力されるスピーカであれば、スピーカの台数及びスピーカが設けられる位置は限定されない。
<Other embodiments>
Note that, in the first to fourth embodiments of the present disclosure, the notification device 30 has been described as including the first speaker 30a, the second speaker 30b, the third speaker 30c, and the fourth speaker 30d. However, in another embodiment of the present disclosure, the notification device 30 outputs a sound from a direction or area corresponding to the position where the object exists relative to the industrial vehicle 1 when the object is recognized. The number of speakers and the position where the speakers are installed are not limited as long as they are speakers that can

なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。 It should be noted that the order of the processes in the embodiment of the present disclosure may be changed as long as appropriate processes are performed.

本開示の実施形態におけるデータベース22、記憶部409、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、データベース22、記憶部409、その他の記憶装置のそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。 Each of the database 22, storage unit 409, and other storage devices in the embodiment of the present disclosure may be provided anywhere as long as appropriate information is transmitted and received. Further, each of the database 22, the storage unit 409, and other storage devices may exist in a plurality and store data in a distributed manner within a range in which appropriate information transmission/reception is performed.

本開示の実施形態について説明したが、上述の処理装置40、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
図11は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ5は、図11に示すように、CPU6、メインメモリ7、ストレージ8、インターフェース9を備える。
例えば、上述の処理装置40、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
Although embodiments of the present disclosure have been described, the processing device 40 and other control devices described above may have a computer system therein. The process of the above-described processing is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by reading and executing this program by a computer. Specific examples of computers are shown below.
FIG. 11 is a schematic block diagram showing the configuration of a computer according to at least one embodiment;
The computer 5 includes a CPU 6, a main memory 7, a storage 8, and an interface 9, as shown in FIG.
For example, each of the processing device 40 and other control devices described above is implemented in the computer 5 . The operation of each processing unit described above is stored in the storage 8 in the form of a program. The CPU 6 reads out the program from the storage 8, develops it in the main memory 7, and executes the above process according to the program. In addition, the CPU 6 secures storage areas corresponding to the storage units described above in the main memory 7 according to the program.

ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。 Examples of the storage 8 include HDD (Hard Disk Drive), SSD (Solid State Drive), magnetic disk, magneto-optical disk, CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc Read Only Memory). , semiconductor memory, and the like. The storage 8 may be an internal medium directly connected to the bus of the computer 5, or an external medium connected to the computer 5 via the interface 9 or communication line. Further, when this program is distributed to the computer 5 through a communication line, the computer 5 that receives the distribution may develop the program in the main memory 7 and execute the above process. In at least one embodiment, storage 8 is a non-transitory, tangible storage medium.

また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
なお、他の実施形態においては、処理装置40、その他の制御装置のそれぞれは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、及びこれらに類する処理装置を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
Further, the program may implement part of the functions described above. Furthermore, the program may be a file capable of realizing the above functions in combination with a program already recorded in the computer system, that is, a so-called difference file (difference program).
In other embodiments, each of the processing device 40 and other control devices includes a custom LSI (Large Scale Integrated Circuit) such as a PLD (Programmable Logic Device) in addition to or instead of the above configuration, ASICs (Application Specific Integrated Circuits), GPUs (Graphics Processing Units), and similar processing devices may be provided. Examples of PLD include PAL (Programmable Array Logic), GAL (Generic Array Logic), CPLD (Complex Programmable Logic Device), and FPGA (Field Programmable Gate Array). In this case, part or all of the functions implemented by the processor may be implemented by the integrated circuit.

本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。 While several embodiments of the disclosure have been described, these embodiments are examples and do not limit the scope of the disclosure. Various additions, omissions, replacements, and modifications may be made to these embodiments without departing from the gist of the disclosure.

<付記>
本開示の各実施形態に記載の処理装置40、情報処理方法、推定システム及びプログラムは、例えば以下のように把握される。
<Appendix>
The processing device 40, the information processing method, the estimation system, and the program described in each embodiment of the present disclosure are understood, for example, as follows.

(1)第1の態様に係る処理装置(40)は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部(402)と、前記位置に基づいて、前記車両(1)と前記対象物とが接触し得る状態を示す第1状態を特定する特定部(404)と、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部(405)と、を備える。 (1) A processing device (40) according to a first aspect includes a calculation unit (402) that calculates the position of an object relative to the vehicle based on an image taken from the vehicle, and the vehicle based on the position. A specifying unit (404) that specifies a first state indicating a state in which (1) can come into contact with the object, and a second state and the first state that indicate the state of the vehicle when the image was captured. and an estimating unit (405) for estimating the degree of risk associated with the object based on the difference between.

この処理装置(40)により、運転者が運転中の車両(1)の危険度を適切に特定することができる。 This processing device (40) can appropriately identify the degree of risk of the vehicle (1) being driven by the driver.

(2)第2の態様に係る処理装置(40)は、(1)の処理装置(40)であって、前記特定部(404)は、前記位置に基づいて、前記車両(1)が前記対象物に接触するまでの時間を算出し、前記推定部(405)は、前記差と、前記時間とに基づいて、前記危険度を推定するものであってもよい。 (2) A processing device (40) according to a second aspect is the processing device (40) of (1), wherein the specifying unit (404) determines based on the position that the vehicle (1) is the The time until contact with the object may be calculated, and the estimation unit (405) may estimate the degree of risk based on the difference and the time.

この処理装置(40)により、車両(1)が対象物に接触するまでの時間を考慮したより実際の状態に近い危険度を算出することができる。 With this processing device (40), it is possible to calculate a degree of risk that is closer to the actual state than the time it takes for the vehicle (1) to come into contact with the object.

(3)第3の態様に係る処理装置(40)は、(1)または(2)の処理装置(40)であって、前記推定部(405)は、前記差が小さいほど前記危険度を高く算出するものであってもよい。 (3) A processing device (40) according to a third aspect is the processing device (40) of (1) or (2), wherein the estimation unit (405) estimates the degree of risk as the difference becomes smaller. It may be calculated to be high.

対象物に接触し得る第1状態と現在の第2状態とが近い場合、運転者による操作量が小さくても対象物に接触する可能性が高いことが分かる。そのため、この処理装置(40)により、運転中の車両(1)の危険度を適切に推定することができる。 It can be seen that when the first state in which the object can be contacted is close to the current second state, the possibility of contact with the object is high even if the amount of operation by the driver is small. Therefore, the processing device (40) can appropriately estimate the degree of risk of the vehicle (1) being driven.

(4)第4の態様に係る処理装置(40)は、(1)から(3)のいずれか1つの処理装置(40)であって、前記第1状態及び前記第2状態は、前記車両(1)の操舵角及び前記車両の加速度を含むものであってもよい。 (4) A processing device (40) according to a fourth aspect is the processing device (40) according to any one of (1) to (3), wherein the first state and the second state are the vehicle It may include the steering angle of (1) and the acceleration of the vehicle.

車両(1)の操舵角及び加速度によって、車両(1)の進行方向が決定されるため、この処理装置(40)により、運転中の車両(1)の危険度を適切に特定することができる。 Since the direction of travel of the vehicle (1) is determined by the steering angle and acceleration of the vehicle (1), the processing device (40) can appropriately identify the degree of risk of the vehicle (1) during driving. .

(5)第5の態様に係る処理装置(40)は、(1)から(4)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記運転者の視線方向を示す第1視線方向、または前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向に基づいて、前記危険度に重み付けを行うものであってもよい。 (5) A processing device (40) according to a fifth aspect is the processing device (40) according to any one of (1) to (4), wherein the estimation unit (405) The degree of risk may be weighted based on a first line-of-sight direction indicating a direction, or a second line-of-sight direction indicating a line-of-sight direction of a person when the object is a person.

この処理装置(40)により、運転者の状態、または対象物である人物の状態も危険度に反映させることができ、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the state of the driver or the state of the target person can be reflected in the degree of risk, and the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately. be able to.

(6)第6の態様に係る処理装置(40)は、(5)の処理装置(40)であって、前記推定部(405)は、前記対象物が人物である場合、前記人物の移動方向と、前記第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うものであってもよい。 (6) The processing device (40) according to the sixth aspect is the processing device (40) of (5), wherein the estimation unit (405), when the object is a person, Weighting is performed so that a risk level when the direction intersects with the first line-of-sight direction is lower than a risk level when the moving direction of the person and the first line-of-sight direction do not intersect. good too.

この処理装置(40)により、運転者の状態を危険度に反映させることができるため、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the driver's condition can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.

(7)第7の態様に係る処理装置(40)は、(5)または(6)の処理装置(40)であって、前記推定部(405)は、前記第1視線方向が、前記運転者が前記対象物を認識可能である範囲を示す第1範囲内にある場合、前記危険度を低くする重み付けを行い、前記第1視線方向が、前記第1範囲外にある場合、前記危険度を高くする重み付けを行うものであってもよい。 (7) A processing device (40) according to a seventh aspect is the processing device (40) according to (5) or (6), wherein the estimating unit (405) determines that the first line-of-sight direction is the driving direction. When the target object is within a first range indicating the range in which a person can recognize the target object, the risk level is weighted to be low, and when the first line-of-sight direction is outside the first range, the risk level is determined. may be weighted to increase

この処理装置(40)により、運転者の状態を危険度に反映させることができるため、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the driver's condition can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.

(8)第8の態様に係る処理装置(40)は、(5)から(7)いずれか1つの処理装置(40)であって、前記推定部(405)は、前記第2視線方向が、前記人物が前記車両(1)を認識可能である範囲を示す第2範囲内にある場合、前記危険度を低くする重み付けを行い、前記第2視線方向が、前記第2範囲外にある場合、前記危険度を高くする重み付けを行うものであってもよい。 (8) The processing device (40) according to the eighth aspect is the processing device (40) according to any one of (5) to (7), wherein the estimation unit (405) is configured such that the second line-of-sight direction is , when the person is within a second range indicating the range in which the vehicle (1) can be recognized, weighting is performed to lower the risk, and when the second line-of-sight direction is outside the second range , weighting may be performed to increase the degree of risk.

この処理装置(40)により、対象物である人物の状態を危険度に反映させることができるため、運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), the state of a person, who is an object, can be reflected in the degree of risk, so the degree of risk of the vehicle (1) being driven can be more appropriately specified.

(9)第9の態様に係る処理装置(40)は、(1)から(8)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記対象物が人物である場合、前記人物の移動方向に基づいて、前記危険度に重み付けを行うものであってもよい。 (9) A processing device (40) according to a ninth aspect is the processing device (40) according to any one of (1) to (8), wherein the estimation unit (405) determines that the object is a person. , the degree of risk may be weighted based on the moving direction of the person.

この処理装置(40)により、対象物である人物の状態も危険度に反映させることができ、運転者が運転中の車両(1)の危険度をより適切に特定することができる。 With this processing device (40), it is possible to reflect the state of a person, who is an object, on the degree of risk, so that the degree of risk of the vehicle (1) being driven by the driver can be specified more appropriately.

(10)第10の態様に係る処理装置(40)は、(1)から(9)のいずれか1つの処理装置(40)であって、前記推定部(405)は、前記第1状態のうち、距離が一定の値より大きいもの、または前記車両が前記対象物に接触するまでの時間が一定時間より長いものを、危険度の推定の対象外とする。 (10) The processing device (40) according to the tenth aspect is the processing device (40) according to any one of (1) to (9), wherein the estimation unit (405) is in the first state If the distance is greater than a certain value or the time required for the vehicle to come into contact with the object is longer than the certain time, the degree of risk is not estimated.

ある第1状態について、対象物に接触するまでの距離が長い場合、車両(1)がそのような状態になる可能性が低く危険度が低い。また、車両(1)が対象物に接触するまでの時間が長い場合、危険を回避するための時間が十分にあり危険度が低い。そのため、処理装置(40)はこのような第1状態について危険度の推定の対象外とすることで、不要な計算を減らすことができる。 Regarding a certain first state, if the distance until contact with the object is long, the possibility that the vehicle (1) will be in such a state is low and the degree of danger is low. Also, when the time until the vehicle (1) contacts the object is long, there is enough time to avoid danger and the degree of danger is low. Therefore, the processing device (40) can reduce unnecessary calculations by excluding such a first state from risk estimation.

(11)第11の態様に係る処理装置(40)は、(1)から(10)のいずれか1つの処理装置(40)であって、前記危険度のうち第1しきい値以上である危険度を、タグ情報と関連付けてデータベース(22、409)に記録する記録部(406、407)、を備えるものであってもよい。 (11) The processing device (40) according to the eleventh aspect is the processing device (40) according to any one of (1) to (10), wherein the degree of risk is equal to or higher than the first threshold A recording unit (406, 407) that records the degree of risk in a database (22, 409) in association with tag information may be provided.

この処理装置(40)により、ヒヤリハットなどの危険度の高いものを記録することができる。 With this processing device (40), it is possible to record high-risk incidents such as near misses.

(12)第12の態様に係る処理装置(40)は、(11)の処理装置(40)であって、記録部(406、407)が、前記危険度のうち第1しきい値以上かつ前記第1しきい値より大きい第2しきい値以下の危険度を、タグ情報と関連付けてデータベース(22、409)に記録するものであってもよい。 (12) A processing device (40) according to a twelfth aspect is the processing device (40) of (11), wherein the recording units (406, 407) have a first threshold value or more of the degrees of risk and Risk levels equal to or lower than a second threshold greater than the first threshold may be recorded in a database (22, 409) in association with tag information.

この処理装置(40)により、危険度が低すぎずかつ高すぎない、ヒヤリハットに相当するものを選択的に記録することができる。 With this processing device (40), it is possible to selectively record near-miss incidents that are neither too low nor too high in risk.

(13)第13の態様に係る処理装置(40)は、(11)または(12)の処理装置(40)であって、前記記録部(406、407)は、前記運転者ごとに、前記危険度と前記タグ情報とを関連付けて前記データベース(22、409)に記録するものであってもよい。 (13) A processing device (40) according to a thirteenth aspect is the processing device (40) of (11) or (12), wherein the recording units (406, 407) record the The degree of risk and the tag information may be associated with each other and recorded in the database (22, 409).

この処理装置(40)により、運転者ごとに危険度の管理を容易に行うことができる。 This processing device (40) makes it possible to easily manage the degree of risk for each driver.

(14)第14の態様に係る処理装置(40)は、(13)の処理装置(40)であって、前記運転者ごとに前記タグ情報を用いて機械学習モデルのパラメータを学習させる学習部(412)と、前記学習された機械学習モデルから危険度が高いときの前記車両の状態を前記運転者ごとに分析する分析部(413)とをさらに備える。 (14) A processing device (40) according to a fourteenth aspect is the processing device (40) of (13), wherein the learning unit learns parameters of a machine learning model using the tag information for each driver. (412) and an analysis unit (413) that analyzes the state of the vehicle when the degree of danger is high from the learned machine learning model for each driver.

この情報処理装置(40)により、運転者ごとにヒヤリハットが生じやすい状況を分析することができ、運転者別に当該状況をフィードバックすることができる。 With this information processing device (40), it is possible to analyze situations in which near misses are likely to occur for each driver, and to feed back the situation for each driver.

(15)第15の態様に係る処理装置(40)は、(1)から(14)のいずれか1つの処理装置(40)であって、前記運転者ごとに、前記危険度に応じた前記車両の操作範囲を制限する制御信号を生成する生成部(414)、を備えるものであってもよい。 (15) A processing device (40) according to a fifteenth aspect is the processing device (40) according to any one of (1) to (14), wherein said A generator (414) that generates a control signal that limits the operating range of the vehicle.

この処理装置(40)により、運転者が意識しなくとも危険度が高い状態になり難くなり、事故を低減させることができる。 With this processing device (40), it becomes difficult for the driver to be in a high-risk state even if the driver is not aware of it, and accidents can be reduced.

(16)第16の態様に係る処理装置(40)は、(15)の処理装置(40)であって、前記生成部(414)は、前記危険度が前記第1しきい値より高い場合に、前記運転者ごとに前記危険度が高いときの車両の状態に近づく前記車両の操作を制限する前記制御信号を生成する。 (16) The processing device (40) according to the sixteenth aspect is the processing device (40) of (15), wherein the generation unit (414) generates Then, the control signal is generated for each driver to limit the operation of the vehicle to approach the state of the vehicle when the degree of danger is high.

この処理装置(40)により、運転者ごとに、危険度が高い状態になりやすい操作を制限し、事故を低減させることができる。 With this processing device (40), it is possible to reduce accidents by restricting operations that tend to lead to a high-risk state for each driver.

(17)第17の態様に係る推定システム(100)は、(11)から(16)の何れか1つに記載の処理装置(40)と、前記データベース(22)を備える上位装置(2)とを備え、前記データベース(22)は、前記運転者ごとに、前記危険度と前記タグ情報とを関連付けて記憶する。 (17) An estimation system (100) according to a seventeenth aspect comprises a host device (2) comprising the processing device (40) according to any one of (11) to (16) and the database (22) The database (22) associates and stores the risk level and the tag information for each driver.

この推定システム(100)により、上位装置(2)は、運転者ごとに危険度が高い状態を収集することができる。 This estimation system (100) allows the host device (2) to collect high-risk states for each driver.

(18)第18の態様に係る推定システム(100)は、(17)の推定システムであって、前記上位装置(2)は、前記データベース(22)に記録された前記危険度に関する情報を、前記運転者ごとに通知する通知部(23)をさらに備える。 (18) The estimation system (100) according to the eighteenth aspect is the estimation system of (17), wherein the higher-level device (2) receives information about the risk recorded in the database (22), A notification unit (23) that notifies each driver is further provided.

この推定システム(100)により、運転者の危険度に関する情報を運転者ごとに個別に知らせることができる。 With this estimation system (100), it is possible to individually inform each driver of information regarding the degree of danger of the driver.

(19)第19の態様に係る処理方法は、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、を含む。 (19) A processing method according to a nineteenth aspect includes detecting a position of an object relative to the vehicle based on an image taken from the vehicle, and detecting contact between the vehicle and the object based on the position. identifying a possible first state; and estimating the degree of risk associated with the object based on the difference between a second state indicating the state of the vehicle when the image was captured and the first state. and including.

この処理方法により、運転者が運転中の車両(1)の危険度を適切に推定することができる。 This processing method allows the driver to appropriately estimate the degree of risk of the vehicle (1) being driven.

(20)第20の態様に係るプログラムは、コンピュータに、運転される車両から撮影した画像に基づいて、前記車両に対する対象物の位置を特定することと、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、を実行させる。 (20) A program according to a twentieth aspect causes a computer to identify a position of an object relative to the vehicle based on an image taken from the vehicle being driven, and based on the position, identify the vehicle and the object. Identifying a first state in which an object may come into contact with the object, and detecting a danger associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state. estimating the degree;

このプログラムにより、運転者が運転中の車両(1)の危険度を適切に推定することができる。 This program enables the driver to appropriately estimate the degree of risk of the vehicle (1) being driven.

1・・・産業車両
2・・・上位装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・操作装置
20・・・撮影装置
20a・・・第1カメラ
20b・・・第2カメラ
20c・・・第3カメラ
20d・・・第4カメラ
21・・・受信部
22・・・データベース
23・・・通知部
24・・・学習部
25・・・分析部
30・・・通知装置
30a・・・第1スピーカ
30b・・・第2スピーカ
30c・・・第3スピーカ
30d・・・第4スピーカ
40・・・処理装置
401・・・認識部
402・・・算出部
403・・・取得部
404・・・特定部
405・・・推定部
406・・・タグ付け部
407・・・記録部
408・・・制御部
409・・・記憶部
410・・・運転者視線検出部
411・・・歩行者視線検出部
412・・・学習部
413・・・分析部
414・・・生成部
DESCRIPTION OF SYMBOLS 1... Industrial vehicle 2... Host device 5... Computer 6... CPU
7 Main memory 8 Storage 9 Interface 10 Operating device 20 Photographing device 20a First camera 20b Second camera 20c Third camera 20d Fourth camera 21 Reception unit 22 Database 23 Notification unit 24 Learning unit 25 Analysis unit 30 Notification device 30a First speaker 30b Second speaker 30c Third speaker 30d Fourth speaker 40 Processing device 401 Recognition unit 402 Calculation unit 403 Acquisition unit 404 Identification unit 405 Estimate unit 406 Tagging unit 407 Recording unit 408 Control unit 409 Storage unit 410 Driver sight line detection unit 411 Pedestrian sight line detection unit 412 ..Learning unit 413..Analyzing unit 414..Generating unit

Claims (22)

車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、
前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定する特定部と、
前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定する推定部と、
を備える処理装置。
a calculation unit that calculates the position of an object relative to the vehicle based on an image captured from the vehicle;
a specifying unit that specifies, based on the position, a plurality of first states indicating states of the vehicle when the vehicle draws a travel trajectory in which the vehicle contacts the object;
an estimating unit for estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
A processing device comprising:
前記特定部は、
前記位置に基づいて、前記車両が前記対象物に接触するまでの時間を算出し、
前記推定部は、
前記差と、前記時間とに基づいて、前記危険度を推定する、
請求項1に記載の処理装置。
The identification unit
calculating the time until the vehicle contacts the object based on the position;
The estimation unit
estimating the risk based on the difference and the time;
2. The processing apparatus of claim 1.
前記推定部は、
前記差が小さいほど前記危険度を高く推定する、
請求項1または請求項2に記載の処理装置。
The estimation unit
estimating the risk higher as the difference is smaller,
3. The processing apparatus according to claim 1 or 2.
前記第1状態および前記第2状態は、前記車両の操舵角及び前記車両の加速度を含む
請求項1から請求項3の何れか一項に記載の処理装置。
4. The processing device according to any one of claims 1 to 3, wherein said first state and said second state include a steering angle of said vehicle and an acceleration of said vehicle.
前記推定部は、
運転者の視線方向を示す第1視線方向、及び前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向の少なくとも一方に基づいて、前記危険度に重み付けを行う、
請求項1から請求項4の何れか一項に記載の処理装置。
The estimation unit
weighting the degree of risk based on at least one of a first line-of-sight direction indicating a line-of-sight direction of a driver and a second line-of-sight direction indicating a line-of-sight direction of the person when the object is a person;
The processing apparatus according to any one of claims 1 to 4.
車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出する算出部と、
前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定する特定部と、
前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定する推定部と、
を備え、
前記推定部は、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行う、
処理装置。
a calculation unit that calculates the position of an object relative to the vehicle based on an image captured from the vehicle;
a specifying unit that specifies a first state in which the vehicle and the object can come into contact based on the position;
an estimating unit for estimating a degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
with
The estimation unit
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. give a low weight relative to the risk of not crossing,
processing equipment.
前記推定部は、
前記第1視線方向が、前記運転者が前記対象物を認識可能である範囲を示す第1範囲内にある場合、前記危険度を低くする重み付けを行い、前記第1視線方向が、前記第1範囲外にある場合、前記危険度を高くする重み付けを行う、
請求項5または請求項6に記載の処理装置。
The estimation unit
When the first line-of-sight direction is within a first range indicating a range in which the driver can recognize the object, weighting is performed to lower the risk, and the first line-of-sight direction If out of range, weighting the risk to increase;
7. A processing apparatus according to claim 5 or claim 6.
前記推定部は、
前記対象物が人物である場合における前記人物の視線方向を示す第2視線方向が、前記人物が前記車両を認識可能である範囲を示す第2範囲内にある場合、前記危険度を低くする重み付けを行い、前記第2視線方向が、前記第2範囲外にある場合、前記危険度を高くする重み付けを行う、
請求項5から請求項7の何れか1項に記載の処理装置。
The estimation unit
Weighting to lower the degree of risk when a second line-of-sight direction indicating a line-of-sight direction of the person when the object is a person is within a second range indicating a range in which the person can recognize the vehicle. and if the second line-of-sight direction is outside the second range, weighting is performed to increase the risk;
The processing apparatus according to any one of claims 5 to 7.
前記推定部は、
前記対象物が人物である場合、前記人物の移動方向に基づいて、前記危険度に重み付けを行う、
請求項1から請求項8の何れか一項に記載の処理装置。
The estimation unit
When the object is a person, weighting the degree of risk based on the moving direction of the person;
The processing apparatus according to any one of claims 1 to 8.
前記推定部は、
前記第1状態のうち、距離が一定の値より大きいもの、または前記車両が前記対象物に接触するまでの時間が一定時間より長いものを、危険度の推定の対象外とする
請求項1から請求項9の何れか一項に記載の処理装置。
The estimation unit
from claim 1, wherein, among the first states, a state in which the distance is greater than a predetermined value or a state in which the time until the vehicle contacts the object is longer than a predetermined time is excluded from the estimation of the degree of risk. 10. A processing apparatus according to any one of claims 9 to 10.
前記危険度のうち第1しきい値以上である危険度を、タグ情報と関連付けてデータベースに記録する記録部、
を備える請求項1から請求項10の何れか一項に記載の処理装置。
a recording unit that records in a database the degree of risk that is equal to or greater than a first threshold among the degrees of risk in association with tag information;
The processing apparatus according to any one of claims 1 to 10, comprising:
前記記録部は、前記危険度のうち前記第1しきい値以上かつ前記第1しきい値より大きい第2しきい値以下の危険度を、前記タグ情報と関連付けて前記データベースに記録する 請求項11に記載の処理装置。 The recording unit records, in the database, a degree of risk that is greater than or equal to the first threshold value and less than or equal to a second threshold value that is greater than the first threshold value among the degrees of risk in association with the tag information. 12. The processing apparatus according to 11. 前記記録部は、
運転者ごとに、前記危険度と前記タグ情報とを関連付けて前記データベースに記録する、
請求項11または請求項12に記載の処理装置。
The recording unit
For each driver, the risk level and the tag information are associated and recorded in the database;
13. A processing apparatus according to claim 11 or 12.
前記運転者ごとに前記タグ情報を用いて機械学習モデルのパラメータを学習させる学習部と、
前記学習された機械学習モデルから危険度が高いときの前記車両の状態を前記運転者ごとに分析する分析部と
をさらに備える請求項13に記載の処理装置。
a learning unit for learning parameters of a machine learning model using the tag information for each driver;
14. The processing device according to claim 13, further comprising: an analysis unit that analyzes, for each driver, the state of the vehicle when the degree of danger is high from the learned machine learning model.
前記危険度に応じた前記車両の操作範囲を制限する制御信号を生成する生成部と、
をさらに備える請求項1から請求項14の何れか一項に記載の処理装置。
a generation unit that generates a control signal that limits an operation range of the vehicle according to the degree of risk;
15. A processing apparatus according to any one of claims 1 to 14, further comprising:
前記生成部は、前記危険度が第1しきい値より高い場合に、運転者ごとに前記危険度が高いときの車両の状態に近づく前記車両の操作を制限する前記制御信号を生成する
請求項15に記載の処理装置。
wherein, when the degree of risk is higher than a first threshold value, the generation unit generates the control signal for limiting the operation of the vehicle that approaches the state of the vehicle when the degree of risk is high for each driver. 16. The processing apparatus according to 15.
請求項11から請求項14の何れか1項に記載の処理装置と、
前記データベースを備える上位装置と
を備え、
前記データベースは、運転者ごとに、前記危険度と前記タグ情報とを関連付けて記憶する、
推定システム。
a processing apparatus according to any one of claims 11 to 14;
a host device comprising the database; and
The database associates and stores the risk level and the tag information for each driver.
estimation system.
前記上位装置は、
前記データベースに記録された前記危険度に関する情報を、前記運転者ごとに通知する通知部、
をさらに備える請求項17に記載の推定システム。
The host device is
a notification unit that notifies each driver of information about the degree of risk recorded in the database;
18. The estimation system of claim 17, further comprising:
コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、
前記コンピュータが、前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、
前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、
を含む処理方法。
a computer detecting a position of an object relative to the vehicle based on an image taken from the vehicle;
the computer identifying, based on the positions, a plurality of first states indicating states of the vehicle when the vehicle draws a travel trajectory in which the vehicle contacts the object;
the computer estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
processing methods, including;
コンピュータに、
車両から撮影した画像に基づいて、前記車両に対する対象物の位置を検出することと、 前記位置に基づいて、前記車両が前記対象物と接触する走行軌跡を描くときの前記車両の状態を示す複数の第1状態を特定することと、
前記画像を撮影したときの前記車両の状態を示す第2状態と複数の前記第1状態それぞれとの差に基づいて、前記対象物に係る危険度を推定することと、
を実行させるプログラム。
to the computer,
Detecting a position of an object relative to the vehicle based on an image taken from the vehicle; and Based on the position, a plurality of states of the vehicle when drawing a travel trajectory in which the vehicle contacts the object. identifying a first state of
estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and each of the plurality of first states;
program to run.
コンピュータが、車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、
前記コンピュータが、前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、
前記コンピュータが、前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うことと
を含む処理方法。
a computer calculating a position of an object relative to the vehicle based on images taken from the vehicle;
the computer identifying a first state in which the vehicle and the object may contact based on the position;
the computer estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. weighting it lower than the risk if it does not cross.
コンピュータに、
車両から撮影した画像に基づいて、前記車両に対する対象物の位置を算出することと、 前記位置に基づいて、前記車両と前記対象物とが接触し得る第1状態を特定することと、
前記画像を撮影したときの前記車両の状態を示す第2状態と前記第1状態との差に基づいて、前記対象物に係る危険度を推定することと、
前記対象物が人物である場合、前記人物の移動方向と、運転者の視線方向を示す第1視線方向とが交差する場合の危険度を、前記人物の移動方向と、前記第1視線方向とが交差しない場合の危険度に比べて低くする重み付けを行うことと
を実行させるプログラム。
to the computer,
calculating a position of an object with respect to the vehicle based on an image captured from the vehicle; identifying a first state in which the vehicle and the object can contact based on the position;
estimating the degree of risk associated with the object based on a difference between a second state indicating the state of the vehicle when the image was captured and the first state;
When the object is a person, the degree of risk when the direction of movement of the person and the first line-of-sight direction indicating the line-of-sight direction of the driver intersect is determined by the direction of movement of the person and the first line-of-sight direction. A program that causes the weighting to be low relative to the risk of not crossing and
JP2020030841A 2020-02-26 2020-02-26 Processing device, processing method, estimation system and program Active JP7267221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030841A JP7267221B2 (en) 2020-02-26 2020-02-26 Processing device, processing method, estimation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030841A JP7267221B2 (en) 2020-02-26 2020-02-26 Processing device, processing method, estimation system and program

Publications (2)

Publication Number Publication Date
JP2021135693A JP2021135693A (en) 2021-09-13
JP7267221B2 true JP7267221B2 (en) 2023-05-01

Family

ID=77661240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030841A Active JP7267221B2 (en) 2020-02-26 2020-02-26 Processing device, processing method, estimation system and program

Country Status (1)

Country Link
JP (1) JP7267221B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (en) 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2005165422A (en) 2003-11-28 2005-06-23 Denso Corp Collision probability determination device
JP2006350934A (en) 2005-06-20 2006-12-28 Denso Corp Information display device
JP2008003762A (en) 2006-06-21 2008-01-10 Honda Motor Co Ltd Obstacle recognition determining device
JP2008257582A (en) 2007-04-06 2008-10-23 Denso Corp Driving support device
JP2009244986A (en) 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc Warning notification device
JP2010257282A (en) 2009-04-27 2010-11-11 Alps Electric Co Ltd Obstacle detection device and vehicle with the device mounted thereon
JP2013117809A (en) 2011-12-02 2013-06-13 Mazda Motor Corp Safety driving support information distribution system and information collection vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (en) 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2005165422A (en) 2003-11-28 2005-06-23 Denso Corp Collision probability determination device
JP2006350934A (en) 2005-06-20 2006-12-28 Denso Corp Information display device
JP2008003762A (en) 2006-06-21 2008-01-10 Honda Motor Co Ltd Obstacle recognition determining device
JP2008257582A (en) 2007-04-06 2008-10-23 Denso Corp Driving support device
JP2009244986A (en) 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc Warning notification device
JP2010257282A (en) 2009-04-27 2010-11-11 Alps Electric Co Ltd Obstacle detection device and vehicle with the device mounted thereon
JP2013117809A (en) 2011-12-02 2013-06-13 Mazda Motor Corp Safety driving support information distribution system and information collection vehicle

Also Published As

Publication number Publication date
JP2021135693A (en) 2021-09-13

Similar Documents

Publication Publication Date Title
US10300851B1 (en) Method for warning vehicle of risk of lane change and alarm device using the same
US11034294B2 (en) Driving notification method and driving notification system
US20160159217A1 (en) System and method for determining drowsy state of driver
EP3588372A1 (en) Controlling an autonomous vehicle based on passenger behavior
CN107415861A (en) It is used for detecting the method and apparatus that use of the driver to the equipment of electronics for vehicle
TW201836888A (en) Ensuring occupant awareness in vehicles
WO2015186395A1 (en) Vehicle periphery monitoring device
JP2016066231A (en) Collision prevention device, collision prevention method, collision prevention program, and recording medium
CN112689587A (en) Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required
JP7267222B2 (en) Processing device, processing method, notification system and program
JP7267221B2 (en) Processing device, processing method, estimation system and program
US10726728B2 (en) System and method for controlling movable body
US20230075659A1 (en) Object ranging apparatus, method, and computer readable medium
CN109823344A (en) Drive reminding method and system
TWI579173B (en) An driver fatigue monitoring and detection method base on an ear-angle
JP6641633B2 (en) Moving object detection system and data consistency determination method thereof
CN115690748B (en) Method for occupancy class prediction and method for occlusion value determination
JP2018169667A (en) Driving information recording system, driving information recording method, and program
JP7259957B2 (en) Judgment system, processing method, program
US20220028258A1 (en) Warning presentation control device, warning presentation control system, method of controlling warning presentation, and recording medium storing warning presentation control program
CN112334944B (en) Mark recognition method and mark recognition device for camera device
US20230267718A1 (en) Systems and methods for training event prediction models for camera-based warning systems
US20230109171A1 (en) Operator take-over prediction
KR20230159739A (en) Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same
CN116923392A (en) Danger identification method, danger identification system, and danger notification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150