JP5962288B2 - Object detection program, detection apparatus, and detection method - Google Patents

Object detection program, detection apparatus, and detection method Download PDF

Info

Publication number
JP5962288B2
JP5962288B2 JP2012160695A JP2012160695A JP5962288B2 JP 5962288 B2 JP5962288 B2 JP 5962288B2 JP 2012160695 A JP2012160695 A JP 2012160695A JP 2012160695 A JP2012160695 A JP 2012160695A JP 5962288 B2 JP5962288 B2 JP 5962288B2
Authority
JP
Japan
Prior art keywords
worker
time
view
field
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012160695A
Other languages
Japanese (ja)
Other versions
JP2014021773A (en
Inventor
良二 牧野
良二 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012160695A priority Critical patent/JP5962288B2/en
Publication of JP2014021773A publication Critical patent/JP2014021773A/en
Application granted granted Critical
Publication of JP5962288B2 publication Critical patent/JP5962288B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体検出プログラム、検出装置、及び検出方法に関する。 The present invention, the object detection program detecting device, and a detection method.

従来、工場内において製品の組立作業を行う作業者の動作をシミュレーションして、無駄な動作又は時間の有無を検証するシミュレーションシステムが存在する。   2. Description of the Related Art Conventionally, there is a simulation system that simulates the operation of an operator who performs product assembly work in a factory and verifies the presence of useless operation or time.

このようなシミュレーションシステムによれば、作業者の動作の無駄を削減し、作業効率や生産性の向上を期待することができる。   According to such a simulation system, it is possible to reduce the waste of the operator's operation and to expect improvement in work efficiency and productivity.

特開2007−304973号公報JP 2007-304973 A

しかしながら、効率性や生産性等を追求し過ぎると、作業者の安全に対する配慮がおろそかになる虞がある。   However, if efficiency, productivity, etc. are pursued too much, there is a risk of neglecting worker safety.

工場内では、作業者が定位置で作業していたとしても、設備等の様々な物体が移動し、作業者の視界を横切る。このような物体は、作業者に接触しなくても、作業者に危険を感じさせる。その結果、作業者の予期せぬ反応により、周囲の人や設備と接触したりするといったような危険な状況を誘発する可能性がある。   In the factory, even if the worker is working at a fixed position, various objects such as equipment move and cross the worker's field of view. Even if such an object does not contact the worker, the worker feels danger. As a result, a worker's unexpected reaction may induce a dangerous situation such as contact with surrounding people or equipment.

そこで、一側面では、作業者の危険を誘発する可能性の有る物体の特定を支援すること目的とする。   In view of this, an object of one aspect is to support the identification of an object that may cause a worker's danger.

一つの案では、体検出プログラムは、所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し前記作業者の視野に含まれると判定された物体のうち体の位置と前記作業者の視野との相対的な位置関係が所定の条件を満たし、前記作業者の視野に含まれない状態から前記作業者の視野に含まれる状態に変化した物体を検出する処理をコンピュータに実行させる。 In one proposal, an object body detection program, position information and the position information and the line-of-sight direction information indicating a direction of the line of sight indicates the operator position of each point of the predetermined interval showing the position of the object every time a predetermined distance DOO identified and the said operator of the determined object and the included in determining whether includes object field of the operator in the field of view, and the view position and the operator of the object body the relative positional relationship is smaller than a predetermined condition is allowed to execute a process for detecting an object that has changed the states included in the visual field of the operator from the state not included in the visual field of the operator to the computer.

一態様によれば、作業者の危険を誘発する可能性の有る物体の特定を支援することができる。   According to one aspect, it is possible to support identification of an object that may induce a worker's danger.

本実施の形態における要注意物体の検出方法を説明するための第一の図である。It is a 1st figure for demonstrating the detection method of the attention object in this Embodiment. 本実施の形態における要注意物体の検出方法を説明するための第二の図である。It is a 2nd figure for demonstrating the detection method of the attention object in this Embodiment. 要注意物体の危険度の判定方法を説明するための図である。It is a figure for demonstrating the determination method of the danger level of an attention required object. 危険度の低下対象とされる物体の第一の例を説明するための図である。It is a figure for demonstrating the 1st example of the object made into the fall target of a danger level. 危険度の低下対象とされる物体の第二の例を説明するための図である。It is a figure for demonstrating the 2nd example of the object made into the fall target of a danger level. 要注意物体の候補から除外される物体の例を説明するための図である。It is a figure for demonstrating the example of the object excluded from the candidate of an attention required object. 本実施の形態における検出装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the detection apparatus in this Embodiment. 本実施の形態における検出装置の機能構成例を示す図である。It is a figure which shows the function structural example of the detection apparatus in this Embodiment. 作業者情報テーブルの構成例を示す図である。It is a figure which shows the structural example of an operator information table. 物体Aの物体情報テーブルの構成例を示す図である。5 is a diagram illustrating a configuration example of an object information table for an object A. FIG. 物体Bの物体情報テーブルの構成例を示す図である。6 is a diagram illustrating a configuration example of an object information table of an object B. FIG. 物体Cの物体情報テーブルの構成例を示す図である。6 is a diagram illustrating a configuration example of an object information table of an object C. FIG. 物体Dの物体情報テーブルの構成例を示す図である。6 is a diagram illustrating a configuration example of an object information table of an object D. FIG. 本実施の形態における作業者及び各物体の移動履歴を示す図である。It is a figure which shows the movement log | history of an operator and each object in this Embodiment. 物体状態テーブルの初期状態の例を示す図である。It is a figure which shows the example of the initial state of an object state table. 検出装置が実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which a detection apparatus performs. グループ特定処理の結果が反映された物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table in which the result of the group specific process was reflected. Time=0時点に関する処理の完了時の物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table at the time of completion of the process regarding Time = 0 time point. Time=1時点に関する処理の完了時の物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table at the time of the completion of the process regarding Time = 1 time point. 危険度判定処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of a risk determination process. 結果情報記憶部の構成例を示す図である。It is a figure which shows the structural example of a result information storage part. Time=2時点に関する処理の完了時の物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table at the time of the completion of the process regarding Time = 2 time. Time=2時点に関する処理の完了時の結果情報記憶部の例を示す図である。It is a figure which shows the example of the result information storage part at the time of completion of the process regarding Time = 2 time. Time=3時点に関する処理の完了時の物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table at the time of the completion of the process regarding Time = 3 time point. Time=4時点に関する処理の完了時の物体状態テーブルの例を示す図である。It is a figure which shows the example of the object state table at the time of the completion of the process regarding Time = 4 time point. グループ特定処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of a group specific process.

以下、図面に基づいて本発明の実施の形態を説明する。まず、本実施の形態の概要について説明する。なお、本実施の形態において、作業者の危険を誘発する可能性の有る物体を、「要注意物体」という。要注意物体となりうる物体の一例として、工場内において動作する設備、自動搬送車、その他の移動物体等が挙げられる。また、移動していなくても、作業者に対して移動している物体、すなわち、作業者の移動によって相対的に移動する固定物についても、要注意物体となる可能性が有る。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an outline of the present embodiment will be described. In the present embodiment, an object that may induce a worker's danger is referred to as an “object requiring attention”. As an example of an object that can be a sensitive object, there are equipment operating in a factory, an automatic transport vehicle, and other moving objects. Further, even if the object is not moving, an object that is moving with respect to the worker, that is, a fixed object that moves relative to the movement of the worker may be an object requiring attention.

図1は、本実施の形態における要注意物体の検出方法を説明するための第一の図である。   FIG. 1 is a first diagram for explaining a method for detecting an object requiring attention in the present embodiment.

図1(A)は、作業者W及び物体A〜G等を上から見た図である。境界線bL1及び境界線bR1は、作業者の視野(又は視界)V1の境界線である。また、視線方向dr1は、作業者の視線方向を示す。したがって、境界線bL1及びbR1によって形成される範囲のうち、視線方向dr1側の範囲が、作業者の視野V1となる。   FIG. 1A is a view of the worker W, the objects A to G, and the like viewed from above. The boundary line bL1 and the boundary line bR1 are boundary lines of the worker's visual field (or field of view) V1. The line-of-sight direction dr1 indicates the line-of-sight direction of the operator. Therefore, among the range formed by the boundary lines bL1 and bR1, the range on the line-of-sight direction dr1 side is the worker's visual field V1.

物体A〜Gに付された矢印は、各物体の移動方向及び移動距離を示すベクトル(以下、「移動ベクトル」という。)である。すなわち、移動ベクトルの向きは移動方向を示し、移動ベクトルの長さは一定時間での移動距離を示す。作業者の視界や物体の位置及び移動方向に関する表現に関しては、以降の図においても同様である。   The arrows attached to the objects A to G are vectors (hereinafter referred to as “movement vectors”) indicating the moving direction and moving distance of each object. That is, the direction of the movement vector indicates the movement direction, and the length of the movement vector indicates the movement distance in a fixed time. The same applies to the following drawings regarding expressions relating to the worker's field of view, the position of the object, and the moving direction.

或る時点t0において、物体A〜Gは、矩形が配置された位置に存在する。時点t0から所定時間(例えば、1秒又は0.1秒等)経過後の時点t1において、物体A〜Gは、それぞれの移動ベクトルが示す方向及び距離だけ移動する。時点t0から時点t1の間に、作業者Wの視線方向dr1及び視野V1は、変化しない。   At a certain time t0, the objects A to G are present at the positions where the rectangles are arranged. At a time point t1 after a predetermined time (for example, 1 second or 0.1 second) has elapsed from the time point t0, the objects A to G move by the directions and distances indicated by the respective movement vectors. Between the time point t0 and the time point t1, the visual line direction dr1 and the visual field V1 of the worker W are not changed.

なお、図1(B)は、時点t0において、視線方向dr1に垂直に対向する仮想の平面(以下、「投影面」という。)上に、視野V1の風景が投影された図である。(C)は、時点t1において、視線方向dr1の投影面上に、視野V1の風景が投影された図である。(B)から分かるように、時点t0において、視野V1には、物体A、B、及びCが含まれている。また、(C)から分かるように、時点t1において、視野V1には、物体A、B、D、E、F、及びGが含まれている。すなわち、時点t0から時点t1までの間に、物体Cが視野V1外に移動し、物体D〜Gが視野V1に侵入している。   FIG. 1B is a diagram in which the landscape of the visual field V1 is projected onto a virtual plane (hereinafter referred to as “projection plane”) that is perpendicular to the line-of-sight direction dr1 at time t0. (C) is a diagram in which the landscape of the visual field V1 is projected on the projection plane in the line-of-sight direction dr1 at time t1. As can be seen from (B), at the time point t0, the visual field V1 includes objects A, B, and C. Further, as can be seen from (C), at the time point t1, the visual field V1 includes objects A, B, D, E, F, and G. That is, between time t0 and time t1, the object C moves out of the visual field V1, and the objects D to G enter the visual field V1.

以上のような状況において、本実施の形態では、まず、視野V1に侵入してきた物体D〜Gが、要注意物体の候補として検出される。続いて、要注意物体の候補とされた各物体に関して、視野V1との相対的な位置関係が所定の条件を満たすか否かが判定される。所定の条件の一例は、当該物体が最後に横切った境界線bL1又はbR1と、作業者Wと当該物体の移動後(t1時点)の位置とを結ぶ直線が形成する角度(以下、「視野内角度」という。)が所定値を超えることである。なお、視野内角度は、作業者を中心として、境界線bL1又はbR1に対する、移動後の物体の角度であるともいえる。(A)においては、物体D、E、F、Gのそれぞれの視野内角度は、∠d、∠e、∠f、∠gによって示されている。   Under the circumstances as described above, in the present embodiment, first, the objects D to G that have entered the visual field V1 are detected as candidates for the object requiring attention. Subsequently, it is determined whether or not the relative positional relationship with the visual field V1 satisfies a predetermined condition for each object that is a candidate for the object requiring attention. An example of the predetermined condition is an angle formed by a straight line connecting the boundary line bL1 or bR1 that the object crosses last and the position of the worker W and the object after moving (at time t1) (hereinafter referred to as “inside field of view”). "Angle") exceeds a predetermined value. The in-view angle can be said to be the angle of the object after movement with respect to the boundary line bL1 or bR1 with the operator as the center. In (A), the visual field angles of the objects D, E, F, and G are indicated by ∠d, ∠e, ∠f, and ∠g.

図1では、∠e及び∠fが所定値を超えていることとする。したがって、物体E及びFが、要注意物体として検出される。   In FIG. 1, it is assumed that ∠e and ∠f exceed a predetermined value. Therefore, the objects E and F are detected as objects requiring attention.

すなわち、視野内角度が大きいことは、所定時間の間において、視野V1へ侵入して移動距離が長いこと、すなわち、視野V1への侵入時の移動速度が高いことを意味する。また、視野V1へ侵入後の移動距離が短い物体であっても、作業者Wに近い物体は、視野内角度は大きくなる。すなわち、視野内角度によって、視野V1に侵入後の移動速度、及び作業者Wからの距離を評価することができる。一般的に、作業者は、高速で視野に入ってきた物体に驚く可能性が高い。また、一般的に、作業者は、自分に近い位置で急に視野に入ってきたものには驚く可能性が高い。したがって、本実施の形態では、視野内角度に基づいて、要注意物体であるか否かの判定が行われる。   That is, a large angle within the visual field means that the moving distance is long by entering the visual field V1 during a predetermined time, that is, the moving speed at the time of entering the visual field V1 is high. Even if the moving distance after entering the visual field V1 is short, an object close to the worker W has a large visual field angle. That is, the moving speed after entering the visual field V1 and the distance from the operator W can be evaluated by the angle in the visual field. In general, an operator is likely to be surprised by an object that has entered the field of view at high speed. Also, in general, an operator is highly likely to be surprised if something suddenly comes into view at a position close to him / her. Therefore, in the present embodiment, it is determined whether or not the object is a sensitive object based on the in-view angle.

図2は、本実施の形態における要注意物体の検出方法を説明するための第二の図である。図2の状況設定は、特に明記しない点を除いて、図1と同様である。   FIG. 2 is a second diagram for explaining a method for detecting an object requiring attention in the present embodiment. The situation setting of FIG. 2 is the same as that of FIG.

図2では、(A)に示されるように、時点t0から時点t1の間に、作業者Wの視線方向が、視線方向dr1から視線方向dr2に変化した例が示されている。すなわち、作業者Wの向きが右方向に回転した例が示されている。視線方向dr2における視野V2は、境界線bL2及び境界線bR2によって形成される。   FIG. 2 shows an example in which the gaze direction of the worker W is changed from the gaze direction dr1 to the gaze direction dr2 between time t0 and time t1 as shown in FIG. That is, an example in which the direction of the worker W is rotated to the right is shown. The visual field V2 in the line-of-sight direction dr2 is formed by the boundary line bL2 and the boundary line bR2.

(B)は、時点t0において、視線方向dr1の投影面上に、視野V1の風景が投影された図である。(C)は、時点t1において、視線方向dr2の投影面上に、視野V2の風景が投影された図である。   (B) is a diagram in which the landscape of the visual field V1 is projected on the projection plane in the line-of-sight direction dr1 at time t0. (C) is a diagram in which the landscape of the visual field V2 is projected on the projection plane in the line-of-sight direction dr2 at time t1.

図1において説明した手順と同様の手順で、まず、視野V2に侵入してきた物体E、F、及びGが、要注意物体の候補として検出される。続いて、要注意物体の候補とされた各物体に関して、視野内角度が所定値以上であるか否かが判定される。当該視野内角度の計算には、視野V2の境界線bL2又はbR2が使用される。結果的に、視視線方向dr1から視線方向dr2への回転方向の角度α1が、視野V1に対する各物体の視野内角度に対して加減されることになる。そうすることで、作業差Wが回転することによる、作業者Wの視野と、各物体との相対的な関係が視野内角度に反映される。すなわち作業者Wの視線方向の変化により、当該方向と同方向に移動する物体の移動速度及び移動量は減少し、逆方向に移動する物体の移動速度及び移動量は増加する。このような状況が、視野内角度に反映される。   In the same procedure as described in FIG. 1, first, the objects E, F, and G that have entered the visual field V2 are detected as candidates for the object requiring attention. Subsequently, it is determined whether or not the in-view angle is greater than or equal to a predetermined value for each object that is a candidate for the object requiring attention. For calculation of the in-view angle, the boundary line bL2 or bR2 of the view field V2 is used. As a result, the angle α1 in the rotation direction from the visual line direction dr1 to the visual line direction dr2 is added to or subtracted from the in-field angle of each object with respect to the visual field V1. By doing so, the relative relationship between the field of view of the operator W and each object due to the rotation of the work difference W is reflected in the in-view angle. That is, due to a change in the line-of-sight direction of the worker W, the moving speed and moving amount of an object moving in the same direction as the direction decrease, and the moving speed and moving amount of an object moving in the opposite direction increase. Such a situation is reflected in the in-view angle.

要注意物体の候補として検出された物体E、F、及びGのそれぞれの視野内角度∠e、∠f、又は∠gのうち、∠f及び∠gが所定値を超える。したがって、物体F及びGが、要注意物体として検出される。   Of the in-view angles ∠e, ∠f, or ∠g of the objects E, F, and G detected as candidates for the object requiring attention, ∠f and ∠g exceed a predetermined value. Therefore, the objects F and G are detected as objects requiring attention.

ところで、要注意物体として検出された物体に関して、作業者を驚かせる程度は、必ずしも一定であるとは限らない。物体の形状や大きさ等によって、作業者を驚かせる程度は、異なるものと考えられる。そこで、本実施の形態では、「危険度」と呼ばれる概念が導入される。危険度は、作業者を驚かせる程度を示す整数値であり、その値が大きい程、作業者を驚かせる程度は大きいことを示す。また、危険度の最低値は0であるとする。危険度0をどのように扱うかは、任意である。危険が無いものとして扱われてもよいし、危険が或るものとして扱われてもよい。本実施の形態では、例えば、図3に示されるように、危険度が判定される。   By the way, the extent to which an operator is surprised about the object detected as a sensitive object is not necessarily constant. Depending on the shape and size of the object, the extent to which the operator is surprised is considered to be different. Therefore, in this embodiment, a concept called “risk level” is introduced. The degree of danger is an integer value indicating the degree of surprise for the worker, and the greater the value, the greater the degree of surprise for the worker. In addition, it is assumed that the minimum risk level is zero. It is arbitrary how to handle the risk 0. It may be treated as having no danger or may be treated as having a danger. In the present embodiment, for example, as shown in FIG. 3, the degree of risk is determined.

図3は、要注意物体の危険度の判定方法を説明するための図である。図3の状況設定は、図1と同様である。但し、(C)に示されるように、視線方向の投影面に対する物体E、F、及びGの形状又は大きさが、図1と異なる。   FIG. 3 is a diagram for explaining a method for determining the risk level of an object requiring attention. The situation setting in FIG. 3 is the same as in FIG. However, as shown in FIG. 1C, the shapes or sizes of the objects E, F, and G with respect to the projection plane in the viewing direction are different from those in FIG.

一般的に、大きく見える物体の方が小さく見える物体よりも、作業者を驚かす程度は大きいと考えられる。したがって、物体Eのように、大きく見える物体の危険度は大きくされる。   In general, an object that looks large is considered to be more surprising than an object that appears small. Therefore, the risk of an object that looks large like the object E is increased.

また、薄い物体は、作業者に鋭さを感じさせるため、作業者を驚かす程度は大きいと考えられる。したがって、物体Gや物体Fのように、薄い物体の危険度は大きくされる。なお、薄さは、例えば、投影面に投影された物体の形状の最小外接矩形の縦横比に基づいて判定されてもよい。例えば、横÷縦の値が、所定値を超える場合に、薄いと判定されてもよい。   Moreover, since the thin object makes the worker feel sharp, it is considered that the degree of surprise of the worker is large. Therefore, the risk of thin objects such as the object G and the object F is increased. Note that the thinness may be determined based on, for example, the aspect ratio of the minimum circumscribed rectangle of the shape of the object projected on the projection plane. For example, when the horizontal / vertical value exceeds a predetermined value, it may be determined to be thin.

更に、鋭角な部分を含む物体の危険度が大きくされてもよい。   Further, the risk of an object including an acute angle portion may be increased.

一方、要注意物体として検出される物体であっても、作業者を驚かす可能性の低い物体も考えられる。本実施の形態おいて、このような物体については、危険度が下げられる。   On the other hand, even if an object is detected as a cautionary object, an object that is unlikely to surprise the worker is also conceivable. In this embodiment, the degree of risk is reduced for such an object.

図4は、危険度の低下対象とされる物体の第一の例を説明するための図である。図4中、図1と同一部分には、同一符号を付している。   FIG. 4 is a diagram for explaining a first example of an object whose risk is to be lowered. In FIG. 4, the same parts as those in FIG.

図4において、物体F1、F2、F3、及びF4は、一定間隔で同じ経路又は軌道を移動している物体群である。例えば、ベルトコンベア上を移動する物体群が想定されてもよい。このような物体の移動に関しては、作業者にとって予測可能性が高い。したがって、仮に、視野内角度が所定値を超えていたとしても、作業者が驚く可能性は低い。したがって、このような物体については、危険度は下げられる。   In FIG. 4, objects F1, F2, F3, and F4 are groups of objects that are moving on the same path or trajectory at regular intervals. For example, an object group moving on the belt conveyor may be assumed. Such movement of the object is highly predictable for the operator. Therefore, even if the in-view angle exceeds a predetermined value, the operator is unlikely to be surprised. Therefore, the risk level is lowered for such an object.

また、例えば、作業者の注意を促すために、警告音を一定のリズムで発している物体は、作業者の視野外に有ったとしても、作業者がその存在に気付いている可能性が高い。また、点滅している光を発している物体も、作業者の視野に入る際に、その光によって作業者にその存在を認識させることができるため、作業者を驚かせる可能性は低い。したがって、このような物体についても、危険度が下げられる。   In addition, for example, an object that emits a warning sound at a certain rhythm to alert the operator may be noticed by the operator even if the object is outside the operator's field of view. high. In addition, when an object that emits flashing light enters the worker's field of view, the worker can recognize the presence of the object by the light, and therefore, the possibility of surprise the worker is low. Therefore, the degree of danger is also reduced for such objects.

図5は、危険度の低下対象とされる物体の第二の例を説明するための図である。一般的に、作業者から遠ざかっていく物体は、突然視野に入ってきたとしても、近付いてくる物体に比べて、作業者を驚かす程度は小さいと考えられる。したがって、作業者から遠ざかっていく物体の危険度は下げられる。   FIG. 5 is a diagram for explaining a second example of an object whose risk is to be lowered. In general, even if an object moving away from the worker suddenly enters the field of view, it is considered that the degree of surprise of the worker is small compared to the approaching object. Therefore, the risk of the object moving away from the worker is reduced.

作業者から遠ざかっていくか否かは、例えば、図5に示されるように、作業者Wを始点とし、物体の移動ベクトルの終点の方向に伸びるベクトルと、物体の移動ベクトルとがなす角の角度によって判定される。すなわち、当該角度が所定値よりも大きければ、作業者Wに近付く方向に移動中であるとされ、当該角度が所定値よりも小さければ、作業者Wから遠ざかる方向に移動中であるとされる。   As shown in FIG. 5, for example, as shown in FIG. 5, whether or not the worker moves away from the worker is determined by the angle formed by the vector that starts from the worker W and extends in the direction of the end point of the movement vector of the object, and the movement vector of the object. Determined by angle. That is, if the angle is larger than a predetermined value, it is assumed that the user is moving in the direction approaching the worker W, and if the angle is smaller than the predetermined value, the user is moving in a direction away from the worker W. .

図5の例では、作業者Wを始点とし物体Aの移動ベクトルの終点の方向に伸びるベクトルと、物体Aの移動ベクトルとがなす角は、∠βaである。また、作業者Wを始点とし物体Bの移動ベクトルの終点の方向に伸びるベクトルと、物体Bの移動ベクトルとがなす角は、∠βbである。仮に、所定値が90度であるとすると、物体Bの危険度は下げられる。   In the example of FIG. 5, the angle formed by the vector extending from the worker W in the direction of the end point of the movement vector of the object A and the movement vector of the object A is ∠βa. Further, the angle formed by the vector that extends from the worker W in the direction of the end point of the movement vector of the object B and the movement vector of the object B is ∠βb. If the predetermined value is 90 degrees, the danger level of the object B is lowered.

なお、作業者に近付く方向に移動する物体であっても、近づき方が緩やかな物体については、作業者を驚かす可能性は低いと考えられる。したがって、∠βaや∠βb等に対する閾値である所定値を変更することにより、このような物体の危険度が下げられてもよい。また、作業者Wに近付くか否かは、図5に示される方法以外の方法によって判定されてもよい。例えば、作業者Wの位置と物体の移動ベクトルの始点及び終点とのそれぞれの距離によって判定されてもよい。物体の移動ベクトルの始点と作業者Wの位置との距離よりも、当該物体の移動ベクトルの終点と作業者Wの位置との距離の報が長ければ、当該物体は、作業者から遠ざかると判定されてもよい。物体の移動ベクトルの始点と作業者Wの位置との距離よりも、当該物体の移動ベクトルの終点と作業者Wの位置との距離の報が短ければ、当該物体は、作業者に近付くと判定されてもよい。   Even if the object moves in the direction of approaching the worker, it is considered that there is a low possibility that the worker will be surprised if the object approaches slowly. Therefore, the risk of such an object may be lowered by changing a predetermined value that is a threshold value for ∠βa, ∠βb, and the like. Further, whether or not the worker W is approached may be determined by a method other than the method shown in FIG. For example, it may be determined by the distance between the position of the worker W and the start point and end point of the movement vector of the object. If the information on the distance between the end point of the movement vector of the object and the position of the worker W is longer than the distance between the start point of the movement vector of the object and the position of the worker W, the object is determined to move away from the worker. May be. If the report of the distance between the end point of the movement vector of the object and the position of the worker W is shorter than the distance between the start point of the movement vector of the object and the position of the worker W, the object is determined to approach the worker. May be.

また、本実施の形態において、図6に示されるような物体は、危険度が下げられるのではなく、そもそも要注意物体の候補から除外される。   Further, in the present embodiment, the object as shown in FIG. 6 is not reduced in risk level, but is excluded from the candidates for the object requiring attention in the first place.

図6は、要注意物体の候補から除外される物体の例を説明するための図である。   FIG. 6 is a diagram for explaining an example of an object that is excluded from candidates for an object requiring attention.

図6(A)では、時点t1の直前において、作業者Wは、左側を見たことが示されている。この際の作業者Wの視野V0は、視線方向dr0、境界線bL0、及び境界線bR0によって形成される。(B)には、視線方向dr0の投影面上に、視野V0の風景が投影された図が示されている。   FIG. 6A shows that the worker W has seen the left side immediately before the time point t1. At this time, the visual field V0 of the worker W is formed by the line-of-sight direction dr0, the boundary line bL0, and the boundary line bR0. (B) shows a diagram in which the landscape of the visual field V0 is projected on the projection plane in the line-of-sight direction dr0.

その後、時点t1において、作業者Wは、(A)に示されるように、右方向に角度α2分だけ回転している。したがって、時点t1における作業者Wの視野V1は、視線方向dr1、境界線bL1、及び境界線bR1によって形成される。(C)には、視線方向dr1の投影面上に、視野V1の風景が投影された図が示されている。   Thereafter, at the time point t1, the worker W is rotated rightward by an angle α2 as shown in FIG. Therefore, the visual field V1 of the worker W at the time point t1 is formed by the line-of-sight direction dr1, the boundary line bL1, and the boundary line bR1. (C) shows a view in which the landscape of the visual field V1 is projected on the projection plane in the line-of-sight direction dr1.

更に、時点t2において、作業者Wは、(A)に示されるように、左方向に角度α3分だけ回転している。したがって、時点t2における作業者Wの視野V2は、視線方向dr2、境界線bL2、及び境界線bR2によって形成される。(D)には、視線方向dr2の投影面上に、視野V2の風景が投影された図が示されている。   Furthermore, at the time point t2, the worker W is rotated leftward by an angle α3 as shown in FIG. Accordingly, the visual field V2 of the worker W at the time point t2 is formed by the line-of-sight direction dr2, the boundary line bL2, and the boundary line bR2. FIG. 4D shows a view in which the landscape of the visual field V2 is projected on the projection surface in the line-of-sight direction dr2.

なお、各物体の矩形は、時点t1の直前における位置を示し、移動ベクトルの終点は、時点t2における位置を示す。   Note that the rectangle of each object indicates the position immediately before the time point t1, and the end point of the movement vector indicates the position at the time point t2.

ここで、時点t1の視野V1と時点t2の視野V2とを比較すると、視野V2には、物体D及びEが新たに含まれている。しかし、物体D及びEは、時点t1の直前の視野V0に含まれている。すなわち、物体D及びEは、時点t2以前に作業者Wによって視認されている。そうすると、作業者Wは、視線方向dr3に向きを変える際、物体D及びEが視野に含まれるのを予期していると考えられる。予期された状況の発生が、作業者Wを驚かす可能性は低いと考えられる。したがって、本実施の形態では、物体D及びEの視野内角度が所定値を超えていたとしても、物体D及びEは、要注意物体の候補から除外される。   Here, when the visual field V1 at the time point t1 and the visual field V2 at the time point t2 are compared, the visual field V2 newly includes objects D and E. However, the objects D and E are included in the visual field V0 immediately before the time point t1. That is, the objects D and E are visually recognized by the worker W before the time t2. Then, it is considered that the worker W expects the objects D and E to be included in the field of view when changing the direction in the line-of-sight direction dr3. The occurrence of the expected situation is considered unlikely to surprise the worker W. Therefore, in the present embodiment, even if the in-view angle of the objects D and E exceeds the predetermined value, the objects D and E are excluded from the candidates for the objects requiring attention.

なお、図4又は図5において説明したような物体についても、危険度が下げられるのではなく、要注意物体の候補から除外されてもよい。または、図6において説明したよう物体について、要注意物体の候補から除外されるのではなく、危険度が下げられるようにしてもよい。   Note that the object described with reference to FIG. 4 or FIG. 5 may not be reduced in risk level, but may be excluded from candidates for the object requiring attention. Alternatively, as described with reference to FIG. 6, the object may not be excluded from the candidates for the object requiring attention, but the risk level may be lowered.

以上のような方法によって要注意物体を検出するための処理を実行する検出装置10の具体例について説明する。   A specific example of the detection apparatus 10 that executes processing for detecting an object requiring attention by the above method will be described.

図7は、本実施の形態における検出装置のハードウェア構成例を示す図である。図7の検出装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。   FIG. 7 is a diagram illustrating a hardware configuration example of the detection device according to the present embodiment. The detection device 10 in FIG. 7 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, an input device 107, and the like that are mutually connected by a bus B.

検出装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program that realizes processing in the detection apparatus 10 is provided by the recording medium 101. When the recording medium 101 on which the program is recorded is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って検出装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等であり、様々な操作指示を入力させるために用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 realizes functions related to the detection device 10 in accordance with a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a GUI (Graphical User Interface) or the like by a program. The input device 107 is a keyboard, a mouse, or the like, and is used for inputting various operation instructions.

なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。   An example of the recording medium 101 is a portable recording medium such as a CD-ROM, a DVD disk, or a USB memory. An example of the auxiliary storage device 102 is an HDD (Hard Disk Drive) or a flash memory. Both the recording medium 101 and the auxiliary storage device 102 correspond to computer-readable recording media.

図8は、本実施の形態における検出装置の機能構成例を示す図である。図8において、検出装置10は、時刻進行部11、グループ特定部12、位置関係判定部13、条件判定部14、危険度判定部15、及び出力部16等を有する。これら各部は、検出装置10にインストールされたプログラムが、CPU104に実行させる処理により実現される。   FIG. 8 is a diagram illustrating a functional configuration example of the detection device according to the present embodiment. In FIG. 8, the detection apparatus 10 includes a time progression unit 11, a group identification unit 12, a positional relationship determination unit 13, a condition determination unit 14, a risk determination unit 15, and an output unit 16. Each of these units is realized by processing executed by the CPU 104 by a program installed in the detection apparatus 10.

検出装置10は、また、作業者情報テーブル記憶部21、物体情報テーブル記憶部22、物体状態テーブル記憶部23、及び結果情報記憶部24等を利用する。これら各記憶部は、補助記憶装置102、又は検出装置10にネットワークを介して接続される記憶装置等を用いて実現可能である。   The detection apparatus 10 also uses an operator information table storage unit 21, an object information table storage unit 22, an object state table storage unit 23, a result information storage unit 24, and the like. Each of these storage units can be realized by using the auxiliary storage device 102 or a storage device connected to the detection device 10 via a network.

以上の構成によって、検出装置10は、作業者Wの位置及び視線方向の変化と、物体の位置の変化等について時間の経過に応じたシミュレーションを実行し、各物体について、シミュレーション空間における時刻ごとに要注意物体に該当するか否かの判定等を行う。その結果、要注意物体が検出される。   With the above configuration, the detection apparatus 10 performs a simulation according to the passage of time for changes in the position and line-of-sight direction of the worker W, changes in the position of the object, and the like, and for each object, for each time in the simulation space. Judgment is made as to whether or not the object needs attention. As a result, an object requiring attention is detected.

作業者情報テーブル記憶部21は、作業者情報テーブル21Tを記憶する。作業者情報テーブル21Tには、作業者Wの時系列の位置及び時系列の視線方向を示す情報が設定される。   The worker information table storage unit 21 stores a worker information table 21T. In the worker information table 21T, information indicating the time series position and the time series line-of-sight direction of the worker W is set.

図9は、作業者情報テーブルの構成例を示す図である。図9に示されるように、作業者情報テーブル21Tの各レコードは、時刻、位置X、位置Y、及び視線方向等の項目を含む。時刻は、シミュレーション空間における時刻である。各レコードの時刻は一定間隔とされ、各レコードは時刻順に記憶されている。本実施の形態では、0秒時点を開始時刻(基準時点)とし、単位時間は、1秒とされている。すなわち、シミュレーション空間の時間は、1秒刻みで進行する。位置X及び位置Yは、時刻が示す時点おける、作業者Wの位置を示す情報の一例である。すなわち、位置X及び位置Yは、シミュレーション空間におけるX座標値又はY座標値を示す。座標値は、シミュレーション空間において規定されている座標系における座標値である。本実施の形態において、シミュレーション空間は、図1(A)のような2次元空間として規定される。図1(A)において、横方向がX軸であり、縦方向がY軸とされる。   FIG. 9 is a diagram illustrating a configuration example of the worker information table. As shown in FIG. 9, each record in the worker information table 21T includes items such as time, position X, position Y, and line-of-sight direction. The time is the time in the simulation space. The time of each record is made into the fixed interval, and each record is memorize | stored in order of time. In this embodiment, the time point of 0 seconds is set as the start time (reference time point), and the unit time is set to 1 second. That is, the simulation space advances in 1 second increments. The position X and the position Y are examples of information indicating the position of the worker W at the time indicated by the time. That is, the position X and the position Y indicate the X coordinate value or the Y coordinate value in the simulation space. The coordinate value is a coordinate value in a coordinate system defined in the simulation space. In the present embodiment, the simulation space is defined as a two-dimensional space as shown in FIG. In FIG. 1A, the horizontal direction is the X axis and the vertical direction is the Y axis.

視線方向は、時刻が示す時点における、作業者Wの視線方向を示す。視線方向は、角度によって表現される。90度は、Y軸に平行であって、Y軸のプラス方向の向き(図1(A)における上向き)である。0度は、X軸に平行であって、X軸のプラスの方向の向き(図1(A)における右向き)である。なお、視線方向は、例えば、単位ベクトルによって表現されてもよい。   The line-of-sight direction indicates the line-of-sight direction of the worker W at the time indicated by the time. The gaze direction is expressed by an angle. 90 degrees is parallel to the Y axis and is the positive direction of the Y axis (upward in FIG. 1A). 0 degrees is parallel to the X axis and is the direction of the positive direction of the X axis (rightward in FIG. 1A). The line-of-sight direction may be expressed by a unit vector, for example.

作業者情報テーブル21Tの内容は、シミュレーションの条件として、予め設定される。なお、作業者の位置を示す情報は、1単位時間前の位置からの移動ベクトルによって表現されてもよい。この場合、作業者情報テーブル21Tには、開始時刻における作業者の位置X及びYと、時刻ごとの移動ベクトルとが記憶されてもよい。   The contents of the worker information table 21T are set in advance as simulation conditions. Note that the information indicating the position of the worker may be expressed by a movement vector from a position one unit time before. In this case, the worker information table 21T may store the positions X and Y of the worker at the start time and the movement vector for each time.

物体情報テーブル記憶部22は、物体ごとに物体情報テーブル22Tを記憶する。物体情報テーブル22Tには、当該物体情報テーブル22Tに対応する物体の時系列の位置及び時系列の移動方向を示す情報が設定される。   The object information table storage unit 22 stores an object information table 22T for each object. Information indicating the time-series position and the time-series movement direction of the object corresponding to the object information table 22T is set in the object information table 22T.

図10〜図13は、物体情報テーブルの構成例を示す図である。物体情報テーブル22Tの各レコードは、時刻、位置X、位置Y、移動ベクトルX、及び移動ベクトルY等の項目を含む。時刻は、シミュレーション空間における時刻である。各物体情報テーブル22T及び作業者情報テーブル21Tの時刻に関する時間軸は共通である。   10 to 13 are diagrams illustrating configuration examples of the object information table. Each record of the object information table 22T includes items such as time, position X, position Y, movement vector X, movement vector Y, and the like. The time is the time in the simulation space. The time axis regarding the time of each object information table 22T and the worker information table 21T is common.

位置X及び位置Yは、時刻が示す時点における、物体の位置を示す情報の一例である。すなわち、位置X及び位置Yは、シミュレーション空間におけるX座標値又はY座標値を示す。移動ベクトルX及び移動ベクトルYは、移動ベクトルのX成分又はY成分である。移動ベクトルの長さは、単位時間(本実施の形態では1秒)あたりの移動距離を示す。なお、図10は、図11、図12、図13は、それぞれ、物体A、物体B、物体C、物体Dに対応する。また、物体情報テーブル22Tの内容は、シミュレーションの条件として、予め設定される。   The position X and the position Y are examples of information indicating the position of the object at the time indicated by the time. That is, the position X and the position Y indicate the X coordinate value or the Y coordinate value in the simulation space. The movement vector X and the movement vector Y are the X component or Y component of the movement vector. The length of the movement vector indicates a movement distance per unit time (1 second in the present embodiment). 10 corresponds to the object A, the object B, the object C, and the object D, respectively. The contents of the object information table 22T are set in advance as simulation conditions.

なお、物体情報テーブル22において、位置X及びY、及び移動ベクトルルX及びYのいずれか一方は、省略されてもよい。すなわち、移動ベクトルX及びYが、物体の位置を示す情報として用いられてもよい。この場合、開始時刻の位置X及びYが記憶されていれば、各時刻の物体の位置を特定可能だからである。また、移動ベクトルX及びYが記憶されていなくても、位置X及びYとし、1単位時間後の位置X及びYを終点とする移動ベクトルが特定されてもよい。   In the object information table 22, any one of the positions X and Y and the movement vectors X and Y may be omitted. That is, the movement vectors X and Y may be used as information indicating the position of the object. In this case, if the positions X and Y of the start time are stored, the position of the object at each time can be specified. Further, even if the movement vectors X and Y are not stored, the movement vectors having the positions X and Y as the end points and the positions X and Y after one unit time may be specified.

図14は、本実施の形態における作業者及び各物体の移動履歴を示す図である。すなわち、図14は、図9の作業者情報テーブル21T及び図10〜図13の物体情報テーブル22Tの内容を、2次元座標系上(シミュレーション空間上)に表現したものである。   FIG. 14 is a diagram showing the movement history of the worker and each object in the present embodiment. That is, FIG. 14 represents the contents of the worker information table 21T of FIG. 9 and the object information table 22T of FIGS. 10 to 13 on a two-dimensional coordinate system (simulation space).

図14において、作業者W又は各物体の位置は、円によって表現されている。円の中には、アルファベットA〜D又はWと数値とが記載されている。A〜Dが記載されている円は、当該アルファベットによって識別される物体の位置を示す。すなわち、Aが記載されている円は、物体Aの位置を示す。Wが記載されている円は、作業者Wの位置を示す。円内の数値は、単位を秒とする時刻を示す。例えば、「D0」と記載されている円は、時刻0における物体Dの位置を示す。また、「W0−2」と記載されている円は、時刻0〜2までの作業者Wの位置を示す。   In FIG. 14, the position of the worker W or each object is represented by a circle. In the circle, alphabets A to D or W and numerical values are described. Circles with A to D indicate the positions of objects identified by the alphabet. That is, the circle on which A is written indicates the position of the object A. A circle on which W is written indicates the position of the worker W. The numerical value in the circle indicates the time in seconds. For example, a circle described as “D0” indicates the position of the object D at time 0. A circle described as “W0-2” indicates the position of the worker W from time 0 to time 2.

物体状態テーブル記憶部23は、物体状態テーブル23Tを記憶する。物体状態テーブル23Tは、シミュレーション空間における時刻の進行に応じ、その時刻(時点)における物体の状態等を記憶する。   The object state table storage unit 23 stores an object state table 23T. The object state table 23T stores the state of the object at the time (time) according to the progress of the time in the simulation space.

図15は、物体状態テーブルの初期状態の例を示す図である。物体状態テーブル23Tは、物体ごとにレコードを記憶する。各レコードは、番号、物体名、視野内時間、グループ番号、形状データ、移動ベクトルX、移動ベクトルY、及び発行・発報有無等の項目を含む。   FIG. 15 is a diagram illustrating an example of an initial state of the object state table. The object state table 23T stores a record for each object. Each record includes items such as a number, an object name, a field-of-view time, a group number, shape data, a movement vector X, a movement vector Y, and the presence / absence of issuing / reporting.

番号は、物体の識別番号である。物体名は、物体の識別名である。視野内時間は、物体が作業者Wの視野内に含まれていた累積時間である。視野内時間には、初期値として0が記憶されている。グループ番号は、物体が物体グループに属する場合に有効な項目であり、物体が属する物体グループの識別番号である。物体グループとは、同一の経路又は軌道を一定間隔で移動する物体群をいう。形状データは、物体の形状を示すデータである。図9において、形状データは、縦×横×高さの形式で記載されているが、形状データは、例えば、2次元CADデータ又は3次元CADデータへのリンクであってもよい。移動ベクトルX及びYは、1単位時間前の時刻における、当該物体の移動ベクトルのX成分又はY成分である。発光・発報有無は、発光又は発報の有無である。発光とは、一定間隔で点滅していることをいう。発報とは、一定のリズムで警告音等を発することをいう。発光・発砲有無の値は、予め設定されている。図15の例では、物体名Aに係る物体Aが発光することが示されている。   The number is an identification number of the object. The object name is an identification name of the object. The in-view time is the accumulated time that the object was included in the worker W's view. As the in-view time, 0 is stored as an initial value. The group number is an effective item when the object belongs to the object group, and is an identification number of the object group to which the object belongs. An object group refers to an object group that moves on the same route or trajectory at regular intervals. The shape data is data indicating the shape of the object. In FIG. 9, the shape data is described in a format of vertical × horizontal × height, but the shape data may be, for example, a link to two-dimensional CAD data or three-dimensional CAD data. The movement vectors X and Y are the X component or Y component of the movement vector of the object at a time one unit time before. The presence / absence of light emission / report is the presence / absence of light emission / report. Luminescence means blinking at regular intervals. Alerting means issuing a warning sound or the like at a constant rhythm. The value of the presence / absence of light emission / firing is set in advance. In the example of FIG. 15, the object A related to the object name A emits light.

結果情報記憶部24は、要注意物体であると判定された物体に関して、当該物体が要注意物体となる時刻及び危険度等を記憶する。   The result information storage unit 24 stores, for an object determined to be a cautionary object, the time when the object becomes a cautionary object, a degree of danger, and the like.

時刻進行部11は、シミュレーション空間における時刻を進行させる。グループ特定部12は、物体情報テーブル記憶部22に物体情報テーブル22Tが記憶された物体の中から、物体のグループを構成する物体群を特定する。すなわち、グループ特定部12は、図4における物体F1〜F4のような関係を有する物体群を特定する。   The time advancer 11 advances the time in the simulation space. The group specifying unit 12 specifies an object group that constitutes a group of objects from the objects whose object information table 22T is stored in the object information table storage unit 22. That is, the group specifying unit 12 specifies an object group having a relationship such as the objects F1 to F4 in FIG.

位置関係判定部13は、各物体の物体情報テーブル22Tと作業者情報テーブル21Tとに基づいて、時刻ごとに、作業者Wの視野に、各物体が含まれるか否かを判定する。すなわち、位置関係判定部13によって、要注意物体の候補が検出される。   The positional relationship determination unit 13 determines whether each object is included in the field of view of the worker W at each time based on the object information table 22T and the worker information table 21T of each object. That is, the positional relationship determination unit 13 detects a candidate for a cautionary object.

条件判定部14は、時刻ごとに、視野に含まれると判定された物体について、作業者Wの視野との相対的な位置関係が、所定の条件を満たす否かを判定する。具体的には、条件判定部14は、各物体が視野に初めて含まれたときの各物体の視野内角度が、所定値より大きいか否かを判定する。すなわち、条件判定部14によって、視野に含まれる物体が要注意物体であるか否かが判定される。換言すれば、条件判定部14によって、視野に含まれる物体の中から、要注意物体が検出される。   The condition determination unit 14 determines whether or not the relative positional relationship between the object determined to be included in the field of view and the field of view of the worker W satisfies a predetermined condition for each time. Specifically, the condition determination unit 14 determines whether or not the in-view angle of each object is larger than a predetermined value when each object is included in the view for the first time. That is, the condition determination unit 14 determines whether or not the object included in the field of view is a cautionary object. In other words, the condition determining unit 14 detects an object requiring attention from among objects included in the field of view.

危険度判定部15は、要注意物体であると判定された物体について、危険度を判定する。判定された危険度は、物体の識別情報に対応づけられて、結果情報記憶部24に記憶される。出力部16は、結果情報記憶部24が記憶する情報を出力する。   The degree-of-risk determination unit 15 determines the degree of risk for an object that has been determined to be an object requiring attention. The determined risk is associated with the object identification information and stored in the result information storage unit 24. The output unit 16 outputs information stored in the result information storage unit 24.

以下、検出装置10が実行する処理手順について説明する。図16は、検出装置が実行する処理手順の一例を説明するためのフローチャートである。   Hereinafter, a processing procedure executed by the detection apparatus 10 will be described. FIG. 16 is a flowchart for explaining an example of a processing procedure executed by the detection apparatus.

ステップS101において、グループ特定部12は、グループ特定処理を実行する。グループ特定処理では、図4における物体F1〜F4のように、同一の経路又は軌道を一定間隔で移動する物体群が同一の物体グループに属する物体として特定される。ステップS101の処理結果は、物体状態テーブル23Tに記憶される。   In step S101, the group specifying unit 12 performs a group specifying process. In the group specifying process, as in the objects F1 to F4 in FIG. 4, an object group that moves on the same route or trajectory at regular intervals is specified as an object belonging to the same object group. The processing result of step S101 is stored in the object state table 23T.

図17は、グループ特定処理の結果が反映された物体状態テーブルの例を示す図である。ステップS101では、同一の物体グループに属すると判定された物体に対して、同じグループ番号が記憶される。図17では、物体C及び物体Dに、グループ番号1が記憶されている。すなわち、図17では、物体C及び物体Dが、同一の物体グループに属すると判定された例が示されている。図14を参照すると、物体Dは、物体Cと同じ経路を、物体Cに1秒遅れて移動しているのが分かる。なお、グループ特定処理の詳細については後述される。   FIG. 17 is a diagram illustrating an example of an object state table in which a result of the group specifying process is reflected. In step S101, the same group number is stored for objects determined to belong to the same object group. In FIG. 17, group number 1 is stored in object C and object D. That is, FIG. 17 illustrates an example in which it is determined that the object C and the object D belong to the same object group. Referring to FIG. 14, it can be seen that the object D moves along the same route as the object C with a delay of 1 second from the object C. Details of the group specifying process will be described later.

続いて、時刻進行部11は、変数Timeに0を代入する(S102)。すなわち、シミュレーション空間における時刻が0に設定される。以下、変数Timeの値を、単に、「Time」という。続いて、位置関係判定部13は、Time時点における、作業者Wの位置X、位置Y、及び視線方向の値を、作業者情報テーブル21T(図9)より取得する(S103)。   Subsequently, the time progression unit 11 assigns 0 to the variable Time (S102). That is, the time in the simulation space is set to zero. Hereinafter, the value of the variable Time is simply referred to as “Time”. Subsequently, the positional relationship determination unit 13 acquires the values of the position X, the position Y, and the line-of-sight direction of the worker W from the worker information table 21T (FIG. 9) at the time point (S103).

続いて、位置関係判定部13は、作業者Wのシミュレーション空間における視野を特定する(S104)。例えば、作業者Wの位置を中心とし、作業者の視線方向に対して対称な角度の範囲が、作業者Wの視野として特定される。   Subsequently, the positional relationship determination unit 13 specifies the visual field in the simulation space of the worker W (S104). For example, a range of angles that are symmetric with respect to the worker's line-of-sight direction with the worker W's position as the center is specified as the field of view of the worker W.

続いて、位置関係判定部13は、変数である物体Noに1を代入する(S105)。すなわち、物体状態テーブル23Tに記憶されている番号が1である物体Aが処理対象とされる。以下、物体Noの値によって特定される物体を、「対象物体」という。   Subsequently, the positional relationship determination unit 13 assigns 1 to the object No. that is a variable (S105). That is, the object A having the number 1 stored in the object state table 23T is set as a processing target. Hereinafter, the object specified by the value of the object number is referred to as “target object”.

続いて、位置関係判定部13は、対象物体の物体情報テーブル22Tから、Time時点の位置X及びY、並びに移動ベクトルX及びYを取得する。(S106)。続いて、位置関係判定部13は、対象物体が、作業者Wの視野に含まれるか否かを判定する(S107)。当該判定は、ステップS104において特定された視野に、ステップS106において取得された対象物体の位置X及びYによって特定される点が含まれるか否かによって行われればよい。または、物体状態テーブル23Tに記憶されている形状データが利用されてもよい。すなわち、対象物体の形状データの基準点(例えば、重心)が、ステップS106において取得された対象物体の位置X及びYに位置する場合に、形状データの少なくとも一部が視野に含まれるか否かが判定されてもよい。   Subsequently, the positional relationship determination unit 13 acquires the positions X and Y at the time point and the movement vectors X and Y from the object information table 22T of the target object. (S106). Subsequently, the positional relationship determination unit 13 determines whether or not the target object is included in the visual field of the worker W (S107). The determination may be made based on whether or not the visual field specified in step S104 includes a point specified by the positions X and Y of the target object acquired in step S106. Alternatively, shape data stored in the object state table 23T may be used. That is, whether or not at least part of the shape data is included in the visual field when the reference point (for example, the center of gravity) of the shape data of the target object is located at the position X and Y of the target object acquired in step S106. May be determined.

対象物体の少なくとも一部が視野に含まれると判定された場合(S107でY)、条件判定部14は、対象物体の視野内角度を算出する(S108)。視野内角度の算出には、視野を形成する2本の境界線のうち、対象物体が最後に横切った境界線が利用されればよい。すなわち、当該境界線と、対象物体の現在位置と作業者Wの現在位置とを結ぶ直線との角度が算出されればよい。対象物体が、過去にいずれの境界線をも横切っていない場合、すなわち、当初から視野に含まれている場合、いずれの境界線が利用されてもよいし、視野内角度は算出されなくてもよい。なお、対象物体が境界線を横切ったか否かは、対象物体の現在までの移動ベクトルが、境界線と交差したか否かによって判定されてもよい。   When it is determined that at least a part of the target object is included in the field of view (Y in S107), the condition determination unit 14 calculates the in-field angle of the target object (S108). For the calculation of the in-field angle, it is only necessary to use the boundary line that the target object crosses last, out of the two boundary lines forming the field of view. That is, an angle between the boundary line and a straight line connecting the current position of the target object and the current position of the worker W may be calculated. If the target object has not crossed any boundary line in the past, that is, if it is included in the field of view from the beginning, any boundary line may be used, and the in-view angle may not be calculated Good. Note that whether or not the target object crosses the boundary line may be determined based on whether or not the movement vector of the target object up to the present intersects the boundary line.

続いて、条件判定部14は、以下の(1)〜(3)の三つの条件の全てが満たされているか否かを判定する(S109)。
(1)Timeが0より大きいこと。
(2)視野内角度が所定値より大きいこと。
(3)物体状態テーブル23Tにおいて対象物体に対応する視野内時間が0であること。
Subsequently, the condition determination unit 14 determines whether or not all of the following three conditions (1) to (3) are satisfied (S109).
(1) Time is greater than zero.
(2) The visual field angle is larger than a predetermined value.
(3) The in-view time corresponding to the target object is 0 in the object state table 23T.

以上の条件は、対象物体が、要注意物体であるか否かを判定するための条件である。(1)の条件は、当初から視野に含まれている物体が要注意物体に含まれないようにするための条件である。当初から視野に含まれている物体は、突然視野に侵入するといった状況を発生させないため、作業者Wを驚かす可能性は低い。したがって、ステップS108において、当初から視野に含まれている物体については、視野内角度は算出されなくてもよいのである。   The above conditions are conditions for determining whether the target object is a cautionary object. The condition (1) is a condition for preventing the object included in the visual field from the beginning from being included in the object requiring attention. Since an object included in the field of view from the beginning does not cause a situation in which the field of view suddenly enters the field of view, it is unlikely that the worker W will be surprised. Therefore, in step S108, the in-view angle does not have to be calculated for the object included in the view from the beginning.

(2)の条件は、図1及び図2において説明したように、要注意物体として判定される物体を、対象物体の視野内角度が所定値を超える物体に限定するための条件である。なお、ステップS107において、作業者WのTime時点の視野方向に基づいて視野が特定され、ステップS108では当該視野に関して視野内角度が算出されている。その結果、図2において説明した内容も実現されている。   As described with reference to FIGS. 1 and 2, the condition (2) is a condition for limiting an object that is determined as an object requiring attention to an object in which the in-view angle of the target object exceeds a predetermined value. In step S107, the visual field is specified based on the visual field direction at the time point of the worker W, and in step S108, the visual field angle is calculated with respect to the visual field. As a result, the contents described in FIG. 2 are also realized.

(3)の条件は、過去に視野に入ってから短時間しか経過していない物体が、要注意物体に含まれないようにするための条件である。換言すれば、(3)の条件は、初めて視野に入った物体、又は過去に視野に入っていたとしても、それから長期間が経過している物体に、要注意物体を限定するための条件である。すなわち、(3)の条件は、図6において説明した内容を実現するための条件である。   The condition (3) is a condition for preventing an object that has only passed for a short time since entering the visual field in the past from being included in the object requiring attention. In other words, the condition (3) is a condition for limiting an object requiring attention to an object that has entered the field of view for the first time, or an object that has been in the field of view in the past, but has passed for a long time. is there. That is, the condition (3) is a condition for realizing the contents described in FIG.

視野内時間とは、対象物体が視野に含まれていた累積時間を示すパラメータである。本実施の形態では、時刻ごとに視野に含まれているか否かが判定されるため、視野内時間は、対象物体が視野に含まれていると判定された累積回数であるともいえる。但し、視野に含まれていない期間に関して、視野内時間は当該期間分デクリメントされる(低下)する。また、視野内時間は、0未満にはならない。したがって、対象物体の視野内時間が0である場合とは、対象物体が視野に含まれると判定された回数又は期間と、視野内時間が1以上である場合に対象物体が視野に含まれないと判定された回数又は期間とが一致する場合をいう。   The in-view time is a parameter indicating the accumulated time that the target object was included in the view. In this embodiment, since it is determined whether or not it is included in the field of view at each time, it can be said that the time in the field of view is the cumulative number of times that the target object is determined to be included in the field of view. However, regarding the period not included in the field of view, the time in the field of view is decremented (decreased) by that period. Also, the in-view time does not become less than zero. Therefore, when the in-view time of the target object is 0, the number of times or the period when the target object is determined to be included in the view field and the target object is not included in the view field when the in-view time is 1 or more. This is a case where the number of times or the period determined to match.

対象物体に関して最初にステップS109が実行されるときは、Timeは0であるため、少なくとも(1)の条件は満たされない(S109でN)。したがって、ステップS110は実行されずに、ステップS111に進む。   When Step S109 is first executed for the target object, Time is 0, so at least the condition (1) is not satisfied (N in S109). Therefore, step S110 is not executed, and the process proceeds to step S111.

ステップS111において、条件判定部14は、対象物体に関して、物体状態テーブル23Tにおける視野内時間をカウントアップする。すなわち、当該視野内時間に1が加算される。ステップS107において、Time時点において、対象物体は視野に含まれていると判定されているからである。続いて、条件判定部14は、対象物体の物体情報テーブル22Tにおいて、Time時点に対する移動ベクトルX及びYの値を、物体状態テーブル23Tにおいて対象物体に対するレコードの移動ベクトルX及びYに転記する(S112)。   In step S111, the condition determination unit 14 counts up the in-view time in the object state table 23T for the target object. That is, 1 is added to the in-view time. This is because it is determined in step S107 that the target object is included in the field of view at the time point Time. Subsequently, the condition determination unit 14 transfers the values of the movement vectors X and Y with respect to the time point in the object information table 22T of the target object to the movement vectors X and Y of the record with respect to the target object in the object state table 23T (S112). ).

一方、ステップS107において、対象物体が視野に含まれないと判定された場合(S107でN)、条件判定部14は、対象物体に関して、物体状態テーブル23Tにおける視野内時間をカウントダウンする(S113)。すなわち、当該視野内時間から1が減算される。但し、視野内時間が0の場合、カウントダウンは実行されない。本実施の形態において、視野内時間は0未満にはならないからである。   On the other hand, if it is determined in step S107 that the target object is not included in the field of view (N in S107), the condition determination unit 14 counts down the time in the field of view in the object state table 23T for the target object (S113). That is, 1 is subtracted from the in-view time. However, when the in-view time is 0, the countdown is not executed. This is because the in-view time does not become less than 0 in the present embodiment.

例えば、視野内時間が1である物体に関して、視野内時間のカウントダウンが1回実行されると、視野内時間は0となる。したがって、次の時点に関して当該物体についてステップS109が実行される場合、ステップS109の条件が満たされる可能性がある。一方、視野内時間が3である物体に関しては、例えば、視野内時間のカウントダウンが3回連続して実行されなければ、視野内時間は0とならない。   For example, for an object with a field-of-view time of 1, if the field-of-view time is counted down once, the field-of-view time becomes zero. Therefore, when step S109 is executed for the object regarding the next time point, the condition of step S109 may be satisfied. On the other hand, for an object whose in-view time is 3, for example, the in-view time does not become zero unless the count-down of the in-view time is performed three times in succession.

視野内時間がこのように操作されることと、ステップS109における条件(3)とによって、過去に視野に入ったことのある物体については、視野に入っていた期間と同じ期間分視野に入っていない状態が継続した場合に、要注意物体と判定されうる。これにより、作業者Wが視認する期間が長いほど、その物体の存在を忘れるまでの経過時間が長期化するであろうという考えがロジック化されている。具体的には、作業者Wは一瞬だけ見た物体の存在については、すぐ忘れるであろうし、長時間見た物体の存在については長時間覚えているであろうという考えが、ロジック化されている。   Due to the fact that the time in the field of view is manipulated in this way and the condition (3) in step S109, the object that has entered the field of view in the past has been in the field of view for the same period as that in the field of view. If no state continues, it can be determined that the object needs attention. Thereby, the idea that the elapsed time until the worker W forgets the existence of the object will be longer as the period when the worker W visually recognizes becomes logic. Specifically, the idea that the worker W will forget about the existence of the object seen for a moment and will remember for a long time about the existence of the object seen for a long time is logicalized. Yes.

ステップS113に続いて、ステップS112が実行される。   Subsequent to step S113, step S112 is executed.

物体Noの値が、最後の物体(ここでは物体D)の番号未満である場合(S115でN)、位置関係判定部13は、物体Noに1を加算して(S114)、ステップS106以降を繰り返す。すなわち、一つのTime時点に関して、全ての物体(本実施の形態では、物体A〜D)についてステップS106〜S115が実行される。   When the value of the object No is less than the number of the last object (here, the object D) (N in S115), the positional relationship determination unit 13 adds 1 to the object No (S114), and steps S106 and after are performed. repeat. That is, steps S106 to S115 are executed for all objects (objects A to D in the present embodiment) with respect to one time point.

Time=0時点に関して、全ての物体についてステップS106〜S115の実行が完了すると、物体状態テーブル23Tは、例えば、図18に示されるような状態となる。   When the execution of steps S106 to S115 is completed for all objects with respect to Time = 0, the object state table 23T is in a state as shown in FIG. 18, for example.

図18は、Time=0時点に関する処理の完了時の物体状態テーブルの例を示す図である。図18では、物体A及びCに関して、視野内時間が更新されている。Time=0時点において、物体A及びCが、作業者Wの視野に含まれていると判定されたためである。また、物体A〜Dに関して、Time=0時点に対する移動ベクトルX及びYが、それぞれの物体情報テーブル22Tから転記されている。   FIG. 18 is a diagram illustrating an example of the object state table at the time of completion of the process regarding Time = 0. In FIG. 18, the in-view time is updated for the objects A and C. This is because it is determined that the objects A and C are included in the field of view of the worker W at Time = 0. In addition, regarding the objects A to D, the movement vectors X and Y with respect to Time = 0 are transferred from the respective object information tables 22T.

続いて、時刻進行部11は、変数Timeに1を加算する(S116)。続いて、Time=1時点に関して、ステップS106以降が実行される。Time=1時点に関して、全ての物体についてステップS106〜S115の実行が完了すると、物体状態テーブル23Tは、例えば、図19に示されるような状態となる。   Subsequently, the time progression unit 11 adds 1 to the variable Time (S116). Subsequently, Step S106 and subsequent steps are executed for Time = 1. When execution of Steps S106 to S115 is completed for all objects with respect to Time = 1, the object state table 23T is in a state as shown in FIG. 19, for example.

図19は、Time=1時点に関する処理の完了時の物体状態テーブルの例を示す図である。図19では、物体A、C、及びDに関して、視野内時間が更新されている。すなわち、物体A及びCは、Time=0時点に続いて視野に含まれているため、視野内時間が2に更新されている。また、物体Dは、Time=1時点において初めて視野に含まれたため、視野内時間が1に更新されている。また、物体A〜Dに関して、Time=1時点に対する移動ベクトルX及びYが、それぞれの物体情報テーブル22Tから転記されている。   FIG. 19 is a diagram illustrating an example of the object state table at the time of completion of the process related to Time = 1 time point. In FIG. 19, the in-view time is updated for the objects A, C, and D. That is, the objects A and C are included in the field of view following Time = 0, so the in-view time is updated to 2. In addition, since the object D is included in the visual field for the first time at Time = 1, the time in the visual field is updated to 1. Further, regarding the objects A to D, movement vectors X and Y with respect to Time = 1 time point are transferred from the respective object information tables 22T.

ところで、Time=1時点においては、ステップS109において、条件(1)は満たされる。また、条件(2)及び(3)が満たされる物体が存在する可能性もある。対象物体に関して、条件(1)〜(3)の全てが満たされる場合(S109でY)、ステップS110において危険度判定処理が実行される。   By the way, when Time = 1, the condition (1) is satisfied in step S109. There may also be an object that satisfies the conditions (2) and (3). When all of the conditions (1) to (3) are satisfied for the target object (Y in S109), the risk determination process is executed in step S110.

図20は、危険度判定処理の処理手順の一例を説明するためのフローチャートである。   FIG. 20 is a flowchart for explaining an example of a processing procedure of the risk determination processing.

ステップS201において、危険度判定部15は、物体状態テーブル23Tより、対象物体に対応する形状データを取得する。なお、対象物体とは、図16のステップS110が実行される際に、物体Noによって特定される物体をいう。   In step S201, the risk determination unit 15 acquires shape data corresponding to the target object from the object state table 23T. Note that the target object refers to an object specified by the object No when step S110 of FIG. 16 is executed.

続いて、危険度判定部15は、Time時点における作業者Wの視線方向の投影面に対して、対象物体の形状データを投影した場合の2次元投影図形を生成する(S202)。すなわち、作業者Wから見える対象物体の形状を示す図形が生成される。斯かる2次元図形の生成には、例えば、3次元CADシステム等において利用されている公知技術が用いられてもよい。   Subsequently, the risk determination unit 15 generates a two-dimensional projection figure when the shape data of the target object is projected on the projection plane in the sight line direction of the worker W at the time of time (S202). That is, a graphic indicating the shape of the target object that can be seen by the worker W is generated. For generating such a two-dimensional figure, for example, a known technique used in a three-dimensional CAD system or the like may be used.

続いて、危険度判定部15は、生成された2次元図形の最小外接矩形に関して、縦横比(横÷縦)を算出する(S203)。続いて、危険度判定部15は、2次元図形の面積が所定値より大きいか、縦横比が所定値より大きいか、又は2次元図形に鋭角部分は有るかを判定する(S204)。いずれかの条件が満たされる場合(S204でY)、危険度判定部15は、対象物体に対する危険度を増加させる(S205)。すなわち、図3において説明した内容が実現される。なお、本実施の形態において危険度の初期値は1であるとする。危険度判定処理の対象とされた時点で、要注意物体である蓋然性は認められるからである。ステップS205における危険度の増加幅は、満たされる条件が多ければ多いほど大きくされてもよいし、満たされる条件の数に関係なく一律であってもよい。また、一律の場合であっても、当該増加幅は1でなくてもよい。   Subsequently, the risk determination unit 15 calculates an aspect ratio (horizontal / vertical) for the minimum circumscribed rectangle of the generated two-dimensional figure (S203). Subsequently, the risk determination unit 15 determines whether the area of the two-dimensional graphic is larger than a predetermined value, whether the aspect ratio is larger than a predetermined value, or whether the two-dimensional graphic has an acute angle portion (S204). If any one of the conditions is satisfied (Y in S204), the risk determination unit 15 increases the risk for the target object (S205). That is, the contents described in FIG. 3 are realized. In the present embodiment, it is assumed that the initial value of the risk is 1. This is because the probability of being an object requiring attention is recognized at the time when the risk is determined. The degree of increase in the degree of risk in step S205 may be increased as the number of satisfied conditions increases, or may be uniform regardless of the number of satisfied conditions. Further, even in a uniform case, the increase width may not be 1.

ステップS208でNの場合、又はステップS209に続いて、危険度判定部15は、物体状態テーブル23Tにおいて対象物体に対して記憶されている移動ベクトルX及びYを取得する(S206)。当該移動ベクトルは、Time時点から1単位時間分前の時点(Time−1の時点)に対する移動ベクトルである。以下、当該移動ベクトルを、Time時点に対応する移動ベクトルと区別するため、「前移動ベクトル」という。   In the case of N in step S208 or subsequent to step S209, the risk determination unit 15 acquires the movement vectors X and Y stored for the target object in the object state table 23T (S206). The movement vector is a movement vector for a time point one unit time before the Time point (Time-1 point). Hereinafter, the movement vector is referred to as a “previous movement vector” in order to distinguish it from the movement vector corresponding to the Time point.

続いて、危険度判定部15は、前移動ベクトルと、作業者WのTime時点の視線方向を示す角度の方向に係るベクトルとがなす角度を算出する(S207)。続いて、危険度判定部15は、当該角度が所定値より大きいか否かを判定する(S208)。当該角度が所定値より大きい場合(S208でY)、危険度判定部15は、危険度を増加させる(S209)。すなわち、図5において説明した内容が実現される。なお、危険度の増加の程度は、角度の大きさに応じて異なってもよい。例えば、角度が大きいほど、増加の程度が大きくされてもよい。   Subsequently, the risk determination unit 15 calculates an angle formed by the previous movement vector and a vector related to an angle direction indicating the line-of-sight direction at the time point of the worker W (S207). Subsequently, the risk determination unit 15 determines whether or not the angle is larger than a predetermined value (S208). When the angle is larger than the predetermined value (Y in S208), the risk determination unit 15 increases the risk (S209). That is, the contents described in FIG. 5 are realized. Note that the degree of increase in the degree of danger may vary depending on the size of the angle. For example, the degree of increase may be increased as the angle increases.

ステップS208でNの場合、又はステップS209に続いて、危険度判定部15は、物体状態テーブル23Tにおいて、対象物体に対して発光又は発報は記憶されているか否かを判定する(S210)。発光又は発報が記憶されている場合、危険度判定部15は、危険度を減少させる(S211)。減少分は1であってもよいし、1より大きくてもよい。   In the case of N in Step S208 or following Step S209, the risk determination unit 15 determines whether or not light emission or notification is stored for the target object in the object state table 23T (S210). When the light emission or the notification is stored, the risk determination unit 15 decreases the risk (S211). The decrease may be 1 or greater than 1.

ステップS210でNの場合、又はステップS211に続いて、危険度判定部15は、物体状態テーブル23Tにおいて、対象物体に対してグループ番号は記憶されているか否かを判定する(S212)。グループ番号が記憶されている場合(S212でY)、危険度判定部15は、危険度を減少させる(S213)。減少分は1であってもよいし、1より大きくてもよい。又は、現在の危険度がどのような値であっても、0まで減少されてもよい。危険度が0まで減少される場合、一定間隔で移動する物体群については、実質的に、要注意物体の検出対象から除外されることになる。   In the case of N in step S210 or following step S211, the risk determination unit 15 determines whether or not a group number is stored for the target object in the object state table 23T (S212). When the group number is stored (Y in S212), the risk determination unit 15 decreases the risk (S213). The decrease may be 1 or greater than 1. Alternatively, any value of the current risk level may be reduced to zero. When the degree of risk is reduced to 0, the object group that moves at regular intervals is substantially excluded from the detection target of the object requiring attention.

ステップS212でNの場合、又はステップS213に続いて、危険度判定部15は、対象物体の物体名及びTimeに対応付けて結果情報記憶部24に危険度を記憶する(S212)。   In the case of N in Step S212 or following Step S213, the risk determination unit 15 stores the risk in the result information storage unit 24 in association with the object name and Time of the target object (S212).

図21は、結果情報記憶部の構成例を示す図である。図21に示されるように、結果情報記憶部24は、図16のステップS109の条件(1)〜(3)を満たすと判定された物体ごとに、物体名、発生時刻、及び危険度を記憶する。すなわち、いつ、どの程度危険な物体が発生するのかを示す情報が記憶される。なお、発生時刻には、Timeが記憶される。   FIG. 21 is a diagram illustrating a configuration example of the result information storage unit. As shown in FIG. 21, the result information storage unit 24 stores an object name, an occurrence time, and a risk level for each object determined to satisfy the conditions (1) to (3) in step S109 of FIG. To do. That is, information indicating when and how dangerous an object is generated is stored. Note that Time is stored as the occurrence time.

図21には、Time=1時点に関する処理の完了時の状態が示されている。すなわち、Time=1時点においては、物体Dが、要注意物体であると判定される。但し、物体状態テーブル23Tにおいて、物体Dには、グループ番号が記憶されている。したがって、危険度は0とされている。   FIG. 21 shows a state at the completion of the process related to Time = 1. That is, at Time = 1, it is determined that the object D is a cautionary object. However, the group number is stored in the object D in the object state table 23T. Therefore, the risk is set to 0.

続いて、Time=2時点に関して、全ての物体についてステップS106〜S115の実行が完了すると、物体状態テーブル23Tは、例えば、図22に示されるような状態となる。   Subsequently, when the execution of Steps S106 to S115 is completed for all objects with respect to Time = 2, the object state table 23T is in a state as shown in FIG. 22, for example.

図22は、Time=2時点に関する処理の完了時の物体状態テーブルの例を示す図である。図22では、物体A〜Dに関して、視野内時間が更新されている。すなわち、物体A及びCは、Time=0時点から継続して視野に含まれているため、視野内時間が3に更新されている。また、物体Dは、Time=1時点に続いて視野に含まれているため、視野内時間が2に更新されている。また、物体Bは、Time=2時点において初めて視野に含まれたため、視野内時間が1に更新されている。また、物体A〜Dに関して、Time=2時点に対する移動ベクトルX及びYが、それぞれの物体情報テーブル22Tから転記されている。   FIG. 22 is a diagram illustrating an example of the object state table at the time of completion of the process regarding the time = 2. In FIG. 22, the in-view time is updated for the objects A to D. That is, since the objects A and C are continuously included in the field of view from Time = 0, the in-field time is updated to 3. In addition, since the object D is included in the field of view following Time = 1, the in-field time is updated to 2. In addition, since the object B is included in the visual field for the first time at Time = 2, the time in the visual field is updated to 1. Further, regarding the objects A to D, the movement vectors X and Y with respect to Time = 2 are transferred from the respective object information tables 22T.

また、Time=2時点に関して、全ての物体についてステップS106〜S115の実行が完了した時点における結果情報記憶部24は、例えば、図23に示されるような状態となる。   Further, with respect to Time = 2, the result information storage unit 24 at the time when execution of Steps S106 to S115 is completed for all objects is in a state as shown in FIG. 23, for example.

図23は、Time=2時点に関する処理の完了時の結果情報記憶部の例を示す図である。Time=2時点では、物体Bが新たに要注意物体として検出される。したがて、Time=2時点を発生時刻として、物体Bの物体名と危険度とを含むレコードが新たに追加される。   FIG. 23 is a diagram illustrating an example of the result information storage unit at the time of completion of the process regarding Time = 2. At Time = 2, the object B is newly detected as an object requiring attention. Therefore, a record including the object name and the danger level of the object B is newly added with Time = 2 as the occurrence time.

続いて、Time=3時点に関して、全ての物体についてステップS106〜S115の実行が完了すると、物体状態テーブル23Tは、例えば、図23に示されるような状態となる。   Subsequently, when execution of steps S106 to S115 is completed for all objects at the time point of Time = 3, the object state table 23T is in a state as shown in FIG. 23, for example.

図24は、Time=3時点に関する処理の完了時の物体状態テーブルの例を示す図である。図24では、物体A〜Dに関して、視野内時間が更新されている。すなわち、物体A及びCは、Time=0時点から継続して視野に含まれているため、視野内時間が4に更新されている。物体Bは、Time=2時点に続いて視野に含まれているため、視野内時間が4に更新されている。物体Dは、視野に含まれなくなったため、視野内時間が1に減少されている。   FIG. 24 is a diagram illustrating an example of the object state table at the time of completion of the processing related to Time = 3. In FIG. 24, the in-view time is updated for the objects A to D. That is, since the objects A and C are continuously included in the field of view from Time = 0, the in-view time is updated to 4. Since the object B is included in the field of view subsequent to Time = 2, the time in the field of view is updated to 4. Since the object D is no longer included in the field of view, the time in the field of view is reduced to 1.

なお、Time=2時点の物体状態テーブル23Tにおいて、視野内時間が0である物体はない。したがって、Time=3時点に関する処理において、要注意物体は検出されない。   In the object state table 23T at Time = 2, there is no object whose in-view time is zero. Therefore, an object requiring attention is not detected in the processing related to Time = 3.

続いて、Time=4時点に関して、全ての物体についてステップS106〜S115の実行が完了すると、物体状態テーブル23Tは、例えば、図25に示されるような状態となる。   Subsequently, when the execution of Steps S106 to S115 is completed for all the objects at Time = 4, the object state table 23T is in a state as shown in FIG. 25, for example.

図25は、Time=4時点に関する処理の完了時の物体状態テーブルの例を示す図である。図25では、物体A〜Dに関して、視野内時間が更新されている。すなわち、物体A及びCは、Time=0時点から継続して視野に含まれているため、視野内時間が5に更新されている。物体Bは、Time=2時点から継続して視野に含まれているため、視野内時間が3に更新されている。物体Dは、再び視野に含まれたため、視野内時間が2に更新されている。   FIG. 25 is a diagram illustrating an example of the object state table at the time of completion of the process relating to Time = 4. In FIG. 25, the in-view time is updated for the objects A to D. That is, since the objects A and C are continuously included in the field of view from Time = 0, the in-view time is updated to 5. Since the object B is continuously included in the field of view from Time = 2, the time in the field of view is updated to 3. Since the object D is included in the field of view again, the time in the field of view is updated to 2.

なお、Time=3時点の物体状態テーブル23Tにおいて、視野内時間が0である物体はない。したがって、Time=4時点に関する処理において、要注意物体は検出されない。   In the object state table 23T at Time = 3, there is no object whose in-view time is zero. Therefore, an object requiring attention is not detected in the processing related to Time = 4.

Timeが終了時刻を超えると、(S117でY)、出力部16は、結果情報記憶部24が記憶する情報を出力する(S118)。終了時刻とは、作業情報テーブル又は各物体の物体情報テーブル22Tに記憶されている時刻の中で、最後の時刻をいう。ユーザは、出力された情報を参照して、どのタイミングにおいて、どの物体が要注意物体であるかを確認することができる。なお、出力の形態は、表示装置106、補助記憶装置102への記憶、又は非図示のプリンタへの印刷等、所定のものに限定されない。   When Time exceeds the end time (Y in S117), the output unit 16 outputs information stored in the result information storage unit 24 (S118). The end time is the last time among the times stored in the work information table or the object information table 22T of each object. The user can refer to the output information and confirm which object is the object requiring attention at which timing. The output form is not limited to a predetermined one such as storage in the display device 106, the auxiliary storage device 102, or printing on a printer (not shown).

続いて、図16のステップS101の詳細について説明する。図26は、グループ特定処理の処理手順の一例を説明するためのフローチャートである。   Next, details of step S101 in FIG. 16 will be described. FIG. 26 is a flowchart for explaining an example of the process procedure of the group specifying process.

ステップS301において、グループ特定部12は、変数Timeに0を代入する。以下、変数Timeの値を、単に「Time」という。続いて、グループ特定部12は、物体Noに1を代入する(S302)。以下、物体Noの値によって特定される物体を、「対象物体」という。   In step S301, the group identification unit 12 substitutes 0 for the variable Time. Hereinafter, the value of the variable Time is simply referred to as “Time”. Subsequently, the group specifying unit 12 substitutes 1 for the object No (S302). Hereinafter, the object specified by the value of the object number is referred to as “target object”.

続いて、グループ特定部12は、対象物体の物体情報テーブル22Tから、Time時点の位置X及びY、並びに移動ベクトルX及びYを取得する。(S303)。続いて、グループ特定部12は、対象物体以外の各物体の物体情報テーブル22Tから、位置X及びY並びに移動ベクトルが、ステップS303において取得された位置X及びY並びに移動ベクトルと一致するレコードを検索する(S304)。該当するレコードは、複数の物体情報テーブル22Tから検索されてもよい。   Subsequently, the group specifying unit 12 acquires the positions X and Y at the time point and the movement vectors X and Y from the object information table 22T of the target object. (S303). Subsequently, the group specifying unit 12 searches the object information table 22T of each object other than the target object for records in which the positions X and Y and the movement vector match the positions X and Y and the movement vector acquired in step S303. (S304). The corresponding record may be searched from a plurality of object information tables 22T.

該当するレコードが検索されなかった場合(S305でN)、ステップS310に進む。該当するレコードが検索された場合(S305でY)、グループ特定部12は、検索されたレコードの時刻と、Timeとの時間差を算出する(S306)。続いて、グループ特定部12は、検索されたレコードが属する物体情報テーブル22Tの各レコードのデータを読み出し、読み出された各データの時刻を時間差分だけずらす(S307)。すなわち、当該時間差がTimeよりも遅れていることを示す場合、当該各データの時刻から当該時間差分が減算される。一方、当該時間差がTimeよりも進んでいることを示す場合、当該各データの時刻に当該時間差分が加算される。なお、検索されたレコード賀属する物体情報テーブル22Tに係る物体を、以下「候補物体」という。   If the corresponding record is not searched (N in S305), the process proceeds to step S310. When the corresponding record is searched (Y in S305), the group specifying unit 12 calculates the time difference between the time of the searched record and Time (S306). Subsequently, the group specifying unit 12 reads the data of each record in the object information table 22T to which the searched record belongs, and shifts the time of each read data by the time difference (S307). That is, when the time difference indicates that it is behind Time, the time difference is subtracted from the time of each data. On the other hand, when the time difference indicates that it is ahead of Time, the time difference is added to the time of each data. The searched object related to the object information table 22T belonging to the record card is hereinafter referred to as “candidate object”.

続いて、グループ特定部12は、時刻がずらされた後の候補物体のデータごとに、対象物体の物体情報テーブル22Tの同一時刻に係るレコードと、位置X及びY並びに移動ベクトルX及びYが一致するか否かを判定する(S308)。   Subsequently, the group specifying unit 12 matches the position X and Y and the movement vectors X and Y with the record related to the same time in the object information table 22T of the target object for each candidate object data after the time is shifted. It is determined whether or not to perform (S308).

位置X及びY並びに移動ベクトルX及びYに関して、候補物体の全てのデータと対象物体の物体情報テーブル22Tのレコードとが一致する場合(S308でY)、グループ特定部12は、対象物体及び候補物体に関して、物体状態テーブル23Tのグループ番号に同じ値を設定する(S309)。すなわち、対象物体と候補物体とは同じグループに属する物体群であると判定される。   When all the data of the candidate object and the record of the object information table 22T of the target object match with respect to the positions X and Y and the movement vectors X and Y (Y in S308), the group specifying unit 12 determines that the target object and the candidate object Is set to the same group number in the object state table 23T (S309). That is, it is determined that the target object and the candidate object are object groups belonging to the same group.

なお、ステップS306からS309は、ステップS304において該当するレコードが検索された、対象物体以外の物体ごとに実行される。   Steps S306 to S309 are executed for each object other than the target object for which the corresponding record is searched in step S304.

物体Noの値が、最後の物体(ここでは物体D)の番号未満である場合(S310でN)、グループ特定部12は、物体Noに1を加算して(S311)、ステップS303以降を繰り返す。すなわち、一つのTime時点に関して、全ての物体(本実施の形態では、物体A〜D)についてステップS303〜S310が実行される。   When the value of the object No is less than the number of the last object (here, object D) (N in S310), the group specifying unit 12 adds 1 to the object No (S311), and repeats step S303 and subsequent steps. . That is, steps S303 to S310 are executed for all objects (in the present embodiment, objects A to D) with respect to one time point.

Time時点に関して、全ての物体についてステップS303〜S310の実行が完了すると(S310でY)、グループ特定部12は、変数Timeに1を加算する(S312)。Timeが終了時刻以下である場合(S313でN)、ステップS302以降が繰り返される。Timeが終了時刻を超えた場合(S313でY)、図26の処理は終了する。   When execution of Steps S303 to S310 is completed for all objects at the Time point (Y in S310), the group specifying unit 12 adds 1 to the variable Time (S312). If Time is less than or equal to the end time (N in S313), Step S302 and subsequent steps are repeated. If Time exceeds the end time (Y in S313), the process in FIG. 26 ends.

上述したように、本実施の形態によれば、作業者の危険を誘発する可能性の有る物体の特定を支援することができる。   As described above, according to the present embodiment, it is possible to support identification of an object that may induce a worker's danger.

なお、本実施の形態では、要注意物体であるか否かの判定に視野内角度が利用されたが、視野内角度の代わりに、例えば、物体が最後に横切った視野の境界線と、物体との距離(以下、「視野内距離」という。)が用いられてもよい。この場合、作業者Wと物体との距離に応じて、視野内距離に対する閾値を変化させてもよい。すなわち、作業者Wに対する近い物体について、閾値が小さくされてもよい。   In the present embodiment, the in-view angle is used to determine whether or not the object is a cautionary object. Instead of the in-view angle, for example, the boundary line of the view that the object crosses last and the object (Hereinafter referred to as “in-view distance”) may be used. In this case, the threshold for the in-view distance may be changed according to the distance between the worker W and the object. That is, the threshold may be reduced for an object close to the worker W.

また、視野内角度を用いる場合であっても、作業者Wと物体との距離に応じて、視野内角度に対する閾値を変化させてもよい。すなわち、作業者Wに対する近い物体について、閾値が小さくされてもよい。   Further, even when the in-view angle is used, the threshold for the in-view angle may be changed according to the distance between the worker W and the object. That is, the threshold may be reduced for an object close to the worker W.

また、危険度を増加又は低下させる要因によって、視野内角度又は視野内距離に対する閾値を変化させてもよい。すなわち、危険度が大きくなる物体については閾値を小さくし、危険度が小さくなる物体については閾値が大きくされてもよい。このようにする場合、図16のステップS109の条件判定の前に、図26の処理が実行されるようにしてもよい。図26の処理によって出力される危険度に応じて、ステップS109において視野内角度又は視野内距離と比較される閾値(所定値)が変えられてもよい。   Further, the threshold for the in-view angle or the in-view distance may be changed depending on a factor that increases or decreases the degree of risk. That is, the threshold value may be decreased for an object with a high degree of danger, and the threshold value may be increased with respect to an object with a low degree of risk. In this case, the process of FIG. 26 may be executed before the condition determination in step S109 of FIG. The threshold value (predetermined value) to be compared with the in-field angle or the in-field distance may be changed in step S109 according to the risk level output by the processing of FIG.

また、例えば、作業者Wごとに、経験度、熟練度、又は年齢等の属性情報を補助記憶装置102等に記憶しておき、当該属性情報に基づいて、視野内角度又は視野内距離に対する閾値を変化させてもよい。例えば、経験度又は熟練度が高い作業者Wについては、閾値を大きくしてもよい。また、高齢者は、閾値を小さくしてもよい。   In addition, for example, attribute information such as experience level, skill level, or age is stored in the auxiliary storage device 102 or the like for each worker W, and a threshold value for an in-view angle or an in-view distance is determined based on the attribute information. May be changed. For example, the threshold value may be increased for the worker W having a high experience level or skill level. Moreover, an elderly person may make a threshold value small.

また、本実施の形態では、便宜上、2次元のシミュレーション空間を用いて説明したが、3次元のシミュレーション空間が用いられてもよい。この場合、作業者情報テーブル21Tの位置情報及び視線方向情報や、物体情報テーブル22Tにおける位置情報及び移動ベクトル情報等について、3次元の情報とすればよい。また、作業者Wの視野に関しては、例えば、作業者Wを頂点とし、視線方向に高さを有する円錐、楕円錐、又は角錐等によって規定されてもよい。   In the present embodiment, for convenience, the description has been given using the two-dimensional simulation space, but a three-dimensional simulation space may be used. In this case, the position information and the line-of-sight direction information in the worker information table 21T, the position information in the object information table 22T, the movement vector information, and the like may be three-dimensional information. The field of view of the worker W may be defined by, for example, a cone, an elliptical cone, or a pyramid having the worker W as the apex and having a height in the viewing direction.

なお、本実施の形態において、位置関係判定部13は、判定部の一例である。条件判定部14は、検出部の一例である。   In the present embodiment, the positional relationship determination unit 13 is an example of a determination unit. The condition determination unit 14 is an example of a detection unit.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記視野に含まれると判定された物体の中から、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する処理をコンピュータに実行させる要注意物体検出プログラム。
(付記2)
前記所定の条件は、前記作業者の位置を中心とした場合の前記作業者の視野の境界線に対する前記物体の位置の角度が所定値を超えることである付記1記載の要注意物体検出プログラム。
(付記3)
前記検出する処理は、前記視野に含まれると判定された物体の中から、当該物体が前記視野に含まれると判定された第一の累積回数と、前記第一の累積回数が1以上である場合に当該物体が前記視野に含まれないと判定された第二の累積回数とが一致し、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する付記1又は2記載の要注意物体検出プログラム。
(付記4)
前記作業者の位置と物体の位置との距離に応じて、前記所定の条件を変化させる付記1乃至3いずれか一項記載の要注意物体検出プログラム。
(付記5)
前記物体の形状又は大きさに応じて、前記所定の条件を変化させる付記1乃至4いずれか一項記載の要注意物体検出プログラム。
(付記6)
前記作業者の属性情報に応じて、前記所定の条件を変化させる付記1乃至5いずれか一項記載の要注意物体検出プログラム。
(付記7)
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定する判定部と、
前記視野に含まれると判定された物体の中から、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する検出部とを有する検出装置。
(付記8)
前記所定の条件は、前記作業者の位置を中心とした場合の前記作業者の視野の境界線に対する前記物体の位置の角度が所定値を超えることである付記7記載の検出装置。
(付記9)
前記検出部は、前記視野に含まれると判定された物体の中から、当該物体が前記視野に含まれると判定された第一の累積回数と、前記第一の累積回数が1以上である場合に当該物体が前記視野に含まれないと判定された第二の累積回数とが一致し、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する付記7又は8記載の検出装置。
(付記10)
前記作業者の位置と物体の位置との距離に応じて、前記所定の条件を変化させる付記7乃至9いずれか一項記載の検出装置。
(付記11)
前記物体の形状又は大きさに応じて、前記所定の条件を変化させる付記7乃至10いずれか一項記載の検出装置。
(付記12)
前記作業者の属性情報に応じて、前記所定の条件を変化させる付記7乃至11いずれか一項記載の検出装置。
(付記13)
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記視野に含まれると判定された物体の中から、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する処理をコンピュータが実行する検出方法。
(付記14)
前記所定の条件は、前記作業者の位置を中心とした場合の前記作業者の視野の境界線に対する前記物体の位置の角度が所定値を超えることである付記13記載の検出方法。
(付記15)
前記検出する処理は、前記視野に含まれると判定された物体の中から、当該物体が前記視野に含まれると判定された第一の累積回数と、前記第一の累積回数が1以上である場合に当該物体が前記視野に含まれないと判定された第二の累積回数とが一致し、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する付記13又は14記載の検出方法。
(付記16)
前記作業者の位置と物体の位置との距離に応じて、前記所定の条件を変化させる付記13乃至15いずれか一項記載の検出方法。
(付記17)
前記物体の形状又は大きさに応じて、前記所定の条件を変化させる付記13乃至16いずれか一項記載の検出方法。
(付記18)
前記作業者の属性情報に応じて、前記所定の条件を変化させる付記13乃至17いずれか一項記載の検出方法。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
A cautionary object detection program that causes a computer to execute processing for detecting an object that satisfies a predetermined positional relationship between a position of the object and the visual field among objects determined to be included in the visual field.
(Appendix 2)
The non-requiring object detection program according to appendix 1, wherein the predetermined condition is that an angle of the position of the object with respect to a boundary line of the visual field of the worker when the position of the worker is set as a center exceeds a predetermined value.
(Appendix 3)
The detection process includes a first cumulative number of times that the object is determined to be included in the visual field, and the first cumulative number of times that is determined to be included in the visual field. In this case, the second cumulative number of times that the object is determined not to be included in the field of view coincides, and the relative positional relationship between the position of the object and the field of view detects an object that satisfies a predetermined condition. The program for detecting a cautionary object described in 1 or 2.
(Appendix 4)
The non-cautionary object detection program according to any one of supplementary notes 1 to 3, wherein the predetermined condition is changed according to a distance between the position of the worker and the position of the object.
(Appendix 5)
The non-cautionary object detection program according to any one of supplementary notes 1 to 4, wherein the predetermined condition is changed according to a shape or a size of the object.
(Appendix 6)
The non-cautionary object detection program according to any one of supplementary notes 1 to 5, wherein the predetermined condition is changed according to the attribute information of the worker.
(Appendix 7)
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker A determination unit for determining whether the object is included in
A detection device that includes a detection unit that detects an object that is determined to be included in the field of view and that satisfies a predetermined condition of a relative positional relationship between the position of the object and the field of view.
(Appendix 8)
The detection apparatus according to claim 7, wherein the predetermined condition is that an angle of the position of the object with respect to a boundary line of the visual field of the worker when the position of the worker is set as a center exceeds a predetermined value.
(Appendix 9)
The detection unit includes a first cumulative number of times that the object is determined to be included in the visual field, and a first cumulative number that is determined to be included in the visual field, and the first cumulative number is 1 or more. Note 7 is that the second cumulative number of times that the object is determined not to be included in the field of view matches the object, and the relative positional relationship between the position of the object and the field of view satisfies a predetermined condition. Or the detection apparatus of 8.
(Appendix 10)
The detection apparatus according to any one of appendices 7 to 9, wherein the predetermined condition is changed according to a distance between the position of the worker and the position of the object.
(Appendix 11)
The detection device according to any one of appendices 7 to 10, wherein the predetermined condition is changed according to a shape or a size of the object.
(Appendix 12)
The detection device according to any one of appendices 7 to 11, wherein the predetermined condition is changed according to the attribute information of the worker.
(Appendix 13)
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
A detection method in which a computer executes a process of detecting an object in which a relative positional relationship between the position of the object and the visual field satisfies a predetermined condition among objects determined to be included in the visual field.
(Appendix 14)
The detection method according to appendix 13, wherein the predetermined condition is that an angle of the position of the object with respect to a boundary line of the visual field of the worker when the position of the worker is set as a center exceeds a predetermined value.
(Appendix 15)
The detection process includes a first cumulative number of times that the object is determined to be included in the visual field, and the first cumulative number of times that is determined to be included in the visual field. In this case, the second cumulative number of times that the object is determined not to be included in the field of view coincides, and the relative positional relationship between the position of the object and the field of view detects an object that satisfies a predetermined condition. The detection method according to 13 or 14.
(Appendix 16)
The detection method according to any one of supplementary notes 13 to 15, wherein the predetermined condition is changed according to a distance between the position of the worker and the position of the object.
(Appendix 17)
The detection method according to any one of supplementary notes 13 to 16, wherein the predetermined condition is changed according to a shape or a size of the object.
(Appendix 18)
The detection method according to any one of supplementary notes 13 to 17, wherein the predetermined condition is changed according to the attribute information of the worker.

10 検出装置
11 時刻進行部
12 グループ特定部
13 位置関係判定部
14 条件判定部
15 危険度判定部
16 出力部
21 作業者情報テーブル記憶部
22 物体情報テーブル記憶部
23 物体状態テーブル記憶部
24 結果情報記憶部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
B バス
DESCRIPTION OF SYMBOLS 10 Detection apparatus 11 Time progress part 12 Group specific | specification part 13 Positional relationship determination part 14 Condition determination part 15 Risk degree determination part 16 Output part 21 Worker information table storage part 22 Object information table storage part 23 Object state table storage part 24 Result information Storage unit 100 Drive device 101 Recording medium 102 Auxiliary storage device 103 Memory device 104 CPU
105 interface device 106 display device 107 input device B bus

Claims (8)

所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記作業者の視野に含まれると判定された物体のうち体の位置と前記作業者の視野との相対的な位置関係が所定の条件を満たし、前記作業者の視野に含まれない状態から前記作業者の視野に含まれる状態に変化した物体を検出する
処理をコンピュータに実行させる体検出プログラム。
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
Among the is determined to be included in the operator's field of view the object, the relative positional relationship between the position and the operator's visual field of the object body meets a predetermined condition, not included in the visual field of the operator Detecting an object that has changed from a state to a state included in the field of view of the operator ;
Body detection program those for executing the process to the computer.
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記視野に含まれると判定された物体の中から、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する処理をコンピュータに実行させ、
前記所定の条件は、前記作業者の位置を中心とした場合の前記作業者の視野の境界線に対する前記物体の位置の角度が所定値を超えることである体検出プログラム。
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
Among the objects determined to be included in the field of view, the computer executes processing for detecting an object in which the relative positional relationship between the position of the object and the field of view satisfies a predetermined condition,
The predetermined condition is that the worker said object by angular position exceeds the predetermined value is those body detecting program of relative to the operator's field of view border when the position around the.
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記視野に含まれると判定された物体の中から、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する処理をコンピュータに実行させ、
前記検出する処理は、前記視野に含まれると判定された物体の中から、当該物体が前記視野に含まれると判定された第一の累積回数と、前記第一の累積回数が1以上である場合に当該物体が前記視野に含まれないと判定された第二の累積回数とが一致し、当該物体の位置と前記視野との相対的な位置関係が所定の条件を満たす物体を検出する体検出プログラム。
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
Among the objects determined to be included in the field of view, the computer executes processing for detecting an object in which the relative positional relationship between the position of the object and the field of view satisfies a predetermined condition,
The detection process includes a first cumulative number of times that the object is determined to be included in the visual field, and the first cumulative number of times that is determined to be included in the visual field. a second cumulative number of times the object is determined to not be included in the field of view matches if, those relative positional relationship between said the position of the object field to detect a predetermined condition is satisfied object Body detection program.
前記作業者の位置と物体の位置との距離に応じて、前記所定の条件を変化させる請求項1乃至3いずれか一項記載の体検出プログラム。 Depending on the distance between the position of the position and the object of the worker claims 1 to 3 object body detection program according to any one claim changing the predetermined condition. 前記物体の形状又は大きさに応じて、前記所定の条件を変化させる請求項1乃至4いずれか一項記載の体検出プログラム。 According to the shape or size of the object, claim 1 to 4 object body detection program according to any one claim changing the predetermined condition. 前記作業者の属性情報に応じて、前記所定の条件を変化させる請求項1乃至5いずれか一項記載の体検出プログラム。 Depending on the attribute information of the operator, according to claim 1 to 5 to any one claim monoester detecting program changes the predetermined condition. 所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定する判定部と、
前記作業者の視野に含まれると判定された物体のうち体の位置と前記作業者の視野との相対的な位置関係が所定の条件を満たし、前記作業者の視野に含まれない状態から前記作業者の視野に含まれる状態に変化した物体を検出する検出部とを有する検出装置。
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker A determination unit for determining whether the object is included in
Among the is determined to be included in the operator's field of view the object, the relative positional relationship between the position and the operator's visual field of the object body meets a predetermined condition, not included in the visual field of the operator A detection unit that detects an object that has changed from a state to a state included in the field of view of the operator .
所定間隔の時点ごとの物体の位置を示す位置情報と、前記所定間隔の時点ごとの作業者の位置を示す位置情報及び視線の方向を示す視線方向情報とを特定して、前記作業者の視野に前記物体が含まれるか否かを判定し、
前記作業者の視野に含まれると判定された物体のうち体の位置と前記作業者の視野との相対的な位置関係が所定の条件を満たし、前記作業者の視野に含まれない状態から前記作業者の視野に含まれる状態に変化した物体を検出する処理をコンピュータが実行する検出方法。
The position information indicating the position of the object at each predetermined time point, the position information indicating the worker's position at each predetermined time point, and the gaze direction information indicating the direction of the line of sight are specified, and the visual field of the worker Whether or not the object is included in
Among the is determined to be included in the operator's field of view the object, the relative positional relationship between the position and the operator's visual field of the object body meets a predetermined condition, not included in the visual field of the operator A detection method in which a computer executes a process of detecting an object that has changed from a state to a state included in the field of view of the worker .
JP2012160695A 2012-07-19 2012-07-19 Object detection program, detection apparatus, and detection method Expired - Fee Related JP5962288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012160695A JP5962288B2 (en) 2012-07-19 2012-07-19 Object detection program, detection apparatus, and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012160695A JP5962288B2 (en) 2012-07-19 2012-07-19 Object detection program, detection apparatus, and detection method

Publications (2)

Publication Number Publication Date
JP2014021773A JP2014021773A (en) 2014-02-03
JP5962288B2 true JP5962288B2 (en) 2016-08-03

Family

ID=50196568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012160695A Expired - Fee Related JP5962288B2 (en) 2012-07-19 2012-07-19 Object detection program, detection apparatus, and detection method

Country Status (1)

Country Link
JP (1) JP5962288B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016166074A (en) * 2015-03-10 2016-09-15 東芝エレベータ株式会社 Elevator maintenance work support device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4136673B2 (en) * 2003-01-10 2008-08-20 株式会社リコー Device safety verification device, device safety verification method, and storage medium
JP4051623B2 (en) * 2003-02-26 2008-02-27 アイシン精機株式会社 Alarm device that outputs alarm signal according to vehicle risk
JP2005071285A (en) * 2003-08-28 2005-03-17 New Industry Research Organization Collision detection method that change detail degree according to interaction in space and virtual space formation device using its method
JP2008305283A (en) * 2007-06-08 2008-12-18 Aisin Aw Co Ltd Drive support apparatus and drive support method
JP4371153B2 (en) * 2007-06-15 2009-11-25 トヨタ自動車株式会社 Autonomous mobile device
JP4958835B2 (en) * 2008-04-18 2012-06-20 株式会社ソニー・コンピュータエンタテインメント Image display device, control method and program for image display device
JP2010023680A (en) * 2008-07-18 2010-02-04 Toyota Motor Corp Rear side visual recognition supporting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016166074A (en) * 2015-03-10 2016-09-15 東芝エレベータ株式会社 Elevator maintenance work support device

Also Published As

Publication number Publication date
JP2014021773A (en) 2014-02-03

Similar Documents

Publication Publication Date Title
US11091172B2 (en) Information processing system, information processing method, and readable medium
JP6494331B2 (en) Robot control apparatus and robot control method
JP7080320B2 (en) Collision warning device and collision warning method
JP2016172469A5 (en)
EP3076334A1 (en) Image analyzing apparatus and image analyzing method
EP2746897B1 (en) Volumetric image display device and method of providing user interface using visual indicator
JP5977808B2 (en) Provide clues to the last known browsing location using biometric data about movement
JP6597352B2 (en) Object recognition device
US20160283803A1 (en) Object detection method, information processing device, and storage medium
CN105425993A (en) Information processing apparatus and method for controlling information processing apparatus
CN108088451A (en) For controlling the apparatus and method in the path of vehicle
JP5962288B2 (en) Object detection program, detection apparatus, and detection method
JP6192366B2 (en) Information processing program, information processing apparatus control method, information processing apparatus, and information processing system
JP7107550B2 (en) Avoidance judgment method for moving object, avoidance judgment device, and avoidance judgment program
JP2017134610A (en) Image generator, image display method, and program
JP7432852B2 (en) Layout design device, layout design method and program
JP2020046882A (en) Information processing device, vehicle control device, and moving body control method
JP2007256402A5 (en)
JP2016192104A (en) Information processor, processing method for the same, and program
JP2016095795A (en) Recognition device, method, and program
KR102267287B1 (en) LSTM-based future threat prediction method and apparatus
JP6915313B2 (en) Drawing extraction program, drawing extraction method and information processing device
US10810800B2 (en) Apparatus and method for providing virtual reality content of moving means
US20220171397A1 (en) Computing device and method for tracking movement of objects
JP2011048463A (en) Event detection result display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5962288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees