JP2023083085A - Operator support method - Google Patents

Operator support method Download PDF

Info

Publication number
JP2023083085A
JP2023083085A JP2021197220A JP2021197220A JP2023083085A JP 2023083085 A JP2023083085 A JP 2023083085A JP 2021197220 A JP2021197220 A JP 2021197220A JP 2021197220 A JP2021197220 A JP 2021197220A JP 2023083085 A JP2023083085 A JP 2023083085A
Authority
JP
Japan
Prior art keywords
operator
sight direction
vehicle
line
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021197220A
Other languages
Japanese (ja)
Inventor
優樹 末廣
Yuki Suehiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven by Toyota Inc
Original Assignee
Woven by Toyota Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven by Toyota Inc filed Critical Woven by Toyota Inc
Priority to JP2021197220A priority Critical patent/JP2023083085A/en
Publication of JP2023083085A publication Critical patent/JP2023083085A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To support an operator who operates or remotely operates a mobile object in earlier timing.SOLUTION: An operator support method supports an operator who operates or remotely operates a mobile object. The operator support method comprises processing of: (1) acquiring a visual line direction of the operator; (2) setting a target visual line direction requiring gaze of the operator according to a scene in which the mobile object is placed; (3) determining whether or not a divergence degree between the visual line direction of the operator and the target visual line direction exceeds a threshold; and (4) notifying the operator of a guide direction from the visual line direction of the operator toward the target visual line direction through at least one of tactile sensation, hearing sensation, and visual sensation of the operator when the divergence degree exceeds the threshold.SELECTED DRAWING: Figure 1

Description

本開示は、移動体を操作あるいは遠隔操作するオペレータを支援する技術に関する。 The present disclosure relates to technology for assisting an operator who operates or remotely operates a mobile object.

特許文献1は、ドライバに障害物の接近を気付かせる車両用警告装置を開示している。車両用警告装置は、車両への障害物の接近を検出する障害物センサと、触覚情報伝達手段と、制御部とを備える。触覚情報伝達手段は、ドライバが座るシート座面を振動させることにより、ドライバに触覚情報を伝達する。障害物センサによって障害物が検出された場合、制御部は、ドライバが回避操作を行っているか否かを判定する。ここで、回避操作とは、障害物から離れる方向の操舵操作、あるいは、車両を減速させるブレーキ操作である。ドライバが回避操作を行っていない場合、制御部は、障害物が存在する方向のシート座面が振動するように触覚情報伝達手段を制御する。 Patent Literature 1 discloses a vehicle warning device that makes a driver aware of an approaching obstacle. A vehicle warning device includes an obstacle sensor that detects an obstacle approaching a vehicle, a tactile information transmission means, and a control unit. The tactile information transmission means transmits tactile information to the driver by vibrating the seat surface on which the driver sits. When an obstacle is detected by the obstacle sensor, the controller determines whether the driver is performing an avoidance operation. Here, the avoidance operation is a steering operation in a direction away from an obstacle or a braking operation for decelerating the vehicle. When the driver is not performing an avoidance operation, the control unit controls the tactile information transmission means so that the seat surface in the direction in which the obstacle exists vibrates.

その他、触覚を通してドライバに警告を与える技術として、特許文献2や特許文献3が知られている。 In addition, Patent Document 2 and Patent Document 3 are known as techniques for giving a warning to the driver through the sense of touch.

特開2006-119840号公報JP 2006-119840 A 特開2016-024509号公報JP 2016-024509 A 特開2009-129052号公報JP 2009-129052 A

車両等の移動体を操作あるいは遠隔操作するオペレータについて考える。オペレータの視野範囲には限界があるため、注視を要する事象をオペレータが見落としてしまう可能性がある。従って、オペレータに注視を促す通知を出すようなオペレータ支援技術は有用である。 Consider an operator who operates or remotely operates a mobile object such as a vehicle. Due to the limited field of view of the operator, the operator may miss events requiring attention. Therefore, operator assistance techniques such as issuing a notification prompting the operator to pay attention are useful.

但し、注視を要する事象が検知された場合に常に通知が出されると、オペレータは通知に対して煩わしさを感じる。何故なら、オペレータが、注視を要する事象に既に気付いている場合もあるからである。よって、必要に応じて、オペレータに注視を促す通知を出すことが望ましい。 However, if a notification is issued whenever an event requiring attention is detected, the operator feels annoyed by the notification. This is because the operator may already be aware of the event requiring attention. Therefore, it is desirable to issue a notification prompting the operator to pay attention as necessary.

一般に、オペレータによる移動体の操作は、「1.認識」、「2.判断」、「3.操作」の順番に進む。上記の特許文献1に開示された技術によれば、「3.操作」が無いことを検知して初めてシート座面を振動させている。よって、オペレータが通知を受け取るタイミングが遅くなる。その場合、オペレータ支援の効果は必ずしも十分ではない。 In general, an operator's operation of a moving object proceeds in order of "1. Recognition", "2. Judgment", and "3. Operation". According to the technique disclosed in Patent Document 1, the seat surface is vibrated only after detecting that there is no "3. operation". Therefore, the timing at which the operator receives the notification is delayed. In that case, the effect of operator assistance is not necessarily sufficient.

本開示の1つの目的は、移動体を操作あるいは遠隔操作するオペレータをより早いタイミングで支援することができる技術を提供することにある。 One object of the present disclosure is to provide a technology capable of quickly assisting an operator who operates or remotely operates a mobile object.

第1の観点は、移動体を操作あるいは遠隔操作するオペレータを支援するオペレータ支援方法に関連する。
オペレータ支援方法は、
オペレータの視線方向を取得する処理と、
移動体の置かれたシーンに応じて、オペレータの注視を要する目標視線方向を設定する処理と、
オペレータの視線方向と目標視線方向との間の乖離度が閾値を超えているか否かを判定する処理と、
乖離度が閾値を超えている場合、オペレータの触覚、聴覚、及び視覚の少なくとも一つを通して、オペレータの視線方向から目標視線方向に向かう誘導方向をオペレータに通知する処理と
を含む。
A first aspect relates to an operator assistance method for assisting an operator who operates or remotely operates a mobile object.
The operator assistance method is
a process of acquiring the line-of-sight direction of the operator;
A process of setting a target line-of-sight direction that requires an operator's gaze according to a scene in which the moving object is placed;
a process of determining whether or not the degree of divergence between the line-of-sight direction of the operator and the target line-of-sight direction exceeds a threshold;
and a process of notifying the operator of the guidance direction from the operator's line-of-sight direction to the target line-of-sight direction through at least one of the operator's tactile sense, auditory sense, and visual sense when the degree of deviation exceeds a threshold.

第2の観点は、移動体を操作あるいは遠隔操作するオペレータを支援するオペレータ支援システムに関連する。
オペレータ支援システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
オペレータの視線方向を取得し、
移動体の置かれたシーンに応じて、オペレータの注視を要する目標視線方向を設定し、
オペレータの視線方向と目標視線方向との間の乖離度が閾値を超えているか否かを判定し、
乖離度が閾値を超えている場合、オペレータの触覚、聴覚、及び視覚の少なくとも一つを通して、オペレータの視線方向から目標視線方向に向かう誘導方向をオペレータに通知する
ように構成される。
A second aspect relates to an operator assistance system that assists an operator who operates or remotely operates a mobile object.
The operator assistance system comprises one or more processors.
The one or more processors are
Get the line-of-sight direction of the operator,
setting a target line-of-sight direction that requires the operator's attention according to the scene in which the moving object is placed;
Determining whether the degree of divergence between the operator's line-of-sight direction and the target line-of-sight direction exceeds a threshold,
It is configured to notify the operator of the guiding direction from the operator's line-of-sight direction to the target line-of-sight direction through at least one of the operator's tactile, auditory, and visual senses when the degree of deviation exceeds a threshold.

本開示によれば、オペレータ視線方向と、オペレータの注視を要する目標視線方向が考慮される。オペレータ視線方向と目標視線方向との間の乖離度が閾値を超える場合、オペレータの注視を要する事象がオペレータによって認識されていない可能性が高い。よって、その場合、オペレータ視線方向から目標視線方向に向かう誘導方向がオペレータに通知される。これにより、オペレータが目標視線方向の方に視線を向け、注視を要する事象を認識することが期待される。 According to the present disclosure, the operator gaze direction and the target gaze direction requiring the operator's gaze are considered. If the degree of divergence between the operator line-of-sight direction and the target line-of-sight direction exceeds the threshold, there is a high possibility that the operator has not recognized an event requiring the operator's gaze. Therefore, in that case, the operator is notified of the guiding direction from the operator line-of-sight direction to the target line-of-sight direction. As a result, it is expected that the operator will turn his or her line of sight toward the target line-of-sight direction and recognize an event requiring attention.

一般に、オペレータによる移動体の操作は、「1.認識」、「2.判断」、「3.操作」の順番に進む。本開示によれば、「1.認識」が無いことをトリガーとして通知が出される。その結果、オペレータは、より早いタイミングで、注視を要する事象を認識することが可能となる。従って、オペレータによる移動体の操作/遠隔操作の精度が向上する。 In general, an operator's operation of a moving object proceeds in order of "1. Recognition", "2. Judgment", and "3. Operation". According to the present disclosure, the notification is issued with the absence of "1. Recognition" as a trigger. As a result, it becomes possible for the operator to recognize events that require attention at an earlier timing. Therefore, the accuracy of the operation/remote control of the moving body by the operator is improved.

更に、本開示によれば、オペレータ視線方向と目標視線方向との間の乖離度が閾値を超える場合に、視線誘導処理が行われる。無条件にではなく、必要に応じて視線誘導処理が行われるため、オペレータが煩わしさを感じることが抑制される。 Furthermore, according to the present disclosure, when the degree of divergence between the operator line-of-sight direction and the target line-of-sight direction exceeds a threshold, line-of-sight guidance processing is performed. Since the line-of-sight guidance process is performed not unconditionally but as needed, it is possible to prevent the operator from feeling annoyed.

本開示の実施の形態に係るオペレータ支援処理を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining operator assistance processing according to the embodiment of the present disclosure; 本開示の実施の形態に係るオペレータ支援システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an operator support system according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係るオペレータ支援処理を示すフローチャートである。6 is a flowchart showing operator support processing according to the embodiment of the present disclosure; 本開示の実施の形態に係る運転環境情報の例を示すブロック図である。4 is a block diagram showing an example of driving environment information according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る目標視線方向設定処理(ステップS20)の一例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an example of target line-of-sight direction setting processing (step S20) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る目標視線方向設定処理(ステップS20)の一例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an example of target line-of-sight direction setting processing (step S20) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る目標視線方向設定処理(ステップS20)の一例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an example of target line-of-sight direction setting processing (step S20) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る目標視線方向設定処理(ステップS20)の一例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an example of target line-of-sight direction setting processing (step S20) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る視線誘導処理(ステップS40)の一例を説明するための概念図である。FIG. 5 is a conceptual diagram for explaining an example of visual guidance processing (step S40) according to the embodiment of the present disclosure; 本開示の実施の形態に係る視線誘導処理(ステップS40)の他の例を説明するための概念図である。FIG. 7 is a conceptual diagram for explaining another example of the visual guidance processing (step S40) according to the embodiment of the present disclosure; 本開示の実施の形態に係る視線誘導処理(ステップS40)の更に他の例を説明するための概念図である。FIG. 10 is a conceptual diagram for explaining still another example of the visual guidance processing (step S40) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る視線誘導処理(ステップS40)の更に他の例を説明するための概念図である。FIG. 10 is a conceptual diagram for explaining still another example of the visual guidance processing (step S40) according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る車両制御システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a vehicle control system according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係る遠隔運転システムを説明するための概念図である。1 is a conceptual diagram for explaining a remote operation system according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係る遠隔運転装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a remote operation device according to an embodiment of the present disclosure; FIG.

添付図面を参照して、本開示の実施の形態を説明する。 Embodiments of the present disclosure will be described with reference to the accompanying drawings.

1.概要
図1は、本実施の形態に係るオペレータ支援処理を説明するための概念図である。オペレータOは、移動体Mを操作あるいは遠隔操作する。例えば、移動体Mは、車両Vである。移動体Mが車両Vである場合、オペレータOは、車両Vを運転するドライバ、あるいは、車両Vを遠隔運転する遠隔オペレータである。車両Vは、自動運転車両であってもよい。移動体Mは、車両Vに限定されず、例えば、ロボット、飛翔体、等であってもよい。ロボットとしては、物流ロボット、作業ロボット、等が例示される。飛翔体としては、飛行機、ドローン、等が例示される。
1. Overview FIG. 1 is a conceptual diagram for explaining operator support processing according to the present embodiment. An operator O operates or remotely operates a mobile object M. FIG. For example, the mobile object M is a vehicle V. When the mobile object M is a vehicle V, the operator O is a driver who drives the vehicle V or a remote operator who remotely drives the vehicle V. FIG. Vehicle V may be a self-driving vehicle. The mobile object M is not limited to the vehicle V, and may be, for example, a robot, a flying object, or the like. Examples of robots include physical distribution robots, work robots, and the like. Examples of flying objects include airplanes, drones, and the like.

オペレータOの視野範囲には限界があるため、注視を要する事象をオペレータOが見落としてしまう可能性がある。従って、オペレータOに注視を促す通知を出すようなオペレータ支援処理は有用である。特に、本実施の形態は、必要に応じてオペレータOの視線を誘導するための通知を出すオペレータ支援処理(視線誘導支援処理)を提供する。 Since the operator O has a limited field of view, there is a possibility that the operator O will overlook an event requiring attention. Therefore, an operator support process is useful, such as issuing a notice to prompt the operator O to pay attention. In particular, this embodiment provides an operator support process (line-of-sight guidance support process) for issuing a notification for guiding the line of sight of the operator O as necessary.

図1において、「目標視線方向LSt」は、オペレータOの注視を要する方向である。この目標視線方向LStは、移動体Mの置かれたシーンに応じて設定される。例えば、移動体Mが左方向に旋回するシーンでは、目標視線方向LStは正面よりも左方向に設定される。尚、目標視線方向LStの設定ポリシーとしては様々な例が考えられる。目標視線方向LStの様々な設定例については後述される。 In FIG. 1, the "target line-of-sight direction LSt" is the direction that the operator O needs to gaze at. This target line-of-sight direction LSt is set according to the scene in which the moving body M is placed. For example, in a scene in which the moving object M turns leftward, the target line-of-sight direction LSt is set leftward from the front. Various examples are conceivable as the policy for setting the target line-of-sight direction LSt. Various setting examples of the target line-of-sight direction LSt will be described later.

一方、「オペレータ視線方向LSo」は、オペレータOの視線方向である。オペレータ視線方向LSoは、必ずしも目標視線方向LStと一致していない。オペレータ視線方向LSoと目標視線方向LStが大きく乖離している場合、オペレータOの注視を要する事象がオペレータOによって認識されていない可能性が高い。よって、その場合、「視線誘導処理」が実行される。具体的には、オペレータ視線方向LSoから目標視線方向LStに向かう誘導方向がオペレータOに通知される。この誘導方向は、オペレータOの触覚、聴覚、及び視覚の少なくとも一つを通してオペレータOに通知される。 On the other hand, the “operator line-of-sight direction LSo” is the line-of-sight direction of the operator O. FIG. The operator line-of-sight direction LSo does not necessarily match the target line-of-sight direction LSt. When the operator line-of-sight direction LSo and the target line-of-sight direction LSt are greatly deviated, there is a high possibility that the operator O has not recognized an event that requires the operator's O gaze. Therefore, in that case, the "line-of-sight guidance process" is executed. Specifically, the operator O is notified of the guiding direction from the operator line-of-sight direction LSo to the target line-of-sight direction LSt. The guidance direction is notified to the operator O through at least one of the operator's sense of touch, hearing, and sight.

図2は、本実施の形態に係るオペレータ支援処理(視線誘導支援処理)を実行するオペレータ支援システム1の構成例を示すブロック図である。オペレータ支援システム1は、オペレータモニタ10、目標視線方向設定部20、作動条件判定部30、視線誘導処理部40、及び視線誘導装置50を含んでいる。 FIG. 2 is a block diagram showing a configuration example of an operator support system 1 that executes operator support processing (line-of-sight guidance support processing) according to this embodiment. The operator support system 1 includes an operator monitor 10 , a target line-of-sight direction setting section 20 , an operating condition determination section 30 , a line-of-sight guidance processing section 40 and a line-of-sight guidance device 50 .

オペレータモニタ10は、オペレータOの状態を検出する。例えば、オペレータモニタ10は、オペレータOの顔を撮像するカメラを含んでいる。オペレータモニタ10による検出結果に基づいてオペレータ視線方向LSoを算出することができる。すなわち、オペレータモニタ10を用いることによってオペレータ視線方向LSoを取得することができる。 The operator monitor 10 detects the state of the operator O. FIG. For example, operator monitor 10 includes a camera that captures operator O's face. The operator line-of-sight direction LSo can be calculated based on the detection result by the operator monitor 10 . That is, by using the operator monitor 10, the operator line-of-sight direction LSo can be obtained.

図3は、本実施の形態に係るオペレータ支援システム1によるオペレータ支援処理を示すフローチャートである。図3に示される処理フローは、一定サイクル毎に繰り返し実行される。 FIG. 3 is a flowchart showing operator support processing by the operator support system 1 according to this embodiment. The processing flow shown in FIG. 3 is repeatedly executed at fixed cycles.

ステップS10(視線方向取得処理)において、オペレータモニタ10による検出結果に基づいてオペレータ視線方向LSoが得られる。 In step S<b>10 (line-of-sight direction acquisition processing), the operator's line-of-sight direction LSo is obtained based on the detection result of the operator monitor 10 .

ステップS20(目標視線方向設定処理)において、目標視線方向設定部20は、オペレータOの注視を要する目標視線方向LStを設定する。より詳細には、目標視線方向設定部20は、移動体Mの置かれたシーンに応じて目標視線方向LStを設定する。 In step S20 (target line-of-sight direction setting process), the target line-of-sight direction setting unit 20 sets a target line-of-sight direction LSt that requires the operator's O gaze. More specifically, the target line-of-sight direction setting unit 20 sets the target line-of-sight direction LSt according to the scene in which the moving object M is placed.

ステップS30(作動条件判定処理)において、作動条件判定部30は、オペレータ視線方向LSoと目標視線方向LStに基づいて、視線誘導処理の作動条件が成立するか否かを判定する。ここで、視線誘導処理の作動条件は、オペレータ視線方向LSoと目標視線方向LStとの間の乖離度Dが閾値Dthを超えていることである。乖離度Dの算出方法としては、様々な例が考えられる。乖離度Dの様々な例について後述される。乖離度Dが閾値Dthを超えている場合(ステップS30;Yes)、処理は、ステップS40に進む。それ以外の場合(ステップS30;No)、ステップS40は実行されず、今回のサイクルにおける処理は終了する。 In step S30 (operation condition determination process), the operation condition determination unit 30 determines whether or not the operation condition for the line-of-sight guidance process is satisfied based on the operator line-of-sight direction LSo and the target line-of-sight direction LSt. Here, the operating condition of the line-of-sight guidance processing is that the degree of divergence D between the operator line-of-sight direction LSo and the target line-of-sight direction LSt exceeds a threshold value Dth. Various examples are conceivable as a method for calculating the degree of divergence D. FIG. Various examples of the degree of divergence D are described below. If the deviation D exceeds the threshold Dth (step S30; Yes), the process proceeds to step S40. Otherwise (step S30; No), step S40 is not executed, and the process in this cycle ends.

ステップS40(視線誘導処理)において、視線誘導処理部40は、オペレータ視線方向LSoから目標視線方向LStに向かう誘導方向をオペレータOに通知する。この通知に用いられるのが視線誘導装置50である。視線誘導装置50は、オペレータOに情報を伝達するオペレータインタフェースである。例えば、視線誘導装置50は、オペレータOの触覚を通してオペレータOに情報を伝達するハプティックデバイス(haptic device)である。他の例として、視線誘導装置50は、オペレータOの聴覚を通してオペレータOに情報を伝達するスピーカであってもよい。更に他の例として、視線誘導装置50は、オペレータOの視覚を通してオペレータOに情報を伝達するディスプレイであってもよい。視線誘導処理部40は、視線誘導装置50を制御することにより、触覚、聴覚、及び視覚の少なくとも一つを通して誘導方向をオペレータOに通知する。 In step S40 (line-of-sight guidance processing), the line-of-sight guidance processing unit 40 notifies the operator O of the guidance direction from the operator line-of-sight direction LSo to the target line-of-sight direction LSt. The line-of-sight guidance device 50 is used for this notification. The visual guidance device 50 is an operator interface that transmits information to the operator O. FIG. For example, the visual guidance device 50 is a haptic device that transmits information to the operator O through the operator's sense of touch. As another example, the visual guidance device 50 may be a speaker that transmits information to the operator O through the operator's hearing. As yet another example, the visual guidance device 50 may be a display that conveys information to the operator O through the operator's O vision. The visual guidance processing unit 40 notifies the operator O of the guidance direction through at least one of tactile, auditory, and visual sensations by controlling the visual guidance device 50 .

以上に説明されたように、本実施の形態に係るオペレータ支援処理では、オペレータ視線方向LSoと、オペレータOの注視を要する目標視線方向LStが考慮される。オペレータ視線方向LSoと目標視線方向LStとの間の乖離度Dが閾値Dthを超える場合、オペレータOの注視を要する事象がオペレータOによって認識されていない可能性が高い。よって、その場合、オペレータ視線方向LSoから目標視線方向LStに向かう誘導方向がオペレータOに通知される。これにより、オペレータOが目標視線方向LStの方に視線を向け、注視を要する事象を認識することが期待される。 As described above, in the operator support processing according to the present embodiment, the operator line-of-sight direction LSo and the target line-of-sight direction LSt requiring the operator's O gaze are considered. If the degree of divergence D between the operator line-of-sight direction LSo and the target line-of-sight direction LSt exceeds the threshold value Dth, there is a high possibility that the operator O has not recognized an event that requires the operator's attention. Therefore, in that case, the operator O is notified of the guiding direction from the operator line-of-sight direction LSo to the target line-of-sight direction LSt. As a result, it is expected that the operator O will turn his or her line of sight toward the target line-of-sight direction LSt and recognize an event requiring attention.

一般に、オペレータOによる移動体Mの操作は、「1.認識」、「2.判断」、「3.操作」の順番に進む。比較例として、上記の特許文献1に開示された技術によれば、「3.操作」が無いことを検知して初めて通知が出される。一方、本実施の形態によれば、「1.認識」が無いことをトリガーとして通知が出される。すなわち、本実施の形態によれば、比較例よりも早いタイミングでオペレータOに対する支援が行われる。その結果、オペレータOは、より早いタイミングで、注視を要する事象を認識することが可能となる。従って、オペレータOによる移動体Mの操作/遠隔操作の精度が向上する。これは、オペレータ支援が効果的に行われていることを意味する。 In general, the operation of the moving object M by the operator O proceeds in the order of "1. Recognition", "2. Judgment", and "3. Operation". As a comparative example, according to the technology disclosed in Patent Document 1 above, a notification is issued only after detecting that there is no "3. operation". On the other hand, according to the present embodiment, the notification is issued with the absence of "1. Recognition" as a trigger. That is, according to the present embodiment, assistance to the operator O is provided earlier than in the comparative example. As a result, the operator O can recognize an event requiring attention at an earlier timing. Therefore, the accuracy of operation/remote control of the moving body M by the operator O is improved. This means that operator assistance is effective.

他の比較例として、注視を要する事象が検知された場合に常に通知が出される場合を考える。この比較例の場合、オペレータOは通知に対して煩わしさを感じる。何故なら、オペレータOが、注視を要する事象に既に気付いている場合もあるからである。一方、本実施の形態によれば、オペレータ視線方向LSoと目標視線方向LStとの間の乖離度Dが閾値Dthを超える場合に、視線誘導処理が行われる。無条件にではなく、必要に応じて視線誘導処理が行われるため、オペレータOが煩わしさを感じることが抑制される。 As another comparison, consider a notification whenever an event requiring attention is detected. In this comparative example, the operator O feels annoyed by the notification. This is because the operator O may already be aware of an event requiring attention. On the other hand, according to the present embodiment, the line-of-sight guidance process is performed when the degree of divergence D between the operator line-of-sight direction LSo and the target line-of-sight direction LSt exceeds the threshold value Dth. Since the line-of-sight guidance process is performed not unconditionally but as needed, the operator O is prevented from feeling annoyed.

以下、本実施の形態に係るオペレータ支援システム1及びオペレータ支援処理について更に詳しく説明する。尚、以下では、移動体Mが車両Vである場合を考える。車両V以外の移動体Mの場合も同様である。 The operator support system 1 and operator support processing according to the present embodiment will be described in more detail below. In addition, below, the case where the mobile body M is the vehicle V is considered. The same applies to mobile bodies M other than vehicles V. FIG.

2.目標視線方向設定処理(ステップS20)の例
上述の通り、オペレータOの注視を要する目標視線方向LStは、車両Vの置かれたシーンに応じて設定される。車両Vの置かれたシーンは、車両Vの運転環境に基づいて把握することができる。目標視線方向設定部20は、車両Vの運転環境を示す運転環境情報200に基づいて、目標視線方向LStを設定する。
2. Example of Target Line-of-Sight Direction Setting Processing (Step S20) As described above, the target line-of-sight direction LSt that requires the gaze of the operator O is set according to the scene in which the vehicle V is placed. The scene in which the vehicle V is placed can be grasped based on the driving environment of the vehicle V. FIG. The target line-of-sight direction setting unit 20 sets the target line-of-sight direction LSt based on the driving environment information 200 indicating the driving environment of the vehicle V. FIG.

図4は、運転環境情報200の例を示すブロック図である。運転環境情報200は、周辺状況情報210、車両状態情報220、地図情報230、車両位置情報240、目標ルート情報250、等を含んでいる。 FIG. 4 is a block diagram showing an example of the driving environment information 200. As shown in FIG. The driving environment information 200 includes surrounding situation information 210, vehicle state information 220, map information 230, vehicle position information 240, target route information 250, and the like.

周辺状況情報210は、車両Vの周囲の状況を示す情報である。周辺状況情報210は、車両Vに搭載された認識センサにより得られる。認識センサとしては、カメラ、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等が例示される。例えば、周辺状況情報210は、カメラによって撮像される画像情報を含む。他の例として、周辺状況情報210は、LIDARによって得られる点群情報を含む。 The surrounding situation information 210 is information indicating the surrounding situation of the vehicle V. FIG. The surrounding situation information 210 is obtained by a recognition sensor mounted on the vehicle V. FIG. Examples of the recognition sensor include a camera, LIDAR (Laser Imaging Detection and Ranging), radar, and the like. For example, surroundings information 210 includes image information captured by a camera. As another example, the surroundings information 210 includes point cloud information obtained by LIDAR.

周辺状況情報210は、更に、車両Vの周囲の物体に関する物体情報215を含んでいる。物体としては、歩行者、自転車、他車両(先行車両、後続車両、駐車車両、等)、道路構成(白線、横断歩道、縁石、ガードレール、等)、信号機、標識、落下物、等が例示される。物体情報215は、車両Vに対する物体の相対位置(相対方向)及び相対速度を示す。例えば、カメラによって得られた画像情報を解析することによって、物体を識別し、その物体の相対位置を算出することができる。また、LIDARによって得られた点群情報に基づいて、物体を識別し、その物体の相対位置と相対速度を取得することもできる。物体情報215は、物体の移動方向や移動速度を含んでいてもよい。 Surroundings information 210 further includes object information 215 about objects in the vehicle V's surroundings. Examples of objects include pedestrians, bicycles, other vehicles (leading vehicle, following vehicle, parked vehicle, etc.), road structure (white lines, crosswalks, curbs, guardrails, etc.), traffic lights, signs, falling objects, etc. be. The object information 215 indicates the relative position (relative direction) and relative speed of the object with respect to the vehicle V. FIG. For example, by analyzing image information obtained by a camera, an object can be identified and the relative position of the object can be calculated. Also, based on the point cloud information obtained by LIDAR, an object can be identified and the relative position and relative velocity of the object can be obtained. The object information 215 may include the moving direction and moving speed of the object.

車両状態情報220は、車両Vの状態を示す情報である。車両Vの状態としては、速度、加速度、ヨーレート、操舵角、ウィンカー状態、等が例示される。車両状態情報220は、車両Vの運転モード(自動運転/手動運転)を含んでいてもよい。 The vehicle state information 220 is information indicating the state of the vehicle V. FIG. The state of the vehicle V is exemplified by speed, acceleration, yaw rate, steering angle, winker state, and the like. The vehicle state information 220 may include the driving mode of the vehicle V (automatic driving/manual driving).

地図情報230は、一般的なナビゲーション地図を含む。地図情報230は、レーン配置、道路形状、等を示していてもよい。地図情報230は、ランドマーク、信号機、標識、等の位置情報を含んでいてもよい。地図情報230は、地図データベースから得られる。尚、地図データベースは、車両Vの記憶装置に格納されていてもよいし、外部の管理サーバに格納されていてもよい。 Map information 230 includes a general navigation map. Map information 230 may indicate lane layout, road geometry, and the like. Map information 230 may include location information for landmarks, traffic lights, signs, and the like. Map information 230 is obtained from a map database. The map database may be stored in the storage device of the vehicle V, or may be stored in an external management server.

車両位置情報240は、車両Vの位置を示す情報である。例えば、車両位置情報240は、車両Vに搭載された位置センサ(例:GNSS(Global Navigation Satellite System))により得られる。また、物体情報215と地図情報230を利用した周知の自己位置推定処理(Localization)によって、高精度な車両位置情報240が取得されてもよい。 The vehicle position information 240 is information indicating the position of the vehicle V. FIG. For example, the vehicle position information 240 is obtained by a position sensor mounted on the vehicle V (eg, GNSS (Global Navigation Satellite System)). Further, highly accurate vehicle position information 240 may be acquired by well-known self-position estimation processing (localization) using object information 215 and map information 230 .

目標ルート情報250は、車両Vの目標ルートを示す。例えば、目標ルートは、車両Vに搭載されたナビゲーションシステムによって設定される。他の例として、目標ルートは、車両Vの自動運転を制御する自動運転システムによって決定されてもよい。 The target route information 250 indicates the target route of the vehicle V. FIG. For example, the target route is set by the navigation system mounted on the vehicle V. FIG. As another example, the target route may be determined by an automated driving system that controls automated driving of the vehicle V. FIG.

図5は、目標視線方向設定処理(ステップS20)の一例を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining an example of the target line-of-sight direction setting process (step S20).

ステップS200において、目標視線方向設定部20は、車両Vの前方(直近)の信号が赤信号/黄信号か否かを判定する。信号機及びその点灯状態は、周辺状況情報210(物体情報215、カメラにより得られる画像情報)に基づいて認識可能である。車両Vの前方の信号が赤信号あるいは黄信号である場合(ステップS200;Yes)、目標視線方向設定部20は、当該赤信号あるいは黄信号の方向LSt_1を目標視線方向LStとして設定する(ステップS201)。それ以外の場合(ステップS200;No)、処理は、ステップS202に進む。 In step S200, the target line-of-sight direction setting unit 20 determines whether or not the signal ahead (nearest) of the vehicle V is a red/yellow signal. A traffic light and its lighting state can be recognized based on surrounding situation information 210 (object information 215, image information obtained by a camera). If the signal in front of the vehicle V is a red light or yellow light (step S200; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_1 of the red light or yellow light as the target line-of-sight direction LSt (step S201 ). Otherwise (step S200; No), the process proceeds to step S202.

ステップS202において、目標視線方向設定部20は、車両位置情報240と地図情報230に基づいて、車両Vが交差点に差し掛かっているか否かを判定する。車両Vが交差点に差し掛かっている場合(ステップS202;Yes)、処理は、ステップS203に進む。それ以外の場合(ステップS202;No)は、処理は、直進シーン用の処理(C;図8参照)に進む。 In step S<b>202 , the target line-of-sight direction setting unit 20 determines whether or not the vehicle V is approaching an intersection based on the vehicle position information 240 and the map information 230 . If the vehicle V is approaching the intersection (step S202; Yes), the process proceeds to step S203. Otherwise (step S202; No), the process proceeds to the straight-ahead scene process (C; see FIG. 8).

ステップS203において、目標視線方向設定部20は、交差点を通過する車両Vの進行方向(左折、右折、あるいは直進)を判定する。例えば、進行方向は、目標ルート情報250から得られる。他の例として、進行方向は、車両状態情報220で示されるウィンカ状態(ウィンカレバーの操作方向)から得られる。左折の場合、処理は、左折シーン用の処理(A;図6参照)に進む。右折の場合、処理は、右折シーン用の処理(B;図7参照)に進む。直進の場合、処理は、直進シーン用の処理(C;図8参照)に進む。 In step S203, the target line-of-sight direction setting unit 20 determines the traveling direction (left turn, right turn, or straight ahead) of the vehicle V passing through the intersection. For example, the direction of travel is obtained from the target route information 250 . As another example, the direction of travel can be obtained from the winker state (operating direction of the winker lever) indicated by the vehicle state information 220 . If it is a left turn, the process proceeds to left turn scene processing (A; see FIG. 6). If it is a right turn, the process proceeds to the right turn scene process (B; see FIG. 7). In the case of straight ahead, the process proceeds to straight ahead scene processing (C; see FIG. 8).

図6は、左折シーン用の処理の一例を示すフローチャートである。 FIG. 6 is a flow chart showing an example of processing for a left turn scene.

ステップS210において、目標視線方向設定部20は、左折時に車両Vが巻き込む可能性がある“巻き込み車両”が存在するか否かを判定する。巻き込み車両は、物体情報215に基づいて認識可能である。巻き込み車両が存在する場合(ステップS210;Yes)、目標視線方向設定部20は、その巻き込み車両の方向LSt_2を目標視線方向LStとして設定する(ステップS211)。それ以外の場合(ステップS210;No)、処理は、ステップS212に進む。 In step S210, the target line-of-sight direction setting unit 20 determines whether or not there is a "trapped vehicle" that the vehicle V may be involved in when turning left. The involved vehicle can be recognized based on the object information 215 . If there is a vehicle involved (step S210; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_2 of the vehicle involved as the target line-of-sight direction LSt (step S211). Otherwise (step S210; No), the process proceeds to step S212.

ステップS212において、目標視線方向設定部20は、左折方向に横断歩道が存在するか否かを判定する。横断歩道は、物体情報215に基づいて認識可能である。横断歩道が存在する場合(ステップS212;Yes)、目標視線方向設定部20は、その横断歩道の方向LSt_3を目標視線方向LStとして設定する(ステップS213)。それ以外の場合(ステップS212;No)、処理は、ステップS214に進む。尚、巻き込み車両の方向LSt_2と横断歩道の方向LSt_3を比較すると、巻き込み車両の方向LSt_2の方がより左側となる。 In step S212, the target line-of-sight direction setting unit 20 determines whether or not there is a pedestrian crossing in the left turn direction. Crosswalks can be recognized based on object information 215 . If a crosswalk exists (step S212; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_3 of the crosswalk as the target line-of-sight direction LSt (step S213). Otherwise (step S212; No), the process proceeds to step S214. Comparing the direction LSt_2 of the trapped vehicle and the direction LSt_3 of the pedestrian crossing, the direction LSt_2 of the trapped vehicle is further to the left.

ステップS214において、目標視線方向設定部20は、地図情報230及び車両位置情報240に基づいて、交差点角度(交差点で道路が交わる角度)を検知する。そして、目標視線方向設定部20は、交差点角度に基づいて、左折先の道路の方向LSt_4を目標視線方向LStとして設定する(ステップS215)。 In step S<b>214 , the target line-of-sight direction setting unit 20 detects the intersection angle (the angle at which the roads intersect at the intersection) based on the map information 230 and the vehicle position information 240 . Based on the intersection angle, the target line-of-sight direction setting unit 20 sets the direction LSt_4 of the left turn road as the target line-of-sight direction LSt (step S215).

図7は、右折シーン用の処理の一例を示すフローチャートである。 FIG. 7 is a flow chart showing an example of processing for a right turn scene.

ステップS220において、目標視線方向設定部20は、対向車線に対向車両が存在するか否かを判定する。対向車両は、物体情報215に基づいて認識可能である。対向車両が存在する場合(ステップS220;Yes)、目標視線方向設定部20は、その対向車両の方向LSt_5を目標視線方向LStとして設定する(ステップS221)。それ以外の場合(ステップS220;No)、処理は、ステップS222に進む。 In step S220, the target line-of-sight direction setting unit 20 determines whether or not there is an oncoming vehicle in the oncoming lane. Oncoming vehicles can be recognized based on object information 215 . If there is an oncoming vehicle (step S220; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_5 of the oncoming vehicle as the target line-of-sight direction LSt (step S221). Otherwise (step S220; No), the process proceeds to step S222.

ステップS220において、目標視線方向設定部20は、右折方向に横断歩道が存在するか否かを判定する。横断歩道は、物体情報215に基づいて認識可能である。横断歩道が存在する場合(ステップS222;Yes)、目標視線方向設定部20は、その横断歩道の方向LSt_6を目標視線方向LStとして設定する(ステップS223)。それ以外の場合(ステップS222;No)、処理は、ステップS224に進む。 In step S220, the target line-of-sight direction setting unit 20 determines whether or not there is a pedestrian crossing in the right-turn direction. Crosswalks can be recognized based on object information 215 . If there is a crosswalk (step S222; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_6 of the crosswalk as the target line-of-sight direction LSt (step S223). Otherwise (step S222; No), the process proceeds to step S224.

ステップS224において、目標視線方向設定部20は、右折方向に障害物が存在するか否かを判定する。障害物としては、歩行者、自転車、先行車両、駐車車両、落下物、等が例示される。障害物は、物体情報215に基づいて認識可能である。障害物が存在する場合(ステップS224;Yes)、目標視線方向設定部20は、その障害物の方向LSt_7を目標視線方向LStとして設定する(ステップS225)。それ以外の場合(ステップS224;No)、処理は、ステップS226に進む。 In step S224, the target line-of-sight direction setting unit 20 determines whether or not an obstacle exists in the right turn direction. Examples of obstacles include pedestrians, bicycles, preceding vehicles, parked vehicles, falling objects, and the like. Obstacles can be recognized based on object information 215 . If an obstacle exists (step S224; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_7 of the obstacle as the target line-of-sight direction LSt (step S225). Otherwise (step S224; No), the process proceeds to step S226.

ステップS226において、目標視線方向設定部20は、地図情報230及び車両位置情報240に基づいて、交差点角度(交差点で道路が交わる角度)を検知する。そして、目標視線方向設定部20は、交差点角度に基づいて、右折先の道路の方向LSt_8を目標視線方向LStとして設定する(ステップS227)。 In step S<b>226 , the target line-of-sight direction setting unit 20 detects the intersection angle (the angle at which the roads intersect at the intersection) based on the map information 230 and the vehicle position information 240 . Then, the target line-of-sight direction setting unit 20 sets the direction LSt_8 of the right turn destination road as the target line-of-sight direction LSt based on the intersection angle (step S227).

図8は、直進シーン用の処理の一例を示すフローチャートである。 FIG. 8 is a flow chart showing an example of processing for a straight-ahead scene.

ステップS230において、目標視線方向設定部20は、車両Vの前方に障害物が存在するか否かを判定する。障害物としては、歩行者、自転車、先行車両、駐車車両、落下物、等が例示される。障害物は、物体情報215に基づいて認識可能である。障害物が存在する場合(ステップS230;Yes)、処理は、ステップS231に進む。それ以外の場合(ステップS230;No)、処理は、ステップS233に進む。 In step S<b>230 , the target line-of-sight direction setting unit 20 determines whether or not an obstacle exists in front of the vehicle V. Examples of obstacles include pedestrians, bicycles, preceding vehicles, parked vehicles, falling objects, and the like. Obstacles can be recognized based on object information 215 . If an obstacle exists (step S230; Yes), the process proceeds to step S231. Otherwise (step S230; No), the process proceeds to step S233.

ステップS231において、目標視線方向設定部20は、物体情報215に基づいて、各障害物までの距離を算出する。ステップS232において、目標視線方向設定部20は、各障害物までの距離に基づいて、目標視線方向LStを設定する。例えば、目標視線方向設定部20は、車両Vに最も近い障害物の方向LSt_9を目標視線方向LStとして設定する。 In step S<b>231 , the target line-of-sight direction setting unit 20 calculates the distance to each obstacle based on the object information 215 . In step S232, the target line-of-sight direction setting unit 20 sets the target line-of-sight direction LSt based on the distance to each obstacle. For example, the target line-of-sight direction setting unit 20 sets the direction LSt_9 of the obstacle closest to the vehicle V as the target line-of-sight direction LSt.

ステップS233において、目標視線方向設定部20は、後続車両が存在するか否かを判定する。後続車両は、物体情報215に基づいて認識可能である。後続車両が存在する場合(ステップS233;Yes)、目標視線方向設定部20は、その後続車両の方向LSt_10を目標視線方向LStとして設定する(ステップS234)。それ以外の場合(ステップS233;No)、処理は、ステップS235に進む。 In step S233, the target line-of-sight direction setting unit 20 determines whether or not there is a following vehicle. A following vehicle can be recognized based on the object information 215 . If there is a following vehicle (step S233; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_10 of the following vehicle as the target line-of-sight direction LSt (step S234). Otherwise (step S233; No), the process proceeds to step S235.

ステップS235において、目標視線方向設定部20は、地図情報230と車両位置情報240に基づいて、隣接車線が合流車線か否かを判定する。隣接車線が合流車線である場合(ステップS235;Yes)、目標視線方向設定部20は、その合流車線の方向LSt_11を目標視線方向LStとして設定する(ステップS236)。それ以外の場合(ステップS235;No)、目標視線方向設定部20は、正面方向LSt_12を目標視線方向LStとして設定する(ステップS237)。 In step S<b>235 , the target line-of-sight direction setting unit 20 determines whether or not the adjacent lane is a merging lane based on the map information 230 and the vehicle position information 240 . If the adjacent lane is a merging lane (step S235; Yes), the target line-of-sight direction setting unit 20 sets the direction LSt_11 of the merging lane as the target line-of-sight direction LSt (step S236). Otherwise (step S235; No), the target line-of-sight direction setting unit 20 sets the front direction LSt_12 as the target line-of-sight direction LSt (step S237).

その他の例として、模範ドライバの視線方向が目標視線方向LStとして用いられてもよい。例えば、各シーンにおける模範ドライバの視線方向が、機械学習を通して、事前にモデル化される。例えば、カメラによって得られる画像情報と模範ドライバの視線方向を学習データとして用いることにより、模範ドライバの視線方向がモデル化される。ステップS20において、目標視線方向設定部20は、カメラによって得られる画像情報とモデルに基づいて、車両Vの置かれたシーンに応じた模範ドライバの視線方向を取得する。そして、目標視線方向設定部20は、取得した模範ドライバの視線方向を目標視線方向LStとして設定する。 As another example, the line-of-sight direction of the model driver may be used as the target line-of-sight direction LSt. For example, the line-of-sight direction of the exemplary driver in each scene is modeled in advance through machine learning. For example, the line-of-sight direction of the model driver is modeled by using image information obtained by a camera and the line-of-sight direction of the model driver as learning data. In step S20, the target line-of-sight direction setting unit 20 acquires the line-of-sight direction of the exemplary driver according to the scene in which the vehicle V is placed, based on the image information obtained by the camera and the model. Then, the target line-of-sight direction setting unit 20 sets the acquired line-of-sight direction of the model driver as the target line-of-sight direction LSt.

3.作動条件判定処理(ステップS30)の例
上述の通り、視線誘導処理の作動条件は、オペレータ視線方向LSoと目標視線方向LStとの間の乖離度Dが閾値Dthを超えていることである。作動条件判定部30は、所定の条件判定期間Tc毎に、オペレータ視線方向LSoと目標視線方向LStに基づいて乖離度Dを算出する。
3. Example of Operating Condition Determining Process (Step S30) As described above, the operating condition of the line-of-sight guidance process is that the divergence D between the operator line-of-sight direction LSo and the target line-of-sight direction LSt exceeds the threshold value Dth. The operating condition determination unit 30 calculates the divergence D based on the operator line-of-sight direction LSo and the target line-of-sight direction LSt for each predetermined condition determination period Tc.

例えば、作動条件判定部30は、オペレータ視線方向LSoと目標視線方向LStのなす角度θ(絶対値)を算出する。作動条件判定部30は、角度θの中から所定の閾値θthを超える角度θxだけを抽出してもよい。作動条件判定部30は、角度θが閾値θthを超える継続時間Txを計測してもよい。乖離度Dとしては、次のような様々な例が考えらえる。
<例1>条件判定期間Tcにおける角度θの和あるいは平均値
<例2>条件判定期間Tcにおける(θx-θth)の和あるいは平均値
<例3>条件判定期間Tcにおける継続時間Txの和
<例4>条件判定期間Tcにおける(θx-θth)×Txの和
For example, the operating condition determination unit 30 calculates the angle θ (absolute value) formed by the operator line-of-sight direction LSo and the target line-of-sight direction LSt. The operating condition determination unit 30 may extract only the angles θx exceeding a predetermined threshold θth from the angles θ. The operating condition determination unit 30 may measure the duration Tx during which the angle θ exceeds the threshold θth. As the degree of divergence D, the following various examples can be considered.
<Example 1> Sum or average value of angles θ during condition determination period Tc <Example 2> Sum or average value of (θx−θth) during condition determination period Tc <Example 3> Sum of duration Tx during condition determination period Tc < Example 4> sum of (θx−θth)×Tx in condition determination period Tc

閾値Dthあるいは閾値θthを調整することによって、作動条件の感度を調整することができる。閾値を下げて感度を上げることにより、視線誘導処理までの時間を短縮して、オペレータOを素早く対応させることができる。逆に、閾値を上げて感度を下げることにより、視線誘導処理の誤作動や不要作動を抑制することができる。 By adjusting the threshold Dth or the threshold θth, the sensitivity of the operating conditions can be adjusted. By lowering the threshold value and increasing the sensitivity, it is possible to shorten the time until the line-of-sight guidance process and allow the operator O to respond quickly. Conversely, by raising the threshold value and lowering the sensitivity, it is possible to suppress erroneous operations and unnecessary operations of the visual guidance processing.

一例として、車両Vが自動運転モードと遠隔運転モードの両方に対応している場合について考える。自動運転モードから遠隔運転モードに切り替わる場合、遠隔運転オペレータは、車両Vの周囲の状況を素早く認識、確認する必要がある。その点、注視を要する方向である目標視線方向LStは、まず確認すべき方向を示していると言える。よって、自動運転モードから遠隔運転モードへの切り替わり(遷移)から一定期間の間、その他の期間よりも閾値を下げて感度を上げることが考えられる。これにより、遠隔オペレータの視線が目標視線方向LStにより早く向きやすくなり、遠隔オペレータは注視を要する事象を素早く認識、確認しやすくなる。 As an example, consider a case where the vehicle V is compatible with both the automatic driving mode and the remote driving mode. When switching from the automatic driving mode to the remote driving mode, the remote driving operator needs to quickly recognize and confirm the surrounding conditions of the vehicle V. In this regard, it can be said that the target line-of-sight direction LSt, which is the direction requiring gaze, indicates the direction to be checked first. Therefore, it is conceivable to increase the sensitivity by lowering the threshold for a certain period of time after switching (transition) from the automatic operation mode to the remote operation mode, compared to other periods. This makes it easier for the remote operator's line of sight to turn to the target line-of-sight direction LSt more quickly, so that the remote operator can quickly recognize and confirm events that require his or her attention.

4.視線誘導処理(ステップS40)の例
視線誘導処理部40は、視線誘導装置50を制御することにより、オペレータ視線方向LSoから目標視線方向LStに向かう誘導方向をオペレータOに通知する。視線誘導処理部40は、乖離度Dが大きくなるにつれて視線誘導装置50の制御量を増加させてもよい。以下、視線誘導処置及び視線誘導装置50の様々な例を説明する。
4. Example of Line-of-Sight Guidance Processing (Step S40) The line-of-sight guidance processing unit 40 notifies the operator O of the guidance direction from the operator line-of-sight direction LSo to the target line-of-sight direction LSt by controlling the line-of-sight guidance device 50 . The visual guidance processing unit 40 may increase the control amount of the visual guidance device 50 as the degree of divergence D increases. Various examples of eye guidance treatments and eye guidance devices 50 are described below.

図9及び図10に示される例では、視線誘導装置50は、触覚を通してオペレータOに情報を伝達するハプティックデバイスである。図9に示される例では、視線誘導装置50は、オペレータOが頭部に装着する眼鏡である。例えば、視線を左方向に誘導する場合、眼鏡の左側のフレームが振動する。図10に示される例では、視線誘導装置50は、オペレータOが座るシートである。例えば、視線を左方向に誘導する場合、シートの左側が振動する。乖離度Dが大きくなるにつれて振動強度が強くなってもよい。触覚を通した視線誘導は、オペレータOにとって直感的で分かりやすい。 In the examples shown in FIGS. 9 and 10, the visual guidance device 50 is a haptic device that transmits information to the operator O through touch. In the example shown in FIG. 9, the visual guidance device 50 is glasses that the operator O wears on his head. For example, when guiding the line of sight to the left, the left frame of the glasses vibrates. In the example shown in FIG. 10, the visual guidance device 50 is a seat on which the operator O sits. For example, when guiding the line of sight to the left, the left side of the seat vibrates. The vibration intensity may increase as the degree of divergence D increases. Guidance of the line of sight through the sense of touch is intuitive and easy for the operator O to understand.

図11に示される例では、視線誘導装置50は、聴覚を通してオペレータOに情報を伝達するスピーカである。例えば、目標視線方向LStに位置するスピーカーから音が発生する。これにより、オペレータは、目標視線方向LStを精度良く注視することができる。 In the example shown in FIG. 11, the visual guidance device 50 is a speaker that transmits information to the operator O through hearing. For example, a sound is generated from a speaker positioned in the target line-of-sight direction LSt. This allows the operator to accurately gaze at the target line-of-sight direction LSt.

図12に示される例では、視線誘導装置50は、視覚を通してオペレータOに情報を伝達するディスプレイである。例えば、オペレータ視線方向LSoから目標視線方向LStに向かう誘導方向を示す矢印がディスプレイに表示される。 In the example shown in FIG. 12, the visual guidance device 50 is a display that conveys information to the operator O through vision. For example, an arrow indicating the guidance direction from the operator line-of-sight direction LSo to the target line-of-sight direction LSt is displayed on the display.

尚、オペレータOの視野範囲には限界があるため、オペレータOはディスプレイに表示される情報を見逃すおそれがある。見逃し防止の観点から言えば、触覚あるいは聴覚を通した視線誘導処理が好適である。 Since the operator O has a limited field of view, the operator O may miss the information displayed on the display. From the viewpoint of preventing overlooking, visual guidance processing through touch or sound is preferable.

5.車両制御システム
図13は、本実施の形態に係る車両制御システム100の構成例を示すブロック図である。車両制御システム100は、車両Vに搭載されており、車両Vを制御する。車両制御システム100は、オペレータモニタ10、視線誘導装置50、通信装置110、センサ群120、走行装置130、及び制御装置150を備えている。
5. Vehicle Control System FIG. 13 is a block diagram showing a configuration example of a vehicle control system 100 according to the present embodiment. A vehicle control system 100 is mounted on a vehicle V and controls the vehicle V. FIG. The vehicle control system 100 includes an operator monitor 10 , a visual guidance device 50 , a communication device 110 , a sensor group 120 , a travel device 130 and a control device 150 .

通信装置110は、車両Vの外部と通信を行う。例えば、通信装置110は、車両Vの遠隔運転を行う遠隔運転装置と通信を行う。 The communication device 110 communicates with the outside of the vehicle V. FIG. For example, the communication device 110 communicates with a remote driving device that remotely drives the vehicle V. FIG.

センサ群120は、認識センサ、車両状態センサ、位置センサ、等を含んでいる。認識センサは、車両Vの周辺の状況を認識(検出)する。認識センサとしては、カメラ、LIDAR、レーダ、等が例示される。車両状態センサは、車両Vの状態を検出する。車両状態センサは、速度センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいる。位置センサは、車両Vの位置を検出する。 The sensor group 120 includes recognition sensors, vehicle state sensors, position sensors, and the like. The recognition sensor recognizes (detects) the situation around the vehicle V. FIG. Examples of recognition sensors include cameras, LIDAR, radar, and the like. A vehicle state sensor detects the state of the vehicle V. FIG. Vehicle state sensors include speed sensors, acceleration sensors, yaw rate sensors, steering angle sensors, and the like. A position sensor detects the position of the vehicle V. FIG.

走行装置130は、操舵装置、駆動装置、及び制動装置を含んでいる。操舵装置は、車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータ、等が例示される。制動装置は、制動力を発生させる。 Traveling device 130 includes a steering device, a driving device, and a braking device. The steering device steers the wheels. For example, the steering system includes a power steering (EPS: Electric Power Steering) system. A driving device is a power source that generates a driving force. An engine, an electric motor, an in-wheel motor, etc. are illustrated as a drive device. A braking device generates a braking force.

制御装置150は、車両Vを制御する。制御装置150は、1又は複数のプロセッサ160(以下、単にプロセッサ160と呼ぶ)と1又は複数の記憶装置170(以下、単に記憶装置170と呼ぶ)を含んでいる。プロセッサ160は、各種処理を実行する。例えば、プロセッサ160は、CPU(Central Processing Unit)を含んでいる。記憶装置170は、プロセッサ160による処理に必要な各種情報を格納する。記憶装置170としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。制御装置150は、1又は複数のECU(Electronic Control Unit)を含んでいてもよい。 Control device 150 controls vehicle V. FIG. The controller 150 includes one or more processors 160 (hereinafter simply processors 160) and one or more storage devices 170 (hereinafter simply storage devices 170). Processor 160 executes various processes. For example, processor 160 includes a CPU (Central Processing Unit). The storage device 170 stores various information necessary for processing by the processor 160 . Examples of the storage device 170 include volatile memory, nonvolatile memory, HDD (Hard Disk Drive), SSD (Solid State Drive), and the like. The control device 150 may include one or more ECUs (Electronic Control Units).

車両制御プログラム180は、プロセッサ160によって実行されるコンピュータプログラムである。プロセッサ160が車両制御プログラム180を実行することにより、制御装置150の機能が実現される。車両制御プログラム180は、記憶装置170に格納される。あるいは、車両制御プログラム180は、コンピュータ読み取り可能な記録媒体に記録されてもよい。 Vehicle control program 180 is a computer program executed by processor 160 . The functions of control device 150 are implemented by processor 160 executing vehicle control program 180 . Vehicle control program 180 is stored in storage device 170 . Alternatively, vehicle control program 180 may be recorded on a computer-readable recording medium.

制御装置150は、センサ群120を用いて、車両Vの運転環境を示す運転環境情報200(図4参照)を取得する。運転環境情報200は、記憶装置170に格納される。 The control device 150 acquires the driving environment information 200 (see FIG. 4) indicating the driving environment of the vehicle V using the sensor group 120 . Driving environment information 200 is stored in storage device 170 .

また、制御装置150は、車両Vの走行を制御する車両走行制御を実行する。車両走行制御は、操舵制御、駆動制御、及び制動制御を含む。制御装置150は、走行装置130(操舵装置、駆動装置、及び制動装置)を制御することによって車両走行制御を実行する。 Further, the control device 150 executes vehicle travel control for controlling travel of the vehicle V. FIG. Vehicle travel control includes steering control, drive control, and braking control. Control device 150 executes vehicle travel control by controlling travel device 130 (steering device, drive device, and braking device).

制御装置150は、運転環境情報200に基づいて自動運転制御を行ってもよい。より詳細には、制御装置150は、運転環境情報200に基づいて、車両Vの走行プランを生成する。走行プランは、現在の走行車線を維持する、車線変更を行う、右左折を行う、障害物を回避する、等が例示される。更に、制御装置150は、運転環境情報200に基づいて、車両Vが走行プランに従って走行するために必要な目標トラジェクトリを生成する。目標トラジェクトリは、目標位置及び目標速度を含んでいる。そして、制御装置150は、車両Vが目標トラジェクトリに追従するように車両走行制御を行う。 The control device 150 may perform automatic driving control based on the driving environment information 200 . More specifically, control device 150 generates a travel plan for vehicle V based on driving environment information 200 . The driving plan is exemplified by maintaining the current driving lane, changing lanes, turning left or right, avoiding obstacles, and the like. Furthermore, based on the driving environment information 200, the control device 150 generates a target trajectory required for the vehicle V to travel according to the travel plan. A target trajectory includes a target position and a target velocity. Then, the control device 150 performs vehicle travel control so that the vehicle V follows the target trajectory.

更に、制御装置150は、オペレータモニタ10を用いてオペレータ視線方向LSoを取得する。制御装置150は、運転環境情報200に基づいて目標視線方向LStを設定する。制御装置150は、視線誘導処理の作動条件が成立するか否かを判定する。作動条件が成立する場合、制御装置150は、視線誘導装置50を制御することにより視線誘導処理を行う。すなわち、図2で示された目標視線方向設定部20、作動条件判定部30、及び視線誘導処理部40は、制御装置150によって実現される。車両制御システム100は、図2で示されたオペレータ支援システム1に相当する。 Furthermore, the control device 150 uses the operator monitor 10 to acquire the operator line-of-sight direction LSo. The control device 150 sets the target line-of-sight direction LSt based on the driving environment information 200 . The control device 150 determines whether or not the operating conditions for the line-of-sight guidance process are satisfied. When the operating condition is satisfied, the control device 150 performs the visual guidance processing by controlling the visual guidance device 50 . That is, the target line-of-sight direction setting unit 20, the operating condition determination unit 30, and the line-of-sight guidance processing unit 40 shown in FIG. A vehicle control system 100 corresponds to the operator support system 1 shown in FIG.

6.遠隔運転システム
次に、オペレータOが車両Vの遠隔運転を行う場合を考える。この場合、車両制御システム100はオペレータモニタ10及び視線誘導装置50を含んでいなくてもよい。
6. Remote Driving System Next, consider a case where the operator O remotely drives the vehicle V. FIG. In this case, the vehicle control system 100 does not have to include the operator monitor 10 and the visual guidance device 50 .

図14は、本実施の形態に係る遠隔運転システムを説明するための概念図である。遠隔運転システムは、車両Vと遠隔運転装置300を含んでいる。遠隔運転装置300は、オペレータO(遠隔オペレータ)が車両Vを遠隔運転する際に操作する装置である。車両V(車両制御システム100)と遠隔運転装置300は、通信ネットワークを介して通信可能である。 FIG. 14 is a conceptual diagram for explaining the remote operation system according to this embodiment. A remote driving system includes a vehicle V and a remote driving device 300 . The remote driving device 300 is a device operated by an operator O (remote operator) when the vehicle V is remotely driven. Vehicle V (vehicle control system 100) and remote operation device 300 can communicate via a communication network.

車両制御システム100は、運転環境情報200の少なくとも一部を含む車両情報VCLを遠隔運転装置300に送信する。車両情報VCLは、少なくとも、カメラによって撮像された画像情報及び物体情報215を含んでいる。車両情報VCLは、周辺状況情報210、車両状態情報220、車両位置情報240、目標ルート情報250を含んでいてもよい。遠隔運転装置300は、車両情報VCLを受け取る。遠隔運転装置300は、車両情報VCLや地図情報を表示装置に表示する。オペレータOは、表示装置に表示された情報を参考にしながら、車両Vの遠隔運転を行う。遠隔運転装置300は、オペレータOによる操作量を示す操作情報OPEを車両制御システム100に送信する。車両制御システム100(制御装置150)は、受け取った操作情報OPEに従って、上述の車両走行制御を行う。 The vehicle control system 100 transmits vehicle information VCL including at least part of the driving environment information 200 to the remote driving device 300 . The vehicle information VCL includes at least image information captured by the camera and object information 215 . The vehicle information VCL may include surrounding situation information 210 , vehicle state information 220 , vehicle position information 240 and target route information 250 . The remote driving device 300 receives the vehicle information VCL. The remote driving device 300 displays the vehicle information VCL and map information on the display device. The operator O remotely drives the vehicle V while referring to the information displayed on the display device. The remote operation device 300 transmits operation information OPE indicating the amount of operation by the operator O to the vehicle control system 100 . The vehicle control system 100 (control device 150) performs the above-described vehicle travel control according to the received operation information OPE.

図15は、本実施の形態に係る遠隔運転装置300の構成例を示すブロック図である。遠隔運転装置300は、オペレータモニタ10、視線誘導装置50、通信装置310、表示装置320、遠隔操作部材330、及び制御装置350を含んでいる。 FIG. 15 is a block diagram showing a configuration example of the remote operation device 300 according to this embodiment. The remote operation device 300 includes an operator monitor 10 , a visual guidance device 50 , a communication device 310 , a display device 320 , a remote control member 330 and a control device 350 .

通信装置310は、車両V(車両制御システム100)と通信を行う。 Communication device 310 communicates with vehicle V (vehicle control system 100).

表示装置320は、各種情報を表示することにより、各種情報をオペレータOに提示する。 The display device 320 presents various information to the operator O by displaying various information.

遠隔操作部材330は、車両Vを遠隔運転(遠隔操作)する際にオペレータOによって操作される部材である。遠隔操作部材330は、ハンドル、アクセルペダル、ブレーキペダル、方向指示器、等を含んでいる。 The remote control member 330 is a member operated by the operator O when the vehicle V is remotely operated (remotely controlled). The remote control member 330 includes a steering wheel, an accelerator pedal, a brake pedal, direction indicators, and the like.

制御装置350は、遠隔運転装置300を制御する。制御装置350は、1又は複数のプロセッサ360(以下、単にプロセッサ360と呼ぶ)と1又は複数の記憶装置370(以下、単に記憶装置370と呼ぶ)を含んでいる。プロセッサ360は、各種処理を実行する。例えば、プロセッサ360は、CPUを含んでいる。記憶装置370は、プロセッサ360による処理に必要な各種情報を格納する。記憶装置370としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。 Control device 350 controls remote operation device 300 . Controller 350 includes one or more processors 360 (hereinafter simply processors 360) and one or more storage devices 370 (hereinafter simply storage devices 370). Processor 360 executes various processes. For example, processor 360 includes a CPU. Storage device 370 stores various information necessary for processing by processor 360 . Examples of the storage device 370 include volatile memory, nonvolatile memory, HDD, SSD, and the like.

遠隔運転プログラム380は、プロセッサ360によって実行されるコンピュータプログラムである。プロセッサ360が遠隔運転プログラム380を実行することにより、制御装置350の機能が実現される。遠隔運転プログラム380は、記憶装置370に格納される。あるいは、遠隔運転プログラム380は、コンピュータ読み取り可能な記録媒体に記録されてもよい。遠隔運転プログラム380は、ネットワーク経由で提供されてもよい。 Remote operation program 380 is a computer program executed by processor 360 . The functions of the control device 350 are implemented by the processor 360 executing the remote operation program 380 . Remote operation program 380 is stored in storage device 370 . Alternatively, remote operation program 380 may be recorded on a computer-readable recording medium. Remote operation program 380 may be provided via a network.

制御装置350は、通信装置310を介して、車両V(車両制御システム100)と通信を行う。制御装置350は、車両制御システム100から送信される車両情報VCLを受け取る。車両情報VCLは、記憶装置370に格納される。制御装置350は、車両情報VCLを表示装置320に表示することにより、車両情報VCLをオペレータOに提示する。また、制御装置350は、地図情報を表示装置320に表示する。オペレータOは、表示装置320に表示される地図情報や車両情報VCLに基づいて、車両Vの状況を把握することができる。 Control device 350 communicates with vehicle V (vehicle control system 100 ) via communication device 310 . Control device 350 receives vehicle information VCL transmitted from vehicle control system 100 . Vehicle information VCL is stored in storage device 370 . Control device 350 presents vehicle information VCL to operator O by displaying vehicle information VCL on display device 320 . Control device 350 also displays map information on display device 320 . The operator O can grasp the situation of the vehicle V based on the map information displayed on the display device 320 and the vehicle information VCL.

オペレータOは、遠隔操作部材330を操作する。制御装置350は、オペレータOによる遠隔操作部材330の操作量を取得する。操作量は、遠隔操作部材330に設置されたセンサにより検出される。制御装置350は、操作量を反映した操作情報OPEを生成し、その操作情報OPEを車両制御システム100に送信する。 An operator O operates the remote control member 330 . The control device 350 acquires the operation amount of the remote control member 330 by the operator O. FIG. The amount of operation is detected by a sensor installed on the remote control member 330 . Control device 350 generates operation information OPE reflecting the amount of operation, and transmits the operation information OPE to vehicle control system 100 .

更に、制御装置350は、オペレータモニタ10を用いてオペレータ視線方向LSoを取得する。制御装置350は、運転環境情報200に相当する車両情報VCLに基づいて目標視線方向LStを設定する。制御装置350は、視線誘導処理の作動条件が成立するか否かを判定する。作動条件が成立する場合、制御装置350は、視線誘導装置50を制御することにより視線誘導処理を行う。すなわち、図2で示された目標視線方向設定部20、作動条件判定部30、及び視線誘導処理部40は、制御装置350によって実現される。遠隔運転装置300は、図2で示されたオペレータ支援システム1に相当する。 Further, the control device 350 uses the operator monitor 10 to acquire the operator line-of-sight direction LSo. The control device 350 sets the target line-of-sight direction LSt based on the vehicle information VCL corresponding to the driving environment information 200 . The control device 350 determines whether or not the operating conditions for the line-of-sight guidance process are satisfied. When the operating condition is satisfied, the control device 350 performs the visual guidance processing by controlling the visual guidance device 50 . That is, the target line-of-sight direction setting unit 20, the operating condition determination unit 30, and the line-of-sight guidance processing unit 40 shown in FIG. The remote operation device 300 corresponds to the operator assistance system 1 shown in FIG.

1 オペレータ支援システム
10 オペレータモニタ
20 目標視線方向設定部
30 作動条件判定部
40 視線誘導処理部
50 視線誘導装置
100 車両制御システム
150 制御装置
160 プロセッサ
170 記憶装置
200 運転環境情報
215 物体情報
300 遠隔運転装置
350 制御装置
360 プロセッサ
370 記憶装置
M 移動体
O オペレータ
V 車両
LSo オペレータ視線方向
LSt 目標視線方向
OPE 操作情報
VCL 車両情報
1 operator support system 10 operator monitor 20 target line-of-sight direction setting unit 30 operating condition determination unit 40 line-of-sight guidance processing unit 50 line-of-sight guidance device 100 vehicle control system 150 control device 160 processor 170 storage device 200 driving environment information 215 object information 300 remote driving device 350 control device 360 processor 370 storage device M moving body O operator V vehicle LSo operator line-of-sight direction LSt target line-of-sight direction OPE operation information VCL vehicle information

Claims (1)

移動体を操作あるいは遠隔操作するオペレータを支援するオペレータ支援方法であって、
前記オペレータの視線方向を取得する処理と、
前記移動体の置かれたシーンに応じて、前記オペレータの注視を要する目標視線方向を設定する処理と、
前記オペレータの前記視線方向と前記目標視線方向との間の乖離度が閾値を超えているか否かを判定する処理と、
前記乖離度が前記閾値を超えている場合、前記オペレータの触覚、聴覚、及び視覚の少なくとも一つを通して、前記オペレータの前記視線方向から前記目標視線方向に向かう誘導方向を前記オペレータに通知する処理と
を含む
オペレータ支援方法。
An operator support method for supporting an operator who operates or remotely operates a mobile object, comprising:
a process of acquiring the line-of-sight direction of the operator;
A process of setting a target line-of-sight direction that requires the operator's gaze according to the scene in which the moving object is placed;
a process of determining whether the divergence between the line-of-sight direction of the operator and the target line-of-sight direction exceeds a threshold;
a process of notifying the operator of a guidance direction from the line-of-sight direction to the target line-of-sight direction through at least one of tactile, auditory, and visual senses of the operator when the degree of deviation exceeds the threshold; including operator assistance methods.
JP2021197220A 2021-12-03 2021-12-03 Operator support method Pending JP2023083085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021197220A JP2023083085A (en) 2021-12-03 2021-12-03 Operator support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021197220A JP2023083085A (en) 2021-12-03 2021-12-03 Operator support method

Publications (1)

Publication Number Publication Date
JP2023083085A true JP2023083085A (en) 2023-06-15

Family

ID=86729152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021197220A Pending JP2023083085A (en) 2021-12-03 2021-12-03 Operator support method

Country Status (1)

Country Link
JP (1) JP2023083085A (en)

Similar Documents

Publication Publication Date Title
JP6630267B2 (en) Vehicle control device
JP6729220B2 (en) Vehicle driving support device
US11414080B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6677822B2 (en) Vehicle control device
CN107817791B (en) Vehicle control device
US11900812B2 (en) Vehicle control device
JP6623311B2 (en) Control apparatus and control method
JP5888407B2 (en) Driving assistance device
JP2019209837A (en) Drive support control device of vehicle, drive support system and drive support control method
JP2021033614A (en) Autonomous driving system
KR20160029456A (en) Driving support image display method
JP2021018744A (en) Image display device
US20220371580A1 (en) Vehicle driving support system and vehicle driving support method
CN110654391B (en) Vehicle control device
CN114194186B (en) Vehicle travel control device
US10948303B2 (en) Vehicle control device
JP6819054B2 (en) Self-driving vehicle
JP2023083085A (en) Operator support method
JP2020201647A (en) Vehicle display control device, vehicle display control method, and vehicle display control program
US20240067172A1 (en) Moving body control system, moving body control method, and non-transitory computer-readable recording medium
WO2023194793A1 (en) Information providing device and information providing method
JP2023104628A (en) Vehicle control device
JP2024004281A (en) vehicle control system
JP2023169524A (en) Driving support method and driving support device for vehicle
JP2022178813A (en) Vehicle driving support system and vehicle driving support method