JP2024009255A - Output device - Google Patents

Output device Download PDF

Info

Publication number
JP2024009255A
JP2024009255A JP2023199769A JP2023199769A JP2024009255A JP 2024009255 A JP2024009255 A JP 2024009255A JP 2023199769 A JP2023199769 A JP 2023199769A JP 2023199769 A JP2023199769 A JP 2023199769A JP 2024009255 A JP2024009255 A JP 2024009255A
Authority
JP
Japan
Prior art keywords
behavior
information
output
unit
behavior information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023199769A
Other languages
Japanese (ja)
Inventor
明 後藤田
Akira Gotoda
誠 倉橋
Makoto Kurahashi
宏 永田
Hiroshi Nagata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023199769A priority Critical patent/JP2024009255A/en
Publication of JP2024009255A publication Critical patent/JP2024009255A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To cite it as one example that a smooth automatic operation is realized by smoothly performing mutual understanding with the other moving body.
SOLUTION: An output device 10 comprises a first acquisition part 110, a second acquisition part 120, and a first output part 150. The first acquisition part 110 acquires first behavioral information indicating first behavior of an occupant in a first moving body. The second acquisition part 120 acquires second behavioral information indicating second behavior of a second moving body around the first moving body within a predetermined period from occurrence of the first behavior. The first output part 150 outputs control information for controlling traveling of the first moving body, based on the first behavioral information and the second behavioral information.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、出力装置、出力方法、およびコンピュータプログラムに関する。 The present invention relates to an output device, an output method, and a computer program.

自動運転では、様々なセンシング結果を用いて周囲を走行する車両や歩行者等の次の動きを推測しながら自車の次の動作が決定される。 In autonomous driving, the next action of the own vehicle is determined while estimating the next movement of surrounding vehicles, pedestrians, etc. using various sensing results.

特許文献1には、システムによる自動的な操舵制御が、歩行者等の検出後の運転者の運転操作を参照して実行されることにより、車両の運転に対する運転者の関与の度合いを高めることが記載されている。 Patent Document 1 discloses that automatic steering control by a system is executed with reference to the driver's driving operation after detecting a pedestrian, etc., thereby increasing the degree of the driver's involvement in driving the vehicle. is listed.

また、特許文献2には、他の移動体から特定のメッセージを受信した場合に、その移動体へ特定の挙動の実行意思を示す、意思情報を含む応答メッセージを送信することが記載されている。 Further, Patent Document 2 describes that when a specific message is received from another mobile body, a response message including intention information indicating the intention to perform a specific behavior is transmitted to that mobile body. .

特開2017-206040号公報Japanese Patent Application Publication No. 2017-206040 特開2016-186721号公報Japanese Patent Application Publication No. 2016-186721

しかし、特許文献1の技術では、歩行者等との意思疎通を図ることはできなかった。 However, with the technique of Patent Document 1, it was not possible to communicate with pedestrians and the like.

また、特許文献2の技術では、情報の送受信が介在するため、他の移動体との意思疎通の円滑性が損なわれる場合があった。また、他の移動体からメッセージ等が送信されない場合、意思疎通を図ることができなかった。 Further, in the technique of Patent Document 2, since information transmission and reception are involved, smooth communication with other moving bodies may be impaired. Furthermore, if messages etc. are not sent from other mobile units, it is not possible to communicate with each other.

本発明が解決しようとする課題としては、他の移動体との意思疎通を円滑に行い、スムーズな自動運転を実現することが一例として挙げられる。 An example of the problem to be solved by the present invention is to smoothly communicate with other moving bodies and realize smooth automatic driving.

第1の発明は、
第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得部と、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得部と、
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力部と、
を備える出力装置である。
The first invention is
a first acquisition unit that acquires first behavior information indicating a first behavior of a passenger of the first moving object;
a second acquisition unit that acquires second behavior information indicating a second behavior of a second moving body around the first moving body within a predetermined period from the occurrence of the first behavior;
a first output unit that outputs control information for controlling travel of the first mobile body based on the first behavior information and the second behavior information;
It is an output device equipped with.

第2の発明は、
第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得ステップと、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得ステップと、
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力ステップと、
を含む出力方法である。
The second invention is
a first acquisition step of acquiring first behavior information indicating a first behavior of a passenger of the first moving object;
a second acquisition step of acquiring second behavior information indicating a second behavior of a second moving body around the first moving body within a predetermined period from the occurrence of the first behavior;
a first output step of outputting control information for controlling travel of the first mobile body based on the first behavior information and the second behavior information;
This is an output method that includes.

第3の発明は、
出力装置を実現するためのコンピュータプログラムであって、
コンピュータを、
第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得手段、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得手段、および
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力手段、
として機能させるコンピュータプログラムである。
The third invention is
A computer program for realizing an output device,
computer,
a first acquisition means for acquiring first behavior information indicating a first behavior of a passenger of the first moving body;
a second acquisition means for acquiring second behavior information indicating a second behavior of a second moving object around the first moving object within a predetermined period from the occurrence of the first behavior; a first output means for outputting control information for controlling travel of the first moving body based on the information and the second behavior information;
It is a computer program that functions as

実施形態に係る出力装置の機能構成を例示するブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of an output device according to an embodiment. 実施形態に係る出力方法を例示するフローチャートである。3 is a flowchart illustrating an output method according to an embodiment. 実施例1に係る出力装置の機能構成を例示するブロック図である。1 is a block diagram illustrating a functional configuration of an output device according to a first embodiment. FIG. 出力装置のハードウエア構成を例示する図である。FIG. 2 is a diagram illustrating a hardware configuration of an output device. 実施例1に係る出力装置で行われる処理を例示するフローチャートである。5 is a flowchart illustrating processing performed by the output device according to the first embodiment. 実施例2に係る出力装置で行われる処理を例示するフローチャートである。7 is a flowchart illustrating a process performed by an output device according to a second embodiment. 実施例5に係る出力装置の機能構成を例示するブロック図である。FIG. 7 is a block diagram illustrating a functional configuration of an output device according to a fifth embodiment. 実施例6に係る出力装置10の機能構成を例示するブロック図である。12 is a block diagram illustrating a functional configuration of an output device 10 according to a sixth embodiment. FIG. 実施例6に係る出力装置10で行われる処理を例示するフローチャートである。12 is a flowchart illustrating processing performed by the output device 10 according to the sixth embodiment.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. Note that in all the drawings, similar components are denoted by the same reference numerals, and descriptions thereof will be omitted as appropriate.

以下に示す説明において、出力装置10の第1取得部110、第2取得部120、第1検知部112、第2検知部122、第3取得部130、判定部140、第1出力部150、第2出力部152、第1入力部160、第2入力部162、および記憶部170は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。出力装置10の第1取得部110、第2取得部120、第1検知部112、第2検知部122、第3取得部130、判定部140、第2出力部152、第1出力部150、第2入力部162、第1入力部160、および記憶部170は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。 In the description below, the first acquisition section 110, second acquisition section 120, first detection section 112, second detection section 122, third acquisition section 130, determination section 140, first output section 150, The second output section 152, the first input section 160, the second input section 162, and the storage section 170 are not configurations in hardware units but blocks in functional units. The first acquisition section 110, the second acquisition section 120, the first detection section 112, the second detection section 122, the third acquisition section 130, the determination section 140, the second output section 152, the first output section 150 of the output device 10, The second input section 162, the first input section 160, and the storage section 170 mainly include a CPU of an arbitrary computer, a memory, a program loaded into the memory, a storage medium such as a hard disk that stores the program, and an interface for network connection. can be realized by any combination of hardware and software. There are various modifications of the method and device for realizing this.

図1は、実施形態に係る出力装置10の機能構成を例示するブロック図である。本実施形態に係る出力装置10は、第1取得部110、第2取得部120、および第1出力部150を備える。第1取得部110は、第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する。第2取得部120は、第1の挙動の発生から所定期間T1内における、第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する。第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。以下に詳しく説明する。 FIG. 1 is a block diagram illustrating the functional configuration of an output device 10 according to an embodiment. The output device 10 according to this embodiment includes a first acquisition section 110, a second acquisition section 120, and a first output section 150. The first acquisition unit 110 acquires first behavior information indicating a first behavior of a passenger of a first moving object. The second acquisition unit 120 acquires second behavior information indicating the second behavior of the second moving body around the first moving body within a predetermined period T1 from the occurrence of the first behavior. The first output unit 150 outputs control information for controlling travel of the first moving object based on the first behavior information and the second behavior information. This will be explained in detail below.

部分的にまたは完全に自動運転を利用して走行する移動体では、自動運転の制御装置により周囲の状況が判断され、判断結果に基づいて移動体の動作が制御される。しかし、周囲に存在する他の移動体の次の挙動を予測するのが難しい場合、自動運転でスムーズに走行できないことがある。 In a mobile object that runs partially or completely using automatic driving, an automatic driving control device determines the surrounding situation, and the operation of the mobile object is controlled based on the determination result. However, if it is difficult to predict the next behavior of other nearby moving objects, autonomous driving may not be able to run smoothly.

一方、自動運転される移動体に搭乗する人は、たとえば周囲の車両の搭乗者や、歩行者とコミュニケーションをとることができる。本実施形態によれば、自車の搭乗者の挙動と周囲の車両の搭乗者や歩行者との挙動から、周囲の状況および他の移動体の次の挙動が推定され、自動運転によるスムーズな走行が維持される。 On the other hand, a person riding in a self-driving vehicle can communicate with, for example, passengers in surrounding vehicles and pedestrians. According to this embodiment, the surrounding situation and the next behavior of other moving objects are estimated from the behavior of the occupant of the own vehicle and the behavior of the occupants of surrounding vehicles and pedestrians, and the next behavior of other moving objects is estimated. Running is maintained.

本実施形態において、第1の移動体は自動車、原動機付自転車、軽車両等の車両である。出力装置10は第1の移動体に搭載されている。第1の移動体は、第1出力部150から出力される制御情報により、少なくとも部分的に自動運転される。第1の移動体には、少なくとも一人の搭乗者がいる。 In this embodiment, the first moving object is a vehicle such as a car, a motorized bicycle, or a light vehicle. The output device 10 is mounted on the first moving body. The first moving body is at least partially automatically driven by the control information output from the first output unit 150. The first moving body has at least one passenger.

第1の挙動は、第1の移動体の搭乗者の挙動であり、第2の移動体に対するジェスチャーまたは発声である。第1の挙動として具体的には、手のひらを上に向けて差し出す挙動、手のひらを第2の移動体に向ける挙動、会釈をする挙動、声で意思を伝える挙動、第1の移動体のヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる操作をする挙動、第1の移動体のクラクションを一回以上鳴らす操作をする挙動、第1の移動体を減速させる操作をする挙動等が挙げられる。第1挙動情報は、第1の挙動がどの挙動であるかを示すID等である。第1の挙動は、第2の移動体に向けた挙動であってもよいし、第2の移動体に向けた挙動でなくてもよい。なお、第1の挙動は第2の移動体から直接または間接的に認識されうる挙動であることが好ましい。 The first behavior is the behavior of the passenger of the first moving body, and is a gesture or vocalization toward the second moving body. Specifically, the first behavior includes the behavior of holding out the palm facing upward, the behavior of pointing the palm toward the second moving object, the behavior of nodding, the behavior of conveying intentions by voice, and the headlight of the first moving object. , behavior that causes the hazard lights or brake lights to flash one or more times, behavior that causes the horn of the first moving object to sound more than once, behavior that causes the first moving object to decelerate, etc. It will be done. The first behavior information is an ID or the like that indicates which behavior is the first behavior. The first behavior may be a behavior toward the second moving body, or may not be a behavior toward the second moving body. Note that the first behavior is preferably one that can be directly or indirectly recognized by the second moving body.

第2の移動体は第1の移動体の周辺に位置する移動体である。第1の移動体の周辺とはたとえば、第1の移動体から挙動を認識、検知可能な範囲である。第1の移動体の周辺とは、特に限定されないが、たとえば第1の移動体からの距離が50m以下の範囲である。 The second moving body is a moving body located around the first moving body. The area around the first moving body is, for example, a range in which behavior can be recognized and detected from the first moving body. The area around the first moving body is not particularly limited, but is, for example, a range within a distance of 50 m or less from the first moving body.

第2の移動体はたとえば歩行者または自転車である。その場合、第2の挙動としては、歩行者または自転車の搭乗者が会釈をする挙動、立ち止まる挙動、片手を上げる挙動等が挙げられる。第2挙動情報は、第2の挙動がどの挙動であるかを示すID等である。第2の挙動は第1の移動体に向けた挙動であってもよいし、第1の移動体に向けた挙動でなくてもよい。なお、第2の挙動は第1の移動体から直接または間接的に認識されうる挙動であることが好ましい。 The second moving object is, for example, a pedestrian or a bicycle. In this case, examples of the second behavior include behavior in which the pedestrian or bicycle rider nods, stops, or raises one hand. The second behavior information is an ID or the like that indicates which behavior is the second behavior. The second behavior may be a behavior toward the first moving object, or may not be a behavior toward the first moving object. Note that the second behavior is preferably one that can be directly or indirectly recognized by the first moving object.

第1挙動情報および第2挙動情報の生成、取得方法については後述の実施例で詳しく説明する。 The generation and acquisition method of the first behavior information and the second behavior information will be explained in detail in the examples described later.

たとえば横断歩道の片側にいる歩行者が第2の移動体である場合に、第1の移動体の搭乗者が顔の高さで手のひらを上に向けて(第1の挙動)、歩行者に横断歩道を渡るように促す。すると、歩行者は会釈をして(第2の挙動)、第1の移動体の搭乗者の申し出を受け入れる意思を示す。第1出力部150は、これらの挙動をそれぞれ示す第1挙動情報および第2挙動情報に基づき、第1の移動体を停止させる制御情報を出力する。 For example, when a second moving object is a pedestrian on one side of a crosswalk, a passenger of the first moving object points his palm upward at face level (first behavior) and approaches the pedestrian. Encourage them to cross at the crosswalk. Then, the pedestrian nods his head (second behavior), indicating his intention to accept the offer from the passenger of the first moving object. The first output unit 150 outputs control information for stopping the first moving body based on first behavior information and second behavior information indicating these behaviors, respectively.

また、たとえば横断歩道の片側にいる歩行者が第2の移動体である場合に、第1の移動体の搭乗者が顔の高さで手のひらを上に向けて(第1の挙動)歩行者に横断歩道を渡るように促す。すると、歩行者は首を振って(第2の挙動)、第1の移動体の搭乗者の申し出を断る意思を示す。第1出力部150は、これらの挙動をそれぞれ示す第1挙動情報および第2挙動情報に基づき、第1の移動体を走行させる制御情報を出力する。なお、この時の第2挙動は、歩行者が手を縦にして横に振るような挙動でも、手のひらを上に向けて車両の進行方向へ水平移動させるような挙動でも、搭乗者側を見ているが反応をしないような挙動でも良い。 Also, for example, when a pedestrian on one side of a crosswalk is a second moving object, a passenger of the first moving object may face the pedestrian with his/her palm facing up at face level (first behavior). encourage people to cross at the crosswalk. Then, the pedestrian shakes his head (second behavior), indicating his intention to decline the offer of the passenger of the first moving object. The first output unit 150 outputs control information for causing the first mobile object to travel based on first behavior information and second behavior information indicating these behaviors, respectively. In addition, the second behavior at this time may be a behavior in which the pedestrian holds his/her hand vertically and waves it horizontally, or a behavior in which the pedestrian moves horizontally in the direction of travel of the vehicle with the palm facing upward, or the pedestrian moves his or her hand horizontally in the direction of travel of the vehicle. It is also possible to behave in a way that does not react.

第2の移動体は第1の移動体の対向車両であってもよい。その場合、第2の挙動としては、第2の移動体がヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる挙動、クラクションを一回以上鳴らす挙動、減速する挙動、道路の端に寄る挙動等が挙げられる。また、第2の挙動は第2の移動体である対向車両の搭乗者の挙動であってもよい。対向車両の搭乗者の挙動としては、会釈をする挙動、片手を上げる挙動等が挙げられる。第2挙動情報は、第2の挙動がどの挙動であるかを示すID等である。 The second moving body may be an oncoming vehicle of the first moving body. In that case, the second behavior is that the second moving object flashes its headlights, hazard lights, or brake lights one or more times, honks its horn more than once, decelerates, or approaches the edge of the road. Examples include behavior. Furthermore, the second behavior may be the behavior of a passenger of an oncoming vehicle that is a second moving object. Behaviors of the occupants of the oncoming vehicle include bowing, raising one hand, and the like. The second behavior information is an ID or the like that indicates which behavior is the second behavior.

たとえば狭い道において対向車両が第2の移動体である場合に、第1の移動体の搭乗者が通行を待ってもらうよう第2の移動体に手のひらを向ける(第1の挙動)。すると、第2の移動体は道路の端に寄って道を譲る(第2の挙動)。これらの挙動をそれぞれ示す第1挙動情報および第2挙動情報に基づき、第2の移動体とすれ違って第1の移動体を走行させるよう、制御情報を出力する。 For example, when the oncoming vehicle on a narrow road is a second moving object, the passenger of the first moving object points his/her palm toward the second moving object to ask the second moving object to wait for passage (first behavior). Then, the second moving object approaches the edge of the road and gives way (second behavior). Based on the first behavior information and the second behavior information respectively indicating these behaviors, control information is output so as to cause the first moving body to run while passing the second moving body.

第1出力部150が第1挙動情報および第2挙動情報に基づき制御信号を出力する場面の例としては他に、第1の移動体または第2の移動体が右折または道路への合流をしようとする場面等が挙げられる。 Another example of a scene in which the first output unit 150 outputs a control signal based on the first behavior information and the second behavior information is when the first moving object or the second moving object makes a right turn or merges into a road. Examples include situations where

第2の挙動は第1の挙動の発生から所定期間T1内に行われる。所定期間T1は、第1の挙動を受けて第2の移動体が反応するのに要すると想定される時間に基づき、予め定められている。所定期間T1は、たとえば5秒以内、または3秒以内である。 The second behavior is performed within a predetermined period T1 from the occurrence of the first behavior. The predetermined period T1 is predetermined based on the time expected for the second moving body to react in response to the first behavior. The predetermined period T1 is, for example, within 5 seconds or within 3 seconds.

図2は、実施形態に係る出力方法を例示するフローチャートである。本方法は、第1取得ステップ(S10)、第2取得ステップ(S20)、および第1出力ステップ(S50)を含む。第1取得ステップ(S10)では、第1の移動体の搭乗者の第1の挙動を示す第1挙動情報が取得される。第2取得ステップ(S20)では、第1の挙動の発生から所定期間T1内における、第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報が取得される。第1出力ステップ(S50)では、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報が出力される。 FIG. 2 is a flowchart illustrating the output method according to the embodiment. The method includes a first acquisition step (S10), a second acquisition step (S20), and a first output step (S50). In the first acquisition step (S10), first behavior information indicating the first behavior of the passenger of the first moving body is acquired. In the second acquisition step (S20), second behavior information indicating the second behavior of the second moving body around the first moving body within a predetermined period T1 from the occurrence of the first behavior is acquired. In the first output step (S50), control information for controlling the travel of the first moving object is output based on the first behavior information and the second behavior information.

本実施形態に係る出力方法は、たとえば上記したような出力装置10により実現される。 The output method according to this embodiment is realized, for example, by the output device 10 as described above.

以上、本実施形態によれば、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present embodiment, the first output unit 150 outputs control information for controlling the travel of the first moving object based on the first behavior information and the second behavior information. Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

(実施例1)
図3は、実施例1に係る出力装置10の機能構成を例示するブロック図である。本実施例に係る出力装置10は、実施形態に係る出力装置10の構成を有する。本実施例に係る出力装置10は、第1入力部160、記憶部170、第1検知部112、第2検知部122、および判定部140をさらに備える。出力装置10の機能構成については詳しく後述する。
(Example 1)
FIG. 3 is a block diagram illustrating the functional configuration of the output device 10 according to the first embodiment. The output device 10 according to this example has the configuration of the output device 10 according to the embodiment. The output device 10 according to this embodiment further includes a first input section 160, a storage section 170, a first detection section 112, a second detection section 122, and a determination section 140. The functional configuration of the output device 10 will be described in detail later.

図4は、出力装置10のハードウエア構成を例示する図である。本図において出力装置10は、集積回路40を用いて実装されている。集積回路40は、例えば SoC(System On Chip)である。 FIG. 4 is a diagram illustrating the hardware configuration of the output device 10. In this figure, the output device 10 is implemented using an integrated circuit 40. The integrated circuit 40 is, for example, an SoC (System On Chip).

集積回路40は、バス402、プロセッサ404、メモリ406、ストレージデバイス408、入出力インタフェース410、及びネットワークインタフェース412を有する。バス402は、プロセッサ404、メモリ406、ストレージデバイス408、入出力インタフェース410、及びネットワークインタフェース412が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ404などを互いに接続する方法は、バス接続に限定されない。プロセッサ404は、マイクロプロセッサなどを用いて実現される演算処理装置である。メモリ406は、RAM(Random Access Memory)などを用いて実現されるメモリである。ストレージデバイス408は、ROM(Read Only Memory)やフラッシュメモリなどを用いて実現されるストレージデバイスである。 Integrated circuit 40 has a bus 402, a processor 404, a memory 406, a storage device 408, an input/output interface 410, and a network interface 412. The bus 402 is a data transmission path through which the processor 404, memory 406, storage device 408, input/output interface 410, and network interface 412 exchange data with each other. However, the method of connecting the processors 404 and the like to each other is not limited to bus connection. The processor 404 is an arithmetic processing device implemented using a microprocessor or the like. The memory 406 is a memory implemented using RAM (Random Access Memory) or the like. The storage device 408 is a storage device implemented using ROM (Read Only Memory), flash memory, or the like.

入出力インタフェース410は、集積回路40を周辺デバイスと接続するためのインタフェースである。本図において、入出力インタフェース410には第1カメラ420、第2カメラ421、モニタ422、入力パネル423、マイク424、およびスピーカー425が接続されている。 The input/output interface 410 is an interface for connecting the integrated circuit 40 with peripheral devices. In this figure, a first camera 420, a second camera 421, a monitor 422, an input panel 423, a microphone 424, and a speaker 425 are connected to the input/output interface 410.

ネットワークインタフェース412は、集積回路40を通信網に接続するためのインタフェースである。この通信網は、例えば CAN(Controller Area Network)通信網である。なお、ネットワークインタフェース412が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。 Network interface 412 is an interface for connecting integrated circuit 40 to a communication network. This communication network is, for example, a CAN (Controller Area Network) communication network. Note that the method for connecting the network interface 412 to the communication network may be a wireless connection or a wired connection.

ストレージデバイス408は、第1入力部160、第1検知部112、第2検知部122、第1取得部110、第2取得部120、判定部140、および第1出力部150の機能を実現するためのプログラムモジュールをそれぞれ記憶している。プロセッサ404は、このプログラムモジュールをメモリ406に読み出して実行することで、第1入力部160、第1検知部112、第2検知部122、第1取得部110、第2取得部120、判定部140、および第1出力部150の機能を実現する。 The storage device 408 realizes the functions of the first input section 160, the first detection section 112, the second detection section 122, the first acquisition section 110, the second acquisition section 120, the determination section 140, and the first output section 150. It stores program modules for each. The processor 404 reads this program module into the memory 406 and executes it, thereby controlling the first input section 160, the first detection section 112, the second detection section 122, the first acquisition section 110, the second acquisition section 120, and the determination section. 140 and the functions of the first output section 150 are realized.

集積回路40のハードウエア構成は本図に示した構成に限定されない。例えば、プログラムモジュールはメモリ406に格納されてもよい。この場合、集積回路40は、ストレージデバイス408を備えていなくてもよい。 The hardware configuration of the integrated circuit 40 is not limited to the configuration shown in this figure. For example, program modules may be stored in memory 406. In this case, integrated circuit 40 may not include storage device 408.

図3を参照し、出力装置10の機能構成について以下に詳しく説明する。本実施例に係る出力装置10において、第1取得部110は、第1入力部160への搭乗者の入力を受け付け可能である。そして、第1の挙動の一例は第1入力部160への入力である。 The functional configuration of the output device 10 will be described in detail below with reference to FIG. 3. In the output device 10 according to the present embodiment, the first acquisition unit 110 is capable of receiving input from the passenger to the first input unit 160. An example of the first behavior is input to the first input unit 160.

図4の例において、入力パネル423およびマイク424は第1入力部160として機能する。また、第1入力部160は、機械的なハンドル、スイッチ、ペダル等で合ってもよい。そして、第1の挙動はたとえばタッチパネルへの入力操作や音声での入力あり、搭乗者の入力はたとえば、第1の移動体のヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる操作、第1の移動体のクラクションを一回以上鳴らす操作、第1の移動体を減速させる操作である。第1の移動体の搭乗者のうち少なくとも一人は運転者として第1入力部160にアクセス可能な状態で搭乗している。たとえば運転者としての搭乗者は、第1入力部160であるタッチパネルやマイク等が設けられた操作位置に搭乗している。また運転者としての搭乗者は、第1入力部160であるタッチパネルやマイク等が設けられた操作端末を保持している。搭乗者が第1入力部160に第1の挙動の候補として定められた複数の入力操作のうちいずれかの入力操作を行うと、第1取得部110はその操作内容を示す情報を第1挙動情報として取得する。また、第1入力部160は、搭乗者からの、第1の挙動を行った旨を入力を受け付け可能であってもよい。たとえば、「歩行者に対して横断を促しましたか?」等の画面表示または音声出力が行われ、搭乗者に対してタッチ入力や音声入力が促されてもよい。 In the example of FIG. 4, the input panel 423 and microphone 424 function as the first input section 160. Further, the first input unit 160 may be a mechanical handle, switch, pedal, etc. The first behavior is, for example, an input operation on a touch panel or an input by voice, and the input by the passenger is, for example, an operation that causes the headlights, hazard lamps, or brake lights of the first moving object to blink one or more times. These are an operation of sounding the horn of the first moving body one or more times, and an operation of decelerating the first moving body. At least one of the passengers of the first moving body is on board as a driver in a state where the first input unit 160 can be accessed. For example, a passenger serving as a driver is seated at an operating position where the first input section 160, such as a touch panel and a microphone, is provided. Further, the passenger serving as the driver holds an operation terminal, which is the first input section 160, and is equipped with a touch panel, a microphone, and the like. When the passenger performs an input operation on the first input unit 160 from among the plurality of input operations determined as candidates for the first behavior, the first acquisition unit 110 converts the information indicating the operation content into the first behavior. Obtain as information. Further, the first input unit 160 may be capable of receiving an input from the passenger indicating that the first behavior has been performed. For example, a message such as "Did you urge the pedestrian to cross the street?" may be displayed on the screen or a voice may be output to prompt the passenger to perform touch input or voice input.

第1の挙動が第1入力部160への入力であることにより、第1取得部110が直接的に第1挙動情報を取得することができ、第1の挙動の認識を高い精度で行える。 Since the first behavior is input to the first input unit 160, the first acquisition unit 110 can directly acquire the first behavior information, and the first behavior can be recognized with high accuracy.

上記した通り、本実施例に係る出力装置10は第1検知部112を備える。第1検知部112は、第1の移動体の挙動を検知する。第1取得部110は、第1検知部112から第1挙動情報を取得する。第1検知部112は、第1の移動体の搭乗者の少なくとも一部が含まれる画像を取得し、画像を用いて第1の挙動を検知し、第1挙動情報を生成する。第1検知部112は第1カメラ420で撮像された画像を取得する。第1カメラ420は第1の移動体の運転者としての搭乗者の少なくとも一部を撮像するように設けられている。また、第1カメラ420に代えて、ToF(Time of Flight)カメラやライダー(LIDAR:Laser Imaging Detection and Ranging, Laser Illuminated Detection and Ranging またはLiDAR:Light Detection and Ranging)を利用して画像を取得してもよい。 As described above, the output device 10 according to this embodiment includes the first detection section 112. The first detection unit 112 detects the behavior of the first moving object. The first acquisition unit 110 acquires first behavior information from the first detection unit 112. The first detection unit 112 acquires an image that includes at least a portion of the passenger of the first moving object, detects a first behavior using the image, and generates first behavior information. The first detection unit 112 acquires an image captured by the first camera 420. The first camera 420 is provided to capture an image of at least a portion of the driver of the first moving object. In addition, instead of the first camera 420, images may be acquired using a ToF (Time of Flight) camera or a lidar (LIDAR: Laser Imaging Detection and Ranging, Laser Illuminated Detection and Ranging, or LiDAR: Light Detection and Ranging). Good too.

第1検知部112は取得した画像において、たとえば特徴点の抽出、解析等を行い搭乗者の第1の挙動を検知する。第1の挙動についての特徴点のパターンを示す情報は挙動の内容ごとに予め記憶部170に保持されており、第1検知部112はそれを読み出して検知に用いることができる。第1検知部112は第1の挙動を検知すると、その挙動の内容を示す情報を第1挙動情報として生成する。第1検知部112で第1挙動情報が生成されると、第1取得部110がその第1挙動情報を取得する。なお、第1検知部112は動画等、複数の画像に基づき第1の挙動を検知しても良い。 The first detection unit 112 detects the first behavior of the passenger by, for example, extracting and analyzing feature points in the acquired image. Information indicating the pattern of feature points regarding the first behavior is stored in advance in the storage unit 170 for each behavior content, and the first detection unit 112 can read it and use it for detection. When the first detection unit 112 detects the first behavior, it generates information indicating the content of the behavior as first behavior information. When the first behavior information is generated by the first detection unit 112, the first acquisition unit 110 acquires the first behavior information. Note that the first detection unit 112 may detect the first behavior based on a plurality of images such as a moving image.

具体的には、予め人の体の特徴量を示す特徴量情報を記憶部170に記憶させておく。第1検知部112は画像から特徴量情報を利用して、画像中の人体の部位の位置を特定する。この特定された位置と人体モデル情報から搭乗者の姿勢を推定し、姿勢の時間変化により挙動を推定する。 Specifically, feature amount information indicating the feature amount of a person's body is stored in the storage unit 170 in advance. The first detection unit 112 uses feature information from the image to identify the position of the human body part in the image. The passenger's posture is estimated from this identified position and human body model information, and behavior is estimated based on changes in posture over time.

さらに、第1検知部112は深層学習を利用してもよい。この場合、予め挙動の動画データおよび当該動画データがどのような挙動であるかを示す情報を記憶部170に記憶させておく。第1検知部112は搭乗者の動画データと予め記憶している動画データに基づき、搭乗者の挙動を推定する。 Furthermore, the first detection unit 112 may utilize deep learning. In this case, the storage unit 170 stores in advance video data of the behavior and information indicating what kind of behavior the video data represents. The first detection unit 112 estimates the passenger's behavior based on the passenger's video data and pre-stored video data.

なお、出力装置10は第1入力部160および第1検知部112の一方を備えていなくてもよい。第1取得部110は第1入力部160および第1検知部112の少なくとも一方から第1挙動情報を取得できればよい。 Note that the output device 10 does not need to include one of the first input section 160 and the first detection section 112. The first acquisition unit 110 only needs to be able to acquire the first behavior information from at least one of the first input unit 160 and the first detection unit 112.

上記した通り、本実施例に係る出力装置10は第2検知部122を備える。第2検知部122は、第2の移動体の挙動を検知する。第2取得部120は、第2検知部122から第2挙動情報を取得する。第2検知部122は、第2の移動体の少なくとも一部が含まれる画像を取得し、画像を用いて第2の挙動を検知し、第2挙動情報を生成する。 As described above, the output device 10 according to this embodiment includes the second detection section 122. The second detection unit 122 detects the behavior of the second moving object. The second acquisition unit 120 acquires the second behavior information from the second detection unit 122. The second detection unit 122 acquires an image that includes at least a portion of the second moving object, detects the second behavior using the image, and generates second behavior information.

第2検知部122は第2カメラ421で撮像された画像を取得する。第2カメラ421は第1の移動体の周囲を撮像するように設けられている。第2検知部122はたとえば第2カメラ421から取得された画像において特徴点の抽出、解析等を行い、第2の移動体を抽出する。たとえば、横断歩道の端に存在する歩行者や、第1の移動体の斜め前方に位置する対向車等が第2の移動体として抽出される。 The second detection unit 122 acquires an image captured by the second camera 421. The second camera 421 is provided to image the surroundings of the first moving body. The second detection unit 122 extracts and analyzes feature points in the image acquired from the second camera 421, for example, and extracts the second moving object. For example, a pedestrian at the edge of a crosswalk, an oncoming vehicle located diagonally in front of the first moving object, etc. are extracted as the second moving object.

第2検知部122は取得した画像において、たとえば特徴点の抽出、解析等を行い第2の移動体の第2の挙動を検知する。第2の挙動についての特徴点のパターンを示す情報は挙動の内容ごとに予め記憶部170に保持されており、第2検知部122はそれを読み出して検知に用いることができる。第2検知部122は第2の挙動を検知すると、その挙動の内容を示す情報を第1挙動情報として生成する。第2検知部122で第2挙動情報が生成されると、第2取得部120がその第2挙動情報を取得する。 The second detection unit 122 detects the second behavior of the second moving object by extracting and analyzing feature points in the acquired image, for example. Information indicating the pattern of feature points regarding the second behavior is stored in advance in the storage unit 170 for each content of the behavior, and the second detection unit 122 can read it and use it for detection. When the second detection unit 122 detects the second behavior, it generates information indicating the content of the behavior as first behavior information. When the second behavior information is generated by the second detection unit 122, the second acquisition unit 120 acquires the second behavior information.

なお、第2検知部122は動画等、複数の画像に基づき第2の移動体の抽出、および第2の挙動の検知をそれぞれ行っても良い。また、第2検知部122は、第1検知部112と同様、ToFカメラやライダーを利用することで第2の挙動を検知してもよく、深層学習を利用してもよい。 Note that the second detection unit 122 may extract the second moving object and detect the second behavior based on a plurality of images such as a moving image. Further, like the first detection unit 112, the second detection unit 122 may detect the second behavior by using a ToF camera or lidar, or may use deep learning.

ここで第2取得部120は、第1の挙動の発生から所定期間T1内における、第2の挙動を示す第2挙動情報を取得する。第2検知部122は、たとえば第1検知部112が第1の挙動を検知してから所定期間T1内の挙動のみを第2の挙動として検知してもよい。 Here, the second acquisition unit 120 acquires second behavior information indicating the second behavior within a predetermined period T1 from the occurrence of the first behavior. The second detection unit 122 may detect, for example, only the behavior within a predetermined period T1 after the first detection unit 112 detects the first behavior as the second behavior.

また、第2検知部122がタイミングにかかわらず第2の挙動を検知する場合、第2取得部120は第1の挙動を検知してから所定期間T1を超えて第2の挙動が行われた場合、その第2の挙動を示す第2挙動情報を取得しなくてもよい。この場合、第2挙動情報と、その第2挙動情報が示す第2の挙動が行われた時間を示す情報とを第2取得部120は合わせて取得する。さらに、第2取得部120は第1の挙動の発生時刻を示す情報を取得する。なお、第1の挙動の発生時刻と第1取得部110が第1挙動情報を取得する時刻とがほぼ同じであり、第2の挙動の発生時刻と第2取得部120が第2挙動情報を取得しようとする時刻とがほぼ同じである場合、第2取得部120は第1取得部110が第1挙動情報を取得した時刻と、第2取得部120が第2挙動情報を取得しようとする時刻とを比較して、第1の挙動を検知してから所定期間T1内に第2の挙動が行われたか否かを判定してもよい。 Further, when the second detection unit 122 detects the second behavior regardless of the timing, the second acquisition unit 120 detects the second behavior if the second behavior is performed for a predetermined period exceeding T1 after detecting the first behavior. In this case, it is not necessary to acquire second behavior information indicating the second behavior. In this case, the second acquisition unit 120 acquires the second behavior information and information indicating the time when the second behavior indicated by the second behavior information was performed. Further, the second acquisition unit 120 acquires information indicating the time at which the first behavior occurs. Note that the time at which the first behavior occurs and the time at which the first acquisition unit 110 acquires the first behavior information are approximately the same, and the time at which the second behavior occurs and the time at which the second acquisition unit 120 acquires the second behavior information are approximately the same. If the time to be acquired is almost the same, the second acquisition unit 120 uses the time when the first acquisition unit 110 acquired the first behavior information and the time at which the second acquisition unit 120 attempts to acquire the second behavior information. It may be determined whether the second behavior is performed within a predetermined period T1 after the first behavior is detected by comparing the time.

また、第1取得部110および第2取得部120はタイミングにかかわらず第1挙動情報および第2挙動情報をそれぞれ取得してもよい。この場合については後に詳述する。 Furthermore, the first acquisition unit 110 and the second acquisition unit 120 may acquire the first behavior information and the second behavior information, respectively, regardless of the timing. This case will be explained in detail later.

上記した通り、出力装置10は判定部140を備える。判定部140は、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべきか否かを判定する。そして、判定部140が出力すべきと判定した場合に、第1出力部150は第1挙動情報および第2挙動情報に基づく制御情報を出力する。 As described above, the output device 10 includes the determination section 140. The determination unit 140 determines whether the first output unit 150 should output control information based on the first behavior information and the second behavior information. Then, when the determination unit 140 determines that the information should be output, the first output unit 150 outputs control information based on the first behavior information and the second behavior information.

判定部140の判定結果により、出力装置10はスタンバイ状態と、非スタンバイ状態とに切り替わる。すなわち、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべきと判定した場合、出力装置10はスタンバイ状態となり、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力する必要がないと判定した場合、出力装置10は非スタンバイ状態となる。第1出力部150は、スタンバイ状態の時に第1挙動情報および第2挙動情報に基づき制御情報を出力する。一方、第1出力部150は、非スタンバイ状態の時に第1挙動情報および第2挙動情報に基づき制御情報を出力しない。 Depending on the determination result of the determination unit 140, the output device 10 is switched between a standby state and a non-standby state. That is, when the determination unit 140 determines that the first output unit 150 should output control information based on the first behavior information and the second behavior information, the output device 10 enters the standby state, and the first output unit 150 outputs the control information based on the first behavior information and the second behavior information. When it is determined that there is no need to output control information based on the first behavior information and the second behavior information, the output device 10 enters a non-standby state. The first output unit 150 outputs control information based on the first behavior information and the second behavior information when in the standby state. On the other hand, the first output unit 150 does not output control information based on the first behavior information and the second behavior information when in the non-standby state.

たとえば非スタンバイ状態では、第1検知部112および第2検知部122が挙動の検知を行わなくてもよい。また、非スタンバイ状態では第1取得部110および第2取得部120がそれぞれ第1挙動情報および第2挙動情報の取得を行わなくてもよい。また、第1出力部150は、第1挙動情報および第2挙動情報に基づき制御情報を生成しなくてもよい。なお、第1出力部150は、非スタンバイ状態において、第1挙動情報および第2挙動情報に基づかない他の制御情報を生成し、出力してもよい。 For example, in a non-standby state, the first detection unit 112 and the second detection unit 122 do not need to detect behavior. Further, in the non-standby state, the first acquisition unit 110 and the second acquisition unit 120 do not need to acquire the first behavior information and the second behavior information, respectively. Further, the first output unit 150 does not need to generate control information based on the first behavior information and the second behavior information. Note that the first output unit 150 may generate and output other control information that is not based on the first behavior information and the second behavior information in the non-standby state.

第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべきか否かを判定する判定部140を備えることにより、必要な場合にのみ第1挙動情報および第2挙動情報に基づき制御情報が生成され、出力装置10の処理負荷が軽減される。たとえば、非スタンバイ状態で第1検知部112および第2検知部122での検知が行われない場合には、第1検知部112および第2検知部122は画像の処理を行い続ける必要がない。 By including the determination unit 140 that determines whether or not the first output unit 150 should output control information based on the first behavior information and the second behavior information, the first behavior information and the second behavior can be outputted only when necessary. Control information is generated based on the information, and the processing load on the output device 10 is reduced. For example, when the first detection unit 112 and the second detection unit 122 do not perform detection in a non-standby state, the first detection unit 112 and the second detection unit 122 do not need to continue processing images.

本実施例において、判定部140は、第1の移動体の速度が予め定められた速度V以下になったとき、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。速度Vは特に限定されないが、たとえば時速2km以上時速20km以下である。第1の移動体の速度低下は、自動運転による減速でもよいし、運転者の指示、操作による減速でも良い。たとえば自動運転の制御装置が、第2の移動体単独の挙動だけでは第2の移動体の次の挙動が判断できなかった場合、減速されることがある。また、第1の移動体の搭乗者が第2の移動体を発見し、コミュニケーションが必要であると考える場合や、狭い道など周囲が注意を必要とする環境である場合に減速されることがある。予め定められた速度Vを示す情報は記憶部170に保持されており、判定部140はそれを読み出して判定に用いることができる。 In this embodiment, the determination unit 140 causes the first output unit 150 to output control information based on the first behavior information and the second behavior information when the speed of the first moving object becomes equal to or lower than a predetermined speed V. Determine that it should be output. The speed V is not particularly limited, but is, for example, 2 km/h or more and 20 km/h or less. The speed of the first moving body may be reduced by automatic operation, or may be reduced by instructions or operations from the driver. For example, if the automatic driving control device cannot determine the next behavior of the second moving object based on the behavior of the second moving object alone, the speed may be reduced. In addition, the speed may be reduced if the passenger of the first moving object discovers the second moving object and believes that communication is necessary, or if the surrounding environment requires caution, such as a narrow road. be. Information indicating the predetermined speed V is held in the storage unit 170, and the determination unit 140 can read it and use it for determination.

なお、判定部140は、第1の移動体の加速度が予め定められた加速度A以下になったとき、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定してもよい。負の加速度を加速度Aとして定めることにより、判定部140は第1の移動体が減速したときに出力装置10をスタンバイ状態にすることができる。 Note that the determination unit 140 determines that when the acceleration of the first moving object becomes equal to or less than a predetermined acceleration A, the first output unit 150 should output control information based on the first behavior information and the second behavior information. It may be determined that By determining the negative acceleration as the acceleration A, the determination unit 140 can put the output device 10 into a standby state when the first moving body decelerates.

判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定し、出力装置10がスタンバイ状態となったとき、スタンバイ状態であることがモニタ422等の表示器への表示、またはスピーカー425からの音声で、第1移動体の搭乗者に提示されてもよい。搭乗者はその提示を受けて、第1の挙動を行うことができる。 When the determination unit 140 determines that the first output unit 150 should output control information based on the first behavior information and the second behavior information and the output device 10 enters the standby state, the monitor indicates that the output device 10 is in the standby state. The information may be presented to the passenger of the first moving body by display on a display such as 422 or by sound from a speaker 425. Upon receiving the presentation, the passenger can perform the first behavior.

また、出力装置10がスタンバイ状態となったとき、第1出力部150は、第1移動体を徐行または停止させる制御情報を出力しても良い。また、出力装置10がスタンバイ状態となり、第2の移動体の存在が検知されたときに第1出力部150は、第1移動体を徐行または停止させる制御情報を出力しても良い。なお、第2の移動体は第2検知部122により、上記したのと同様の方法で検知できる。 Furthermore, when the output device 10 is in a standby state, the first output unit 150 may output control information for slowing down or stopping the first moving body. Furthermore, when the output device 10 enters a standby state and the presence of the second moving object is detected, the first output unit 150 may output control information for slowing or stopping the first moving object. Note that the second moving object can be detected by the second detection unit 122 in the same manner as described above.

また、出力装置10は、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべきと判定し、かつ、第2検知部122が第2の移動体の存在を検知したときに、出力装置10がスタンバイ状態となっても良い。この場合第2検知部122は、第2の移動体を検出しようとする処理を、出力装置10の起動中は常に行っていてもよいし、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべきと判定した後に開始してもよい。 Further, in the output device 10, the determination unit 140 determines that the first output unit 150 should output the control information based on the first behavior information and the second behavior information, and the second detection unit 122 The output device 10 may be in a standby state when the presence of a moving object is detected. In this case, the second detection unit 122 may always perform the process of detecting the second moving body while the output device 10 is activated, or the first output unit 150 may perform the process of detecting the second moving object, or the first output unit 150 may detect the first behavior information and It may start after determining that control information should be output based on behavior information.

また、第1の移動体が自動運転装置を搭載している場合、第1の移動体が自動運転装置からの補助要求情報を取得した時に、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定し、出力装置10がスタンバイ状態となっても良い。自動運転装置からは、自動運転制御にて第1の移動体が行うべき動作の判断が困難である場合に、補助要求情報が出力される。 Further, in the case where the first mobile body is equipped with an automatic driving device, when the first mobile body acquires assistance request information from the automatic driving device, the determination unit 140 determines that the first output unit 150 It may be determined that the control information should be output based on the behavior information and the second behavior information, and the output device 10 may enter a standby state. The automatic driving device outputs assistance request information when it is difficult to determine the action that the first mobile object should perform under automatic driving control.

判定部140は予め定められた時間T3ごとに判定を行う。時間T3は特に限定されないが、たとえば1秒以上の1分以下である。判定部140は、第1の移動体の速度が予め定められた速度Vを超えたとき、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力する必要がないと判定し、出力装置10を非スタンバイ状態にする。 The determination unit 140 performs determination every predetermined time T3. The time T3 is not particularly limited, but is, for example, 1 second or more and 1 minute or less. The determination unit 140 determines that when the speed of the first moving object exceeds a predetermined speed V, the first output unit 150 does not need to output the control information based on the first behavior information and the second behavior information. The determination is made and the output device 10 is placed in a non-standby state.

第1出力部150は、第1挙動情報および第2挙動情報に基づき制御情報を出力する。スタンバイ状態において、第1取得部110が第1挙動情報を取得し、第2取得部120が第2挙動情報を取得すると、第1出力部150は取得された第1挙動情報と第2挙動情報との組み合わせに基づき制御情報を生成し、出力する。第1挙動情報と第2挙動情報との組み合わせと、生成すべき制御情報との関係は、第1の移動体と第2の移動体との間で想定されるコミュニケーションのパターンに基づいて予め定められている。そして、第1挙動情報と第2挙動情報との組み合わせと、生成すべき制御情報との関係を示す参照情報が予め記憶部170に保持されており、第1出力部150は記憶部170から参照情報を読み出して制御情報の生成に用いることができる。 The first output unit 150 outputs control information based on the first behavior information and the second behavior information. In the standby state, when the first acquisition unit 110 acquires the first behavior information and the second acquisition unit 120 acquires the second behavior information, the first output unit 150 outputs the acquired first behavior information and second behavior information. Control information is generated and output based on the combination. The relationship between the combination of the first behavior information and the second behavior information and the control information to be generated is determined in advance based on the pattern of communication assumed between the first mobile body and the second mobile body. It is being Reference information indicating the relationship between the combination of the first behavior information and the second behavior information and the control information to be generated is stored in advance in the storage unit 170, and the first output unit 150 refers to the relationship between the combination of the first behavior information and the second behavior information and the control information to be generated. Information can be read and used to generate control information.

第1取得部110および第2取得部120がタイミングにかかわらず第1挙動情報および第2挙動情報をそれぞれ取得する場合、第1の挙動を検知してから所定期間T1内に第2の挙動が行われたか否かを第1出力部150が判定してもよい。第1出力部150は、第1挙動情報および第2挙動情報がそれぞれ生成された時刻、第1挙動情報および第2挙動情報がそれぞれ第1取得部110および第2取得部120に取得された時刻の少なくともいずれかを用いて判定を行える。第1出力部150は、第1の挙動の発生から所定期間T1内における、第2の挙動を示す第2挙動情報が第2取得部120で取得された場合にのみ第1挙動情報及び第2挙動情報に基づき、制御情報を生成し、出力する。 When the first acquisition unit 110 and the second acquisition unit 120 respectively acquire the first behavior information and the second behavior information regardless of the timing, the second behavior is detected within a predetermined period T1 after detecting the first behavior. The first output unit 150 may determine whether or not it has been performed. The first output unit 150 outputs the time when the first behavior information and the second behavior information are respectively generated, and the time when the first behavior information and the second behavior information are respectively acquired by the first acquisition unit 110 and the second acquisition unit 120. The determination can be made using at least one of the following. The first output unit 150 outputs the first behavior information and the second behavior information only when the second behavior information indicating the second behavior is acquired by the second acquisition unit 120 within a predetermined period T1 from the occurrence of the first behavior. Generate and output control information based on behavior information.

第1出力部150から出力された制御情報により、第1の移動体が制御される。制御情報はたとえば第1の移動体を停止させるための情報、第1の移動体を発進させるための情報等である。 The first moving body is controlled by the control information output from the first output unit 150. The control information includes, for example, information for stopping the first moving body, information for starting the first moving body, and the like.

図5は、実施例1に係る出力装置10で行われる処理を例示するフローチャートである。以下では、第1の挙動を検知してから所定期間T1内に第2の挙動が行われたか否かを第1出力部150が判定する場合の例について説明するが、出力装置10で行われる処理は本例に限定されない。出力装置10では判定部140によりスタンバイ状態と非スタンバイ状態が切り替えられる。まずステップS100において第1出力部150は、出力装置10がスタンバイ状態であるかどうかを確認する。第1出力部150はたとえば判定部140からその時点での状態を示す情報を取得することができる。出力装置10がスタンバイ状態でないとき、すなわち非スタンバイ状態であるとき、第1出力部150は予め定められた時間T4経過後に再度ステップS100を行う。一方、出力装置10がスタンバイ状態であるとき、処理はステップS200に移る。時間T4は特に限定されないが、たとえば1秒以上の1分以下である。 FIG. 5 is a flowchart illustrating processing performed by the output device 10 according to the first embodiment. In the following, an example will be described in which the first output unit 150 determines whether or not the second behavior has been performed within a predetermined period T1 after detecting the first behavior. The processing is not limited to this example. In the output device 10, the determination unit 140 switches between a standby state and a non-standby state. First, in step S100, the first output unit 150 checks whether the output device 10 is in a standby state. The first output unit 150 can obtain information indicating the current state from the determination unit 140, for example. When the output device 10 is not in a standby state, that is, in a non-standby state, the first output unit 150 performs step S100 again after a predetermined time T4 has elapsed. On the other hand, when the output device 10 is in a standby state, the process moves to step S200. The time T4 is not particularly limited, but is, for example, 1 second or more and 1 minute or less.

ステップS200では、第1出力部150は第1取得部110により第1挙動情報が取得されるか否かを確認する。予め定められた待機時間T5の間に第1挙動情報が第1取得部110で取得されない場合、処理はステップS100に戻る。一方、予め定められた待機時間T5の間に第1挙動情報が第1取得部110で取得されると、処理はステップS300に移る。待機時間T5は特に限定されないが、たとえば1秒以上の1分以下である。 In step S200, the first output unit 150 checks whether the first behavior information is acquired by the first acquisition unit 110. If the first behavior information is not acquired by the first acquisition unit 110 during the predetermined waiting time T5, the process returns to step S100. On the other hand, when the first behavior information is acquired by the first acquisition unit 110 during the predetermined waiting time T5, the process moves to step S300. The waiting time T5 is not particularly limited, but is, for example, 1 second or more and 1 minute or less.

ステップS300では、第1出力部150は第2取得部120により第2挙動情報が取得されるか否かを確認する。第1挙動情報が取得されてから所定期間T1の内に第2挙動情報が第2取得部120で取得されない場合、処理はステップS100に戻る。一方、第1挙動情報が取得されてから所定期間T1の内に第2挙動情報が第2取得部120で取得されると、処理はステップS500に移る。なお、本例において、第1の挙動の発生時刻と第1取得部110が第1挙動情報を取得する時刻とがほぼ同じであり、第2の挙動の発生時刻と第2取得部120が第2挙動情報を取得する時刻とがほぼ同じであるとする。 In step S300, the first output unit 150 checks whether the second behavior information is acquired by the second acquisition unit 120. If the second behavior information is not acquired by the second acquisition unit 120 within the predetermined period T1 after the first behavior information is acquired, the process returns to step S100. On the other hand, if the second behavior information is acquired by the second acquisition unit 120 within the predetermined period T1 after the first behavior information is acquired, the process moves to step S500. Note that in this example, the time at which the first behavior occurs and the time at which the first acquisition unit 110 acquires the first behavior information are approximately the same, and the time at which the second behavior occurs and the time at which the second acquisition unit 120 acquires the first behavior information are approximately the same. It is assumed that the times at which the two behavior information are acquired are almost the same.

ステップS500では、第1出力部150は取得された第1挙動情報および第2挙動情報と、参照情報とを用いて制御情報を生成し、生成された制御情報を出力する。そして、処理は再びステップS100に戻る。 In step S500, the first output unit 150 generates control information using the acquired first behavior information and second behavior information and reference information, and outputs the generated control information. Then, the process returns to step S100 again.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、判定部140が出力すべきと判定した場合に、第1出力部150は制御情報を出力する。したがって、必要な場合にのみ第1挙動情報および第2挙動情報に基づき制御情報が生成され、出力装置10の処理負荷が軽減される。 In addition, according to this embodiment, when the determination unit 140 determines that the control information should be output, the first output unit 150 outputs the control information. Therefore, control information is generated based on the first behavior information and the second behavior information only when necessary, and the processing load on the output device 10 is reduced.

(実施例2)
図6は、実施例2に係る出力装置10で行われる処理を例示するフローチャートである。本実施例に係る出力装置10は、以下に説明する点を除いて、実施例1に係る出力装置10と同じである。本実施例に係る出力装置10では、第1取得部110は、第2の挙動の発生から所定期間T2内における、搭乗者の第3の挙動を示す第3挙動情報をさらに取得する。第1出力部150は、第3挙動情報にさらに基づき、制御情報を出力する。以下に詳しく説明する。
(Example 2)
FIG. 6 is a flowchart illustrating processing performed by the output device 10 according to the second embodiment. The output device 10 according to this embodiment is the same as the output device 10 according to the first embodiment except for the points described below. In the output device 10 according to the present embodiment, the first acquisition unit 110 further acquires third behavior information indicating the third behavior of the passenger within a predetermined period T2 from the occurrence of the second behavior. The first output unit 150 outputs control information further based on the third behavior information. This will be explained in detail below.

第3の挙動は、第2の移動体による第2の挙動を受けた第1の移動体の搭乗者の挙動である。第2の挙動を受けた第1の移動体の搭乗者は、たとえば第2の移動体に感謝の意志を示したり、第2の挙動を受けて第1の移動体の次の動きに向けた行動を起こしたりする。第3の挙動はたとえば、片手を上げる挙動、会釈をする挙動などの搭乗者の挙動、周囲の安全確認をするまたは歩行者を注視するなどの搭乗者の視線に関する挙動、または、第1の移動体のヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる操作をする挙動、または第1の移動体のクラクションを一回以上鳴らす操作をする挙動である。 The third behavior is the behavior of the passenger of the first moving body who has received the second behavior by the second moving body. The passenger of the first moving object that received the second behavior may, for example, express gratitude to the second moving object, or respond to the second behavior and direct his or her attention toward the next movement of the first moving object. take action. The third behavior is, for example, the behavior of the passenger such as raising one hand or nodding, the behavior related to the passenger's line of sight such as checking the safety of the surrounding area or watching pedestrians, or the first movement. This is a behavior that causes the body's headlights, hazard lights, or brake lights to flash one or more times, or a behavior that causes the horn of the first moving body to sound one or more times.

本実施例に係る出力装置10では、第1出力部150が、第1挙動情報、および第2挙動情報に加えて、さらに第3挙動情報に基づき制御情報を出力する。したがって、第1の移動体の搭乗者と第2の移動体とのコミュニケーションの結果をより精度良く把握して、第1の移動体を制御することができる。 In the output device 10 according to the present embodiment, the first output unit 150 outputs control information based on the third behavior information in addition to the first behavior information and the second behavior information. Therefore, the result of the communication between the passenger of the first moving body and the second moving body can be grasped more accurately, and the first moving body can be controlled.

本実施例に係る出力装置10では、第1取得部110は第1の挙動の取得と同様に第3の挙動を取得する。第3挙動情報は、第3の挙動がどの挙動であるかを示すID等である。第3の挙動は、第2の移動体に向けた挙動であってもよいし、第2の移動体に向けた挙動でなくてもよい。なお、第3の挙動は第2の移動体から直接または間接的に認識されうる挙動であることが好ましい。 In the output device 10 according to the present embodiment, the first acquisition unit 110 acquires the third behavior in the same way as acquiring the first behavior. The third behavior information is an ID or the like indicating which behavior is the third behavior. The third behavior may be a behavior toward the second moving body, or may not be a behavior toward the second moving body. Note that the third behavior is preferably a behavior that can be recognized directly or indirectly from the second moving object.

また、第3の挙動は、第1の挙動と同様、第1入力部160への入力であって良い。たとえば搭乗者が第1入力部160に第3の挙動の候補として定められた複数の入力操作のうちいずれかの入力操作を行うと、第1取得部110はその操作内容を示す情報を第3挙動情報として取得する。 Furthermore, the third behavior may be an input to the first input unit 160, similar to the first behavior. For example, when the passenger performs an input operation on the first input unit 160 out of a plurality of input operations determined as candidates for the third behavior, the first acquisition unit 110 transfers information indicating the operation contents to the third input unit 160. Obtained as behavior information.

さらに、第3の挙動は、第1の挙動と同様、第1検知部112で検知される挙動であっても良い。第1検知部112は第1の挙動の検知と同様にして第3の挙動の検知を行える。第3の挙動についての特徴点のパターンを示す情報は挙動の内容ごとに予め記憶部170に保持されており、第1検知部112はそれを読み出して検知に用いることができる。第1検知部112は第3の挙動を検知すると、第1検知部112はその挙動の内容を示す情報を第3挙動情報として生成する。第1検知部112で第3挙動情報が生成されると、第1取得部110がその第3挙動情報を取得する。 Furthermore, like the first behavior, the third behavior may be a behavior detected by the first detection unit 112. The first detection unit 112 can detect the third behavior in the same manner as the detection of the first behavior. Information indicating the pattern of feature points for the third behavior is stored in advance in the storage unit 170 for each content of the behavior, and the first detection unit 112 can read it and use it for detection. When the first detection unit 112 detects the third behavior, the first detection unit 112 generates information indicating the content of the behavior as third behavior information. When the first detection unit 112 generates the third behavior information, the first acquisition unit 110 acquires the third behavior information.

ここで第1取得部110は、第2の挙動の発生から所定期間T2内における、第3の挙動を示す第3挙動情報を取得する。なお、第1の挙動の発生から第2の挙動の発生の間の所定期間T1と、第2の挙動の発生から第3の挙動の発生の間の所定期間T2とは互いに同じであっても良いし、異なっていても良い。所定期間T2は、第2の挙動を受けて第1の移動体の搭乗者が反応するのに要すると想定される時間に基づき、予め定められている。所定期間T2は、たとえば5秒以内、または3秒以内である。 Here, the first acquisition unit 110 acquires third behavior information indicating the third behavior within a predetermined period T2 from the occurrence of the second behavior. Note that even if the predetermined period T1 between the occurrence of the first behavior and the occurrence of the second behavior is the same as the predetermined period T2 between the occurrence of the second behavior and the occurrence of the third behavior, It's okay and it's okay to be different. The predetermined period T2 is predetermined based on the time expected for the passenger of the first moving object to react in response to the second behavior. The predetermined period T2 is, for example, within 5 seconds or within 3 seconds.

第1検知部112は、たとえば第2検知部122が第2の挙動を検知してから所定期間T2内の挙動のみを第3の挙動として検知してもよい。 The first detection unit 112 may detect, for example, only the behavior within a predetermined period T2 after the second detection unit 122 detects the second behavior as the third behavior.

また、第1検知部112がタイミングにかかわらず第1の挙動を検知する場合、第1取得部110は第2の挙動を検知してから所定期間T2を超えて第3の挙動が行われた場合、その第3の挙動を示す第3挙動情報を取得しなくてもよい。この場合、第3挙動情報と、その第3挙動情報が示す第3の挙動が行われた時間を示す情報とを第2取得部120は合わせて取得する。さらに、第2取得部120は第3の挙動の発生時刻を示す情報を取得する。なお、第2の挙動の発生時刻と第2取得部120が第2挙動情報を取得する時刻とがほぼ同じであり、第3の挙動の発生時刻と第1取得部110が第3挙動情報を取得しようとする時刻とがほぼ同じである場合、第1取得部110は第2取得部120が第2挙動情報を取得する時刻と、第1取得部110が第3挙動情報を取得しようとする時刻とを比較して、第2の挙動を検知してから所定期間T2内に第3の挙動が行われたか否かを判定してもよい。 In addition, when the first detection unit 112 detects the first behavior regardless of the timing, the first acquisition unit 110 detects the second behavior and detects that the third behavior is performed after a predetermined period T2. In this case, it is not necessary to acquire third behavior information indicating the third behavior. In this case, the second acquisition unit 120 acquires the third behavior information and information indicating the time when the third behavior indicated by the third behavior information was performed. Further, the second acquisition unit 120 acquires information indicating the time when the third behavior occurs. Note that the occurrence time of the second behavior and the time when the second acquisition unit 120 acquires the second behavior information are almost the same, and the occurrence time of the third behavior and the time when the first acquisition unit 110 acquires the third behavior information are almost the same. If the times at which the first acquisition unit 110 attempts to acquire the second behavior information are almost the same, the first acquisition unit 110 attempts to acquire the third behavior information at the time at which the second acquisition unit 120 acquires the second behavior information. It may be determined whether the third behavior is performed within a predetermined period T2 after the second behavior is detected by comparing the time.

また、第2取得部120および第1取得部110はタイミングにかかわらず第2挙動情報および第3挙動情報をそれぞれ取得してもよい。この場合、第2の挙動を検知してから所定期間T2内に第3の挙動が行われたか否かを第1出力部150が判定してもよい。第1出力部150は、第2挙動情報および第3挙動情報がそれぞれ生成された時刻、第2挙動情報および第3挙動情報がそれぞれ第2取得部120および第1取得部110に取得された時刻の少なくともいずれかを用いて判定を行える。第1出力部150は、第2の挙動の発生から所定期間T2内における、第3の挙動を示す第3挙動情報が第1取得部110で取得された場合にのみ、第1挙動情報、第2挙動情報、および第3挙動情報に基づき、制御情報を生成し、出力する。 Further, the second acquisition unit 120 and the first acquisition unit 110 may acquire the second behavior information and the third behavior information, respectively, regardless of the timing. In this case, the first output unit 150 may determine whether the third behavior is performed within the predetermined period T2 after detecting the second behavior. The first output unit 150 outputs the time when the second behavior information and the third behavior information are respectively generated, and the time when the second behavior information and the third behavior information are respectively acquired by the second acquisition unit 120 and the first acquisition unit 110. The determination can be made using at least one of the following. The first output unit 150 outputs the first behavior information and the first behavior information only when the first acquisition unit 110 acquires the third behavior information indicating the third behavior within the predetermined period T2 from the occurrence of the second behavior. Based on the second behavior information and the third behavior information, control information is generated and output.

図6を参照し、本実施例に係る出力方法について以下に説明する。本実施例において、ステップS100からステップS300までは実施例1と同様に行われる。本実施例において、ステップS300では、第1挙動情報が取得されてから所定期間T1の内に第2挙動情報が第2取得部120で取得されると、処理はステップS400に移る。 The output method according to this embodiment will be described below with reference to FIG. 6. In this embodiment, steps S100 to S300 are performed in the same manner as in the first embodiment. In this embodiment, in step S300, if the second behavior information is acquired by the second acquisition unit 120 within a predetermined period T1 after the first behavior information is acquired, the process moves to step S400.

ステップS400では、第1出力部150は第1取得部110により第3挙動情報が取得されるか否かを確認する。第2挙動情報が取得されてから所定期間T2の間に第3挙動情報が第1取得部110で取得されない場合、処理はステップS100に戻る。一方、第2挙動情報が取得されてから所定期間T2の間に第3挙動情報が第1取得部110で取得されると、処理はステップS500に移る。なお、本例において、第2の挙動の発生時刻と第2取得部120が第2挙動情報を取得する時刻とがほぼ同じであり、第3の挙動の発生時刻と第1取得部110が第3挙動情報を取得する時刻とがほぼ同じであるとする。 In step S400, the first output unit 150 checks whether the first acquisition unit 110 acquires the third behavior information. If the third behavior information is not acquired by the first acquisition unit 110 during the predetermined period T2 after the second behavior information is acquired, the process returns to step S100. On the other hand, if the third behavior information is acquired by the first acquisition unit 110 during the predetermined period T2 after the second behavior information is acquired, the process moves to step S500. In this example, the occurrence time of the second behavior and the time when the second acquisition unit 120 acquires the second behavior information are almost the same, and the occurrence time of the third behavior and the time when the first acquisition unit 110 acquires the second behavior information are almost the same. 3. It is assumed that the times at which the behavior information is acquired are almost the same.

ステップS500では、第1出力部150は取得された第1挙動情報、第2挙動情報、および第3挙動情報と、参照情報とを用いて制御情報を生成し、生成された制御情報を出力する。そして、処理は再びステップS100に戻る。 In step S500, the first output unit 150 generates control information using the acquired first behavior information, second behavior information, and third behavior information and reference information, and outputs the generated control information. . Then, the process returns to step S100 again.

本実施例において、参照情報は第1挙動情報、第2挙動情報、および第3挙動情報の組み合わせと、生成すべき制御情報との関係を示す情報である。 In this embodiment, the reference information is information indicating the relationship between the combination of the first behavior information, the second behavior information, and the third behavior information and the control information to be generated.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、第1出力部150は、第3挙動情報にさらに基づき、制御情報を出力する。したがって、第1の移動体の搭乗者と第2の移動体とのコミュニケーションの結果をより精度良く把握して、第1の移動体が制御される。 In addition, according to this embodiment, the first output unit 150 outputs control information further based on the third behavior information. Therefore, the first moving object is controlled by grasping the result of communication between the passenger of the first moving object and the second moving object with higher accuracy.

(実施例3)
実施例3に係る出力装置10は、判定部140が、第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する点を除いて実施例1または実施例2の少なくともいずれかに係る出力装置10と同じである。以下に詳しく説明する。
(Example 3)
In the output device 10 according to the third embodiment, when the first moving object is located within a predetermined range from a crosswalk or an intersection, the first output section 150 outputs the first behavior information and the second behavior. The output device 10 is the same as the output device 10 according to at least one of the first embodiment and the second embodiment, except that it is determined that control information should be output based on the information. This will be explained in detail below.

横断歩道や交差点の近辺では、第1の移動体の搭乗者と第2の移動体とのコミュニケーションが必要となる可能性が高い。したがって、第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、判定部140が出力装置10をスタンバイ状態にすることで、横断歩道や交差点の近辺で、スムーズに自動運転が行われる。 In the vicinity of a crosswalk or an intersection, there is a high possibility that communication between the passenger of the first moving object and the second moving object will be necessary. Therefore, when the first moving object is located within a predetermined range from a crosswalk or an intersection, the determination unit 140 puts the output device 10 on standby, thereby allowing smooth automatic driving near the crosswalk or intersection. will be held.

本実施例に係る判定部140は第1の移動体の位置情報と、少なくとも第1の移動体が位置する領域の地図情報を取得する。第1の移動体はたとえばGPS(Global Positioning System)の受信機を搭載しており、判定部140は第1の移動体に搭載されたGPS装置から第1の移動体の位置を示す位置情報を取得する。また、地図情報は予め記憶部170に保持されており、判定部140はそれを読み出して用いることができる。また、判定部140は通信網を介して外部のサーバから地図情報を取得しても良い。地図情報には横断歩道の位置を示す情報および交差点の位置を示す情報が含まれている。 The determination unit 140 according to this embodiment acquires the position information of the first moving object and at least map information of the area where the first moving object is located. The first mobile body is equipped with, for example, a GPS (Global Positioning System) receiver, and the determination unit 140 receives position information indicating the position of the first mobile body from the GPS device installed in the first mobile body. get. Further, the map information is stored in advance in the storage unit 170, and the determination unit 140 can read and use it. Further, the determination unit 140 may obtain map information from an external server via a communication network. The map information includes information indicating the location of a crosswalk and information indicating the location of an intersection.

判定部140は取得した位置情報および地図情報を用いて、第1の移動体が横断歩道または交差点から所定の範囲内に位置するか否か判定する。所定の範囲内は、第1の移動体の搭乗者と第2の移動体とのコミュニケーションが必要になる範囲を想定して定められる。所定の範囲内とは、たとえば第1の移動体と横断歩道または交差点との距離がL[m]以内であることを示す。Lはたとえば2以上100以下である。なお、判定部140は、第1の移動体の進行方向の前方に横断歩道または交差点が位置する場合にのみ、第1の移動体が横断歩道または交差点から所定の範囲内に位置すると判定しても良い。 The determining unit 140 uses the acquired position information and map information to determine whether the first moving object is located within a predetermined range from a crosswalk or an intersection. The predetermined range is determined assuming a range in which communication between the passenger of the first moving body and the second moving body is required. "Within a predetermined range" means, for example, that the distance between the first moving object and the crosswalk or intersection is within L [m]. L is, for example, 2 or more and 100 or less. Note that the determination unit 140 determines that the first mobile object is located within a predetermined range from the crosswalk or intersection only when the crosswalk or intersection is located in front of the first mobile object in the direction of travel. Also good.

判定部140は、第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。すなわち、出力装置10をスタンバイ状態にする。一方、第1の移動体が横断歩道または交差点から所定の範囲内に位置しないときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力する必要が無いと判定する。すなわち、出力装置10を非スタンバイ状態にする。 The determination unit 140 determines that the first output unit 150 should output control information based on the first behavior information and the second behavior information when the first moving object is located within a predetermined range from a crosswalk or an intersection. judge. That is, the output device 10 is placed in a standby state. On the other hand, when the first moving object is not located within a predetermined range from a crosswalk or an intersection, the first output unit 150 determines that there is no need to output the control information based on the first behavior information and the second behavior information. do. That is, the output device 10 is placed in a non-standby state.

また、本実施例においては、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する根拠となる事実毎に、参照情報が準備されていても良い。この場合、判定部140は、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定した場合、その判定の根拠となる事実(たとえば、「横断歩道から所定の範囲内に位置すること」、「第1の移動体の速度が予め定められた速度以下になったこと」)を示す情報を生成する。 Further, in this embodiment, the reference information is prepared for each fact that is the basis for determining that the first output unit 150 should output control information based on the first behavior information and the second behavior information. It's okay if it's done. In this case, when the first output unit 150 determines that control information should be output based on the first behavior information and the second behavior information, the determination unit 140 determines that the fact that is the basis for the determination (for example, “from the crosswalk The first moving object generates information indicating that the first moving object is located within a predetermined range, and that the speed of the first moving object has become less than a predetermined speed.

第1出力部150はステップS500において、判定部140から判定の根拠となる事実を示す情報を取得し、その情報が示す事実に対応する参照情報を記憶部170から読み出す。そして第1出力部150は読み出した参照情報を用いて制御情報を生成し、出力する。 In step S500, the first output unit 150 acquires information indicating the fact that is the basis of the determination from the determination unit 140, and reads reference information corresponding to the fact indicated by the information from the storage unit 170. The first output unit 150 then generates control information using the read reference information and outputs it.

第1の移動体の搭乗者と第2の移動体とのコミュニケーションの内容は、そのコミュニケーションが行われる場面によって異なり得る。そこで、根拠となる事実毎に準備された参照情報を用いて第1出力部150が制御情報を出力することにより、各場面でスムーズな自動運転が行われる。 The content of communication between the passenger of the first moving object and the second moving object may vary depending on the scene in which the communication takes place. Therefore, by having the first output unit 150 output control information using reference information prepared for each fact as a basis, smooth automatic driving is performed in each scene.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、判定部140が、第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。したがって、横断歩道や交差点の近辺で、スムーズに自動運転が行われる。 In addition, according to the present embodiment, when the first moving object is located within a predetermined range from a crosswalk or an intersection, the first output section 150 outputs the first behavior information and the second behavior information. It is determined that control information should be output based on the information. Therefore, automatic driving can be performed smoothly near crosswalks and intersections.

(実施例4)
実施例4に係る出力装置10では、判定部140は、第1の移動体が走行する道の幅が予め定められた条件を満たすときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する点を除いて実施例1から実施例3の少なくともいずれかに係る出力装置10と同じである。以下に詳しく説明する。
(Example 4)
In the output device 10 according to the fourth embodiment, the determination unit 140 determines that when the width of the road on which the first moving body travels satisfies a predetermined condition, the first output unit 150 outputs the first behavior information and the second behavior information. This is the same as the output device 10 according to at least one of the first to third embodiments, except that it is determined that control information should be output based on behavior information. This will be explained in detail below.

本実施例において第1の移動体は車両であり、第2の移動体は第1の移動体の対向車両である。狭い道で二車両がすれ違う場合に、対向する二車両がコミュニケーションをとって道を譲り合うことがあり得る。したがって、第1の移動体が走行する道の幅が予め定められた条件を満たすときに、判定部140が出力装置10をスタンバイ状態にすることで、狭い道でもスムーズに自動運転が行われる。 In this embodiment, the first moving body is a vehicle, and the second moving body is an oncoming vehicle of the first moving body. When two vehicles pass each other on a narrow road, the two opposing vehicles may communicate and give way to each other. Therefore, when the width of the road on which the first moving object travels satisfies a predetermined condition, the determination unit 140 puts the output device 10 into the standby state, so that automatic driving can be performed smoothly even on a narrow road.

判定部140はたとえば地図情報に含まれる道幅を用いて判定をすることができる。また、判定部140は第1の移動体の周囲が実際に測定された結果を用いて判定をしても良い。 The determination unit 140 can make the determination using, for example, the road width included in the map information. Further, the determination unit 140 may make the determination using the results of actually measuring the surroundings of the first moving body.

判定部140が、地図情報に示された道幅を用いて判定をする例について説明する。判定部140は実施例3でと同様に地図情報および第1の移動体の位置情報を取得する。本例において、地図情報は各道の幅を示す情報を含んでいる。そして判定部140は、取得した位置情報および地図情報を用いて、第1の移動体が走行する道の幅が予め定められた条件を満たすか否か判定する。この条件は、二つの移動体がすれ違う際に注意を有する程度に狭いことを示す条件である。具体的には、たとえば第1の移動体が走行する道の幅がW[m]以下である場合、判定部140は道の幅が予め定められた条件を満たすと判定する。Wはたとえば7以上10以下である。 An example in which the determination unit 140 makes a determination using the road width indicated in the map information will be described. The determination unit 140 acquires the map information and the position information of the first moving body in the same manner as in the third embodiment. In this example, the map information includes information indicating the width of each road. Then, the determination unit 140 determines whether the width of the road on which the first mobile object travels satisfies a predetermined condition using the acquired position information and map information. This condition indicates that the space is narrow enough to require caution when two moving objects pass each other. Specifically, for example, if the width of the road on which the first moving object travels is less than or equal to W [m], the determination unit 140 determines that the width of the road satisfies a predetermined condition. W is, for example, 7 or more and 10 or less.

判定部140が、第1の移動体の周囲が実際に測定された結果を用いて判定をする場合について以下に説明する。本例において、第1の移動体には、第1の移動体の横側面と、横側面に対向する構造体との距離を測定するセンサが設けられている。そして、判定部140はそのセンサから、第1の移動体の横側面と構造体との距離を取得する。構造体はたとえば道のサイドに設けられた建物、壁、またはガードレールである。判定部140は、取得した距離が予め定められた基準距離以下である場合、第1の移動体が走行する道の幅が予め定められた条件を満たすと判定する。 A case where the determination unit 140 makes a determination using the results of actually measuring the surroundings of the first moving body will be described below. In this example, the first moving body is provided with a sensor that measures the distance between the lateral side of the first moving body and the structure facing the lateral side. Then, the determination unit 140 acquires the distance between the lateral side surface of the first moving body and the structure from the sensor. The structure is, for example, a building, wall, or guardrail provided on the side of the road. If the acquired distance is less than or equal to a predetermined reference distance, the determination unit 140 determines that the width of the road on which the first moving object travels satisfies a predetermined condition.

判定部140は、第1の移動体が走行する道の幅が予め定められた条件を満たすときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。すなわち、出力装置10をスタンバイ状態にする。一方、第1の移動体が走行する道の幅が予め定められた条件を満たさないときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力する必要が無いと判定する。すなわち、出力装置10を非スタンバイ状態にする。 The determination unit 140 determines that the first output unit 150 should output control information based on the first behavior information and the second behavior information when the width of the road on which the first moving object travels satisfies a predetermined condition. It is determined that That is, the output device 10 is placed in a standby state. On the other hand, when the width of the road on which the first moving body travels does not satisfy a predetermined condition, there is no need for the first output unit 150 to output control information based on the first behavior information and the second behavior information. It is determined that That is, the output device 10 is placed in a non-standby state.

なお、本実施例においても、実施例3と同様、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する根拠となる事実毎に、参照情報が準備されていても良い。そして、第1出力部150は判定の根拠となる事実に対応する参照情報を用いて制御情報を生成し、出力してもよい。 In addition, in this example, as in Example 3, the determination unit 140 determines each fact that is the basis for determining that the first output unit 150 should output control information based on the first behavior information and the second behavior information. Reference information may also be prepared. Then, the first output unit 150 may generate control information using reference information corresponding to the fact that is the basis for the determination, and output the control information.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、判定部140は、第1の移動体が走行する道の幅が予め定められた条件を満たすときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。したがって、狭い道でもスムーズに自動運転が行われる。 In addition, according to the present embodiment, when the width of the road on which the first moving body travels satisfies a predetermined condition, the first output unit 150 outputs the first behavior information and the second behavior information. It is determined that control information should be output based on the behavior information. Therefore, automatic driving can be performed smoothly even on narrow roads.

(実施例5)
図7は、実施例5に係る出力装置10の機能構成を例示するブロック図である。本実施例に係る出力装置10は、以下に説明する点を除いて、実施例1から実施例4の少なくともいずれかに係る出力装置10と同じである。
(Example 5)
FIG. 7 is a block diagram illustrating the functional configuration of the output device 10 according to the fifth embodiment. The output device 10 according to this embodiment is the same as the output device 10 according to at least one of the first to fourth embodiments, except for the points described below.

本実施例に係る出力装置10は、第3取得部130をさらに備える。第3取得部130は、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力するべき、要注意領域を示す情報を取得する。そして判定部140は、第1の移動体が要注意領域内に位置するときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。以下に詳しく説明する。 The output device 10 according to this embodiment further includes a third acquisition section 130. The third acquisition unit 130 acquires information indicating a caution area to which the first output unit 150 should output control information based on the first behavior information and the second behavior information. The determination unit 140 determines that the first output unit 150 should output control information based on the first behavior information and the second behavior information when the first moving object is located within the caution area. This will be explained in detail below.

交差点や横断歩道、狭い道、高速道路や店の出入り口での合流等、第1の移動体の搭乗者と第2の移動体とがコミュニケーションをとる必要があり得る場所は事前にある程度予測可能である。そのような場所を要注意領域とすることにより、スムーズに自動運転が行われる領域を広げることができる。 Places where it may be necessary for passengers of a first moving object to communicate with a second moving object, such as intersections, crosswalks, narrow roads, highways, or merging at store entrances and exits, can be predicted to some extent in advance. be. By designating such locations as areas requiring attention, the area in which automated driving can be performed smoothly can be expanded.

要注意領域は、第1挙動情報および第2挙動情報に基づき制御情報を出力するべき領域である。要注意領域にはたとえば交差点や横断歩道の近傍領域、狭い道、高速道路や店の出入り口での合流点の近傍領域が含まれる。要注意領域としては第1の移動体の搭乗者と第2の移動体とのコミュニケーションの発生が予想される複数の領域を予め推測し、定めておくことができる。要注意領域を示す情報はたとえば各領域の範囲を緯度経度の範囲で示したリストである。また、要注意領域を示す情報は地図情報に紐づけられた、地図上のエリアを示す情報であっても良い。 The caution area is an area where control information should be output based on the first behavior information and the second behavior information. The caution areas include, for example, areas near intersections and crosswalks, narrow roads, expressways, and areas near confluences at store entrances and exits. As the areas requiring attention, a plurality of areas where communication between the passenger of the first moving body and the second moving body is expected to occur can be estimated and determined in advance. The information indicating the caution areas is, for example, a list indicating the range of each area in terms of latitude and longitude. Further, the information indicating the caution area may be information indicating an area on a map that is linked to map information.

第3取得部130は、たとえば通信網を介して外部のサーバから要注意領域を示す情報を取得する。また、第3取得部130は記憶部170に予め保持された要注意領域を示す情報を読み出して取得しても良い。 The third acquisition unit 130 acquires information indicating a caution area from an external server via a communication network, for example. Further, the third acquisition unit 130 may read and acquire information indicating a caution area stored in the storage unit 170 in advance.

判定部140は実施例3と同様に第1の移動体の位置情報を取得する。そして、位置情報と、第3取得部130が取得した要注意領域を示す情報とを用いて、第1の移動体が要注意領域内に位置するか否かを判定する。そして、第1の移動体が要注意領域内に位置する場合に、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。すなわち、出力装置10をスタンバイ状態にする。一方、第1の移動体が要注意領域内に位置しない場合に、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力する必要が無いと判定する。すなわち、出力装置10を非スタンバイ状態にする。 The determination unit 140 acquires the position information of the first moving object as in the third embodiment. Then, using the position information and the information indicating the caution area acquired by the third acquisition unit 130, it is determined whether the first moving object is located within the caution area. Then, when the first moving object is located within the caution area, the first output unit 150 determines that control information should be output based on the first behavior information and the second behavior information. That is, the output device 10 is placed in a standby state. On the other hand, when the first moving object is not located within the caution area, the first output unit 150 determines that there is no need to output the control information based on the first behavior information and the second behavior information. That is, the output device 10 is placed in a non-standby state.

なお、本実施例においても、実施例3と同様、判定部140が、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する根拠となる事実毎に、参照情報が準備されていても良い。そして、第1出力部150は判定の根拠となる事実に対応する参照情報を用いて制御情報を生成し、出力してもよい。 In addition, in this example, as in Example 3, the determination unit 140 determines each fact that is the basis for determining that the first output unit 150 should output control information based on the first behavior information and the second behavior information. Reference information may also be prepared. Then, the first output unit 150 may generate control information using reference information corresponding to the fact that is the basis for the determination, and output the control information.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving bodies is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、判定部140は、第1の移動体が要注意領域内に位置するときに、第1出力部150が第1挙動情報および第2挙動情報に基づき制御情報を出力すべきと判定する。したがって、スムーズに自動運転が行われる領域を広げることができる。 In addition, according to the present embodiment, when the first moving object is located within the caution area, the first output section 150 outputs control information based on the first behavior information and the second behavior information. It is determined that it should be output. Therefore, it is possible to expand the range in which automatic driving can be performed smoothly.

(実施例6)
図8は、実施例6に係る出力装置10の機能構成を例示するブロック図である。本実施例に係る出力装置10は、以下に説明する点を除いて、実施例1から実施例5の少なくともいずれかに係る出力装置10と同じである。
(Example 6)
FIG. 8 is a block diagram illustrating the functional configuration of the output device 10 according to the sixth embodiment. The output device 10 according to this embodiment is the same as the output device 10 according to at least one of the first to fifth embodiments, except for the points described below.

本実施例に係る出力装置10は、搭乗者に報知を行うための第2出力部152および第3出力部153をさらに備える。また、本実施例に係る出力装置10は、搭乗者からの入力を受け付け可能である第2入力部162をさらに備える。図4の例において、モニタ422およびスピーカー425が第2出力部152として機能する。また、モニタ422およびスピーカー425は第3出力部153としても機能する。そして、入力パネル423およびマイク424が第2入力部162として機能する。第2出力部152の出力や第3出力部153の出力は、音声、画面表示、およびAR(Augmented Reality)表示等であり得る。 The output device 10 according to the present embodiment further includes a second output section 152 and a third output section 153 for notifying the passenger. Furthermore, the output device 10 according to the present embodiment further includes a second input section 162 that can receive input from the passenger. In the example of FIG. 4, the monitor 422 and speaker 425 function as the second output section 152. Further, the monitor 422 and the speaker 425 also function as the third output section 153. The input panel 423 and the microphone 424 function as the second input section 162. The output of the second output unit 152 and the output of the third output unit 153 may be audio, screen display, AR (Augmented Reality) display, or the like.

本実施例において、第2出力部152は、第1出力部150で生成された制御情報の内容を搭乗者に報知するための報知情報を出力する。第3出力部153は、第1の移動体の搭乗者に挙動を促すための情報を出力する。また、第2入力部162は制御情報の内容を変更する入力を受け付け可能である。第1の移動体の搭乗者は、第1出力部150で生成された制御情報が示す次の動作に問題がある場合に、その動作をキャンセルする旨の入力を第2入力部162に行うことができる。これにより、第1の移動体と第2の移動体との間でスムーズな譲り合いが行われる。以下に詳しく説明する。 In this embodiment, the second output unit 152 outputs notification information for notifying the passenger of the content of the control information generated by the first output unit 150. The third output unit 153 outputs information for prompting the occupant of the first moving object to behave. Further, the second input unit 162 can accept input that changes the content of the control information. If there is a problem with the next operation indicated by the control information generated by the first output unit 150, the passenger of the first moving object inputs to the second input unit 162 that the next operation is to be canceled. Can be done. Thereby, a smooth handover is performed between the first moving body and the second moving body. This will be explained in detail below.

本実施例において、第1の移動体は自動運転装置を搭載している。たとえば第1の移動体が横断歩道に接近し、横断歩道付近に歩行者(第2の移動体)がいることが検知された場合、自動運転に基づき第1の移動体は歩行者の横断を待つために横断歩道付近の停止線の手前で停止する。 In this embodiment, the first moving body is equipped with an automatic driving device. For example, if the first mobile object approaches a crosswalk and it is detected that there is a pedestrian (second mobile object) near the crosswalk, the first mobile object will prevent the pedestrian from crossing based on automatic driving. Stop before the stop line near the crosswalk to wait.

ここで、歩行者が横断歩道の横断を開始しない場合、自動運転装置から補助要求情報が出力される。すると、判定部140は、出力装置10をスタンバイ状態とする。 Here, if the pedestrian does not start crossing the crosswalk, the automatic driving device outputs assistance request information. Then, the determination unit 140 puts the output device 10 into a standby state.

本実施例において、出力装置10がスタンバイ状態となると、第3出力部153は第1の移動体の搭乗者に、第2の移動体とのコミュニケーションを促す情報を出力する。コミュニケーションを促す情報を以下では「依頼情報」とも呼ぶ。依頼情報は、第1の移動体の搭乗者に挙動を促すための情報である。依頼情報の出力としては、たとえば「歩道付近に歩行者を検出しました。歩行者へ横断を促してもらえませんでしょうか?」のような音声案内または画面表示が行われる。また、第3出力部153は、「歩行者の横断待ちのため、車両を停車させます。」等の、第1の移動体の状態を示す情報を組み合わせて出力してもよい。また、第3出力部153の出力は、第2の移動体を強調するAR表示でもよい。 In this embodiment, when the output device 10 enters the standby state, the third output unit 153 outputs information urging the passenger of the first moving object to communicate with the second moving object. Information that promotes communication will also be referred to as "request information" below. The request information is information for prompting the passenger of the first moving object to behave. For example, the request information is output by voice guidance or screen display such as "A pedestrian has been detected near the sidewalk. Could you please encourage the pedestrian to cross?" Further, the third output unit 153 may output a combination of information indicating the state of the first moving object, such as "The vehicle will be stopped to wait for a pedestrian to cross." Further, the output of the third output unit 153 may be an AR display that emphasizes the second moving object.

依頼情報によって、第1の移動体の搭乗者は、第2の移動体との間でコミュニケーションを図る。そして、出力装置10では、第1の挙動および第2の挙動が検知される。ここで、第1取得部110は、依頼情報の出力から所定期間内に発生した搭乗者の挙動を示す情報を、第1挙動情報として取得してもよい。 Based on the request information, the passenger of the first moving object attempts to communicate with the second moving object. Then, the output device 10 detects the first behavior and the second behavior. Here, the first acquisition unit 110 may acquire information indicating the behavior of the passenger that occurs within a predetermined period from the output of the request information as the first behavior information.

次いで、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を生成する。 Next, the first output unit 150 generates control information for controlling the travel of the first moving object based on the first behavior information and the second behavior information.

図9は、実施例6に係る出力装置10で行われる処理を例示するフローチャートである。出力装置10で行われる処理は、以下に説明する点を除いて、実施例1から実施例5の少なくともいずれかに係る出力装置10で行われる処理と同じである。 FIG. 9 is a flowchart illustrating processing performed by the output device 10 according to the sixth embodiment. The processing performed by the output device 10 is the same as the processing performed by the output device 10 according to at least one of the first to fifth embodiments, except for the points described below.

本実施例において、ステップS100で、出力装置10がスタンバイ状態である場合、ステップS150において、第3出力部153は第1の移動体の搭乗者に依頼情報を提示する。すると、第1の移動体の搭乗者と第2の移動体との間でコミュニケーションが行われ、実施例1と同様にステップS200およびステップS300が行われる。ただし、ステップS200において、第1取得部110は、依頼情報の出力から所定期間内に発生した搭乗者の挙動を示す情報を、第1挙動情報として取得してもよい。 In this embodiment, if the output device 10 is in a standby state in step S100, the third output unit 153 presents request information to the passenger of the first moving object in step S150. Then, communication is performed between the passenger of the first moving object and the second moving object, and step S200 and step S300 are performed similarly to the first embodiment. However, in step S200, the first acquisition unit 110 may acquire, as the first behavior information, information indicating the behavior of the passenger that occurs within a predetermined period from the output of the request information.

ステップS300で第2挙動情報が取得されると(ステップS300のY)、ステップS501において第1出力部150は、実施例1のステップS500と同様にして制御情報を生成する。そして、ステップS502において第2出力部152は、第1出力部150で生成された制御情報の内容を搭乗者に報知するための報知情報を出力する。 When the second behavior information is acquired in step S300 (Y in step S300), the first output unit 150 generates control information in step S501 in the same manner as step S500 in the first embodiment. Then, in step S502, the second output unit 152 outputs notification information for notifying the passenger of the content of the control information generated by the first output unit 150.

次いで、ステップS503において搭乗者は、出力された報知情報に示された次の動作をキャンセルするか否か、第2入力部162に入力する。第2入力部162にキャンセルする旨の入力がされた場合(ステップS503のY)、第1出力部150は、制御情報の出力を中止し(ステップS505)、再度ステップS100に戻る。なお、この場合、第2出力部152は、代わりの動作の入力を求める報知をさらに搭乗者に対して行っても良い。その報知を受けた搭乗者は代わりの動作を示す入力を第2入力部162に対して行い、第1出力部150は、第2入力部162への入力内容に基づいた制御情報を出力する。 Next, in step S503, the passenger inputs into the second input section 162 whether or not to cancel the next operation indicated in the output notification information. If an input to cancel is made to the second input unit 162 (Y in step S503), the first output unit 150 stops outputting the control information (step S505), and returns to step S100 again. In this case, the second output unit 152 may further notify the passenger to input an alternative action. Upon receiving the notification, the passenger makes an input indicating an alternative action to the second input section 162, and the first output section 150 outputs control information based on the input contents to the second input section 162.

一方、第2入力部162にキャンセルしない旨の入力がされた場合(ステップS503のN)、第1出力部150は、生成した制御情報を出力する(ステップS504)。そして、処理が再度ステップS100に戻る。 On the other hand, when the second input unit 162 is inputted to not cancel (N in step S503), the first output unit 150 outputs the generated control information (step S504). Then, the process returns to step S100 again.

なお、ステップS503において、搭乗者が出力された報知情報に示された次の動作をキャンセルするか否かを第2入力部162に入力する例について上記したが、搭乗者は、出力された報知情報に示された次の動作を承認するか否かを第2入力部162に入力してもよい。 Note that in step S503, the passenger inputs into the second input unit 162 whether or not to cancel the next operation indicated in the output notification information. The user may input into the second input section 162 whether or not to approve the next action indicated in the information.

以上、本実施例によれば、実施形態と同様、第1出力部150は、第1挙動情報及び第2挙動情報に基づき、第1の移動体の走行を制御するための制御情報を出力する。したがって、他の移動体との意思疎通が円滑に行われ、スムーズな自動運転が実現される。 As described above, according to the present example, similarly to the embodiment, the first output unit 150 outputs control information for controlling the traveling of the first moving object based on the first behavior information and the second behavior information. . Therefore, communication with other moving objects is carried out smoothly, and smooth automatic driving is realized.

くわえて、本実施例によれば、第2出力部152は、第1出力部150で生成された制御情報の内容を搭乗者に報知するための報知情報を出力する。したがって、第1の移動体の搭乗者と第2の移動体とのコミュニケーションの結果をより精度良く把握して、第1の移動体が制御される。 In addition, according to this embodiment, the second output unit 152 outputs notification information for notifying the passenger of the content of the control information generated by the first output unit 150. Therefore, the first moving object is controlled by grasping the result of communication between the passenger of the first moving object and the second moving object with higher accuracy.

以上、図面を参照して実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。たとえば、上述の説明で用いたシーケンス図やフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施例で実行される工程の実行順序は、その記載の順番に制限されない。各実施例では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態および各実施例は、内容が相反しない範囲で組み合わせることができる。 Although the embodiments and examples have been described above with reference to the drawings, these are merely illustrative of the present invention, and various configurations other than those described above may be adopted. For example, in the sequence diagrams and flowcharts used in the above description, a plurality of steps (processes) are described in order, but the order in which the steps are executed in each embodiment is not limited to the order in which they are described. In each embodiment, the order of the illustrated steps can be changed within a range that does not affect the content. Further, each of the embodiments and examples described above can be combined as long as the contents do not conflict with each other.

以下、参考形態の例を付記する。
1-1. 第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得部と、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得部と、
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力部と、
を備える出力装置。
1-2. 1-1.に記載の出力装置において、
前記第1取得部は、前記第2の挙動の発生から所定期間内における、前記搭乗者の第3の挙動を示す第3挙動情報をさらに取得し、
前記第1出力部は、前記第3挙動情報にさらに基づき、前記制御情報を出力する出力装置。
1-3. 1-1.または1-2.に記載の出力装置において、
前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべきか否かを判定する判定部をさらに備え、
前記判定部が出力すべきと判定した場合に、前記第1出力部は前記制御情報を出力する出力装置。
1-4. 1-3.に記載の出力装置において、
前記判定部は、前記第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力装置。
1-5. 1-3.または1-4.に記載の出力装置において、
前記判定部は、前記第1の移動体の速度が予め定められた速度以下になったとき、前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力装置。
1-6. 1-3.から1-5.のいずれか一つに記載の出力装置において、
前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべき、要注意領域を示す情報を取得する第3取得部をさらに備え、
前記判定部は、前記第1の移動体が前記要注意領域内に位置するときに、前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力装置。
1-7. 1-3.から1-6.のいずれか一つに記載の出力装置において、
前記判定部は、前記第1の移動体が走行する道の幅が予め定められた条件を満たすときに、前記第1出力部が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力装置。
1-8. 1-1.から1-7.のいずれか一つに記載の出力装置において、
前記第1の挙動は、前記第2の移動体に対する前記第1の移動体の搭乗者によるジェスチャーまたは発声である出力装置。
1-9. 1-1.から1-8.のいずれか一つに記載の出力装置において、
前記第1の移動体は車両であり、前記第2の移動体は前記第1の移動体の対向車両であり、
前記第2の挙動は、前記第2の移動体がヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる挙動、またはクラクションを一回以上鳴らす挙動である出力装置。
1-10. 1-1.から1-9.のいずれか一つに記載の出力装置において、
前記第1取得部は、第1入力部への前記搭乗者の入力を受け付け可能であり、
前記第1の挙動は前記第1入力部への入力である出力装置。
1-11. 1-1.から1-10.のいずれか一つに記載の出力装置において、
前記第2の移動体の挙動を検知する検知部をさらに備え、
前記第2取得部は、前記検知部から前記第2挙動情報を取得し、
前記検知部は、
前記第2の移動体の少なくとも一部が含まれる画像を取得し、
前記画像を用いて前記第2の挙動を検知し、前記第2挙動情報を生成する出力装置。
1-12. 1-1.から1-11.のいずれか一つに記載の出力装置において、
前記制御情報の内容を前記搭乗者に報知するための報知情報を出力する第2出力部をさらに備える出力装置。
1-13. 1-1.から1-12.のいずれか一つに記載の出力装置において、
前記制御情報の内容を変更する入力を受け付け可能である第2入力部をさらに備える出力装置。
1-14. 1-1.から1-13.のいずれか一つに記載の出力装置において、
前記搭乗者に挙動を促すための依頼情報を出力する第3出力部をさらに備える出力装置。
1-15. 1-14.に記載の出力装置において、
前記第1取得部は、前記依頼情報の出力から所定期間内に発生した前記搭乗者の挙動を示す情報を前記第1挙動情報として取得する出力装置。
2-1. 第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得ステップと、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得ステップと、
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力ステップと、
を含む出力方法。
2-2. 2-1.に記載の出力方法において、
前記第2の挙動の発生から所定期間内における、前記搭乗者の第3の挙動を示す第3挙動情報をさらに取得し、
前記第1出力ステップでは、前記第3挙動情報にさらに基づき、前記制御情報を出力する出力方法。
2-3. 2-1.または2-2.に記載の出力方法において、
前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべきか否かを判定する判定ステップをさらに備え、
前記判定ステップで出力すべきと判定した場合に、前記第1出力ステップで前記制御情報を出力する出力方法。
2-4. 2-3.に記載の出力方法において、
前記判定ステップでは、前記第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力方法。
2-5. 2-3.または2-4.に記載の出力方法において、
前記判定ステップでは、前記第1の移動体の速度が予め定められた速度以下になったとき、前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力方法。
2-6. 2-3.から2-5.のいずれか一つに記載の出力方法において、
前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべき、要注意領域を示す情報を取得する第3取得ステップをさらに含み、
前記判定ステップでは、前記第1の移動体が前記要注意領域内に位置するときに、前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力方法。
2-7. 2-3.から2-6.のいずれか一つに記載の出力方法において、
前記判定ステップでは、前記第1の移動体が走行する道の幅が予め定められた条件を満たすときに、前記第1出力ステップで前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定する出力方法。
2-8. 2-1.から2-7.のいずれか一つに記載の出力方法において、
前記第1の挙動は、前記第2の移動体に対する前記第1の移動体の搭乗者によるジェスチャーまたは発声である出力方法。
2-9. 2-1.から2-8.のいずれか一つに記載の出力方法において、
前記第1の移動体は車両であり、前記第2の移動体は前記第1の移動体の対向車両であり、
前記第2の挙動は、前記第2の移動体がヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる挙動、またはクラクションを一回以上鳴らす挙動である出力方法。
2-10. 2-1.から2-9.のいずれか一つに記載の出力方法において、
前記第1取得ステップでは、第1入力部への前記搭乗者の入力を受け付け可能であり、
前記第1の挙動は前記第1入力部への入力である出力方法。
2-11. 2-1.から2-10.のいずれか一つに記載の出力方法において、
前記第2の移動体の挙動を検知する検知ステップをさらに備え、
前記第2取得ステップでは、前記検知ステップで生成された前記第2挙動情報を取得し、
前記検知ステップでは、
前記第2の移動体の少なくとも一部が含まれる画像を取得し、
前記画像を用いて前記第2の挙動を検知し、前記第2挙動情報を生成する出力方法。
2-12. 2-1.から2-11.のいずれか一つに記載の出力方法において、
前記制御情報の内容を前記搭乗者に報知するための報知情報を出力するステップをさらに含む出力方法。
2-13. 2-1.から2-12.のいずれか一つに記載の出力方法において、
前記制御情報の内容を変更する入力を受け付け可能であるステップをさらに含む出力方法。
2-14. 2-1.から2-13.のいずれか一つに記載の出力方法において、
前記搭乗者に挙動を促すための依頼情報を出力する第3出力ステップをさらに備える出力方法。
2-15. 2-14.に記載の出力方法において、
前記第1取得ステップでは、前記依頼情報の出力から所定期間内に発生した前記搭乗者の挙動を示す情報を前記第1挙動情報として取得する出力方法。
3-1. 出力装置を実現するためのコンピュータプログラムであって、
コンピュータを、
第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得手段、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得手段、および
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力手段、
として機能させるコンピュータプログラム。
3-2. 3-1.に記載のコンピュータプログラムにおいて、
前記第1取得手段は、前記第2の挙動の発生から所定期間内における、前記搭乗者の第3の挙動を示す第3挙動情報をさらに取得し、
前記第1出力手段は、前記第3挙動情報にさらに基づき、前記制御情報を出力するコンピュータプログラム。
3-3. 3-1.または3-2.に記載のコンピュータプログラムにおいて、
前記コンピュータを、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべきか否かを判定する判定手段としてさらに機能させ、
前記判定手段が出力すべきと判定した場合に、前記第1出力手段は前記制御情報を出力するコンピュータプログラム。
3-4. 3-3.に記載のコンピュータプログラムにおいて、
前記判定手段は、前記第1の移動体が横断歩道または交差点から所定の範囲内に位置するときに、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定するコンピュータプログラム。
3-5. 3-3.または3-4.に記載のコンピュータプログラムにおいて、
前記判定手段は、前記第1の移動体の速度が予め定められた速度以下になったとき、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定するコンピュータプログラム。
3-6. 3-3.から3-5.のいずれか一つに記載のコンピュータプログラムにおいて、
前記コンピュータを、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力するべき、要注意領域を示す情報を取得する第3取得手段としてさらに機能させ、
前記判定手段は、前記第1の移動体が前記要注意領域内に位置するときに、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定するコンピュータプログラム。
3-7. 3-3.から3-6.のいずれか一つに記載のコンピュータプログラムにおいて、
前記判定手段は、前記第1の移動体が走行する道の幅が予め定められた条件を満たすときに、前記第1出力手段が前記第1挙動情報および前記第2挙動情報に基づき前記制御情報を出力すべきと判定するコンピュータプログラム。
3-8. 3-1.から3-7.のいずれか一つに記載のコンピュータプログラムにおいて、
前記第1の挙動は、前記第2の移動体に対する前記第1の移動体の搭乗者によるジェスチャーまたは発声であるコンピュータプログラム。
3-9. 3-1.から3-8.のいずれか一つに記載のコンピュータプログラムにおいて、
前記第1の移動体は車両であり、前記第2の移動体は前記第1の移動体の対向車両であり、
前記第2の挙動は、前記第2の移動体がヘッドライト、ハザードランプ、もしくはブレーキランプを一回以上点滅させる挙動、またはクラクションを一回以上鳴らす挙動であるコンピュータプログラム。
3-10. 3-1.から3-9.のいずれか一つに記載のコンピュータプログラムにおいて、
前記第1取得手段は、入力手段への前記搭乗者の入力を受け付け可能であり、
前記第1の挙動は前記入力手段への入力であるコンピュータプログラム。
3-11. 3-1.から3-10.のいずれか一つに記載のコンピュータプログラムにおいて、
前記コンピュータを前記第2の移動体の挙動を検知する検知手段としてさらに機能させ、
前記第2取得部は、前記検知手段から前記第2挙動情報を取得し、
前記検知手段は、
前記第2の移動体の少なくとも一部が含まれる画像を取得し、
前記画像を用いて前記第2の挙動を検知し、前記第2挙動情報を生成するコンピュータプログラム。
3-12. 3-1.から3-11.のいずれか一つに記載のコンピュータプログラムにおいて、
第2出力手段に前記制御情報の内容を前記搭乗者に報知するための報知情報を出力させるコンピュータプログラム。
3-13. 3-1.から3-12.のいずれか一つに記載のコンピュータプログラムにおいて、
前記制御情報の内容を変更する第2入力手段への入力を受け付け可能であるコンピュータプログラム。
3-14. 3-1.から3-13.のいずれか一つに記載のコンピュータプログラムにおいて、
前記搭乗者に挙動を促すための依頼情報を第3出力手段に出力させるコンピュータプログラム。
3-15. 3-14.に記載のコンピュータプログラムにおいて、
前記第1取得手段は、前記依頼情報の出力から所定期間内に発生した前記搭乗者の挙動を示す情報を前記第1挙動情報として取得するコンピュータプログラム。
Below, examples of reference forms will be added.
1-1. a first acquisition unit that acquires first behavior information indicating a first behavior of a passenger of the first moving object;
a second acquisition unit that acquires second behavior information indicating a second behavior of a second moving body around the first moving body within a predetermined period from the occurrence of the first behavior;
a first output unit that outputs control information for controlling travel of the first mobile body based on the first behavior information and the second behavior information;
An output device comprising:
1-2. 1-1. In the output device described in
The first acquisition unit further acquires third behavior information indicating a third behavior of the passenger within a predetermined period from the occurrence of the second behavior,
The first output unit is an output device that outputs the control information based on the third behavior information.
1-3. 1-1. Or 1-2. In the output device described in
further comprising a determination unit that determines whether the first output unit should output the control information based on the first behavior information and the second behavior information,
The first output unit is an output device that outputs the control information when the determination unit determines that the control information should be output.
1-4. 1-3. In the output device described in
The determination unit is configured such that when the first moving object is located within a predetermined range from a crosswalk or an intersection, the first output unit outputs the control information based on the first behavior information and the second behavior information. Output device that is determined to be output.
1-5. 1-3. Or 1-4. In the output device described in
The determination unit is configured to cause the first output unit to output the control information based on the first behavior information and the second behavior information when the speed of the first moving object becomes equal to or lower than a predetermined speed. Output device that is determined to be appropriate.
1-6. 1-3. From 1-5. In the output device described in any one of
further comprising a third acquisition unit that acquires information indicating a caution area where the first output unit should output the control information based on the first behavior information and the second behavior information,
The determination unit determines that the first output unit should output the control information based on the first behavior information and the second behavior information when the first moving object is located within the caution area. Output device to judge.
1-7. 1-3. From 1-6. In the output device described in any one of
The determination unit is configured to cause the first output unit to output the control information based on the first behavior information and the second behavior information when the width of the road on which the first moving body travels satisfies a predetermined condition. Output device that determines that should be output.
1-8. 1-1. From 1-7. In the output device described in any one of
In the output device, the first behavior is a gesture or utterance by a passenger of the first moving body toward the second moving body.
1-9. 1-1. From 1-8. In the output device described in any one of
The first moving body is a vehicle, the second moving body is an oncoming vehicle of the first moving body,
The second behavior is a behavior in which the second moving body flashes its headlights, hazard lamps, or brake lights one or more times, or sounds a horn at least once.
1-10. 1-1. From 1-9. In the output device described in any one of
The first acquisition unit is capable of accepting input from the passenger to the first input unit,
an output device in which the first behavior is an input to the first input section;
1-11. 1-1. From 1-10. In the output device described in any one of
further comprising a detection unit that detects behavior of the second moving body,
The second acquisition unit acquires the second behavior information from the detection unit,
The detection unit is
acquiring an image that includes at least a portion of the second moving body;
An output device that detects the second behavior using the image and generates the second behavior information.
1-12. 1-1. From 1-11. In the output device described in any one of
The output device further includes a second output unit that outputs notification information for notifying the passenger of the content of the control information.
1-13. 1-1. From 1-12. In the output device described in any one of
An output device further comprising a second input section capable of receiving an input for changing the content of the control information.
1-14. 1-1. From 1-13. In the output device described in any one of
The output device further includes a third output unit that outputs request information for prompting the passenger to behave.
1-15. 1-14. In the output device described in
The first acquisition unit is an output device that acquires information indicating behavior of the passenger that occurs within a predetermined period from output of the request information as the first behavior information.
2-1. a first acquisition step of acquiring first behavior information indicating a first behavior of a passenger of the first moving object;
a second acquisition step of acquiring second behavior information indicating a second behavior of a second moving body around the first moving body within a predetermined period from the occurrence of the first behavior;
a first output step of outputting control information for controlling travel of the first mobile body based on the first behavior information and the second behavior information;
Output methods including.
2-2. 2-1. In the output method described in
further acquiring third behavior information indicating a third behavior of the passenger within a predetermined period from the occurrence of the second behavior;
In the first output step, the output method further includes outputting the control information based on the third behavior information.
2-3. 2-1. Or 2-2. In the output method described in
further comprising a determination step of determining whether or not the control information should be output in the first output step based on the first behavior information and the second behavior information,
An output method for outputting the control information in the first output step when it is determined in the determination step that the control information should be output.
2-4. 2-3. In the output method described in
In the determination step, when the first moving object is located within a predetermined range from a crosswalk or an intersection, the first output step outputs the control information based on the first behavior information and the second behavior information. Output method determined to be output.
2-5. 2-3. or 2-4. In the output method described in
In the determination step, when the speed of the first moving object becomes equal to or lower than a predetermined speed, the first output step outputs the control information based on the first behavior information and the second behavior information. Output method to judge as exponent.
2-6. 2-3. From 2-5. In the output method described in any one of
further comprising a third acquisition step of acquiring information indicating a caution area for which the control information should be output based on the first behavior information and the second behavior information in the first output step,
In the determining step, when the first moving body is located within the caution area, the control information should be output in the first output step based on the first behavior information and the second behavior information. Output method to judge.
2-7. 2-3. From 2-6. In the output method described in any one of
In the determination step, when the width of the road on which the first mobile object travels satisfies a predetermined condition, the first output step outputs the control information based on the first behavior information and the second behavior information. Output method that determines that should be output.
2-8. 2-1. From 2-7. In the output method described in any one of
In the output method, the first behavior is a gesture or a voice by a passenger of the first moving body toward the second moving body.
2-9. 2-1. From 2-8. In the output method described in any one of
The first moving body is a vehicle, the second moving body is an oncoming vehicle of the first moving body,
The output method is such that the second behavior is a behavior in which the second moving body flashes its headlights, hazard lamps, or brake lights one or more times, or sounds a horn at least once.
2-10. 2-1. From 2-9. In the output method described in any one of
In the first acquisition step, it is possible to receive input from the passenger into a first input section,
An output method in which the first behavior is an input to the first input unit.
2-11. 2-1. From 2-10. In the output method described in any one of
further comprising a detection step of detecting behavior of the second moving body,
In the second acquisition step, acquire the second behavior information generated in the detection step,
In the detection step,
acquiring an image that includes at least a portion of the second moving body;
An output method that detects the second behavior using the image and generates the second behavior information.
2-12. 2-1. From 2-11. In the output method described in any one of
The output method further includes the step of outputting notification information for notifying the passenger of the content of the control information.
2-13. 2-1. From 2-12. In the output method described in any one of
An output method further comprising the step of accepting an input for changing the content of the control information.
2-14. 2-1. From 2-13. In the output method described in any one of
An output method further comprising a third output step of outputting request information for prompting the passenger to behave.
2-15. 2-14. In the output method described in
In the first acquisition step, information indicating the behavior of the passenger occurring within a predetermined period from output of the request information is acquired as the first behavior information.
3-1. A computer program for realizing an output device,
computer,
a first acquisition means for acquiring first behavior information indicating a first behavior of a passenger of the first moving body;
a second acquisition means for acquiring second behavior information indicating a second behavior of a second moving object around the first moving object within a predetermined period from the occurrence of the first behavior; a first output means for outputting control information for controlling travel of the first moving body based on the information and the second behavior information;
A computer program that functions as
3-2. 3-1. In the computer program described in
The first acquisition means further acquires third behavior information indicating a third behavior of the passenger within a predetermined period from the occurrence of the second behavior,
The first output means is a computer program that outputs the control information further based on the third behavior information.
3-3. 3-1. Or 3-2. In the computer program described in
further causing the computer to function as a determining means for determining whether the first output means should output the control information based on the first behavior information and the second behavior information;
A computer program in which the first output means outputs the control information when the determination means determines that the control information should be output.
3-4. 3-3. In the computer program described in
The determination means is configured such that when the first moving object is located within a predetermined range from a crosswalk or an intersection, the first output means outputs the control information based on the first behavior information and the second behavior information. A computer program that determines what should be output.
3-5. 3-3. or 3-4. In the computer program described in
The determining means may cause the first outputting means to output the control information based on the first behavior information and the second behavior information when the speed of the first moving object becomes equal to or lower than a predetermined speed. A computer program that determines what should be done.
3-6. 3-3. From 3-5. In the computer program described in any one of
further causing the computer to function as a third acquisition means for acquiring information indicating a caution area for which the first output means should output the control information based on the first behavior information and the second behavior information;
The determination means determines that the first output means should output the control information based on the first behavior information and the second behavior information when the first moving object is located within the caution area. A computer program that makes a determination.
3-7. 3-3. From 3-6. In the computer program described in any one of
The determination means is configured to cause the first output means to output the control information based on the first behavior information and the second behavior information when the width of the road on which the first moving body travels satisfies a predetermined condition. A computer program that determines that should be output.
3-8. 3-1. From 3-7. In the computer program described in any one of
The computer program, wherein the first behavior is a gesture or utterance by a passenger of the first moving body toward the second moving body.
3-9. 3-1. From 3-8. In the computer program described in any one of
The first moving body is a vehicle, the second moving body is an oncoming vehicle of the first moving body,
The second behavior is a computer program in which the second moving object flashes its headlights, hazard lamps, or brake lights one or more times, or sounds its horn one or more times.
3-10. 3-1. From 3-9. In the computer program described in any one of
The first acquisition means is capable of accepting input from the passenger into the input means,
A computer program in which the first behavior is an input to the input means.
3-11. 3-1. From 3-10. In the computer program described in any one of
further causing the computer to function as a detection means for detecting behavior of the second moving object,
The second acquisition unit acquires the second behavior information from the detection means,
The detection means includes:
acquiring an image that includes at least a portion of the second moving body;
A computer program that detects the second behavior using the image and generates the second behavior information.
3-12. 3-1. From 3-11. In the computer program described in any one of
A computer program that causes a second output means to output notification information for notifying the passenger of the content of the control information.
3-13. 3-1. From 3-12. In the computer program described in any one of
A computer program capable of accepting input to a second input means for changing the content of the control information.
3-14. 3-1. From 3-13. In the computer program described in any one of
A computer program that causes a third output means to output request information for prompting the passenger to behave.
3-15. 3-14. In the computer program described in
The first acquisition means is a computer program that acquires, as the first behavior information, information indicating the behavior of the passenger that occurs within a predetermined period from the output of the request information.

10 出力装置
40 集積回路
110 第1取得部
112 第1検知部
120 第2取得部
122 第2検知部
130 第3取得部
140 判定部
150 第1出力部
152 第2出力部
153 第3出力部
160 第1入力部
162 第2入力部
170 記憶部
402 バス
404 プロセッサ
406 メモリ
408 ストレージデバイス
410 入出力インタフェース
412 ネットワークインタフェース
420 第1カメラ
421 第2カメラ
422 モニタ
423 入力パネル
424 マイク
425 スピーカー
10 Output device 40 Integrated circuit 110 First acquisition section 112 First detection section 120 Second acquisition section 122 Second detection section 130 Third acquisition section 140 Determination section 150 First output section 152 Second output section 153 Third output section 160 First input section 162 Second input section 170 Storage section 402 Bus 404 Processor 406 Memory 408 Storage device 410 Input/output interface 412 Network interface 420 First camera 421 Second camera 422 Monitor 423 Input panel 424 Microphone 425 Speaker

Claims (1)

第1の移動体の搭乗者の第1の挙動を示す第1挙動情報を取得する第1取得部と、
前記第1の挙動の発生から所定期間内における、前記第1の移動体周辺の第2の移動体の第2の挙動を示す第2挙動情報を取得する第2取得部と、
前記第1挙動情報及び前記第2挙動情報に基づき、前記第1の移動体の走行を制御するための制御情報を出力する第1出力部と、
を備える出力装置。
a first acquisition unit that acquires first behavior information indicating a first behavior of a passenger of the first moving object;
a second acquisition unit that acquires second behavior information indicating a second behavior of a second moving body around the first moving body within a predetermined period from the occurrence of the first behavior;
a first output unit that outputs control information for controlling travel of the first mobile body based on the first behavior information and the second behavior information;
An output device comprising:
JP2023199769A 2018-03-13 2023-11-27 Output device Pending JP2024009255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023199769A JP2024009255A (en) 2018-03-13 2023-11-27 Output device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018044879A JP2019159736A (en) 2018-03-13 2018-03-13 Output device, output method, and computer program
JP2022092795A JP2022118053A (en) 2018-03-13 2022-06-08 output device
JP2023199769A JP2024009255A (en) 2018-03-13 2023-11-27 Output device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022092795A Division JP2022118053A (en) 2018-03-13 2022-06-08 output device

Publications (1)

Publication Number Publication Date
JP2024009255A true JP2024009255A (en) 2024-01-19

Family

ID=67996994

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018044879A Ceased JP2019159736A (en) 2018-03-13 2018-03-13 Output device, output method, and computer program
JP2022092795A Pending JP2022118053A (en) 2018-03-13 2022-06-08 output device
JP2023199769A Pending JP2024009255A (en) 2018-03-13 2023-11-27 Output device

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018044879A Ceased JP2019159736A (en) 2018-03-13 2018-03-13 Output device, output method, and computer program
JP2022092795A Pending JP2022118053A (en) 2018-03-13 2022-06-08 output device

Country Status (1)

Country Link
JP (3) JP2019159736A (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10302060B4 (en) * 2003-01-21 2015-05-13 Robert Bosch Gmbh Method for operating a motor vehicle
JP2005332297A (en) * 2004-05-21 2005-12-02 Fujitsu Ten Ltd Driver's intention reporting device
JP4733063B2 (en) * 2007-02-16 2011-07-27 日立オートモティブシステムズ株式会社 Vehicle collision prevention device
JP2013134591A (en) * 2011-12-26 2013-07-08 Denso Corp Driving support device
JP6325365B2 (en) * 2014-06-19 2018-05-16 株式会社Subaru Steering support control device
JP6701739B2 (en) * 2016-01-12 2020-05-27 トヨタ自動車株式会社 Vehicle control device
JP2017207932A (en) * 2016-05-18 2017-11-24 株式会社デンソー Passage safety device, and traffic accident occurrence prevention method
JP6411404B2 (en) * 2016-05-27 2018-10-24 京セラ株式会社 Electronic device, control method, and control program

Also Published As

Publication number Publication date
JP2019159736A (en) 2019-09-19
JP2022118053A (en) 2022-08-12

Similar Documents

Publication Publication Date Title
US11673569B2 (en) Alert control apparatus and alert control method
CN108068825B (en) Visual communication system for unmanned vehicles (ADV)
US11458978B2 (en) Drive assist method, drive assist program, and vehicle control device
JP2023058521A (en) Vehicle-mounted device
US11873007B2 (en) Information processing apparatus, information processing method, and program
AU2018318833A9 (en) Recognizing assigned passengers for autonomous vehicles
JP2017207932A (en) Passage safety device, and traffic accident occurrence prevention method
JP2010026708A (en) Driver assistance device, driver assistance method and driver assistance processing program
JP2019038356A (en) Vehicle control device
JP2022048339A (en) Information processing device
WO2022224721A1 (en) Presentation control device, presentation control program, self-driving control device, and self-driving control program
JP7119846B2 (en) VEHICLE TRIP CONTROL METHOD AND TRIP CONTROL DEVICE
JP2010039718A (en) Vehicle control device, vehicle control method, and vehicle control processing program
JP2010039717A (en) Vehicle control device, vehicle control method, and vehicle control processing program
JP2018106667A (en) Information processor, information processing method and program
JP2024009255A (en) Output device
JP7426471B2 (en) Self-driving car interaction system
JP2021160708A (en) Presentation control device, presentation control program, automatic travel control system and automatic travel control program
CN115140084A (en) Control device for moving body, control method for moving body, and storage medium
JP2018106668A (en) Information processor, information processing method and program
JP6901937B2 (en) Information processing equipment, information processing methods and programs
WO2020065892A1 (en) Travel control method and travel control device for vehicle
JP6096750B2 (en) Driving support device
JP2022028989A (en) Information processor, method for processing information, and program
WO2021199964A1 (en) Presentation control device, presentation control program, automated driving control system, and automated driving control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231127