JP2019031264A - Information processing method, information processing system, and program - Google Patents

Information processing method, information processing system, and program Download PDF

Info

Publication number
JP2019031264A
JP2019031264A JP2018068258A JP2018068258A JP2019031264A JP 2019031264 A JP2019031264 A JP 2019031264A JP 2018068258 A JP2018068258 A JP 2018068258A JP 2018068258 A JP2018068258 A JP 2018068258A JP 2019031264 A JP2019031264 A JP 2019031264A
Authority
JP
Japan
Prior art keywords
information
vehicle
driving vehicle
recognition result
autonomous driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018068258A
Other languages
Japanese (ja)
Other versions
JP7030000B2 (en
Inventor
東島 勝義
Katsuyoshi Higashijima
勝義 東島
俊介 久原
Shunsuke Kuhara
俊介 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US16/028,525 priority Critical patent/US11100729B2/en
Priority to EP18182530.8A priority patent/EP3441839B1/en
Priority to CN201810868567.9A priority patent/CN109383519B/en
Publication of JP2019031264A publication Critical patent/JP2019031264A/en
Application granted granted Critical
Publication of JP7030000B2 publication Critical patent/JP7030000B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

To provide an information processing method that allows a person to grasp whether or not recognition processing on driving a vehicle is properly executed.SOLUTION: An information processing method: acquires event-related information for detecting a predetermined event on a vehicle by using a processor; determines whether or not the predetermined event is detected by using the event-related information; acquires direction information indicating a first direction when it is determined that the predetermined event is detected; acquires first recognition result information obtained by recognition processing by the vehicle on an object located outside the vehicle; determines whether or not the first recognition result information includes an object recognition result in the first direction; determines whether or not a specific object is present in the first direction by using the first recognition result information; and creates and outputs processed information indicating that the vehicle has already executed recognition processing for the first direction when it is determined that the specific object is not present in the first direction, and it is also determined that the first recognition result information includes the object recognition result in the first direction.SELECTED DRAWING: Figure 4

Description

本開示は、自動運転する車両等の移動体と通信する情報処理方法、情報処理システム、および、プログラムに関する。   The present disclosure relates to an information processing method, an information processing system, and a program that communicate with a mobile object such as a vehicle that is automatically driven.

近年、自動運転する車両などの移動体(以下、自動運転車両と呼称する)に関する技術が発展しつつある。また、自動運転車両の運転制御に関する情報を、当該自動運転車両に搭乗している搭乗者に通知する技術がある(例えば、特許文献1および特許文献2参照)。   In recent years, a technique related to a mobile body such as an automatically driving vehicle (hereinafter referred to as an automatically driving vehicle) has been developed. In addition, there is a technique for notifying information related to driving control of an autonomous driving vehicle to a passenger boarding the autonomous driving vehicle (see, for example, Patent Document 1 and Patent Document 2).

特許文献1には、自動運転車両の搭乗者の指示に基づいて、予め自動運転車両に定められた走行制御に関する設定情報と、当該自動運転車両の走行制御の内容などとを関連付けて当該搭乗者に提示する技術が開示されている。   In Patent Literature 1, the passenger is associated with setting information related to travel control predetermined for the autonomous driving vehicle based on an instruction from the passenger of the autonomous driving vehicle, the content of the traveling control of the autonomous driving vehicle, and the like. The technology presented in is disclosed.

また、特許文献2には、自動運転車両が実行可能な走行制御の内容などを当該自動運転車両の搭乗者に提示する技術が開示されている。   Patent Document 2 discloses a technique for presenting the contents of travel control that can be executed by an autonomous driving vehicle to a passenger of the autonomous driving vehicle.

特開2017−144110号公報JP 2017-144110 A 特開2016−216029号公報Japanese Patent Laid-Open No. 2016-216029

しかしながら、従来技術では、人は走行制御の内容を把握できるが、当該走行制御にいたるまでの車両による認識処理の内容を把握することが困難であった。例えば、自動運転車両の自動運転を評価する評価者が、予め定められた確認すべき項目を実際に自動運転車両が確認したか否かを把握することが出来ないという問題がある。   However, in the prior art, a person can grasp the content of the travel control, but it is difficult to grasp the content of the recognition process by the vehicle up to the travel control. For example, there is a problem that an evaluator who evaluates automatic driving of an autonomous driving vehicle cannot grasp whether or not the autonomous driving vehicle actually confirms a predetermined item to be confirmed.

そこで、本開示は、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる情報処理方法を提供する。   Therefore, the present disclosure provides an information processing method that enables a person to grasp whether or not recognition processing related to driving of a vehicle is appropriately performed.

本開示の一態様に係る情報処理方法は、プロセッサを用いて、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された前記処理済み情報を出力する。   An information processing method according to an aspect of the present disclosure uses a processor to acquire event-related information for detecting a predetermined event for a vehicle, and whether the predetermined event is detected using the event-related information. And determining that the predetermined event has been detected, obtaining direction information indicating a first direction associated with the predetermined event, and performing recognition processing by the vehicle of an object located outside the vehicle. Obtained first recognition result information is obtained, it is determined whether or not the first recognition result information includes an object recognition result in the first direction, and the first direction is determined using the first recognition result information. It is determined whether or not there is a specific object that may affect the traveling of the vehicle, and it is determined that the specific object does not exist in the first direction, and the first When it is determined that the recognition result information includes the object recognition result in the first direction, the processed information indicating that the vehicle has recognized the first direction is generated, and the generated processed information is generated. Output information.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. And any combination of recording media.

本開示の一態様に係る情報処理方法は、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。   In the information processing method according to an aspect of the present disclosure, a person can grasp whether or not recognition processing related to driving of a vehicle is appropriately performed.

図1は、実施の形態における情報処理システムを含むシステムの構成を説明するための図である。FIG. 1 is a diagram for explaining a configuration of a system including an information processing system according to an embodiment. 図2は、実施の形態における情報処理システムの機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the information processing system according to the embodiment. 図3は、実施の形態における情報処理システムと通信する自動運転車両の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the autonomous driving vehicle that communicates with the information processing system according to the embodiment. 図4は、実施の形態における情報処理システムが実行する処理手順を示すフローチャートである。FIG. 4 is a flowchart illustrating a processing procedure executed by the information processing system according to the embodiment. 図5は、実施の形態における情報処理システムと通信する自動運転車両が実行する処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure executed by the autonomous driving vehicle communicating with the information processing system in the embodiment. 図6Aは、実施の形態における情報処理システムと通信する自動運転車両を含む画像の一例を示す図である。FIG. 6A is a diagram illustrating an example of an image including an autonomous driving vehicle that communicates with the information processing system in the embodiment. 図6Bは、実施の形態における情報処理システムと通信する自動運転車両と、当該自動運転車両から物体までの距離の一例を説明するための図である。FIG. 6B is a diagram for describing an example of an automatic driving vehicle that communicates with the information processing system in the embodiment and a distance from the automatic driving vehicle to an object. 図7は、イベント関連情報の一例を示す図である。FIG. 7 is a diagram illustrating an example of event-related information. 図8Aは、地図情報および経路情報の一例を示す図である。FIG. 8A is a diagram illustrating an example of map information and route information. 図8Bは、図8Aに示す地図情報の各地点の説明をするための図である。FIG. 8B is a diagram for explaining each point of the map information shown in FIG. 8A. 図9Aは、実施の形態における情報処理システムに表示される画像の第1例を示す図である。FIG. 9A is a diagram illustrating a first example of an image displayed on the information processing system in the embodiment. 図9Bは、実施の形態における情報処理システムに表示される画像の第2例を示す図である。FIG. 9B is a diagram illustrating a second example of an image displayed on the information processing system in the embodiment. 図10は、実施の形態における情報処理システムに表示される画像の第3例を示す図である。FIG. 10 is a diagram illustrating a third example of an image displayed on the information processing system in the embodiment. 図11Aは、実施の形態における情報処理システムに表示される障害物を強調する表示の第1例を示す図である。FIG. 11A is a diagram illustrating a first example of display that highlights an obstacle displayed on the information processing system in the embodiment. 図11Bは、実施の形態における情報処理システムに表示される障害物を強調する表示の第2例を示す図である。FIG. 11B is a diagram illustrating a second example of display that highlights an obstacle displayed on the information processing system in the embodiment. 図12は、実施の形態における情報処理システムに表示される画像の第4例を示す図である。FIG. 12 is a diagram illustrating a fourth example of an image displayed on the information processing system in the embodiment. 図13は、実施の形態における情報処理システムに表示される画像の第5例を示す図である。FIG. 13 is a diagram illustrating a fifth example of an image displayed on the information processing system in the embodiment.

(本開示の基礎となった知見)
本開示者は、上述したように、先行技術について、以下の問題が生じることを見出した。
(Knowledge that became the basis of this disclosure)
As described above, the present disclosure has found that the following problems occur in the prior art.

近年、車両などの移動体において、自動運転に関する技術がある。以下、自動運転する移動体を、自動運転車両と呼称する。   In recent years, there is a technology related to automatic driving in a moving body such as a vehicle. Hereinafter, the mobile body that performs automatic driving is referred to as an automatic driving vehicle.

自動運転車両は、発進、停止、左折、右折などの走行制御をする際に、自動運転しない車両を運転する運転手などが実行する安全確認と同様に、自動運転車両の周囲の環境をカメラなどのセンサを用いて取得し、取得した情報を用いて、走行制御を行う。   Autonomous vehicles, such as safety checks performed by drivers who drive non-automatically driven vehicles when performing start, stop, left turn, right turn, etc., control the surrounding environment of an autonomously driven vehicle, etc. And using the acquired information, traveling control is performed.

ここで、自動運転車両に公道を走行させる前には、自動運転車両が安全に公道を走行できるか否かを評価することが必要になる。例えば、自動運転車両は、適切に自動運転することができるか否かを、予め評価者によって評価される。   Here, before the autonomous driving vehicle travels on the public road, it is necessary to evaluate whether the autonomous driving vehicle can safely travel on the public road. For example, an evaluator evaluates in advance whether or not an automatic driving vehicle can be appropriately automatically driven.

そこで、自動運転車両が安全に走行できるか否かを評価するために、自動車教習所などの試験コースを自動運転させて、評価者が自動運転車両の自動運転を評価することが検討されている。   Therefore, in order to evaluate whether or not an autonomous driving vehicle can travel safely, it is considered that an evaluator evaluates the automatic driving of an autonomous driving vehicle by automatically driving a test course such as a driving school.

ここで、評価者が自動運転車両の自動運転を評価する場合、手動運転の走行を評価する場合と同様に評価できることが望まれる。   Here, when the evaluator evaluates the automatic driving of the autonomous driving vehicle, it is desirable that the evaluation can be performed in the same manner as when the driving of the manual driving is evaluated.

この際に、自動運転車両が適切に自動運転することができていたとしても、当該自動運転車両の周囲の環境などの予め定められた確認すべき項目を全て確認しているか否かは判定することができない。そのため、自動運転車両の周囲の環境などの予め定められた確認すべき項目を全て確認せずに自動運転を行っている可能性があるという問題がある。   At this time, even if the autonomous driving vehicle is able to automatically drive appropriately, it is determined whether or not all predetermined items to be confirmed such as the environment around the autonomous driving vehicle are confirmed. I can't. Therefore, there is a problem that automatic driving may be performed without checking all predetermined items to be checked, such as the environment around the autonomous driving vehicle.

そこで、評価者に自動運転車両が当該自動運転車両の周囲にある物体を認識した結果を、ディスプレイなどに表示させることが考えられる。しかし、自動運転車両の周囲にある物体の認識結果を全て表示させた場合、例えば、遠くに離れた場所にある物体、ガードレールなどの安全確認する必要のない静的物などまで表示されてしまう。こうすると、評価者は、自動運転車両が適切に安全確認している、つまり、適切に予め定められた確認すべき項目を全て確認しているかどうかを評価し難いという問題がある。   Therefore, it is conceivable that the evaluator displays the result of the automatic driving vehicle recognizing an object around the automatic driving vehicle on a display or the like. However, when all the recognition results of objects around the autonomous driving vehicle are displayed, for example, objects far away, static objects such as guardrails that do not require safety confirmation, and the like are displayed. In this case, the evaluator has a problem that it is difficult to evaluate whether or not the autonomous driving vehicle appropriately confirms safety, that is, whether or not all items to be confirmed that are appropriately determined in advance are confirmed.

このような問題を解決するために、本開示の一態様に係る情報処理方法は、プロセッサを用いて、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された前記処理済み情報を出力する。   In order to solve such a problem, an information processing method according to one aspect of the present disclosure uses a processor to acquire event-related information for detecting a predetermined event about a vehicle, and uses the event-related information. Determining whether or not the predetermined event has been detected. If it is determined that the predetermined event has been detected, direction information indicating a first direction associated with the predetermined event is acquired and positioned outside the vehicle. First recognition result information obtained by recognition processing by the vehicle of the object to be obtained is determined, whether or not the first recognition result information includes the object recognition result in the first direction, and the first recognition Using the result information, it is determined whether or not there is a specific object that may affect the travel of the vehicle in the first direction, and it is determined that the specific object does not exist in the first direction. And when it is determined that the first recognition result information includes the object recognition result in the first direction, the vehicle has been processed to indicate that the first direction has been recognized. Information is generated, and the generated processed information is output.

また、このような問題を解決するために、本開示の一態様に係るプログラムは、上記情報処理方法をコンピュータに実行させる。   In order to solve such a problem, a program according to an aspect of the present disclosure causes a computer to execute the information processing method.

このような方法によれば、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。例えば、自動運転車両の自動運転が適切に行われているか否かを評価する評価者に、自動運転車両の運転に関する認識処理が適切に行われているか否かを判定して出力できる。これにより、評価者は、所定イベント毎に、通常の自動運転の走行制御に加え、さらに、安全確認が必要となる地点において、自動運転車両が適切に安全確認できているかをチェックできる。   According to such a method, it is possible for a person to grasp whether or not recognition processing relating to driving of the vehicle is appropriately performed. For example, an evaluator who evaluates whether or not automatic driving of an autonomous driving vehicle is appropriately performed can determine and output whether or not recognition processing related to driving of the autonomous driving vehicle is appropriately performed. As a result, the evaluator can check whether or not the automatic driving vehicle has been properly confirmed for safety at a point where safety confirmation is required in addition to the normal automatic driving control for each predetermined event.

また、このような方法によれば、所定イベント毎に、安全確認する方向が予め設定されているために、安全確認が特に必要となる方向に対して、自動運転車両によって安全確認がなされているどうかを適切に評価することができる。   In addition, according to such a method, since the direction for confirming safety is set in advance for each predetermined event, the safety is confirmed by the autonomous driving vehicle in the direction in which safety confirmation is particularly necessary. It is possible to evaluate appropriately.

また、自動運転の障害となる障害物などを含む特定物体が自動運転車両に認識されなかった場合であっても、その旨を示す情報を表示するために、評価者は、自動運転車両によって適切に安全確認がなされたか否かを把握することができる。つまり、評価者は、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを簡便に把握することができる。   In addition, even if a specific object including an obstacle that is an obstacle to automatic driving is not recognized by the automatic driving vehicle, the evaluator should use the automatic driving vehicle to display information indicating that. It is possible to grasp whether or not safety confirmation has been made. That is, the evaluator can easily grasp whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle.

また、このような方法によれば、自動運転車両が自動運転の走行制御をする際に、所定イベントに対する判定に用いた情報のみを出力することとなるために、出力処理をするための処理量を削減することができる。そのため、当該出力処理を効率的に高速化できる。   Moreover, according to such a method, when the autonomous driving vehicle performs the driving control of the automatic driving, only the information used for the determination with respect to the predetermined event is output. Can be reduced. Therefore, the output process can be efficiently speeded up.

例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1方向に前記特定物体が存在すると判定された場合は、前記第1方向に前記特定物体を認識した旨を示す第1情報を含む前記処理済み情報を生成し、前記第1方向に前記特定物体が存在しないと判定された場合は、前記第1方向に前記特定物体を認識しなかった旨を示す第2情報を含む前記処理済み情報を生成してもよい。   For example, in the information processing method according to an aspect of the present disclosure, when it is determined that the specific object exists in the first direction, the first information indicating that the specific object is recognized in the first direction Including the second information indicating that the specific object is not recognized in the first direction when it is determined that the specific object does not exist in the first direction. Processed information may be generated.

このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かをより適切に評価することができる。   According to such a method, it is possible to more appropriately evaluate whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle.

また、例えば、前記第1認識結果情報は、前記車両から前記第1方向を含む所定の範囲を撮影することで得られる画像を前記認識処理することにより取得される情報でもよい。   Further, for example, the first recognition result information may be information acquired by performing the recognition process on an image obtained by photographing a predetermined range including the first direction from the vehicle.

つまり、このような方法は、例えば、公道などに設置されたカメラなどから情報を取得する自動運転のシステムではなく、自動運転車両に搭載されたカメラを用いて走行制御を行う自動運転車両に適用され得る。そのため、このような方法は、公道などに配置される装置ではなく、自動運転車両が備えるカメラなどの装置を用いて制御される自動運転車両に対して、特に有効である。   In other words, such a method is not applied to an automatic driving system that acquires information from a camera installed on a public road or the like, but is applied to an automatic driving vehicle that performs traveling control using a camera mounted on the automatic driving vehicle. Can be done. Therefore, such a method is particularly effective for an autonomous driving vehicle controlled using an apparatus such as a camera provided in the autonomous driving vehicle, not an apparatus arranged on a public road or the like.

また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記車両の舵角および車速の少なくとも一方を含む前記車両の走行情報を取得し、前記所定の範囲は、前記車両の前記走行情報に応じて決定されてもよい。   In addition, for example, the information processing method according to an aspect of the present disclosure further acquires travel information of the vehicle including at least one of a steering angle and a vehicle speed of the vehicle, and the predetermined range is the travel of the vehicle It may be determined according to information.

このような方法によれば、自動運転車両の走行状態に応じて、自動運転車両によって自動運転のための認識処理が適切に行われているか否かをより簡便に評価者に把握させることができる。   According to such a method, the evaluator can more easily grasp whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle according to the traveling state of the automatic driving vehicle. .

また、例えば、本開示の一態様に係る情報処理方法は、さらに、取得した前記車両の前記走行情報を前記処理済み情報とともに出力してもよい。   Further, for example, the information processing method according to one aspect of the present disclosure may further output the acquired travel information of the vehicle together with the processed information.

このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを、評価者により分かりやすく把握させることができる。   According to such a method, it is possible for the evaluator to easily understand whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle.

また、例えば、前記所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるか、又は所定の時間が経過するまで繰り返し前記処理済み情報を出力してもよい。   Further, for example, when the predetermined event is detected, the processed information may be repeatedly output until the detected predetermined event is not detected or a predetermined time elapses.

このような方法によれば、評価者は、自動運転車両が走行制御を変更してから、変更した走行制御の状態を維持し続けている間、常に自動運転車両が自動運転のための認識処理をしているか否かを評価者に簡便に把握させることができる。   According to such a method, the evaluator always recognizes the automatic driving vehicle for automatic driving while maintaining the changed driving control state after the automatic driving vehicle changes the driving control. It is possible for the evaluator to easily grasp whether or not he / she is doing.

また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1方向に前記特定物体が存在すると判定された場合、前記特定物体が原因で前記車両が走行の制御を決定又は変更したか否かを判定し、前記車両が走行の制御を決定又は変更したか否かの判定結果を含む前記第1情報を生成してもよい。   In addition, for example, in the information processing method according to one aspect of the present disclosure, when it is determined that the specific object exists in the first direction, the vehicle determines or changes control of traveling due to the specific object. The first information including a determination result of whether or not the vehicle has determined or changed control of traveling may be generated.

このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを、評価者により分かりやすく把握させることができる。   According to such a method, it is possible for the evaluator to easily understand whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle.

また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1認識結果情報を用いて、前記第1方向とは異なる第2方向に、前記特定物体が存在するか否かを判定し、前記第2方向に前記特定物体が存在すると判定された場合、前記第2方向を示す情報を含む前記処理済み情報を生成してもよい。   In addition, for example, the information processing method according to one aspect of the present disclosure further uses the first recognition result information to determine whether or not the specific object exists in a second direction different from the first direction. When the determination is made and it is determined that the specific object exists in the second direction, the processed information including information indicating the second direction may be generated.

自動運転の走行制御は、例えば、自動運転車両に最も近い特定物体などの、すぐに走行を停止する必要があるような、緊急性が高い情報から処理される。また、自動運転車両から離れた物体などの、すぐに走行を停止する必要がないような、緊急性が低い情報に関しても、走行制御に影響を及ぼす情報の処理は実行する。そこで、プロセッサは、緊急性が高い方向以外の他の方向に、自動運転車両の走行に影響を与える障害物などの特定物体が存在するか否かを判定し、走行の制御内容を変更する必要性のある情報も出力する。こうすることで、評価者は、自動運転車両によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。   The driving control of automatic driving is processed from highly urgent information such as a specific object closest to the autonomous driving vehicle that needs to stop driving immediately. In addition, processing of information that affects travel control is executed even for information with low urgency, such as an object away from an autonomous driving vehicle, which does not need to stop traveling immediately. Therefore, it is necessary for the processor to determine whether or not a specific object such as an obstacle that affects the traveling of the autonomous driving vehicle exists in a direction other than the direction of high urgency, and to change the control content of the traveling. Also outputs information that has sex. By doing so, the evaluator can more appropriately grasp whether or not the automatic driving recognition process is appropriately performed by the automatic driving vehicle.

また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記車両に搭載される撮影装置によって前記第1方向を撮影されることで生成された画像を取得し、取得した前記画像を前記処理済み情報とともに、検出された前記所定イベントに応じた態様で出力してもよい。   In addition, for example, in the information processing method according to one aspect of the present disclosure, an image generated by being photographed in the first direction by a photographing device mounted on the vehicle is acquired, and the acquired image is acquired. You may output with the said processed information in the aspect according to the said predetermined event detected.

このような方法によれば、自動運転車両によって処理されている情報を、より適切に評価者に把握させることができる。   According to such a method, it is possible to make the evaluator grasp the information processed by the autonomous driving vehicle more appropriately.

また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1認識結果情報に前記第1方向の物体認識結果が含まれていないと判定された場合、前記車両が前記第1方向を認識処理できていないことを示す未処理情報を生成し、生成された前記未処理情報を出力してもよい。   For example, in the information processing method according to one aspect of the present disclosure, when it is determined that the first recognition result information does not include the object recognition result in the first direction, the vehicle is Unprocessed information indicating that the direction is not recognized may be generated, and the generated unprocessed information may be output.

このような方法によれば、自動運転車両によって適切に自動運転されていないことを、適切に評価者に把握させることができる。   According to such a method, the evaluator can appropriately recognize that the vehicle is not properly automatically driven by the autonomous driving vehicle.

また、本開示の一態様に係る情報処理システムは、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定するイベント判定部と、前記イベント判定部によって前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得する方向情報取得部と、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得する車両処理情報取得部と、前記第1認識結果情報に前記第1方向の物体認識結果含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定する車両認識判定部と、前記車両認識判定部によって前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成する表示情報生成部と、前記表示情報生成部によって生成された前記処理済み情報を表示装置に表示させる表示制御部と、を備える。   Moreover, the information processing system which concerns on 1 aspect of this indication acquires the event relevant information for detecting the predetermined event about a vehicle, and determines whether the said predetermined event was detected using the said event relevant information An event determination unit, a direction information acquisition unit that acquires direction information indicating a first direction associated with the predetermined event when the event determination unit determines that the predetermined event has been detected, and an outside of the vehicle A vehicle processing information acquisition unit that acquires first recognition result information obtained by recognition processing by the vehicle of a positioned object, and determines whether or not the first recognition result information includes an object recognition result in the first direction And using the first recognition result information to determine whether or not there is a specific object that may affect the traveling of the vehicle in the first direction. When it is determined that the specific object does not exist by the determination unit and the vehicle recognition determination unit, and when it is determined that the first recognition result includes the object recognition result in the first direction, A display information generation unit that generates processed information indicating that the vehicle has recognized the first direction, and a display control unit that displays the processed information generated by the display information generation unit on a display device And comprising.

このような構成によれば、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。例えば、自動運転車両の自動運転が適切に行われているか否かを評価する評価者に、自動運転車両の運転に関する認識処理が適切に行われているか否かを判定して出力できる。これにより、評価者は、所定イベント毎に、通常の自動運転の走行制御に加え、さらに、安全確認が必要となる地点において、自動運転車両が適切に認識処理できているかをチェックできる。   According to such a configuration, it is possible for a person to grasp whether or not recognition processing relating to driving of the vehicle is appropriately performed. For example, an evaluator who evaluates whether or not automatic driving of an autonomous driving vehicle is appropriately performed can determine and output whether or not recognition processing related to driving of the autonomous driving vehicle is appropriately performed. As a result, the evaluator can check whether or not the automatic driving vehicle can be appropriately recognized at a point where safety confirmation is required in addition to the normal automatic driving control for each predetermined event.

また、このような構成によれば、所定イベント毎に、安全確認する方向(つまり、確認方向)が予め設定されているために、安全確認が特に必要となる方向に対して、自動運転車両によって認識処理がなされているどうかを適切に評価することができる。   In addition, according to such a configuration, the direction for safety confirmation (that is, the confirmation direction) is set in advance for each predetermined event. It is possible to appropriately evaluate whether the recognition process has been performed.

また、自動運転の障害となる障害物などを含む特定物体が自動運転車両によって認識されなかった場合であっても、その旨を示す情報を表示するために、評価者は、自動運転車両によって適切に認識処理がなされたか否かを把握することができる。つまり、評価者は、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを簡便に把握することができる。   In addition, even when a specific object including an obstacle that is an obstacle to automatic driving is not recognized by the automatic driving vehicle, the evaluator should appropriately use the automatic driving vehicle to display information indicating that. It is possible to grasp whether or not the recognition process has been performed. That is, the evaluator can easily grasp whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle.

また、このような構成によれば、自動運転車両が自動運転の走行制御をする際に、所定イベントに対する判定に用いた情報のみを出力することとなるために、出力処理をするための処理量を削減することができる。そのため、当該出力処理を効率的に高速化できる。   Further, according to such a configuration, when the autonomous driving vehicle performs the driving control of the automatic driving, only the information used for the determination with respect to the predetermined event is output. Therefore, the processing amount for performing the output process Can be reduced. Therefore, the output process can be efficiently speeded up.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. Alternatively, it may be realized by any combination of recording media.

以下、本開示の実施の形態について、図面を参照しながら具体的に説明する。   Hereinafter, embodiments of the present disclosure will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも本開示包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   It should be noted that each of the embodiments described below shows a comprehensive or specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態)
[概要]
まず、本開示の実施の形態に係る情報処理システムの概要について説明する。
(Embodiment)
[Overview]
First, an overview of an information processing system according to an embodiment of the present disclosure will be described.

図1は、実施の形態における情報処理システムを含むシステムの構成を説明するための図である。   FIG. 1 is a diagram for explaining a configuration of a system including an information processing system according to an embodiment.

図1には、自動運転車両2と、自動運転車両2と無線通信する端末1と、端末1を操作するユーザUとを図示している。   FIG. 1 illustrates an autonomous driving vehicle 2, a terminal 1 that wirelessly communicates with the autonomous driving vehicle 2, and a user U who operates the terminal 1.

端末1は、本開示の実施の形態に係る情報処理システムの一例であり、自動運転車両2と通信して、自動運転車両2から、自動運転車両の走行制御に関する情報などを受信する通信装置である。   The terminal 1 is an example of an information processing system according to an embodiment of the present disclosure, and is a communication device that communicates with the autonomous driving vehicle 2 and receives information related to traveling control of the autonomous driving vehicle 2 from the autonomous driving vehicle 2. is there.

自動運転車両2は、予め任意に定められた制御プログラムに基づいて自律的に運転する、つまり、自動運転する移動体である。図1には、自動運転車両2に一例として、自動車(つまり、車両)を例示している。なお、自動運転車両2は、自動運転する移動体であればよく、バイク、3輪自動車など、特に限定されない。   The autonomous driving vehicle 2 is a moving body that autonomously drives based on a control program that is arbitrarily determined in advance, that is, an autonomous driving. FIG. 1 illustrates an automobile (that is, a vehicle) as an example of the autonomous driving vehicle 2. Note that the autonomous driving vehicle 2 may be any mobile body that is automatically driven, and is not particularly limited to a motorcycle, a three-wheeled vehicle, or the like.

ユーザUは、自動運転車両2が適切に自動運転できているか否かを、端末1を用いて評価する評価者である。例えば、ユーザUは、自動運転車両2に搭乗して、自動運転車両2の動作を評価する。   The user U is an evaluator who uses the terminal 1 to evaluate whether or not the autonomous driving vehicle 2 can be appropriately automatically driven. For example, the user U gets on the autonomous driving vehicle 2 and evaluates the operation of the autonomous driving vehicle 2.

なお、図1には、自動運転車両2と端末1とは、別体として図示しているが、ユーザUが自動運転車両2に搭乗して自動運転車両2の動作を評価する場合、自動運転車両2と端末1とは一体的に形成されていてもよい。例えば、端末1は、有線通信するように通信線で自動運転車両2と接続され、自動運転車両2内に配置されていてもよい。また、ユーザUは、自動運転車両2に搭乗しなくてもよい。   In FIG. 1, the autonomous driving vehicle 2 and the terminal 1 are illustrated as separate bodies. However, when the user U gets on the autonomous driving vehicle 2 and evaluates the operation of the autonomous driving vehicle 2, the autonomous driving vehicle 2 and the terminal 1 are automatically driven. The vehicle 2 and the terminal 1 may be integrally formed. For example, the terminal 1 may be connected to the autonomous driving vehicle 2 via a communication line so as to perform wired communication, and may be disposed in the autonomous driving vehicle 2. Further, the user U may not board the autonomous driving vehicle 2.

なお、以下の説明では、本開示の実施の形態に係る情報処理システムを端末1として説明する。また、以下の説明では、ユーザUが端末1を持って、自動運転車両2内で利用する場合について説明する。   In the following description, an information processing system according to an embodiment of the present disclosure will be described as a terminal 1. Moreover, in the following description, the case where the user U uses the terminal 1 and uses it in the autonomous driving vehicle 2 will be described.

[構成]
続いて、本開示の実施の形態に係る端末1の構成について説明する。
[Constitution]
Next, the configuration of the terminal 1 according to the embodiment of the present disclosure will be described.

図2は、実施の形態における情報処理システムの一例である端末1の機能構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a functional configuration of the terminal 1 which is an example of the information processing system according to the embodiment.

端末1は、自動運転車両2が適切に自動運転できているか否かを評価するために用いる通信装置である。端末1は、例えば、スマートフォン、タブレット端末などの自動運転車両2と通信可能な通信装置である。なお、端末1は、本開示の実施の形態に係る情報処理システムを実現するための専用のコンピュータ、または、サーバ装置であってもよい。その場合、端末1の表示部12及び位置測定部13はユーザUが有する端末に備えられ、端末1とユーザUが有する端末とは通信を介して互いにデータを送受信する。   The terminal 1 is a communication device used for evaluating whether or not the autonomous driving vehicle 2 is appropriately automatically driven. The terminal 1 is a communication device that can communicate with the autonomous driving vehicle 2 such as a smartphone or a tablet terminal. Note that the terminal 1 may be a dedicated computer or a server device for realizing the information processing system according to the embodiment of the present disclosure. In that case, the display unit 12 and the position measurement unit 13 of the terminal 1 are provided in a terminal possessed by the user U, and the terminal 1 and the terminal possessed by the user U exchange data with each other via communication.

端末1は、通信部11と、表示部12と、位置測定部13と、制御部14と、記憶部15と、を備える。   The terminal 1 includes a communication unit 11, a display unit 12, a position measurement unit 13, a control unit 14, and a storage unit 15.

通信部11は、自動運転車両2と通信する通信アダプタなどの通信インターフェースである。   The communication unit 11 is a communication interface such as a communication adapter that communicates with the autonomous driving vehicle 2.

表示部12は、自動運転車両2から受信した情報、制御部14が生成した画像などを表示する。表示部12は、例えば、ディスプレイであり、本実施の形態においては、タッチパネルディスプレイである。   The display unit 12 displays information received from the autonomous driving vehicle 2, an image generated by the control unit 14, and the like. The display unit 12 is a display, for example, and is a touch panel display in the present embodiment.

位置測定部13は、端末1の位置を測定する。位置測定部13は、例えば、GPS(Grobal Positioning System)受信機などにより実現され、端末1の位置情報を取得する。   The position measuring unit 13 measures the position of the terminal 1. The position measuring unit 13 is realized by, for example, a GPS (Global Positioning System) receiver and acquires the position information of the terminal 1.

制御部14は、自動運転車両2から受信した情報に基づいて、ユーザUに自動運転車両2が適切に自動運転できているか否かを評価させるための情報を生成して表示部12へ出力する。制御部14は、例えば、CPU(Central Processing Unit)により実現される。制御部14は、機能的には、通信制御部141と、表示情報生成部142と、表示制御部143と、車両処理情報取得部144と、車両認識判定部145と、イベント判定部146と、方向情報取得部147と、を備える。   Based on the information received from the autonomous driving vehicle 2, the control unit 14 generates information for allowing the user U to evaluate whether or not the autonomous driving vehicle 2 is appropriately automatically driven and outputs the information to the display unit 12. . The control unit 14 is realized by a CPU (Central Processing Unit), for example. Functionally, the control unit 14 includes a communication control unit 141, a display information generation unit 142, a display control unit 143, a vehicle processing information acquisition unit 144, a vehicle recognition determination unit 145, an event determination unit 146, A direction information acquisition unit 147.

通信制御部141は、通信部11を制御することで、端末1と自動運転車両2との通信を制御する。   The communication control unit 141 controls communication between the terminal 1 and the autonomous driving vehicle 2 by controlling the communication unit 11.

イベント判定部146は、自動運転車両2についての所定イベントを検出するためのイベント関連情報152を取得し、取得したイベント関連情報152を用いて所定イベントを検出したか否かを判定する。具体的には、イベント判定部146は、イベント関連情報152を用いて、自動運転車両2に所定イベントが発生したか否かを判定する。イベント判定部146は、例えば、位置測定部13が測定した位置と、イベント関連情報152と、地図情報153又は経路情報とから、自動運転車両2に所定イベントが発生したか否かを判定する。ここで、所定イベントとは、自動運転車両2の動作又は自動運転車両2の位置に関するイベントである。具体的には、所定イベントは、後述する図7に示すような、自動運転車両2が走行制御を変更すること又は自動運転車両2が所定の場所へ移動することである。例えば、自動運転車両2が走行制御を変更することとは、発進、停止、右折、左折などを含み、自動運転車両2が所定の場所へ移動することは、交差点への進入などを含む。   The event determination unit 146 acquires event related information 152 for detecting a predetermined event for the autonomous driving vehicle 2, and determines whether a predetermined event is detected using the acquired event related information 152. Specifically, the event determination unit 146 uses the event related information 152 to determine whether or not a predetermined event has occurred in the autonomous driving vehicle 2. The event determination unit 146 determines, for example, whether or not a predetermined event has occurred in the autonomous driving vehicle 2 from the position measured by the position measurement unit 13, the event related information 152, the map information 153, or the route information. Here, the predetermined event is an event related to the operation of the autonomous driving vehicle 2 or the position of the autonomous driving vehicle 2. Specifically, the predetermined event is that the automatic driving vehicle 2 changes traveling control or the automatic driving vehicle 2 moves to a predetermined location as shown in FIG. 7 described later. For example, changing the driving control of the autonomous driving vehicle 2 includes starting, stopping, turning right, turning left, etc., and moving the autonomous driving vehicle 2 to a predetermined location includes entering an intersection.

方向情報取得部147は、イベント判定部146が、自動運転車両2に所定イベントが発生したと判定した場合、つまり、所定イベントを検出した場合に、イベント関連情報152を用いて、検出した所定イベントに関連付けられた確認方向を示す方向情報を取得する。なお、確認方向は、第1方向の一例である。   The direction information acquisition unit 147 uses the event related information 152 to detect the predetermined event when the event determination unit 146 determines that the predetermined event has occurred in the autonomous driving vehicle 2, that is, when the predetermined event is detected. Direction information indicating the confirmation direction associated with is acquired. The confirmation direction is an example of the first direction.

車両処理情報取得部144は、通信部11が自動運転車両2から受信した情報を取得する。具体的には、車両処理情報取得部144は、自動運転車両2の外部に位置する物体の、自動運転車両2による認識処理により得られる認識結果情報(第1認識結果情報)を取得する。認識結果情報は、物体認識処理が行われたか否かを判定することができる情報である。具体的には、認識結果情報は、物体認識処理の実行有無、物体認識処理の成否、又は認識した物体の情報の有無などである。認識した物体の情報としては、物体の種別、物体の形状若しくは物体を囲む矩形、又は撮影部22(図3参照)若しくは自動運転車両2から物体までの方向若しくは距離などがある。認識結果情報は、例えば、自動運転車両2から確認方向を含む所定の範囲を撮影することで得られる撮影情報(つまり、画像)を、自動運転車両2が認識処理することにより取得される情報である。このような構成によれは、例えば、公道などに設置されたカメラなどから情報を取得する自動運転のシステムではなく、自動運転車両に搭載されたカメラを用いて走行制御を行う自動運転車両に適用され得る。   The vehicle processing information acquisition unit 144 acquires information received from the autonomous driving vehicle 2 by the communication unit 11. Specifically, the vehicle processing information acquisition unit 144 acquires recognition result information (first recognition result information) obtained by recognition processing by the automatic driving vehicle 2 for an object located outside the automatic driving vehicle 2. The recognition result information is information that can determine whether or not an object recognition process has been performed. Specifically, the recognition result information includes whether or not the object recognition process is executed, whether or not the object recognition process is successful, or whether or not there is information on the recognized object. The information of the recognized object includes the type of the object, the shape of the object or a rectangle surrounding the object, or the direction or distance from the photographing unit 22 (see FIG. 3) or the autonomous driving vehicle 2 to the object. The recognition result information is, for example, information acquired by the automatic driving vehicle 2 performing recognition processing on shooting information (that is, an image) obtained by shooting a predetermined range including the confirmation direction from the automatic driving vehicle 2. is there. According to such a configuration, for example, not an automatic driving system that acquires information from a camera installed on a public road or the like, but an automatic driving vehicle that performs traveling control using a camera mounted on an automatic driving vehicle. Can be done.

例えば、所定の範囲は、自動運転車両2の舵角および車速の少なくとも一方を含む自動運転車両2の走行情報を取得し、取得した走行情報に応じて決定されてもよい。このような方法によれば、自動運転車両2の走行状態に応じて、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かをより簡便にユーザUに把握させることができる。   For example, the predetermined range may be determined according to the travel information acquired by acquiring travel information of the automatic drive vehicle 2 including at least one of the steering angle and the vehicle speed of the automatic drive vehicle 2. According to such a method, according to the traveling state of the autonomous driving vehicle 2, the user U can more easily grasp whether or not recognition processing for automatic driving is appropriately performed by the autonomous driving vehicle 2. Can do.

例えば、イベント判定部146は、所定イベントを検出した場合、自動運転車両2へ、車速を含む走行情報を要求する信号を、通信部11を介して送信する。また、イベント判定部146は、自動運転車両2から受信した走行情報に含まれる車速に基づいて、所定の範囲を決定して、決定した所定の範囲を含む確認方向の撮影情報を要求する信号を、自動運転車両2へ送信する。   For example, when a predetermined event is detected, the event determination unit 146 transmits a signal requesting travel information including vehicle speed to the autonomous driving vehicle 2 via the communication unit 11. In addition, the event determination unit 146 determines a predetermined range based on the vehicle speed included in the travel information received from the autonomous driving vehicle 2, and outputs a signal requesting shooting information in the confirmation direction including the determined predetermined range. To the autonomous driving vehicle 2.

車両認識判定部145は、車両処理情報取得部144によって取得された認識結果情報を用いて、確認方向について自動運転車両2により行われる認識処理を判定する。具体的には、車両認識判定部145は、車両処理情報取得部144が取得した認識結果情報に確認方向の物体認識結果が含まれるか否かを判定する。例えば、車両認識判定部145は、物体認識処理が確認方向において実行されたか否か、物体認識処理が確認方向において正常に実行されたか否か、又は認識した物体の情報が確認方向に対応する認識処理範囲に存在するか否か、を判定する。例えば、車両認識判定部145は、認識処理が画像認識処理である場合、物体認識処理の動作ログから確認方向に対応する画像上の範囲についての処理の実行有無を判定してもよい。また、車両認識判定部145は、確認方向に対応する画像上の範囲内に認識に失敗した領域が存在するか否かを判定してもよい。また、車両認識判定部145は、確認方向に対応する画像上の範囲内に位置している認識された物体を囲む矩形が存在するか否かを判定してもよい。   The vehicle recognition determination unit 145 determines the recognition process performed by the autonomous driving vehicle 2 in the confirmation direction using the recognition result information acquired by the vehicle processing information acquisition unit 144. Specifically, the vehicle recognition determination unit 145 determines whether or not the recognition result information acquired by the vehicle processing information acquisition unit 144 includes an object recognition result in the confirmation direction. For example, the vehicle recognition determination unit 145 recognizes whether the object recognition process has been executed in the confirmation direction, whether the object recognition process has been normally executed in the confirmation direction, or the recognized object information corresponding to the confirmation direction. It is determined whether or not it exists in the processing range. For example, when the recognition process is an image recognition process, the vehicle recognition determination unit 145 may determine whether or not to execute the process for the range on the image corresponding to the confirmation direction from the operation log of the object recognition process. Further, the vehicle recognition determination unit 145 may determine whether or not there is a region where the recognition has failed within the range on the image corresponding to the confirmation direction. Further, the vehicle recognition determination unit 145 may determine whether or not there is a rectangle surrounding the recognized object located within the range on the image corresponding to the confirmation direction.

また、車両認識判定部145は、認識結果情報を用いて、確認方向に自動運転車両2の走行に影響を与える可能性のある特定物体が存在するか否かを判定する。具体的には、車両認識判定部145は、特定物体の認識について学習した機械学習モデルを用いて、確認方向に特定物体が存在するか否かを判定する。例えば、機械学習モデルは、ディープラーニングなどのニューラルネットワークを用いた学習モデルであってよく、辞書などのルール情報を用いた学習モデルであってもよい。また、車両認識判定部145は、特定物体以外の物体を含む一般的な物体の認識について学習した機械学習モデルを用いて、確認方向に物体が存在するか否かを判定し、後述する特定物体情報154を用いて、存在すると判定された物体が特定物体であるか否かを判定してもよい。以下では、この方式を用いて車両認識判定部145の処理が行われる例を説明する。ここで、特定物体は、任意に定められてよく、例えば、歩行者、対向車など、運転の障害となる可能性のある障害物であってもよく、信号機などの安全に走行するために確認すべき対象であってもよい。   Further, the vehicle recognition determination unit 145 determines whether or not there is a specific object that may affect the traveling of the autonomous driving vehicle 2 in the confirmation direction using the recognition result information. Specifically, the vehicle recognition determination unit 145 determines whether or not the specific object exists in the confirmation direction by using the machine learning model learned about the recognition of the specific object. For example, the machine learning model may be a learning model using a neural network such as deep learning, or may be a learning model using rule information such as a dictionary. Further, the vehicle recognition determination unit 145 determines whether or not an object exists in the confirmation direction using a machine learning model learned about recognition of a general object including an object other than the specific object, and the specific object described later The information 154 may be used to determine whether or not the object determined to exist is a specific object. Below, the example in which the process of the vehicle recognition determination part 145 is performed using this system is demonstrated. Here, the specific object may be arbitrarily determined. For example, the specific object may be an obstacle such as a pedestrian or an oncoming vehicle, which may be an obstacle to driving, and is confirmed for safely traveling such as a traffic light. It may be a target to be.

表示情報生成部142は、表示部12に表示させる情報を生成する。表示情報生成部142は、例えば、車両認識判定部145によって確認方向に特定物体が存在しないと判定された場合であって、且つ、認識結果情報に確認方向の物体認識結果が含まれると判定された場合、自動運転車両2が確認方向を認識処理済みであることを示す処理済み情報を生成する。   The display information generation unit 142 generates information to be displayed on the display unit 12. For example, the display information generation unit 142 determines that the specific object does not exist in the confirmation direction by the vehicle recognition determination unit 145 and determines that the recognition result information includes the object recognition result in the confirmation direction. In the case of the automatic driving vehicle 2, processed information indicating that the autonomous driving vehicle 2 has already recognized the confirmation direction is generated.

表示制御部143は、表示情報生成部142が生成した処理済み情報(具体的には、画像)を表示部12へ出力して、表示部12に当該情報を表示させる。表示制御部143は、例えば、表示情報生成部142によって生成された処理済み情報を表示部12へ出力する。ユーザUは、表示部12に表示された処理済み情報を確認することで、自動運転車両2が適切に自動運転のための認識処理を行っているか否かを評価する。   The display control unit 143 outputs the processed information (specifically, an image) generated by the display information generation unit 142 to the display unit 12 and causes the display unit 12 to display the information. For example, the display control unit 143 outputs the processed information generated by the display information generation unit 142 to the display unit 12. The user U evaluates whether or not the autonomous driving vehicle 2 is appropriately performing recognition processing for automatic driving by checking the processed information displayed on the display unit 12.

また、例えば、イベント判定部146が自動運転車両2の走行情報を取得している場合、走行情報を表示部12へ出力して、表示部12に表示させてもよい。このような方法によれば、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かを、ユーザUにより分かりやすく把握させることができる。   Further, for example, when the event determination unit 146 acquires travel information of the autonomous driving vehicle 2, the travel information may be output to the display unit 12 and displayed on the display unit 12. According to such a method, the user U can easily understand whether or not the recognition process for the automatic driving is appropriately performed by the automatic driving vehicle 2.

また、例えば、表示制御部143は、イベント判定部146によって所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるまで繰り返し処理済み情報を表示部12へ出力し続け、表示部12に当該処理済み情報を表示させ続けてもよい。例えば、表示制御部143は、自動運転車両2が左折する場合、左折し始めてから、つまり、イベント判定部146が所定イベントを検出してから、左折が終了するまで、つまり、イベント判定部146が当該所定イベントを検出しなくなるまで、処理済み情報を表示部12へ出力し続ける。例えば、イベント判定部146は、所定イベントが終了したことを、位置測定部13が測定した位置情報に基づいて判定してもよいし、自動運転車両2が走行を開始してからの走行距離、または、走行時間が所定の閾値を満たしたか否かにより判定してもよい。これにより、ユーザUは、自動運転車両2が走行制御を変更してから、変更した走行制御の状態を維持し続けている間、常に自動運転車両2が自動運転のための認識処理をしているか否かをユーザUに簡便に把握させることができる。   Further, for example, when a predetermined event is detected by the event determination unit 146, the display control unit 143 continues to output the processed information repeatedly to the display unit 12 until the detected predetermined event is not detected. The processed information may be continuously displayed on the unit 12. For example, when the autonomous driving vehicle 2 makes a left turn, the display control unit 143 starts turning left, that is, after the event determination unit 146 detects a predetermined event until the left turn ends, that is, the event determination unit 146 The processed information is continuously output to the display unit 12 until the predetermined event is not detected. For example, the event determination unit 146 may determine that the predetermined event has ended based on the position information measured by the position measurement unit 13, or the travel distance after the autonomous driving vehicle 2 starts traveling, Alternatively, the determination may be made based on whether or not the traveling time satisfies a predetermined threshold. Thus, the user U always performs recognition processing for automatic driving while the automatic driving vehicle 2 has changed the driving control and continues to maintain the changed driving control state. The user U can easily grasp whether or not there is.

なお、表示情報生成部142は、さらに、確認方向に特定物体が存在すると車両認識判定部145によって判定された場合は、確認方向に特定物体を認識した旨を示す第1情報を含む処理済み情報を生成してもよい。一方、表示情報生成部142は、確認方向に特定物体が存在しないと判定された場合は、確認方向に特定物体を認識しなかった旨を示す第2情報を含む処理済み情報を生成してもよい。このように、表示情報生成部142は、特定物体の有無によって、異なる情報を生成して、生成した情報を、表示制御部143を用いて表示部12に表示させる。こうすることで、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かをより適切に評価することができる。   The display information generation unit 142 further includes processed information including first information indicating that the specific object is recognized in the confirmation direction when the vehicle recognition determination unit 145 determines that the specific object exists in the confirmation direction. May be generated. On the other hand, if it is determined that the specific object does not exist in the confirmation direction, the display information generation unit 142 may generate processed information including the second information indicating that the specific object has not been recognized in the confirmation direction. Good. As described above, the display information generation unit 142 generates different information depending on the presence or absence of a specific object, and causes the display unit 12 to display the generated information using the display control unit 143. By doing so, it is possible to more appropriately evaluate whether or not recognition processing for automatic driving is appropriately performed by the automatic driving vehicle 2.

また、イベント判定部146は、車両認識判定部145によって確認方向に特定物体が存在すると判定された場合、特定物体が原因で自動運転車両2が走行の制御を決定又は変更したか否かを判定してもよい。例えば、イベント判定部146は、所定イベントを検出した場合、自動運転車両2へ、走行情報を要求する信号を、通信部11を介して送信する。また、イベント判定部146は、自動運転車両2から受信した走行情報とイベント関連情報152とに基づいて、自動運転車両2がイベント関連情報152に基づく走行を実行しているか否かを判定する。この場合、表示情報生成部142は、自動運転車両2が走行の制御を、イベント関連情報152に基づく走行の制御内容から変更したか否かの判定結果を含む情報を生成し、表示部12に表示させる。これにより、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かを、ユーザUにより分かりやすく把握させることができる。   In addition, when the vehicle recognition determination unit 145 determines that the specific object exists in the confirmation direction, the event determination unit 146 determines whether or not the autonomous driving vehicle 2 has determined or changed the driving control due to the specific object. May be. For example, when a predetermined event is detected, the event determination unit 146 transmits a signal requesting traveling information to the autonomous driving vehicle 2 via the communication unit 11. Further, the event determination unit 146 determines whether or not the automatic driving vehicle 2 is executing a driving based on the event related information 152 based on the driving information received from the automatic driving vehicle 2 and the event related information 152. In this case, the display information generation unit 142 generates information including a determination result as to whether or not the autonomous driving vehicle 2 has changed the driving control from the driving control content based on the event related information 152, and displays the information on the display unit 12. Display. Thereby, it can be made to grasp | ascertain easily by the user U whether the recognition process for automatic driving | running | working is appropriately performed by the self-driving vehicle 2. FIG.

なお、自動運転車両2は、イベント関連情報152に基づく確認方向の撮影のみではなく、自動運転車両2の周囲の複数の方向を撮影している場合がある。また、複数の方向のそれぞれの方向に対して撮影して生成した画像に関して、物体の認識処理を実行している場合がある。この場合、端末1は、確認方向とは異なる方向が撮影された画像を受信してもよい。この場合、例えば、車両処理情報取得部144は、さらに、確認方向とは異なる方向(第2方向)における、自動運転車両の外部に位置する、自動運転車両2による物体の認識処理により得られる認識結果情報(第2認識結果情報)を取得してもよい。また、車両認識判定部145は、第2認識結果情報を用いて、第2方向について自動運転車両2により行われる認識処理を判定してもよい。また、表示情報生成部142は、第2方向に障害物が存在すると車両認識判定部145によって判定された場合、当該障害物が存在する第2方向を示す情報を含む処理済み情報を生成してもよい。表示制御部143は、表示情報生成部142が生成した処理済み情報を、表示部12に表示させてもよい。なお、上述の複数の方向は1つの画像上に含まれていてもよい。例えば、確認方向と第2方向とは同一画像上における異なる方向であってよい。また、認識処理の入力となる画像は、全天球カメラなどの撮影視野が広いカメラの撮影により得られるパノラマ画像であってもよい。   Note that the automatic driving vehicle 2 may be shooting not only the confirmation direction based on the event-related information 152 but also a plurality of directions around the automatic driving vehicle 2. In some cases, an object recognition process is performed on an image generated by shooting in each of a plurality of directions. In this case, the terminal 1 may receive an image taken in a direction different from the confirmation direction. In this case, for example, the vehicle processing information acquisition unit 144 further recognizes by recognition processing of an object by the autonomous driving vehicle 2 located outside the autonomous driving vehicle in a direction (second direction) different from the confirmation direction. Result information (second recognition result information) may be acquired. Moreover, the vehicle recognition determination part 145 may determine the recognition process performed by the automatic driving vehicle 2 about a 2nd direction using 2nd recognition result information. Further, when the vehicle recognition determination unit 145 determines that an obstacle exists in the second direction, the display information generation unit 142 generates processed information including information indicating the second direction in which the obstacle exists. Also good. The display control unit 143 may cause the display unit 12 to display the processed information generated by the display information generation unit 142. Note that the plurality of directions described above may be included in one image. For example, the confirmation direction and the second direction may be different directions on the same image. In addition, the image that becomes the input of the recognition process may be a panoramic image obtained by shooting with a camera having a wide shooting field of view such as an omnidirectional camera.

自動運転車両2の自動運転の走行制御は、例えば、自動運転車両2に最も近い特定物体などの、すぐに走行を停止する必要があるような、緊急性が高い情報から処理される。また、自動運転車両2から離れた物体などの、すぐに走行を停止する必要がないような、緊急性が低い情報に関しても、走行制御に影響を及ぼす情報の処理は実行する。そこで、緊急性が高い方向以外の他の方向に、自動運転車両2の走行に影響を与える障害物などの特定物体が存在するか否かを判定し、走行の制御内容を変更する必要性のある情報も出力する。こうすることで、ユーザUは、自動運転車両2によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。   The driving control for the automatic driving of the autonomous driving vehicle 2 is processed from highly urgent information such as a specific object closest to the autonomous driving vehicle 2 that needs to be stopped immediately. In addition, processing of information that affects traveling control is executed even for information with low urgency, such as an object away from the autonomous driving vehicle 2 that does not need to stop traveling immediately. Therefore, it is necessary to determine whether there is a specific object such as an obstacle that affects the traveling of the autonomous driving vehicle 2 in a direction other than the direction of high urgency, and to change the control content of the traveling. Some information is also output. In this way, the user U can more appropriately grasp whether or not the automatic driving recognition process is appropriately performed by the automatic driving vehicle 2.

また、自動運転車両2は、同一の方向(例えば、確認方向)を、異なる位置から撮影する場合がある。例えば、自動運転車両2には、自動運転車両2の進行方向側と、当該進行方向とは反対側の後方側とのそれぞれにカメラが取り付けられる場合がある。このような場合に、自動運転車両2は、例えば、自動運転車両2の左方向を撮影する場合、進行方向側と後方側とにそれぞれ取付けられたカメラで左方向を撮影する場合がある。このような場合、表示情報生成部142は、認識結果情報に基づいて、複数のカメラから得られる画像から選択された少なくとも1つの画像を処理済み情報とともに表示制御部143に提供してよい。つまり、車両処理情報取得部144は、自動運転車両2によって複数の位置から確認方向を撮影されることで生成された複数の画像を取得してもよい。この場合、表示情報生成部142は、認識結果情報に基づいて、車両処理情報取得部144によって取得された複数の画像から選択された少なくとも1つの画像を、生成した処理済み情報とともに表示制御部143に表示部12へ出力させてもよい。表示情報生成部142は、例えば、認識結果情報に基づいて、複数の画像のうち認識された物体が含まれる画像を処理済み情報とともに表示制御部143に出力してもよい。表示制御部143は、表示情報生成部142が生成した処理済み情報及び画像を、表示部12に表示させてもよい。   Moreover, the autonomous driving vehicle 2 may photograph the same direction (for example, a confirmation direction) from different positions. For example, the automatic driving vehicle 2 may have a camera attached to each of the traveling direction side of the autonomous driving vehicle 2 and the rear side opposite to the traveling direction. In such a case, for example, when photographing the left direction of the autonomous driving vehicle 2, the autonomous driving vehicle 2 may photograph the left direction with cameras attached to the traveling direction side and the rear side, respectively. In such a case, the display information generation unit 142 may provide at least one image selected from images obtained from a plurality of cameras to the display control unit 143 together with the processed information based on the recognition result information. That is, the vehicle processing information acquisition unit 144 may acquire a plurality of images generated by photographing the confirmation directions from a plurality of positions by the autonomous driving vehicle 2. In this case, the display information generation unit 142 displays at least one image selected from the plurality of images acquired by the vehicle processing information acquisition unit 144 based on the recognition result information, together with the generated processed information, the display control unit 143. May be output to the display unit 12. For example, based on the recognition result information, the display information generation unit 142 may output an image including a recognized object among a plurality of images to the display control unit 143 together with the processed information. The display control unit 143 may cause the display unit 12 to display the processed information and the image generated by the display information generation unit 142.

また、表示制御部143は、表示情報生成部142から得た処理済み情報及び画像を、所定イベントに応じた態様で表示部12に表示させてもよい。例えば、表示制御部143は、左折が検出された場合は、自動運転車両2を俯瞰するような態様で表示部12に画像及び処理済み情報を表示させてもよい。また、表示制御部143は、交差点進入が検出された場合は、自動運転車両2の中から見たような態様で表示部12に画像及び処理済み情報を表示させてもよい。これにより、自動運転車両2によって処理されている情報を、より適切にユーザUに把握させることができる。   The display control unit 143 may display the processed information and the image obtained from the display information generation unit 142 on the display unit 12 in a manner corresponding to a predetermined event. For example, when a left turn is detected, the display control unit 143 may cause the display unit 12 to display the image and the processed information in such a manner as to look down on the autonomous driving vehicle 2. The display control unit 143 may display the image and the processed information on the display unit 12 in a manner as viewed from the autonomous driving vehicle 2 when the intersection approach is detected. Thereby, the user U can be made to grasp the information processed by the autonomous driving vehicle 2 more appropriately.

記憶部15は、制御部14が実行する制御プログラム、自動運転車両2から受信した情報などを記憶する記憶媒体である。記憶部15は、例えば、HDD(Hard Disk Drive)、フラッシュメモリなどにより実現されるROM(Read Only Memory)、RAM(Random Access Memory)などの記憶媒体である。   The storage unit 15 is a storage medium that stores a control program executed by the control unit 14, information received from the autonomous driving vehicle 2, and the like. The storage unit 15 is a storage medium such as an HDD (Hard Disk Drive), a ROM (Read Only Memory) realized by a flash memory, or a RAM (Random Access Memory).

記憶部15には、自動運転評価プログラム151と、イベント関連情報152と、地図情報153と、特定物体情報154とが記憶されている。   The storage unit 15 stores an automatic driving evaluation program 151, event-related information 152, map information 153, and specific object information 154.

自動運転評価プログラム151は、制御部14が実行する、自動運転車両2が適切に自動運転できているか否かを判定するための制御プログラムである。   The automatic driving evaluation program 151 is a control program that is executed by the control unit 14 to determine whether or not the automatic driving vehicle 2 can be appropriately automatically driven.

イベント関連情報152は、自動運転車両2が、所定イベントの種別と、当該所定イベントに対する確認方向とが関連付けられた情報である。なお、イベント関連情報152の詳細については、後述する。   The event related information 152 is information in which the autonomous driving vehicle 2 is associated with the type of the predetermined event and the confirmation direction for the predetermined event. Details of the event related information 152 will be described later.

地図情報153は、自動運転車両2が走行する道路、信号機、標識などの情報が含まれている地図を示す情報である。   The map information 153 is information indicating a map including information such as roads, traffic lights, and signs on which the autonomous driving vehicle 2 travels.

特定物体情報154は、特定物体である物体を示す情報である。特定物体情報154には、例えば、歩行者、自転車などが含まれる。なお、特定物体情報154には、特定物体でない物体を示す情報が含まれてもよい。例えば、特定物体情報154には、ガードレールなどが特定物体でない物体として含まれてよい。   The specific object information 154 is information indicating an object that is a specific object. The specific object information 154 includes, for example, a pedestrian and a bicycle. The specific object information 154 may include information indicating an object that is not a specific object. For example, the specific object information 154 may include a guardrail or the like as an object that is not a specific object.

なお、特定物体情報154には、物体の態様が付属していてもよい。例えば、「歩行者」であっても、例えば、自動運転車両2に向かって歩行している場合と、立ち止まっている場合とで、特定物体として判定するか否かが異なっていてもよい。この場合、特定物体情報154は、「移動している」+「歩行者」、「顔の向きが正面である」+「歩行者」、又は「移動している」+「顔の向きが正面である」+「歩行者」などであってよい。また、同じ物体であっても、自動運転車両2と物体との距離に基づいて、特定物体であるか否かの判定は異なってもよい。例えば、物体は、任意に定められる基準距離よりも近い場合は特定物体であると判定され、当該基準距離よりも遠い場合は特定物体ではないと判定されてもよい。この場合、特定物体情報154は、「基準距離よりも近い」+「歩行者」などであってよい。このように、特定物体情報154は、任意に定められてよい。   The specific object information 154 may be accompanied by an object mode. For example, even if it is a “pedestrian”, for example, whether or not it is determined as a specific object may be different between when walking toward the autonomous driving vehicle 2 and when stopping. In this case, the specific object information 154 includes “moving” + “pedestrian”, “face orientation is front” + “pedestrian”, or “moving” + “face orientation is front. Or “pedestrian”. Moreover, even if it is the same object, the determination whether it is a specific object may differ based on the distance of the autonomous driving vehicle 2 and an object. For example, an object may be determined to be a specific object when it is closer than an arbitrarily determined reference distance, and may be determined to be not a specific object when it is farther than the reference distance. In this case, the specific object information 154 may be “closer to the reference distance” + “pedestrian” or the like. Thus, the specific object information 154 may be arbitrarily determined.

図3は、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2の機能構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a functional configuration of the autonomous driving vehicle 2 that communicates with the terminal 1 that is an example of the information processing system according to the embodiment.

自動運転車両2は、制御プログラムに基づいて自律的に運転(つまり、走行制御)を行う移動体である。自動運転車両2は、例えば、車両である。また、自動運転車両2が行う自動運転は、人が運転しない完全自動運転であってもよく、運転の一部を人が行う自動運転であってもよい。   The autonomous driving vehicle 2 is a moving body that autonomously operates (that is, travel control) based on a control program. The automatic driving vehicle 2 is, for example, a vehicle. Further, the automatic driving performed by the automatic driving vehicle 2 may be a fully automatic driving that is not driven by a person, or may be an automatic driving in which a part of driving is performed by a person.

自動運転車両2は、通信部21と、撮影部22と、位置測定部23と、その他のセンサ24と、駆動部25と、制御部26と、記憶部27と、を備える。   The automatic driving vehicle 2 includes a communication unit 21, a photographing unit 22, a position measurement unit 23, other sensors 24, a drive unit 25, a control unit 26, and a storage unit 27.

通信部21は、端末1と通信する通信アダプタなどの通信インターフェースである。   The communication unit 21 is a communication interface such as a communication adapter that communicates with the terminal 1.

撮影部22は、自動運転車両2の外部を撮影するためのカメラである。撮影部22は、自動運転車両2の外部の全方向を撮影可能に可動な1つのカメラでもよいし、自動運転車両2の前後左右の1方向をそれぞれ撮像する複数のカメラでもよい。   The photographing unit 22 is a camera for photographing the outside of the autonomous driving vehicle 2. The photographing unit 22 may be a single camera that is movable so as to be able to photograph all directions outside the autonomous driving vehicle 2, or may be a plurality of cameras that respectively capture the front, rear, left, and right directions of the autonomous driving vehicle 2.

位置測定部23は、自動運転車両2の位置を測定する。位置測定部23は、例えば、GPS、及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)又はミリ波レーダなどの測距センサなどにより実現され、自動運転車両2および自動運転車両2からの距離が所定の範囲内に位置する物体の位置情報を取得する。さらに、位置測定部23は、自動運転車両2と自動運転車両2の周囲に位置する物体との距離を測定してもよい。   The position measuring unit 23 measures the position of the autonomous driving vehicle 2. The position measurement unit 23 is realized by, for example, a distance sensor such as GPS, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), or a millimeter wave radar, and the distance from the autonomous driving vehicle 2 and the autonomous driving vehicle 2 Acquires position information of an object located within a predetermined range. Further, the position measuring unit 23 may measure the distance between the autonomous driving vehicle 2 and an object located around the autonomous driving vehicle 2.

その他のセンサ24は、自動運転車両2の操舵角、車速などの走行状態を測定する各種センサである。その他のセンサ24は、例えば、舵角センサ、速度センサなどにより実現される。   The other sensors 24 are various sensors that measure the driving state of the autonomous driving vehicle 2 such as the steering angle and the vehicle speed. The other sensors 24 are realized by, for example, a steering angle sensor, a speed sensor, or the like.

駆動部25は、自動運転車両2の駆動に関するエンジン、バッテリ、ドライブトレーンなどの各種装置である。   The drive unit 25 is various devices such as an engine, a battery, and a drive train related to driving of the autonomous driving vehicle 2.

制御部26は、撮影部22が撮影することで取得した情報、位置測定部23が取得した情報、記憶部27に記憶されている地図情報271および経路情報273に基づいて、駆動部25を制御することで自動運転車両2の走行を制御する制御装置である。制御部26は、例えば、CPUにより実現される。制御部26は、機能的には、通信制御部261と、走行制御部262と、物体認識部263と、撮影情報取得部264と、認識物体情報取得部265と、を備える。   The control unit 26 controls the drive unit 25 based on the information acquired by shooting by the shooting unit 22, the information acquired by the position measurement unit 23, the map information 271 and the route information 273 stored in the storage unit 27. Thus, the control device controls the traveling of the autonomous driving vehicle 2. The control unit 26 is realized by a CPU, for example. Functionally, the control unit 26 includes a communication control unit 261, a travel control unit 262, an object recognition unit 263, a shooting information acquisition unit 264, and a recognition object information acquisition unit 265.

通信制御部261は、通信部21を制御することで、端末1と自動運転車両2との通信を制御する。   The communication control unit 261 controls communication between the terminal 1 and the autonomous driving vehicle 2 by controlling the communication unit 21.

走行制御部262は、地図情報271、経路情報273、及び物体認識部263から得られる認識結果情報に基づいて駆動部25を制御することで、自動運転車両2の走行を制御する。   The travel control unit 262 controls the travel of the autonomous driving vehicle 2 by controlling the drive unit 25 based on the map information 271, the route information 273, and the recognition result information obtained from the object recognition unit 263.

撮影情報取得部264は、撮影部22を制御することで、自動運転車両2の外部の画像を撮影情報として取得する。   The imaging information acquisition unit 264 acquires an image outside the autonomous driving vehicle 2 as imaging information by controlling the imaging unit 22.

物体認識部263は、撮影情報取得部264が取得した撮影情報である画像を、物体認識プログラム274に基づいて解析することで、当該画像に含まれている物体を認識する。物体認識部263は、認識した物体の情報などの認識結果情報を生成する。生成された認識結果情報は、記憶部27に記憶される。   The object recognition unit 263 recognizes an object included in the image by analyzing the image, which is the shooting information acquired by the shooting information acquisition unit 264, based on the object recognition program 274. The object recognition unit 263 generates recognition result information such as information on the recognized object. The generated recognition result information is stored in the storage unit 27.

認識物体情報取得部265は、物体認識部263により生成された認識結果情報を、通信部21を介して端末1へ送信する。例えば、認識物体情報取得部265は、端末1から認識結果情報の要求が受信されると、記憶部27から認識結果情報を取得し、通信制御部261に提供する。認識結果情報は、通信制御部261及び通信部21を介して端末1へ送信される。   The recognized object information acquisition unit 265 transmits the recognition result information generated by the object recognition unit 263 to the terminal 1 via the communication unit 21. For example, when the recognition object information acquisition unit 265 receives a request for recognition result information from the terminal 1, the recognition object information acquisition unit 265 acquires the recognition result information from the storage unit 27 and provides it to the communication control unit 261. The recognition result information is transmitted to the terminal 1 via the communication control unit 261 and the communication unit 21.

記憶部27は、制御部26が実行する制御プログラム、端末1から受信した情報などを記憶する記憶媒体である。記憶部27は、例えば、HDD、フラッシュメモリなどにより実現されるROM、RAMなどの記憶媒体である。   The storage unit 27 is a storage medium that stores a control program executed by the control unit 26, information received from the terminal 1, and the like. The storage unit 27 is a storage medium such as a ROM or a RAM realized by, for example, an HDD or a flash memory.

記憶部27には、地図情報271と、自動運転プログラム272と、経路情報273と、物体認識プログラム274とが記憶されている。   The storage unit 27 stores map information 271, an automatic driving program 272, route information 273, and an object recognition program 274.

地図情報271は、自動運転車両2の走行制御に用いられる地図情報である。地図情報271は、例えば、図2に示す地図情報153と同様の情報を含んでもよい。   The map information 271 is map information used for traveling control of the autonomous driving vehicle 2. The map information 271 may include information similar to the map information 153 shown in FIG.

自動運転プログラム272は、走行制御部262が実行するプログラムであり、自動運転車両2の自動運転を制御するための制御プログラムである。   The automatic driving program 272 is a program executed by the travel control unit 262 and is a control program for controlling the automatic driving of the automatic driving vehicle 2.

経路情報273は、自動運転車両2が走行する走行経路を示す情報である。   The route information 273 is information indicating a travel route on which the autonomous driving vehicle 2 travels.

物体認識プログラム274は、物体認識部263が実行するプログラムであり、物体を認識するための制御プログラムである。   The object recognition program 274 is a program executed by the object recognition unit 263 and is a control program for recognizing an object.

[処理手順]
続いて、本開示の実施の形態に係る端末1および自動運転車両2の処理手順について説明する。
[Processing procedure]
Subsequently, a processing procedure of the terminal 1 and the autonomous driving vehicle 2 according to the embodiment of the present disclosure will be described.

なお、以下では、本開示の実施の形態に係る端末1の処理手順について説明する。   Hereinafter, a processing procedure of the terminal 1 according to the embodiment of the present disclosure will be described.

図4は、本開示の実施の形態における端末1が実行する処理手順を示すフローチャートである。   FIG. 4 is a flowchart illustrating a processing procedure executed by the terminal 1 according to the embodiment of the present disclosure.

まず、ユーザUは、端末1を携帯して、自動運転車両2に搭乗する。自動運転車両2は、自動運転を開始する。   First, the user U carries the terminal 1 and gets on the autonomous driving vehicle 2. The automatic driving vehicle 2 starts automatic driving.

ここで、端末1は、例えば、位置測定部13が取得した端末1の位置情報と、地図情報153又は経路情報と、イベント関連情報152とに基づいて、所定イベントを検出する(ステップS1)。具体的には、ステップS1では、端末1は、位置測定部13が取得した端末1の位置情報が示す位置の種別を地図情報153から取得し、取得された位置の種別がイベント関連情報152に示される位置の種別と合致するか否かを判定する。また、端末1は、経路情報の示す経路における位置測定部13が取得した端末1の位置情報が示す位置以降の経路から自動運転車両2の走行制御の変更を判定し、判定された変更後の走行制御がイベント関連情報152に示される走行制御と合致するか否かを判定する。   Here, the terminal 1 detects a predetermined event based on, for example, the position information of the terminal 1 acquired by the position measurement unit 13, the map information 153 or route information, and the event related information 152 (step S1). Specifically, in step S <b> 1, the terminal 1 acquires the position type indicated by the position information of the terminal 1 acquired by the position measurement unit 13 from the map information 153, and the acquired position type is the event related information 152. It is determined whether or not it matches the type of position indicated. In addition, the terminal 1 determines a change in the travel control of the autonomous driving vehicle 2 from the route after the position indicated by the position information of the terminal 1 acquired by the position measurement unit 13 in the route indicated by the route information, and the determined changed change It is determined whether or not the traveling control matches the traveling control indicated in the event related information 152.

なお、自動運転車両2の走行する経路が予め決定された固定ルートである場合は、走行距離から所定イベントのタイミングを判定することができるため、端末1は、例えば、位置測定部13が取得した端末1の位置情報に基づいて、自動運転車両2の走行距離を算出し、算出した走行距離から、所定イベントが発生したか否かを判定してもよい。   In addition, since the timing of the predetermined event can be determined from the travel distance when the route on which the autonomous driving vehicle 2 travels is a fixed route determined in advance, the terminal 1 is acquired by the position measurement unit 13, for example. Based on the position information of the terminal 1, the travel distance of the autonomous driving vehicle 2 may be calculated, and it may be determined from the calculated travel distance whether a predetermined event has occurred.

次に、端末1は、イベント関連情報152から、ステップS1で検知した所定イベントに関連付けられた確認方向を取得する(ステップS2)。   Next, the terminal 1 acquires the confirmation direction associated with the predetermined event detected in step S1 from the event related information 152 (step S2).

次に、端末1は、自動運転車両2に確認方向を含む撮影情報と認識結果情報とを要求する信号を送信する(ステップS3)。なお、確認方向が含まれる撮影情報が取得できれば、自動運転車両2への要求は、撮影情報を、確認方向を含む撮影情報として指定する要求でなく、単なる撮影情報の要求であってもよい。   Next, the terminal 1 transmits a signal requesting photographing information including a confirmation direction and recognition result information to the autonomous driving vehicle 2 (step S3). If the shooting information including the confirmation direction can be acquired, the request to the autonomous driving vehicle 2 may not be a request for specifying the shooting information as the shooting information including the confirmation direction, but may be a simple request for shooting information.

次に、端末1は、自動運転車両2から撮影情報と認識結果情報とを受信し、受信した認識結果情報に、確認方向の物体認識結果が含まれているか否かを判定する(ステップS4)。   Next, the terminal 1 receives the shooting information and the recognition result information from the autonomous driving vehicle 2, and determines whether or not the received recognition result information includes an object recognition result in the confirmation direction (step S4). .

端末1は、自動運転車両2から受信した認識結果情報に、確認方向の物体認識結果が含まれていると判定した場合(ステップS4でYes)、受信した認識結果情報を用いて、確認方向に特定物体が存在するか否かを判定する(ステップS5)。   When it is determined that the recognition result information received from the autonomous driving vehicle 2 includes the object recognition result in the confirmation direction (Yes in step S4), the terminal 1 uses the received recognition result information in the confirmation direction. It is determined whether or not a specific object exists (step S5).

端末1は、特定物体が存在すると判定した場合(ステップS5でYes)、撮影情報に特定物体を強調する強調情報を付加する(ステップS6)。   If it is determined that the specific object exists (Yes in step S5), the terminal 1 adds enhancement information that emphasizes the specific object to the shooting information (step S6).

次に、端末1は、強調情報が付加された撮影情報と、確認方向に特定物体がある旨を示す情報(第1情報)すなわち処理済み情報とを含む表示情報を生成する(ステップS7)。   Next, the terminal 1 generates display information including shooting information to which the emphasis information is added and information (first information) indicating that there is a specific object in the confirmation direction, that is, processed information (step S7).

一方、端末1は、自動運転車両2から受信した情報に、確認方向の認識結果情報が含まれていないと判定した場合(ステップS4でNo)、撮影情報と、自動運転車両2において確認方向を認識処理できていないことを示す未処理情報とを含む表示情報を生成する(ステップS8)。このような方法によれば、自動運転車両2によって適切に自動運転されていないことを、適切にユーザUに把握させることができる。   On the other hand, if the terminal 1 determines that the information received from the autonomous driving vehicle 2 does not include the recognition direction recognition result information (No in step S4), the terminal 1 sets the shooting information and the confirmation direction in the autonomous driving vehicle 2. Display information including unprocessed information indicating that recognition processing has not been performed is generated (step S8). According to such a method, it is possible to make the user U properly grasp that the automatic driving vehicle 2 is not appropriately automatically driven.

また、端末1は、特定物体が存在しないと判定した場合(ステップS5でNo)、撮影情報と、確認方向に障害物がない旨を示す情報(第2情報)すなわち処理済み情報とを含む表示情報を生成する(ステップS9)。   Further, when the terminal 1 determines that the specific object does not exist (No in step S5), the display including the imaging information and information indicating that there is no obstacle in the confirmation direction (second information), that is, processed information. Information is generated (step S9).

端末1は、ステップS7、ステップS8またはステップS9の次に、ユーザUが、自動運転車両2が適切に認識処理をできているか否かの評価結果を入力するためのチェックボックスを表示情報に付与する(ステップS10)。   After step S7, step S8, or step S9, the terminal 1 gives the display information a check box for the user U to input an evaluation result as to whether or not the autonomous driving vehicle 2 is appropriately performing the recognition process. (Step S10).

次に、端末1は、ステップS10で生成した表示情報を出力する(ステップS11)。   Next, the terminal 1 outputs the display information generated in step S10 (step S11).

以上のような方法によれば、自動運転車両2の自動運転するための認識処理が適切に行われているか否かを評価するユーザUに、自動運転車両2の自動運転するための認識処理が適切に行われているか否かを出力できる。そのため、以上のような方法によれば、自動運転車両2の運転に関する認識処理が適切に行われているか否かをユーザが把握することができる。   According to the method as described above, the user U who evaluates whether or not the recognition process for automatically driving the autonomous driving vehicle 2 is appropriately performed has the recognition process for automatically driving the autonomous driving vehicle 2. Can output whether it is done properly. Therefore, according to the method as described above, the user can grasp whether or not the recognition process related to the driving of the autonomous driving vehicle 2 is appropriately performed.

図5は、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2が実行する処理手順を示すフローチャートである。   FIG. 5 is a flowchart illustrating a processing procedure executed by the autonomous driving vehicle 2 communicating with the terminal 1 which is an example of the information processing system in the embodiment.

まず、ユーザUは、端末1を携帯して、自動運転車両2に搭乗する。自動運転車両2は、自動運転を開始する。   First, the user U carries the terminal 1 and gets on the autonomous driving vehicle 2. The automatic driving vehicle 2 starts automatic driving.

自動運転車両2は、端末1から確認方向の撮影情報と、認識結果情報との要求を示す信号を受信したとする(ステップS21)。つまり、ステップS21は、図4に示すステップS3の次に行われるステップである。   It is assumed that the autonomous driving vehicle 2 receives a signal indicating a request for the shooting information in the confirmation direction and the recognition result information from the terminal 1 (step S21). That is, step S21 is a step performed after step S3 shown in FIG.

次に、自動運転車両2は、確認方向の撮影情報を取得する(ステップS22)。具体的には、自動運転車両2は、確認方向を撮影している撮影部22を動作させて画像を撮影情報として取得する。   Next, the autonomous driving vehicle 2 acquires shooting information in the confirmation direction (step S22). Specifically, the autonomous driving vehicle 2 operates the photographing unit 22 that is photographing the confirmation direction, and acquires an image as photographing information.

次に、自動運転車両2は、ステップS22で取得した撮影情報を用いて(具体的には、撮影情報を用いて認識処理を行うことで)、撮影情報に含まれる物体を示す情報である認識結果情報を取得する(ステップS23)。   Next, the autonomous driving vehicle 2 recognizes information indicating an object included in the shooting information using the shooting information acquired in step S22 (specifically, by performing recognition processing using the shooting information). Result information is acquired (step S23).

次に、自動運転車両2は、ステップS22で取得した撮影情報と、ステップS23で取得した認識結果情報とを端末1に送信する(ステップS24)。なお、撮影情報及び認識結果情報は要求の有無に関わらず、自動運転車両2の自動運転において取得されているので、要求に応じて既に取得済みの撮影情報及び認識結果情報が送信されてもよい。   Next, the autonomous driving vehicle 2 transmits the imaging information acquired in step S22 and the recognition result information acquired in step S23 to the terminal 1 (step S24). Note that since the shooting information and the recognition result information are acquired in the automatic driving of the autonomous driving vehicle 2 regardless of whether there is a request or not, the already acquired shooting information and the recognition result information may be transmitted in response to the request. .

ステップS24の次に、端末1は、図4に示すステップS4を実行する。   After step S24, the terminal 1 executes step S4 shown in FIG.

図6Aは、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2を含む撮影情報である画像の一例を示す図である。図6Bは、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2と、自動運転車両2から物体までの距離の一例を説明するための図である。つまり、図6Aは、撮影情報の一例を示す図であり、図6Bは、認識結果情報の一例を示す図である。   FIG. 6A is a diagram illustrating an example of an image that is photographing information including the autonomous driving vehicle 2 that communicates with the terminal 1 that is an example of the information processing system in the embodiment. FIG. 6B is a diagram for describing an example of the automatic driving vehicle 2 that communicates with the terminal 1 that is an example of the information processing system in the embodiment, and the distance from the automatic driving vehicle 2 to the object. That is, FIG. 6A is a diagram illustrating an example of shooting information, and FIG. 6B is a diagram illustrating an example of recognition result information.

自動運転車両2は、撮影情報として、例えば、自動運転車両2の周囲を撮影することで得られる撮影情報の一例である撮影画像31を端末1に送信する。   The automatic driving vehicle 2 transmits, as shooting information, for example, a captured image 31 that is an example of shooting information obtained by shooting around the autonomous driving vehicle 2 to the terminal 1.

また、自動運転車両2は、認識処理によって、自動運転車両2と物体との距離及び物体の種別を認識し、認識された距離及び種別を認識結果情報として端末1に送信する。図6Bには、図6Aに示すように、自動運転車両2を上方から見た場合の自動運転車両2の中心を原点とし、原点を通過し且つ自動運転車両2の進行方向をY軸方向とし、Y軸方向に直交し且つ原点を通過する方向をX軸方向とした場合における、物体の位置(つまり、座標)を示している。   In addition, the autonomous driving vehicle 2 recognizes the distance between the autonomous driving vehicle 2 and the object and the type of the object by the recognition process, and transmits the recognized distance and type to the terminal 1 as recognition result information. In FIG. 6B, as shown in FIG. 6A, the center of the autonomous driving vehicle 2 when the autonomous driving vehicle 2 is viewed from above is defined as the origin, and the traveling direction of the autonomous driving vehicle 2 passing through the origin is defined as the Y-axis direction. The position (that is, the coordinates) of the object when the direction orthogonal to the Y-axis direction and passing through the origin is taken as the X-axis direction is shown.

図7は、イベント関連情報152の一例を示す図である。   FIG. 7 is a diagram illustrating an example of the event related information 152.

端末1の記憶部15には、図7に示すようなイベント関連情報152が記憶されている。   The storage unit 15 of the terminal 1 stores event related information 152 as shown in FIG.

イベント関連情報152には、左折、右折などの自動運転車両2に発生する所定イベントのイベント種別と、当該所定イベントに対応する確認方向とが含まれている。端末1は、図7に示すようなイベント関連情報152を用いて、所定イベントを検出した際に、検出した所定イベントの種別に対応する確認方向を示す方向情報を取得する。   The event related information 152 includes an event type of a predetermined event that occurs in the autonomous driving vehicle 2 such as a left turn and a right turn, and a confirmation direction corresponding to the predetermined event. When the terminal 1 detects a predetermined event using the event-related information 152 as illustrated in FIG. 7, the terminal 1 acquires direction information indicating a confirmation direction corresponding to the detected type of the predetermined event.

図8Aは、地図情報271および経路情報273の一例を示す図である。図8Bは、図8Aに示す地図情報271の各地点の説明をするための図である。   FIG. 8A is a diagram illustrating an example of map information 271 and route information 273. FIG. 8B is a diagram for explaining each point of the map information 271 shown in FIG. 8A.

自動運転車両2は、図8Aに示すような地図情報271および経路情報273に基づいて、走行を制御する。また、自動運転車両2は、例えば、図8Aに示すA地点に到着した場合である交差点に進入する際には、図8Bに示すイベント種別のうちの「交差点進入」の所定イベントが発生したとして、図7に示すように自動運転車両2の左方向と右方向とを少なくとも撮影し、撮影することで得られた画像を用いた認識処理の結果に基づいて自動運転を行う。その際に、撮影情報及び認識結果情報が生成される。   The autonomous driving vehicle 2 controls traveling based on map information 271 and route information 273 as shown in FIG. 8A. In addition, for example, when the autonomous driving vehicle 2 enters the intersection, which is a case where the vehicle arrives at the point A shown in FIG. 8A, it is assumed that the predetermined event “intersection entry” of the event types shown in FIG. 8B occurs. As shown in FIG. 7, at least the left direction and the right direction of the autonomous driving vehicle 2 are photographed, and automatic driving is performed based on the result of recognition processing using an image obtained by photographing. At that time, shooting information and recognition result information are generated.

端末1は、イベント関連情報152に基づいて、所定イベント(図7に示すイベント種別)に関連する確認方向を含む方向が撮影されて取得される撮影情報と、撮影情報を用いた認識処理により取得される認識結果情報とを自動運転車両2から取得して、自動運転車両2が、検出された所定イベントにおいて実行すべき認識処理を問題なく実行しているか否かを判定して、判定結果に応じて画像を表示する。ユーザUは、当該画像を確認することで、自動運転車両2の自動運転に問題があるか否かを評価する。   Based on the event related information 152, the terminal 1 is acquired by shooting information acquired by shooting a direction including a confirmation direction related to a predetermined event (event type shown in FIG. 7), and recognition processing using the shooting information. Recognition result information is obtained from the autonomous driving vehicle 2, and it is determined whether or not the autonomous driving vehicle 2 is executing the recognition process to be executed in the detected predetermined event without any problem. Display an image accordingly. The user U evaluates whether or not there is a problem with the automatic driving of the autonomous driving vehicle 2 by checking the image.

[表示情報]
続いて、本開示の実施の形態に係る端末1が出力する表示情報について説明する。なお、以下では、端末1が出力する表示情報(つまり、図4のステップS11で端末1が出力した表示情報)の具体例として、端末1の表示部12に表示される画像であるGUI(Graphical User Interface)について説明する。
[Display Information]
Subsequently, display information output by the terminal 1 according to the embodiment of the present disclosure will be described. Hereinafter, as a specific example of the display information output from the terminal 1 (that is, the display information output from the terminal 1 in step S11 in FIG. 4), a GUI (Graphical) that is an image displayed on the display unit 12 of the terminal 1 is used. User Interface) will be described.

<第1例>
図9Aは、実施の形態における端末1に表示される画像の第1例を示す図である。画像3は、表示情報の一例である。
<First example>
FIG. 9A is a diagram illustrating a first example of an image displayed on the terminal 1 according to the embodiment. The image 3 is an example of display information.

画像3には、自動運転車両2が撮影した撮影画像31と、安全確認画像33と、チェックボックス34とが含まれている。安全確認画像33は、自動運転車両2が確認方向に特定物体を認識した旨を示す第1情報を示す画像の一例である。   The image 3 includes a captured image 31 captured by the autonomous driving vehicle 2, a safety confirmation image 33, and a check box 34. The safety confirmation image 33 is an example of an image indicating first information indicating that the autonomous driving vehicle 2 has recognized a specific object in the confirmation direction.

撮影画像31は、端末1が自動運転車両2から取得した撮影情報を含む画像である。具体的には、撮影画像31は、複数の撮像部22によって撮影されたそれぞれの画像の合成画像であり、当該合成画像に自動運転車両2の俯瞰画像が重畳されている。図9Aには、撮影画像31に、自動運転車両2と、物体32とが含まれている場合を例示している。   The captured image 31 is an image including shooting information acquired by the terminal 1 from the autonomous driving vehicle 2. Specifically, the captured image 31 is a composite image of each image captured by the plurality of imaging units 22, and an overhead image of the autonomous driving vehicle 2 is superimposed on the composite image. FIG. 9A illustrates a case where the captured image 31 includes the autonomous driving vehicle 2 and the object 32.

安全確認画像33は、端末1が自動運転車両2から取得した認識結果情報に確認方向の認識結果情報が含まれているか否か、および、認識結果情報を用いた特定物体が存在するか否かの判定結果を含む画像である。図9Aは、確認方向および当該確認方向の認識結果情報が含まれているか否かと、物体を認識したか否かを示す情報とが、「左後方OK:移動体あり」のように安全確認画像33として表示されている例を示している。   The safety confirmation image 33 indicates whether or not the recognition result information acquired by the terminal 1 from the autonomous driving vehicle 2 includes the recognition direction recognition result information, and whether or not a specific object using the recognition result information exists. It is an image including the determination result. FIG. 9A shows a safety confirmation image in which the confirmation direction and whether or not the recognition result information of the confirmation direction is included and the information indicating whether or not the object is recognized are “left rear OK: there is a moving object”. An example displayed as 33 is shown.

ユーザUは、安全確認画像33を確認することで、自動運転車両2が適切に自動運転するための認識処理をしたか否かを把握し、チェックボックス34を操作することで、自動運転車両2が、正しく物体32の認識処理をしたか否かを評価する。   The user U confirms the safety confirmation image 33 to grasp whether or not the autonomous driving vehicle 2 has performed the recognition process for appropriately performing the automatic driving, and operates the check box 34 to operate the automatic driving vehicle 2. However, it is evaluated whether or not the object 32 is correctly recognized.

例えば、端末1は、自動運転車両2から、取得した認識結果情報に確認方向の認識結果情報が含まれる場合には、安全確認画像33として、図9Aに示すように、「左後方OK:移動体あり」を表示し、確認方向の認識結果情報が含まれていない場合には、安全確認画像33として、「NG」のような未処理情報を示す画像を表示する。これにより、ユーザUは、安全確認画像33を確認することで、自動運転車両2が、適切に認識処理をしているか否を把握できる。つまり、ユーザUは、自動運転車両2が、適切に自動運転できているか否かを簡便に把握できる。   For example, if the recognition result information in the confirmation direction is included in the recognition result information acquired from the autonomous driving vehicle 2, the terminal 1 displays “safety confirmation image 33” as shown in FIG. If the body is present and the confirmation direction recognition result information is not included, an image indicating unprocessed information such as “NG” is displayed as the safety confirmation image 33. Thereby, the user U can grasp | ascertain whether the automatic driving vehicle 2 is performing the recognition process appropriately by confirming the safety confirmation image 33. FIG. That is, the user U can easily grasp whether or not the autonomous driving vehicle 2 is appropriately automatically driven.

チェックボックス34には、例えば、Good、Badなどの表示が含まれている。ユーザUは、物体32が表示されており、且つ、安全確認画像33に「左後方OK:移動体あり」などの表示を確認して、所定イベントに対して自動運転車両2が確認すべき確認方向の認識処理を正しく実行しているか否かを評価し、例えば、正しいと評価すればチェックボックス34の「Good」を選択し、正しくないと評価すれば「Bad」を選択する。   The check box 34 includes, for example, a display such as Good or Bad. The user U confirms that the object 32 is displayed, and the safety confirmation image 33 confirms the display such as “left rear OK: there is a moving object” and the automatic driving vehicle 2 should confirm the predetermined event. Whether or not the direction recognition processing is correctly executed is evaluated. For example, if it is evaluated as correct, “Good” in the check box 34 is selected, and if it is evaluated as incorrect, “Bad” is selected.

このような操作を所定イベントごとに繰り返すことで、ユーザUは、簡便に、自動運転車両2が適切に自動運転するための認識処理を行えているかどうかを把握できる。   By repeating such an operation for each predetermined event, the user U can easily grasp whether or not the automatic driving vehicle 2 is performing recognition processing for appropriately performing automatic driving.

<第2例>
図9Bは、実施の形態における端末1に表示される画像の第2例を示す図である。画像30は、表示情報の一例である。
<Second example>
FIG. 9B is a diagram illustrating a second example of an image displayed on the terminal 1 in the embodiment. The image 30 is an example of display information.

画像30には、自動運転車両2が撮影した撮影画像31と、安全確認画像331と、チェックボックス34とが含まれている。安全確認画像331は、自動運転車両2が確認方向に特定物体を認識しなかった旨を示す第2情報を示す画像の一例である。   The image 30 includes a captured image 31 captured by the autonomous driving vehicle 2, a safety confirmation image 331, and a check box 34. The safety confirmation image 331 is an example of an image indicating second information indicating that the autonomous driving vehicle 2 has not recognized the specific object in the confirmation direction.

撮影画像31には、図9Aに示す画像3とは異なり、物体32が含まれていない。この場合、端末1は、自動運転車両2から認識結果情報を取得したときであって、認識結果情報を用いて特定物体が存在しないと判定したとき、画像30に、特定物体が含まれていないことを示す第2情報を示す安全確認画像331を表示させる。例えば、安全確認画像331には、「左後方OK:移動体なし」と表示される。   Unlike the image 3 illustrated in FIG. 9A, the captured image 31 does not include the object 32. In this case, when the terminal 1 acquires the recognition result information from the autonomous driving vehicle 2 and determines that there is no specific object using the recognition result information, the image 30 does not include the specific object. The safety confirmation image 331 indicating the second information indicating that is displayed. For example, the safety confirmation image 331 displays “left rear OK: no moving object”.

ユーザUは、撮影画像31に物体32が表示されていない場合においても、「左後方OK:移動体なし」などのように表示される安全確認画像331を確認することで、自動運転車両2が、適切に自動運転するための認識処理をしていることを把握できる。   Even when the object 32 is not displayed in the captured image 31, the user U confirms the safety confirmation image 331 that is displayed as “left rear OK: no moving object” or the like, so that the autonomous driving vehicle 2 It is possible to grasp that recognition processing is performed to appropriately perform automatic driving.

<第3例>
図10は、実施の形態における端末1に表示される画像の第3例を示す図である。画像300は、表示情報の一例である。
<Third example>
FIG. 10 is a diagram illustrating a third example of an image displayed on the terminal 1 according to the embodiment. The image 300 is an example of display information.

図10に示す画像300には、図9Aに示す画像3に、さらに、確認エリア35と、強調情報36と、進行方向情報37と、走行制御画像332とが含まれる。走行制御画像332は、自動運転車両2が、走行制御を予め定められた制御内容から変更した旨を示す画像の一例である。   An image 300 shown in FIG. 10 further includes a confirmation area 35, emphasis information 36, traveling direction information 37, and a travel control image 332 in addition to the image 3 shown in FIG. 9A. The travel control image 332 is an example of an image indicating that the autonomous driving vehicle 2 has changed travel control from predetermined control content.

確認エリア35は、確認方向に対応する撮影画像31上の範囲を示す画像であり、撮影画像31に重畳される。こうすることで、ユーザUは、自動運転車両2がどの方向および範囲に対して物体の認識処理を実行したかを簡便に把握できる。   The confirmation area 35 is an image showing a range on the captured image 31 corresponding to the confirmation direction, and is superimposed on the captured image 31. By doing so, the user U can easily grasp which direction and range the autonomous driving vehicle 2 has executed the object recognition processing.

強調情報36は、撮影画像31中の物体32の位置を分かりやすくするために撮影画像31に重畳された画像である。図10には、強調情報36として、撮影画像31中の物体32の周囲を囲む画像が示されている。こうすることで、撮影画像31に物体32が含まれているか否かがユーザUにとって確認しやすくなる。   The enhancement information 36 is an image superimposed on the captured image 31 so that the position of the object 32 in the captured image 31 can be easily understood. In FIG. 10, an image surrounding the periphery of the object 32 in the captured image 31 is shown as the enhancement information 36. By doing so, it becomes easy for the user U to check whether or not the object 32 is included in the captured image 31.

図11Aは、実施の形態における端末1に表示される物体32の強調情報36の第1例を示す図である。図11Bは、実施の形態における端末1に表示される物体32の強調情報361の第2例を示す図である。   FIG. 11A is a diagram illustrating a first example of the enhancement information 36 of the object 32 displayed on the terminal 1 in the embodiment. FIG. 11B is a diagram illustrating a second example of the enhancement information 361 of the object 32 displayed on the terminal 1 according to the embodiment.

強調情報は、自動運転車両2の走行制御に影響を与えるか否かに応じて異なる態様で表示される。例えば、図11Aに示す強調情報36の第1例は、物体32が移動している場合の表示の一例であり、図11Bに示す強調情報361の第2例は、物体32が移動していない場合の表示の一例である。   The emphasis information is displayed in a different manner depending on whether or not the travel control of the autonomous driving vehicle 2 is affected. For example, the first example of the enhancement information 36 illustrated in FIG. 11A is an example of a display when the object 32 is moving, and the second example of the enhancement information 361 illustrated in FIG. 11B does not move the object 32. It is an example of the display of a case.

自動運転では、例えば、物体32が自動運転車両2に向かって移動している場合と、物体32が停止している場合とで、走行制御の内容を変更するか否かが異なる場合がある。そのため、自動運転車両2が、走行の制御を変更する場合、つまり、物体32が特定物体である場合(例えば、図11A)と、変更しない場合、つまり、物体32が特定物体ではない場合(例えば、図11B)とで、強調情報36または強調情報361のように、表示方法を変更することで、ユーザUは、物体32が特定物体であるか否かを一目で把握することができる。   In automatic driving, for example, whether or not the content of the traveling control is changed may be different between the case where the object 32 is moving toward the automatic driving vehicle 2 and the case where the object 32 is stopped. Therefore, when the autonomous driving vehicle 2 changes the control of traveling, that is, when the object 32 is a specific object (for example, FIG. 11A), when it is not changed, that is, when the object 32 is not a specific object (for example, 11B), by changing the display method like the emphasis information 36 or the emphasis information 361, the user U can grasp at a glance whether or not the object 32 is a specific object.

なお、図11Aには、強調情報36を実線で示し、図11Bには、強調情報361を破線で示したが、強調情報36と、強調情報361との違いがユーザUに識別できればよく、例えば、強調情報36と強調情報361とは、色が異なっていてもよい。   In FIG. 11A, the emphasis information 36 is indicated by a solid line, and in FIG. 11B, the emphasis information 361 is indicated by a broken line. However, it is sufficient that the difference between the enhancement information 36 and the enhancement information 361 can be identified to the user U. The emphasis information 36 and the emphasis information 361 may have different colors.

また、端末1は、例えば、図10に示す進行方向情報37のように、物体32が移動している場合には、物体32が移動している方向を、例えば、矢印のように表示してもよい。   Further, for example, when the object 32 is moving as in the traveling direction information 37 illustrated in FIG. 10, the terminal 1 displays the moving direction of the object 32 as indicated by an arrow, for example. Also good.

また、端末1は、図10に示す走行制御画像332のように、自動運転車両2の走行制御の内容を示す走行情報を表示してもよい。例えば、所定イベントから、自動運転車両2が実行する走行は、例えば、左折など、予め定められている。ここで、自動運転車両2が、物体32を特定物体と判定した場合、停止するなど、自動運転車両2が走行制御の内容を変更する場合がある。そこで、端末1は、自動運転車両2の走行制御の内容を示す走行情報を取得し、取得した走行情報が所定イベントにおいて実行する走行制御の内容と一致するか否かを判定し、判定結果を走行制御画像332のように表示してもよい。   Moreover, the terminal 1 may display the travel information which shows the content of the travel control of the automatic driving vehicle 2 like the travel control image 332 shown in FIG. For example, the traveling performed by the autonomous driving vehicle 2 from a predetermined event is determined in advance, such as a left turn. Here, when the autonomous driving vehicle 2 determines that the object 32 is a specific object, the autonomous driving vehicle 2 may change the content of the traveling control, such as stopping. Therefore, the terminal 1 acquires travel information indicating the content of the travel control of the autonomous driving vehicle 2, determines whether the acquired travel information matches the content of the travel control executed in a predetermined event, and determines the determination result. You may display like the driving control image 332.

これらの表示により、自動運転車両2の走行制御の内容および走行制御の変化を、ユーザUは、より簡便に把握することができる。   With these displays, the user U can more easily grasp the content of the travel control of the autonomous driving vehicle 2 and the change in the travel control.

<第4例>
図12は、実施の形態における端末1に表示される画像の第4例を示す図である。画像4は、表示情報の一例である。なお、図12には、例えば、図9Aに示す安全確認画像33と同様に、認識結果情報が表示されてもよいが、図示を省略している。
<Fourth example>
FIG. 12 is a diagram illustrating a fourth example of an image displayed on the terminal 1 according to the embodiment. The image 4 is an example of display information. In FIG. 12, for example, recognition result information may be displayed in the same manner as the safety confirmation image 33 shown in FIG. 9A, but the illustration is omitted.

図12に示す画像4には、画像3に対してさらに、確認方向(第1方向)とは異なる方向(第2方向)が撮影されることで得られた撮影画像311が含まれている。   An image 4 shown in FIG. 12 includes a captured image 311 obtained by capturing a direction (second direction) different from the confirmation direction (first direction) with respect to the image 3.

撮影画像311は、例えば、確認方向(第1方向)を含む撮影画像31に含まれない方向(第2方向)を撮影して得られる画像である。このように、端末1は、確認方向を撮影して得られる画像だけでなく確認方向よりは優先度の低い第2方向を撮影して得られる画像も自動運転車両2から取得する。すなわち、自動運転車両2は、確認方向を撮影して得られる画像と第2方向を撮影して得られる画像を含む撮影情報および認識結果情報を端末1に送信する。端末1は、自動運転車両2から取得された認識結果情報を用いて第2方向に特定物体を自動運転車両2が認識したか否かを判定する。第2方向に特定物体を認識したと判定された場合、端末1は、自動運転車両2の走行制御が変化したかを判定する。走行制御が変化したと判定された場合、端末1は、第2方向を含む撮影情報と第2方向に特定物体を認識した旨を示す情報を表示情報に含めて、例えば、図12に示す画像4のように表示する。なお、走行制御の変化は、自動運転車両2から取得される走行制御の内容を示す情報を用いて判定されてもよく、自動運転車両2から取得される撮影情報若しくは位置情報等から判定されてもよい。   The photographed image 311 is an image obtained by photographing a direction (second direction) not included in the photographed image 31 including the confirmation direction (first direction), for example. Thus, the terminal 1 acquires not only the image obtained by photographing the confirmation direction but also the image obtained by photographing the second direction having a lower priority than the confirmation direction from the autonomous driving vehicle 2. That is, the automatic driving vehicle 2 transmits to the terminal 1 shooting information and recognition result information including an image obtained by shooting the confirmation direction and an image obtained by shooting the second direction. The terminal 1 determines whether the automatic driving vehicle 2 has recognized the specific object in the second direction using the recognition result information acquired from the automatic driving vehicle 2. When it is determined that the specific object is recognized in the second direction, the terminal 1 determines whether the traveling control of the autonomous driving vehicle 2 has changed. When it is determined that the traveling control has changed, the terminal 1 includes the shooting information including the second direction and the information indicating that the specific object is recognized in the second direction in the display information, for example, the image illustrated in FIG. 4 is displayed. Note that the change in the travel control may be determined using information indicating the content of the travel control acquired from the autonomous driving vehicle 2, and is determined based on shooting information or position information acquired from the autonomous driving vehicle 2. Also good.

このように、確認方向とは異なる方向で検出した特定物体が原因で、走行制御に変化が生じた場合には、端末1は、当該異なる方向の画像を表示してもよい。例えば、所定イベントが左折である場合には、端末1は、自動運転車両2の左方向の画像を表示する。さらに、端末1は、例えば、自動運転車両2の右方向の特定物体を自動運転車両2が認識した認識結果情報を取得し、自動運転車両2の走行制御に変化があったと判定された場合には、自動運転車両2の右方向の画像も表示する。こうすることで、ユーザUは、確認方向以外についても、自動運転車両2によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。また、ユーザUは、所定イベントにしたがった走行制御と異なる走行制御が行われた理由を知ることができる。   As described above, when a change occurs in the travel control due to the specific object detected in a direction different from the confirmation direction, the terminal 1 may display an image in the different direction. For example, when the predetermined event is a left turn, the terminal 1 displays an image of the autonomous driving vehicle 2 in the left direction. Furthermore, the terminal 1 acquires, for example, recognition result information in which the autonomous driving vehicle 2 recognizes a specific object in the right direction of the autonomous driving vehicle 2 and determines that the traveling control of the autonomous driving vehicle 2 has changed. Also displays an image of the autonomous driving vehicle 2 in the right direction. By doing so, the user U can more appropriately grasp whether or not the automatic driving recognition process is appropriately performed by the automatic driving vehicle 2 in directions other than the confirmation direction. Further, the user U can know the reason why the traveling control different from the traveling control according to the predetermined event is performed.

なお、確認エリア35と同様に、確認エリア351は、撮影画像311にも第2方向に対応する撮影画像311上の範囲を示す画像であり、撮影画像311に重畳されてもよい。また、走行制御の変化の有無にかかわらず、特定物体が認識された第2方向の画像が表示されてもよい。   Similar to the confirmation area 35, the confirmation area 351 is an image indicating a range on the captured image 311 corresponding to the second direction in the captured image 311, and may be superimposed on the captured image 311. Further, an image in the second direction in which the specific object is recognized may be displayed regardless of whether or not the traveling control has changed.

<第5例>
図13は、実施の形態における端末1に表示される画像の第5例を示す図である。画像40は、表示情報の一例である。
<Fifth example>
FIG. 13 is a diagram illustrating a fifth example of an image displayed on the terminal 1 according to the embodiment. The image 40 is an example of display information.

図9A〜図12は、複数の撮影部22によって撮影された画像に基づき生成された自動運転車両2の全周の撮影画像を端末1が表示する例を示したが、端末1は、撮影画像312のように、確認方向を示す画像のみを表示してもよい。端末1は、例えば、自動運転車両2から、自動運転車両2の全周の撮影画像を受信した場合に、認識結果情報に基づいて、確認方向を含む画像の範囲を選択して、表示してもよい。具体的には、端末1は、自動運転車両2から取得した画像を所定イベントに応じた態様で表示する。例えば、端末1は、発生したイベントのイベント種別が左折である場合、自動運転車両2の全周の撮影画像を表示し、発生したイベントのイベント種別が交差点進入である場合、自動運転車両2の前方の撮影画像を表示する。   Although FIG. 9A-FIG. 12 showed the example which the terminal 1 displays the imaging | photography image of the perimeter of the autonomous driving vehicle 2 produced | generated based on the image image | photographed by the some imaging | photography part 22, the terminal 1 is a picked-up image. As in 312, only an image indicating the confirmation direction may be displayed. For example, when the terminal 1 receives a captured image of the entire circumference of the autonomous driving vehicle 2 from the autonomous driving vehicle 2, the terminal 1 selects and displays a range of the image including the confirmation direction based on the recognition result information. Also good. Specifically, the terminal 1 displays an image acquired from the autonomous driving vehicle 2 in a mode corresponding to a predetermined event. For example, when the event type of the event that has occurred is a left turn, the terminal 1 displays a captured image of the entire circumference of the autonomous driving vehicle 2, and when the event type of the event that has occurred is an intersection approach, Display the captured image in front.

こうすることで、ユーザUは、自動運転車両2によって確認方向の認識処理が適切に実行されたか否かをより簡便に把握することができる。   In this way, the user U can more easily grasp whether or not the recognition direction recognition processing has been appropriately executed by the autonomous driving vehicle 2.

また、例えば、図10に示す確認エリア35と同様に、確認エリア352は、撮影画像312にも確認方向に対応する撮影画像312上の範囲を示す画像であり、撮影画像312に重畳されてもよい。   Further, for example, like the confirmation area 35 shown in FIG. 10, the confirmation area 352 is an image showing a range on the photographed image 312 corresponding to the confirmation direction in the photographed image 312, and may be superimposed on the photographed image 312. Good.

ここで、撮影画像312のような画像を端末1が表示した場合、ユーザUは、確認画像312から奥行きを把握しづらい。つまり、ユーザUは、撮影画像312を確認することで、物体32が存在するか否かは把握できるが、物体32と自動運転車両2との距離物体32の大きさから推定することになるので把握しづらい。そこで、端末1は、物体32と自動運転車両2との距離に応じて、確認エリア352の表示の態様を変更してもよい。例えば、端末1は、物体32と自動運転車両2との距離が、予め任意に定められた所定距離以上であれば、確認エリア352を黒色で表示し、所定距離未満であれば、確認エリア352を赤色で表示する。また、例えば、端末1は、物体32と自動運転車両2との距離が、予め任意に定められた所定距離未満であれば、撮影画像312中の物体32を点滅して表示する等、物体32の表示の態様を変更してもよい。   Here, when the terminal 1 displays an image such as the captured image 312, the user U has difficulty in grasping the depth from the confirmation image 312. That is, the user U can confirm whether or not the object 32 exists by confirming the captured image 312, but the user U estimates it from the size of the distance object 32 between the object 32 and the autonomous driving vehicle 2. Difficult to grasp. Therefore, the terminal 1 may change the display mode of the confirmation area 352 according to the distance between the object 32 and the autonomous driving vehicle 2. For example, the terminal 1 displays the confirmation area 352 in black when the distance between the object 32 and the autonomous driving vehicle 2 is not less than a predetermined distance that is arbitrarily determined in advance, and the confirmation area 352 if the distance is less than the predetermined distance. Is displayed in red. For example, if the distance between the object 32 and the autonomous driving vehicle 2 is less than a predetermined distance that is arbitrarily determined in advance, the terminal 1 blinks and displays the object 32 in the captured image 312. The display mode may be changed.

このような構成によれば、ユーザUは、物体32の位置が、自動運転車両2からどの程度離れているかを把握することが容易となる。そのため、ユーザUは、自動運転車両2の走行制御が適切に行われているか否かを把握することができる。   According to such a configuration, the user U can easily understand how far the position of the object 32 is from the autonomous driving vehicle 2. Therefore, the user U can grasp whether or not the traveling control of the autonomous driving vehicle 2 is appropriately performed.

また、例えば、図9Aに示す安全確認画像33と同様に、端末1は、安全確認画像333に示す「前方OK:移動体あり」のように、自動運転車両2から取得した認識結果情報を用いた特定物体が存在するか否かの判定結果を含む画像を表示する。   Further, for example, similarly to the safety confirmation image 33 illustrated in FIG. 9A, the terminal 1 uses the recognition result information acquired from the autonomous driving vehicle 2 such as “forward OK: there is a moving object” illustrated in the safety confirmation image 333. An image including the determination result as to whether or not the specific object is present is displayed.

(その他の実施の形態)
以上、本開示の一つまたは複数の態様に係るに情報処理方法または情報処理システムついて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
(Other embodiments)
As described above, the information processing method or the information processing system according to one or more aspects of the present disclosure has been described based on the embodiment, but the present disclosure is not limited to the embodiment. Unless it deviates from the gist of the present disclosure, one or more of the present disclosure may be applied to various modifications conceived by those skilled in the art in the present embodiment, or forms configured by combining components in different embodiments. It may be included within the scope of the embodiments.

例えば、上記実施の形態において、ユーザUが自動運転車両2の認識結果とそれに基づく走行制御に対する評価を行う例を説明したが、端末1が当該評価を行ってもよい。例えば、端末1は、自動運転車両2から取得された認識結果情報に確認方向の物体認識結果が含まれると判定された場合、ポイントを加算し、走行終了後のポイントを集計して評価としてスコアを算出してもよい。また、自動運転車両2から取得された認識結果情報に確認方向の物体認識結果が含まれないと判定された場合、ポイントを減算してもよい。これにより、自動運転車両2の走行を自動的に評価することができる。   For example, in the above-described embodiment, the example in which the user U evaluates the recognition result of the autonomous driving vehicle 2 and the traveling control based on the recognition result has been described, but the terminal 1 may perform the evaluation. For example, when it is determined that the recognition result information acquired from the autonomous driving vehicle 2 includes the object recognition result in the confirmation direction, the terminal 1 adds points, adds up the points after the end of travel, and scores as an evaluation. May be calculated. In addition, when it is determined that the recognition result information acquired from the autonomous driving vehicle 2 does not include the object recognition result in the confirmation direction, the points may be subtracted. Thereby, driving | running | working of the autonomous driving vehicle 2 can be evaluated automatically.

また、例えば、上記実施の形態において、端末1等の構成要素の全部または一部は、専用のハードウェアで構成されてもよく、あるいは、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサ等のプログラム実行部が、HDDまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。   Further, for example, in the above embodiment, all or part of the components such as the terminal 1 may be configured by dedicated hardware, or realized by executing a software program suitable for each component. May be. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as an HDD or a semiconductor memory. Here, the software that realizes the information processing system of the above-described embodiment is a program as follows.

すなわち、このプログラムは、コンピュータに、自動運転車両2についての所定イベントを検出するためのイベント関連情報152を取得し、イベント関連情報152を用いて所定イベントを検出したか否かを判定し、所定イベントを検出したと判定された場合、所定イベントに関連付けられた第1方向を示す方向情報を取得し、自動運転車両2の外部に位置する物体の、自動運転車両2による認識処理により得られる第1認識結果情報を取得し、第1認識結果情報に第1方向の物体認識結果が含まれるか否かを判定し、第1認識結果情報を用いて、第1方向に自動運転車両2の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、第1方向に特定物体が存在しないと判定された場合であって、且つ、第1認識結果情報に第1方向の物体認識結果が含まれると判定された場合、自動運転車両2が第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された処理済み情報を出力する処理を実行させる。   That is, this program acquires event related information 152 for detecting a predetermined event for the autonomous driving vehicle 2 in a computer, determines whether or not the predetermined event is detected using the event related information 152, When it is determined that the event has been detected, the direction information indicating the first direction associated with the predetermined event is acquired, and the object located outside the autonomous driving vehicle 2 is obtained by the recognition process by the autonomous driving vehicle 2. 1 recognition result information is acquired, it is determined whether or not the first recognition result information includes an object recognition result in the first direction, and the automatic driving vehicle 2 travels in the first direction using the first recognition result information. It is determined whether or not there is a specific object that may affect the first direction, and it is determined that there is no specific object in the first direction, and the first recognition result information includes When it is determined that the object recognition result of the direction is included, the processed information indicating that the autonomous driving vehicle 2 has already recognized the first direction is generated, and the generated processed information is output. Let

また、端末1等の構成要素は、1つまたは複数の電子回路で構成されてもよい。1つまたは複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。   Further, the constituent elements such as the terminal 1 may be configured by one or a plurality of electronic circuits. Each of the one or more electronic circuits may be a general-purpose circuit or a dedicated circuit.

1つまたは複数の電子回路には、例えば、半導体装置、IC(Integrated Circuit)またはLSI(Large Scale Integration)等が含まれてもよい。ICまたはLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、ICまたはLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、または、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGA(Field Programmable Gate Array)も同じ目的で使うことができる。   The one or more electronic circuits may include, for example, a semiconductor device, an IC (Integrated Circuit), an LSI (Large Scale Integration), or the like. The IC or LSI may be integrated on one chip or may be integrated on a plurality of chips. Here, it is called IC or LSI, but the name changes depending on the degree of integration, and may be called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). An FPGA (Field Programmable Gate Array) programmed after manufacturing the LSI can be used for the same purpose.

また、本開示の全般的または具体的な態様は、システム、装置、方法、集積回路またはコンピュータプログラムで実現されてもよい。あるいは、当該コンピュータプログラムが記憶された光学ディスク、HDDもしくは半導体メモリ等のコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   In addition, general or specific aspects of the present disclosure may be realized by a system, an apparatus, a method, an integrated circuit, or a computer program. Alternatively, it may be realized by a computer-readable non-transitory recording medium such as an optical disk, HDD, or semiconductor memory in which the computer program is stored. Further, the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.

その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本開示に含まれる。   In addition, it is realized by arbitrarily combining the components and functions in each embodiment without departing from the scope of the present invention, or a form obtained by subjecting each embodiment to various modifications conceived by those skilled in the art. Forms are also included in the present disclosure.

本開示の実施の形態に係る情報処理方法および情報処理システムは、車両の自動運転が適切に行われているか否かをユーザに適切に放置する装置またはシステムに利用可能である。   The information processing method and the information processing system according to the embodiment of the present disclosure can be used for an apparatus or a system that appropriately leaves a user whether or not automatic driving of a vehicle is appropriately performed.

1 端末
11、21 通信部
12 表示部
13、23 位置測定部
14、26 制御部
141、261 通信制御部
142 表示情報生成部
143 表示制御部
144 車両処理情報取得部
145 車両認識判定部
146 イベント判定部
147 方向情報取得部
15、27 記憶部
151 自動運転評価プログラム
152 イベント関連情報
153、271 地図情報
154 特定物体情報
2 自動運転車両
22 撮影部
24 その他のセンサ
25 駆動部
262 走行制御部
263 物体認識部
264 撮影情報取得部
265 認識物体情報取得部
272 自動運転プログラム
273 経路情報
274 物体認識プログラム
3、30、300、4、40 画像
31、311、312 撮影画像
32 物体
33、331、333 安全確認画像
332 走行制御画像
34 チェックボックス
35、351、352 確認エリア
36、361 強調情報
37 進行方向情報
U ユーザ
DESCRIPTION OF SYMBOLS 1 Terminal 11, 21 Communication part 12 Display part 13, 23 Position measurement part 14, 26 Control part 141,261 Communication control part 142 Display information generation part 143 Display control part 144 Vehicle process information acquisition part 145 Vehicle recognition determination part 146 Event determination Unit 147 direction information acquisition unit 15, 27 storage unit 151 automatic driving evaluation program 152 event-related information 153, 271 map information 154 specific object information 2 automatic driving vehicle 22 photographing unit 24 other sensor 25 driving unit 262 travel control unit 263 object recognition Unit 264 imaging information acquisition unit 265 recognized object information acquisition unit 272 automatic operation program 273 route information 274 object recognition program 3, 30, 300, 4, 40 image 31, 311, 312 captured image 32 object 33, 331, 333 safety confirmation image 332 Travel control screen 34 checkbox 35,351,352 check area 36,361 enhancement information 37 traveling direction information U user

Claims (12)

プロセッサを用いて、
車両についての所定イベントを検出するためのイベント関連情報を取得し、
前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、
前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、
前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、
前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、
前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、
前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、
生成された前記処理済み情報を出力する、
情報処理方法。
Using a processor
Get event related information to detect a predetermined event about the vehicle,
It is determined whether the predetermined event is detected using the event related information,
If it is determined that the predetermined event has been detected, direction information indicating a first direction associated with the predetermined event is acquired,
Obtaining first recognition result information obtained by recognition processing by the vehicle of an object located outside the vehicle;
Determining whether the first recognition result information includes an object recognition result in the first direction;
Using the first recognition result information, it is determined whether or not there is a specific object that may affect traveling of the vehicle in the first direction,
When it is determined that the specific object does not exist in the first direction, and when it is determined that the object recognition result in the first direction is included in the first recognition result information, the vehicle is Generate processed information indicating that the first direction has been recognized,
Outputting the generated processed information;
Information processing method.
さらに、
前記第1方向に前記特定物体が存在すると判定された場合は、前記第1方向に前記特定物体を認識した旨を示す第1情報を含む前記処理済み情報を生成し、
前記第1方向に前記特定物体が存在しないと判定された場合は、前記第1方向に前記特定物体を認識しなかった旨を示す第2情報を含む前記処理済み情報を生成する、
請求項1に記載の情報処理方法。
further,
If it is determined that the specific object exists in the first direction, the processed information including first information indicating that the specific object has been recognized in the first direction is generated.
If it is determined that the specific object does not exist in the first direction, the processed information including second information indicating that the specific object has not been recognized in the first direction is generated.
The information processing method according to claim 1.
前記第1認識結果情報は、前記車両から前記第1方向を含む所定の範囲を撮影することで得られる画像を前記認識処理することにより取得される情報である、
請求項1又は2に記載の情報処理方法。
The first recognition result information is information obtained by performing the recognition process on an image obtained by photographing a predetermined range including the first direction from the vehicle.
The information processing method according to claim 1 or 2.
さらに、
前記車両の舵角および車速の少なくとも一方を含む前記車両の走行情報を取得し、
前記所定の範囲は、前記車両の前記走行情報に応じて決定される、
請求項3に記載の情報処理方法。
further,
Obtaining travel information of the vehicle including at least one of a steering angle and a vehicle speed of the vehicle;
The predetermined range is determined according to the travel information of the vehicle.
The information processing method according to claim 3.
さらに、取得した前記車両の前記走行情報を前記処理済み情報とともに出力する、
請求項4に記載の情報処理方法。
Furthermore, the travel information of the acquired vehicle is output together with the processed information.
The information processing method according to claim 4.
前記所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるか、又は所定の時間が経過するまで繰り返し前記処理済み情報を出力する、
請求項1〜5のいずれか1項に記載の情報処理方法。
When the predetermined event is detected, the processed information is repeatedly output until the detected predetermined event is not detected or a predetermined time elapses.
The information processing method according to claim 1.
さらに、前記第1方向に前記特定物体が存在すると判定された場合、前記特定物体が原因で前記車両が走行の制御を決定又は変更したか否かを判定し、
前記車両が走行の制御を決定又は変更したか否かの判定結果を含む前記第1情報を生成する、
請求項2に記載の情報処理方法。
Further, when it is determined that the specific object exists in the first direction, it is determined whether or not the vehicle has determined or changed control of traveling due to the specific object,
Generating the first information including a determination result of whether or not the vehicle has determined or changed control of traveling;
The information processing method according to claim 2.
さらに、
前記第1認識結果情報を用いて、前記第1方向とは異なる第2方向に、前記特定物体が存在するか否かを判定し、
前記第2方向に前記特定物体が存在すると判定された場合、前記第2方向を示す情報を含む前記処理済み情報を生成する、
請求項1〜7のいずれか1項に記載の情報処理方法。
further,
Using the first recognition result information, determine whether or not the specific object exists in a second direction different from the first direction;
When it is determined that the specific object is present in the second direction, the processed information including information indicating the second direction is generated.
The information processing method according to claim 1.
さらに、
前記車両に搭載される撮影装置によって前記第1方向を撮影されることで生成された画像を取得し、
取得した前記画像を前記処理済み情報とともに、検出された前記所定イベントに応じた態様で出力する、
請求項1〜8のいずれか1項に記載の情報処理方法。
further,
Obtaining an image generated by being photographed in the first direction by a photographing device mounted on the vehicle;
Outputting the acquired image together with the processed information in a manner corresponding to the detected predetermined event;
The information processing method according to claim 1.
さらに、
前記第1認識結果情報に前記第1方向の物体認識結果が含まれていないと判定された場合、前記車両が前記第1方向を認識処理できていないことを示す未処理情報を生成し、
生成された前記未処理情報を出力する、
請求項1〜9のいずれか1項に記載の情報処理方法。
further,
If it is determined that the object recognition result in the first direction is not included in the first recognition result information, unprocessed information indicating that the vehicle cannot recognize the first direction is generated.
Outputting the generated raw information,
The information processing method according to claim 1.
請求項1〜10のいずれか1項に記載の情報処理方法をコンピュータに実行させるための、
プログラム。
In order for a computer to execute the information processing method according to any one of claims 1 to 10,
program.
車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定するイベント判定部と、
前記イベント判定部によって前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得する方向情報取得部と、
前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得する車両処理情報取得部と、
前記第1認識結果情報に前記第1方向の物体認識結果含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定する車両認識判定部と、
前記車両認識判定部によって前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成する表示情報生成部と、
前記表示情報生成部によって生成された前記処理済み情報を表示装置に表示させる表示制御部と、を備える、
情報処理システム。
An event determination unit that acquires event-related information for detecting a predetermined event about a vehicle and determines whether the predetermined event is detected using the event-related information;
A direction information acquisition unit that acquires direction information indicating a first direction associated with the predetermined event when the event determination unit determines that the predetermined event is detected;
A vehicle processing information acquisition unit for acquiring first recognition result information obtained by recognition processing of an object located outside the vehicle by the vehicle;
It is determined whether the object recognition result in the first direction is included in the first recognition result information, and using the first recognition result information, there is a possibility of affecting the traveling of the vehicle in the first direction. A vehicle recognition determination unit that determines whether or not a specific object exists;
When it is determined by the vehicle recognition determination unit that the specific object does not exist, and when it is determined that the first recognition result includes the object recognition result in the first direction, the vehicle is A display information generation unit that generates processed information indicating that the first direction has been recognized;
A display control unit that causes the display device to display the processed information generated by the display information generation unit,
Information processing system.
JP2018068258A 2017-08-08 2018-03-30 Information processing methods, information processing systems, and programs Active JP7030000B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/028,525 US11100729B2 (en) 2017-08-08 2018-07-06 Information processing method, information processing system, and program
EP18182530.8A EP3441839B1 (en) 2017-08-08 2018-07-09 Information processing method and information processing system
CN201810868567.9A CN109383519B (en) 2017-08-08 2018-08-02 Information processing method, information processing system, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762542527P 2017-08-08 2017-08-08
US62/542,527 2017-08-08

Publications (2)

Publication Number Publication Date
JP2019031264A true JP2019031264A (en) 2019-02-28
JP7030000B2 JP7030000B2 (en) 2022-03-04

Family

ID=65522957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068258A Active JP7030000B2 (en) 2017-08-08 2018-03-30 Information processing methods, information processing systems, and programs

Country Status (1)

Country Link
JP (1) JP7030000B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033752A (en) * 2019-08-27 2021-03-01 株式会社リコー Output control device, display control system, output control method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126002A1 (en) * 2001-01-15 2002-09-12 1138037 Ontario Ltd. ("Alirt") Detecting device and method of using same
US20030236605A1 (en) * 2002-06-19 2003-12-25 Nissan Motor Co., Ltd. Vehicle obstacle detecting apparatus
JP2015206655A (en) * 2014-04-18 2015-11-19 株式会社デンソー Automatic driving plan display device and program for automatic driving plan display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126002A1 (en) * 2001-01-15 2002-09-12 1138037 Ontario Ltd. ("Alirt") Detecting device and method of using same
US20030236605A1 (en) * 2002-06-19 2003-12-25 Nissan Motor Co., Ltd. Vehicle obstacle detecting apparatus
JP2015206655A (en) * 2014-04-18 2015-11-19 株式会社デンソー Automatic driving plan display device and program for automatic driving plan display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033752A (en) * 2019-08-27 2021-03-01 株式会社リコー Output control device, display control system, output control method and program
JP7354686B2 (en) 2019-08-27 2023-10-03 株式会社リコー Output control device, display control system, output control method and program

Also Published As

Publication number Publication date
JP7030000B2 (en) 2022-03-04

Similar Documents

Publication Publication Date Title
CN109383519B (en) Information processing method, information processing system, and recording medium
CN106952303B (en) Vehicle distance detection method, device and system
JP6942712B2 (en) Detection of partially obstructed objects using context and depth order
US10210400B2 (en) External-environment-recognizing apparatus
US10795370B2 (en) Travel assist apparatus
US20170068863A1 (en) Occupancy detection using computer vision
CN107179767B (en) Driving control device, driving control method, and non-transitory recording medium
US20210323544A1 (en) Method and apparatus for vehicle driving assistance
CN110751012B (en) Target detection evaluation method and device, electronic equipment and storage medium
US20150220796A1 (en) Sign recognition apparatus and method for determining left- or right-hand traffic division and distance unit
US10595003B2 (en) Stereo camera apparatus and vehicle comprising the same
US20210309232A1 (en) Driving assistance apparatus and data collection system
JP6795379B2 (en) Operation control device, operation control method and operation control program
JP2009070344A (en) Image recognition device, image recognition method, and electronic control device
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
TW201447772A (en) Warning method for driving vehicle and electronic apparatus for vehicle
JP7030000B2 (en) Information processing methods, information processing systems, and programs
KR20170060449A (en) Method and system for alarming a capable of entrance using recognition of road sign
JP6288204B1 (en) Vehicle speed limit detection device
JP2020137053A (en) Control device and imaging system
JP2005216200A (en) Other vehicle detecting apparatus and method
JP2017211765A (en) Object recognition device
JP6331232B2 (en) Vehicle speed limit detection device
JP2019205032A (en) On-vehicle failure detection device and failure detection method
JP2015219212A (en) Stereoscopic camera device and distance calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7030000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150