JP2021111144A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2021111144A
JP2021111144A JP2020002992A JP2020002992A JP2021111144A JP 2021111144 A JP2021111144 A JP 2021111144A JP 2020002992 A JP2020002992 A JP 2020002992A JP 2020002992 A JP2020002992 A JP 2020002992A JP 2021111144 A JP2021111144 A JP 2021111144A
Authority
JP
Japan
Prior art keywords
vehicle
image
acceleration
obstacle
automatic driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020002992A
Other languages
Japanese (ja)
Inventor
健太郎 浅井
Kentaro Asai
健太郎 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020002992A priority Critical patent/JP2021111144A/en
Publication of JP2021111144A publication Critical patent/JP2021111144A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To help a driver to take appropriate measures in the case where a vehicle makes contact with an obstacle.SOLUTION: An information processing device comprises a control unit which makes a decision regarding that acceleration or additional acceleration in an automatic driving vehicle is not caused by automatic driving, stops the automatic driving vehicle in the case where a result of the decision satisfies a predetermined condition, acquires an image around the automatic driving vehicle using a camera, and determines a notification destination on the basis of the image.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

車両が衝撃を検知した場合に、緊急通報を行うシステムがある(例えば、特許文献1参照。)。 There is a system that makes an emergency call when a vehicle detects an impact (see, for example, Patent Document 1).

特開平11−306471号公報Japanese Unexamined Patent Publication No. 11-306471

自動運転車両では、事故が起きたか否か、または、何に衝突したかを判断することが困難な場合がある。そのため、必要なときに通報が行われなかったり、または、必要以上に通報が行われてしまったりする虞がある。本発明の目的は、車両が障害物に接触したときに適切な措置をとる手助けをすることにある。 In self-driving vehicles, it can be difficult to determine if an accident has occurred or what has collided. Therefore, there is a risk that the report will not be made when necessary, or the report will be made more than necessary. An object of the present invention is to help the vehicle take appropriate measures when it comes into contact with an obstacle.

本発明の態様の一つは、自動運転車両における加速度または加加速度が、自動運転に起因するものではないことに関する判定を行うことと、前記判定の結果が所定の条件を満たした場合に、前記自動運転車両を停止させることと、カメラを用いて前記自動運転車両の周囲の画像を取得することと、前記画像に基づいて、通報先を決定することと、を実行する制御部を備える情報処理装置である。 One of the aspects of the present invention is to determine that the acceleration or jerk in the autonomous driving vehicle is not due to autonomous driving, and when the result of the determination satisfies a predetermined condition, the said Information processing including a control unit that stops the autonomous driving vehicle, acquires an image of the surroundings of the autonomous driving vehicle using a camera, and determines a reporting destination based on the image. It is a device.

また、本発明の態様の一つは、上記の情報処理装置に係る方法、プロブラム、プログラムを非一時的に記憶したコンピュータ可読記憶媒体である。 Further, one aspect of the present invention is a computer-readable storage medium that non-temporarily stores the method, problem, and program related to the above-mentioned information processing apparatus.

本発明によれば、車両が障害物に接触したときに適切な措置をとる手助けをすることができる。 According to the present invention, it is possible to help the vehicle take appropriate measures when it comes into contact with an obstacle.

実施形態に係る自動運転システムの概略構成を示す図である。It is a figure which shows the schematic structure of the automatic operation system which concerns on embodiment. 実施形態に係る自動運転システムを構成する車両、端末及びサーバのそれぞれの構成の一例を概略的に示すブロック図である。It is a block diagram which shows typically an example of each configuration of the vehicle, the terminal and the server which constitute the automatic driving system which concerns on embodiment. 車両が障害物に接触したときの処理のフローチャートの一例である。This is an example of a flowchart of processing when a vehicle comes into contact with an obstacle.

本発明の態様の一つである情報処理装置が備える制御部は、自動運転車両(以下、単に車両ともいう。)における加速度または加加速度が、自動運転に起因するものではないことに関する判定を行う。車両が障害物に接触すると、そのときの衝撃に応じて車両の速度が変化する。自動運転に起因する加速度または加加速度であれば、予め想定された範囲の加速度または加加速度となる。なお、車両の加速度または加加速度は、例えば車両に設けられたセンサによって検出可能である。加速度及び加加速度は、正の値または負の値の何れであってもよい。一方、加速度または加加速度が予め想定される範囲を外れた場合には、その加速度または加加速度が、自動運転に起因するものではないと判定することができ
る。この場合、判定の結果が所定の条件を満たしているといえる。
The control unit included in the information processing device, which is one of the aspects of the present invention, determines that the acceleration or jerk in the autonomous driving vehicle (hereinafter, also simply referred to as a vehicle) is not caused by the autonomous driving. .. When the vehicle comes into contact with an obstacle, the speed of the vehicle changes according to the impact at that time. If the acceleration or jerk is caused by automatic driving, the acceleration or jerk will be in the range assumed in advance. The acceleration or jerk of the vehicle can be detected by, for example, a sensor provided in the vehicle. The acceleration and jerk may be either positive or negative. On the other hand, when the acceleration or jerk is out of the range expected in advance, it can be determined that the acceleration or jerk is not caused by the automatic driving. In this case, it can be said that the result of the determination satisfies the predetermined condition.

判定の結果が所定の条件を満たした場合には、車両が障害物に接触した可能性が高いため、制御部は、車両を停止させる。そして、カメラを用いて車両の周囲の画像を取得する。車両の周囲とは、例えば、車両が障害物に接触したと仮定した場合に、その障害物が存在し得る範囲である。その画像に基づいて、制御部は、通報先を決定する。通報先は、例えば、警察、救急、運行管理者などである。例えば、画像認識により人が倒れていることが認識された場合には、少なくとも警察及び救急が通報先となる。また、物損事故であれば、少なくとも警察が通報先となる。また、軽微な事案は運行管理者を通報先としてもよい。また、画像からは判断が困難な場合には、運行管理者を通報先としてもよい。このように、車両が障害物に接触したときに適切な措置をとる手助けをすることができる。 When the result of the determination satisfies the predetermined condition, it is highly possible that the vehicle has come into contact with an obstacle, so the control unit stops the vehicle. Then, an image of the surroundings of the vehicle is acquired using the camera. The circumference of the vehicle is, for example, the range in which the obstacle can exist, assuming that the vehicle comes into contact with the obstacle. Based on the image, the control unit determines the report destination. The report destination is, for example, the police, the emergency department, the operation manager, and the like. For example, when it is recognized by image recognition that a person has fallen, at least the police and the emergency are the report destinations. In the case of a property damage accident, at least the police will be the report destination. In addition, the operation manager may be the report destination for minor cases. If it is difficult to judge from the image, the operation manager may be the report destination. In this way, it can help the vehicle to take appropriate action when it comes into contact with an obstacle.

以下、図面に基づいて、本発明の実施の形態を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The configurations of the following embodiments are examples, and the present invention is not limited to the configurations of the embodiments.

<第1実施形態>
図1は、実施形態に係る自動運転システム1の概略構成を示す図である。自動運転システム1は、例えば、車両10、端末20、サーバ30を含む。なお、車両10及び端末20の台数は図1に例示した1台に限らず、2台以上であってもよい。図1に示す自動運転システム1は、例えば、人または物を運ぶ車両10が自律走行するシステムである。車両10は、サーバ30からの運行指令に基づいて走行する。なお、車両10は、人や物を運ぶ車両10に限らず、例えば、車体に広告を表示する車両10、または、道路若しくは地域を監視する車両10などであってもよい。
<First Embodiment>
FIG. 1 is a diagram showing a schematic configuration of an automatic operation system 1 according to an embodiment. The automatic driving system 1 includes, for example, a vehicle 10, a terminal 20, and a server 30. The number of vehicles 10 and terminals 20 is not limited to one illustrated in FIG. 1, and may be two or more. The automatic driving system 1 shown in FIG. 1 is, for example, a system in which a vehicle 10 carrying a person or an object autonomously travels. The vehicle 10 travels based on an operation command from the server 30. The vehicle 10 is not limited to the vehicle 10 that carries people and goods, and may be, for example, a vehicle 10 that displays an advertisement on a vehicle body, a vehicle 10 that monitors a road or an area, and the like.

図1における運行管理者は、端末20を操作する。運行管理者は、端末20を介してサーバ30にアクセス可能である。これにより、車両10の状況を把握可能である。また、運行管理者は、車両10が事故にあった場合には、車両10から送信される情報に基づいて、端末20を介して警察などに通知を行うことができる。 The operation manager in FIG. 1 operates the terminal 20. The operation manager can access the server 30 via the terminal 20. Thereby, the situation of the vehicle 10 can be grasped. In addition, when the vehicle 10 has an accident, the operation manager can notify the police or the like via the terminal 20 based on the information transmitted from the vehicle 10.

車両10、端末20、サーバ30は、ネットワークN1によって相互に接続されている。ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、WiFi等の無線通信網を含んでもよい。 The vehicle 10, the terminal 20, and the server 30 are connected to each other by the network N1. The network N1 is, for example, a world-wide public communication network such as the Internet, and a WAN (Wide Area Network) or other communication network may be adopted. Further, the network N1 may include a telephone communication network such as a mobile phone and a wireless communication network such as WiFi.

(ハードウェア構成)
図2に基づいて、車両10、端末20及びサーバ30のハードウェア構成について説明する。図2は、本実施形態に係る自動運転システム1を構成する車両10、端末20及びサーバ30のそれぞれの構成の一例を概略的に示すブロック図である。
(Hardware configuration)
The hardware configurations of the vehicle 10, the terminal 20, and the server 30 will be described with reference to FIG. FIG. 2 is a block diagram schematically showing an example of each configuration of the vehicle 10, the terminal 20, and the server 30 constituting the automatic driving system 1 according to the present embodiment.

車両10は、プロセッサ11、主記憶部12、補助記憶部13、入力部14、出力部15、通信部16、位置情報センサ17、環境情報センサ18、駆動部19、カメラ100を有する。これらは、バスにより相互に接続される。 The vehicle 10 includes a processor 11, a main storage unit 12, an auxiliary storage unit 13, an input unit 14, an output unit 15, a communication unit 16, a position information sensor 17, an environment information sensor 18, a drive unit 19, and a camera 100. These are connected to each other by a bus.

プロセッサ11は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等である。プロセッサ11は、車両10を制御し、様々な情報処理の演算を行
う。プロセッサ11は、「制御部」の一例である。主記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)等である。補助記憶部13は、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(HDD、Hard Disk Drive)、リムーバブルメディア等である。補助記憶部13には、オペレーティングシステム(Oper
ating System :OS)、各種プログラム、各種テーブル等が格納される。補助記憶部13に格納されたプログラムをプロセッサ11が主記憶部12の作業領域にロードして実行し、このプログラムの実行を通じて各構成部等が制御される。主記憶部12および補助記憶部13は、コンピュータで読み取り可能な記録媒体である。
The processor 11 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or the like. The processor 11 controls the vehicle 10 and performs various information processing calculations. The processor 11 is an example of a "control unit". The main storage unit 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), or the like. The auxiliary storage unit 13 is an EPROM (Erasable Programmable ROM), a hard disk drive (HDD, Hard Disk Drive), removable media, or the like. The auxiliary storage unit 13 contains an operating system (Oper).
ating System: OS), various programs, various tables, etc. are stored. The processor 11 loads and executes the program stored in the auxiliary storage unit 13 into the work area of the main storage unit 12, and each component and the like are controlled through the execution of this program. The main storage unit 12 and the auxiliary storage unit 13 are computer-readable recording media.

入力部14は、ユーザが行った入力操作を受け付ける手段であり、例えば、タッチパネル、キーボード、マウス、押しボタン等である。出力部15は、ユーザに対して情報を提示する手段であり、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)パネル、スピーカ、ランプ等である。入力部14及び出力部15は、1つのタッ
チパネルディスプレイとして構成してもよい。
The input unit 14 is a means for receiving an input operation performed by the user, and is, for example, a touch panel, a keyboard, a mouse, a push button, or the like. The output unit 15 is a means for presenting information to the user, and is, for example, an LCD (Liquid Crystal Display), an EL (Electroluminescence) panel, a speaker, a lamp, or the like. The input unit 14 and the output unit 15 may be configured as one touch panel display.

通信部16は、車両10をネットワークN1に接続するための通信手段である。通信部16は、例えば、車両通信サービス(3G(3rd Generation)やLTE(Long Term Evolution)等の電話通信網、WiFi等の無線通信)を利用して、ネットワークN1経由で
他の装置(例えばサーバ30等)と通信を行うための回路である。
The communication unit 16 is a communication means for connecting the vehicle 10 to the network N1. The communication unit 16 uses, for example, a vehicle communication service (telephone communication network such as 3G (3rd Generation) or LTE (Long Term Evolution), wireless communication such as WiFi), and another device (for example, a server) via the network N1. It is a circuit for communicating with 30 etc.).

位置情報センサ17は、所定の周期で、車両10の位置情報(例えば緯度、経度)を取得する。位置情報センサ17は、例えば、GPS(Global Positioning System)受信部
、WiFi通信部等である。位置情報センサ17で取得された情報は、例えば、補助記憶部13等に記録され、サーバ30に送信される。
The position information sensor 17 acquires the position information (for example, latitude and longitude) of the vehicle 10 at a predetermined cycle. The position information sensor 17 is, for example, a GPS (Global Positioning System) receiving unit, a WiFi communication unit, or the like. The information acquired by the position information sensor 17 is recorded in, for example, the auxiliary storage unit 13 and is transmitted to the server 30.

環境情報センサ18は、車両10の状態をセンシングしたり車両10の周辺をセンシングしたりする手段である。車両10の状態をセンシングするためのセンサとして、加速度センサ、速度センサ、方位角センサが挙げられる。車両10の周辺をセンシングするためのセンサとして、ステレオカメラ、レーザスキャナ、LIDAR、レーダなどが挙げられる。 The environmental information sensor 18 is a means for sensing the state of the vehicle 10 and the periphery of the vehicle 10. Examples of the sensor for sensing the state of the vehicle 10 include an acceleration sensor, a speed sensor, and an azimuth sensor. Examples of the sensor for sensing the periphery of the vehicle 10 include a stereo camera, a laser scanner, LIDAR, and a radar.

駆動部19は、プロセッサ11が生成した制御指令に基づいて、車両10を走行させる。駆動部19は、例えば、車両10が備える車輪を駆動するためのモータやインバータ、ブレーキ、ステアリング機構等を含んで構成され、制御指令に従ってモータやブレーキ等が駆動されることで、車両10の自律走行が実現される。 The drive unit 19 drives the vehicle 10 based on the control command generated by the processor 11. The drive unit 19 includes, for example, a motor, an inverter, a brake, a steering mechanism, and the like for driving the wheels of the vehicle 10, and the motor, the brake, and the like are driven according to a control command to autonomously drive the vehicle 10. Driving is realized.

カメラ100は、車両10の周囲を撮影可能なように設けられており、車両10の周辺を撮影する。カメラ100は、例えばCCD(Charge Coupled Device)イメージセンサ
またはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮
像素子を用いて撮影を行う。撮影により得られる画像は、静止画または動画の何れであってもよいが、本実施形態ではカメラ100が静止画を撮影するものとする。なお、カメラ100は、環境情報センサ18と共用であってもよい。
The camera 100 is provided so as to be able to photograph the periphery of the vehicle 10, and photographs the periphery of the vehicle 10. The camera 100 takes an image using an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image obtained by shooting may be either a still image or a moving image, but in the present embodiment, the camera 100 shoots a still image. The camera 100 may be shared with the environment information sensor 18.

次に、端末20について説明する。端末20は、例えば、スマートフォン、携帯電話、タブレット端末、個人情報端末、ウェアラブルコンピュータ(スマートウォッチ等)、パーソナルコンピュータ(Personal Computer、PC)といった小型のコンピュータである。端末20は、プロセッサ21、主記憶部22、補助記憶部23、入力部24、出力部25、通信部26を有する。これらは、バスにより相互に接続される。プロセッサ21、主記憶部22、補助記憶部23、入力部24、出力部25、通信部26は、車両10のプロセッサ11、主記憶部12、補助記憶部13、入力部14、出力部15、通信部16と同様であるため、説明を省略する。 Next, the terminal 20 will be described. The terminal 20 is a small computer such as a smartphone, a mobile phone, a tablet terminal, a personal information terminal, a wearable computer (smart watch, etc.), or a personal computer (Personal Computer, PC). The terminal 20 includes a processor 21, a main storage unit 22, an auxiliary storage unit 23, an input unit 24, an output unit 25, and a communication unit 26. These are connected to each other by a bus. The processor 21, the main storage unit 22, the auxiliary storage unit 23, the input unit 24, the output unit 25, and the communication unit 26 are the processor 11, the main storage unit 12, the auxiliary storage unit 13, the input unit 14, the output unit 15, and the vehicle 10. Since it is the same as the communication unit 16, the description thereof will be omitted.

次に、サーバ30について説明する。サーバ30は、一般的なコンピュータの構成を有している。サーバ30は、プロセッサ31、主記憶部32、補助記憶部33、通信部34
を有する。これらは、バスにより相互に接続される。プロセッサ31、主記憶部32、及び補助記憶部33は、車両10のプロセッサ11、主記憶部12、及び補助記憶部13と同様であるため、説明を省略する。
Next, the server 30 will be described. The server 30 has a general computer configuration. The server 30 includes a processor 31, a main storage unit 32, an auxiliary storage unit 33, and a communication unit 34.
Have. These are connected to each other by a bus. Since the processor 31, the main storage unit 32, and the auxiliary storage unit 33 are the same as the processor 11, the main storage unit 12, and the auxiliary storage unit 13 of the vehicle 10, the description thereof will be omitted.

通信部34は、ネットワークN1経由で車両10及び端末20と通信を行う手段である。通信部34は、例えば、LAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路である。LANインターフェースボードや無線通信回路は、ネットワークN1に接続される。 The communication unit 34 is a means for communicating with the vehicle 10 and the terminal 20 via the network N1. The communication unit 34 is, for example, a LAN (Local Area Network) interface board and a wireless communication circuit for wireless communication. The LAN interface board and the wireless communication circuit are connected to the network N1.

なお、サーバ30で実行される一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。サーバ30のハードウェア構成は、図2に示されるものに限定されない。また、サーバ30の一部または全ての構成が、車両10に搭載されていてもよい。 The series of processes executed by the server 30 can be executed by hardware, but can also be executed by software. The hardware configuration of the server 30 is not limited to that shown in FIG. Further, a part or all of the configuration of the server 30 may be mounted on the vehicle 10.

(車両の制御)
車両10のプロセッサ11は、サーバ30から取得した運行計画と、環境検出部102が生成した環境データ、ならびに、位置情報センサ17が取得した車両10の位置情報に基づいて、車両10の自律的な走行を制御するための制御指令を生成する。例えば、車両制御部103は、所定の経路に沿って走行し、かつ、車両10を中心とする所定の安全領域内に障害物が進入しないように車両10を走行させるべく制御指令を生成する。生成された制御指令は、駆動部19へ送信される。車両10を自律移動させるための制御指令の生成方法については、公知の方法を採用することができる。また、サーバ30が運行指令を生成する方法についても、公知の方法を採用することができる。
(Vehicle control)
The processor 11 of the vehicle 10 autonomously of the vehicle 10 based on the operation plan acquired from the server 30, the environmental data generated by the environment detection unit 102, and the position information of the vehicle 10 acquired by the position information sensor 17. Generate a control command to control the running. For example, the vehicle control unit 103 generates a control command so as to travel along a predetermined route and to drive the vehicle 10 so that an obstacle does not enter a predetermined safety area centered on the vehicle 10. The generated control command is transmitted to the drive unit 19. As a method for generating a control command for autonomously moving the vehicle 10, a known method can be adopted. Further, as a method for the server 30 to generate an operation command, a known method can be adopted.

次に、車両10が障害物に接触したときの処理について説明する。車両10における以下の処理は、プロセッサ11によって実行される。車両10では、環境情報センサ18によって、加速度または加加速度が随時検出されている。この加速度または加加速度は、車両10が制御指令に基づいて走行している場合には、制御指令に対応した範囲内となる。例えば、車両10が所定の加速度で加速されるように制御指令が生成された場合には、実際の車両10の加速度も所定の加速度を含んだ所定の範囲内となる。また、例えば、カーブを走行中には、車両10に対して、速度及び舵角に応じた横加速度が加わる。この横加速度も、速度及び舵角に応じた所定の範囲内となる。所定の範囲は、自動運転中に想定される加速度または加加速度の範囲である。所定の範囲は、例えば、アクセル操作、ブレーキ操作、ステアリング操作から想定される加速度または加加速度の範囲としてもよい。また、所定の範囲は、直前の加速度または加加速度に応じて設定してもよい。また、所定の範囲を外れる範囲は、例えば、エアバッグが開く範囲としてもよい。 Next, processing when the vehicle 10 comes into contact with an obstacle will be described. The following processing in the vehicle 10 is executed by the processor 11. In the vehicle 10, acceleration or jerk is detected at any time by the environmental information sensor 18. This acceleration or jerk is within the range corresponding to the control command when the vehicle 10 is traveling based on the control command. For example, when a control command is generated so that the vehicle 10 is accelerated at a predetermined acceleration, the actual acceleration of the vehicle 10 is also within a predetermined range including the predetermined acceleration. Further, for example, while traveling on a curve, lateral acceleration corresponding to the speed and the steering angle is applied to the vehicle 10. This lateral acceleration also falls within a predetermined range according to the speed and the steering angle. The predetermined range is the range of acceleration or jerk assumed during automatic operation. The predetermined range may be, for example, the range of acceleration or jerk assumed from the accelerator operation, the brake operation, and the steering operation. Further, the predetermined range may be set according to the immediately preceding acceleration or jerk. Further, the range outside the predetermined range may be, for example, a range in which the airbag opens.

一方、車両10が障害物に接触した場合には、その時の衝撃に応じて車両10の速度が変化する。このときの加速度または加加速度は、上記の所定の範囲から外れた値となる。すなわち、自動運転に起因する加速度または加加速度とは異なる値になる。したがって、環境情報センサ18によって検出される加速度または加加速度が所定の範囲を外れた場合には、車両10が障害物に接触したと判定することができる。 On the other hand, when the vehicle 10 comes into contact with an obstacle, the speed of the vehicle 10 changes according to the impact at that time. The acceleration or jerk at this time is a value outside the above-mentioned predetermined range. That is, the value is different from the acceleration or jerk caused by the automatic operation. Therefore, when the acceleration or jerk detected by the environmental information sensor 18 is out of the predetermined range, it can be determined that the vehicle 10 has come into contact with an obstacle.

そして、本実施形態では、車両10が障害物に接触したと判定された場合には、車両10を停止させるようにプロセッサ11によって制御指令が生成される。そして、その制御指令にしたがって、モータやブレーキが作動して車両10が停止される。次に、カメラ100によって車両10の周囲を撮影して画像を取得する。取得された画像は、公知の画像認識を利用して接触した障害物が何であるのかを判定する。そして、プロセッサ11は、接触した障害物に応じて通報先を決定する。例えば、人に接触した場合、物に接触した場合、物に接触したものの軽微な事案である場合、判定不能の場合に分類して通報先を決定
する。画像認識によって何れの場合に分類されるのかは、予め設定しておく。
Then, in the present embodiment, when it is determined that the vehicle 10 has come into contact with an obstacle, a control command is generated by the processor 11 so as to stop the vehicle 10. Then, according to the control command, the motor and the brake are operated to stop the vehicle 10. Next, the surroundings of the vehicle 10 are photographed by the camera 100 to acquire an image. The acquired image uses known image recognition to determine what the contacted obstacle is. Then, the processor 11 determines the report destination according to the contacted obstacle. For example, the report destination is determined by classifying into cases of contact with a person, contact with an object, minor cases of contact with an object, and undecidable cases. It is set in advance which case is classified by image recognition.

人に接触した場合には、通報先として、警察、救急、及び運行管理者を選定する。なお、運行管理者は、図1に示した運行管理者である。警察または救急への通報は、運行管理者を介して行われてもよい。すなわち、運行管理者に対して警察または救急へ通報するような指示を生成して端末20に送信してもよい。 In case of contact with a person, the police, emergency, and operation manager are selected as the report destination. The operation manager is the operation manager shown in FIG. Calls to the police or emergency may be made through the operation manager. That is, an instruction for notifying the operation manager to the police or the emergency may be generated and transmitted to the terminal 20.

物に接触した場合には、通報先として、警察及び運行管理者を選定する。この場合も、警察への通報は、運行管理者を介して行われてもよい。なお、物には、例えば、ガードレール、電柱、建造物、動物などを含む。また、軽微な事案の場合には、通報先として運行管理者を選定する。軽微な事案とは、物に接触したものの、通報する必要がない事案である。軽微な事案の場合には、例えば、サーバ30の補助記憶部33に画像を記録するだけ、または、軽微な事案があったことを記録するだけにする。 In case of contact with an object, the police and operation manager will be selected as the report destination. In this case as well, the report to the police may be made via the operation manager. The objects include, for example, guardrails, utility poles, buildings, animals, and the like. In the case of a minor case, an operation manager is selected as the report destination. Minor cases are cases that come into contact with an object but do not need to be reported. In the case of a minor case, for example, the image is only recorded in the auxiliary storage unit 33 of the server 30, or the fact that there is a minor case is only recorded.

また、接触した障害物が判定不能の場合には、通報先として運行管理者が選定される。この場合、取得した画像を運行管理者に送信してもよい。この画像に基づいて、運行管理者が接触した障害物が何であるのかを判断することができる。そして、運行管理者は、接触した障害物に応じて、警察または救急に通報する。 If the contacted obstacle cannot be determined, the operation manager is selected as the report destination. In this case, the acquired image may be transmitted to the operation manager. Based on this image, it is possible to determine what the obstacles the operation manager has come into contact with. Then, the operation manager reports to the police or the emergency according to the obstacle that has come into contact.

(処理の流れ)
次に、車両10が障害物と接触した場合に、車両10において通報先を決定する処理について説明する。図3は、車両10が障害物に接触したときの処理のフローチャートの一例である。図3に示す処理は、車両10のプロセッサ11によって所定の時間毎に実行される。
(Processing flow)
Next, when the vehicle 10 comes into contact with an obstacle, the process of determining the notification destination in the vehicle 10 will be described. FIG. 3 is an example of a flowchart of processing when the vehicle 10 comes into contact with an obstacle. The process shown in FIG. 3 is executed by the processor 11 of the vehicle 10 at predetermined time intervals.

ステップS101では、加速度(または加加速度)が取得される。ステップS102では、加速度が所定の範囲内であるか否か判定される。所定の範囲は、自動運転に起因する加速度の範囲として運転条件に応じて予めマップ化されて補助記憶部13に記憶されている。ステップS102で肯定判定された場合にはステップS103へ進み、否定判定された場合には本ルーチンを終了させる。 In step S101, the acceleration (or jerk) is acquired. In step S102, it is determined whether or not the acceleration is within a predetermined range. The predetermined range is pre-mapped according to the operating conditions as the range of acceleration caused by the automatic operation and stored in the auxiliary storage unit 13. If an affirmative determination is made in step S102, the process proceeds to step S103, and if a negative determination is made, this routine is terminated.

ステップS103では、車両10が停止される。そして、ステップS104では、カメラ100によって画像が取得される。ステップS104では、取得された画像を用いて、画像認識により障害物を判定する。ステップS106では、車両10が人と接触したか否か判定される。ステップS106で肯定判定された場合にはステップS107へ進み、通報先として、警察、救急、及び運行管理者を選定する。 In step S103, the vehicle 10 is stopped. Then, in step S104, the image is acquired by the camera 100. In step S104, the acquired image is used to determine an obstacle by image recognition. In step S106, it is determined whether or not the vehicle 10 has come into contact with a person. If an affirmative judgment is made in step S106, the process proceeds to step S107, and police, emergency, and operation managers are selected as report destinations.

ステップS106で否定判定された場合には、ステップS108へ進み、車両10が物と接触したか否か判定される。ここで肯定判定されるのは、軽微な事案以外の場合である。ステップS108で肯定判定された場合には、ステップS109へ進み、通報先として、警察及び運行管理者を選定する。 If a negative determination is made in step S106, the process proceeds to step S108, and it is determined whether or not the vehicle 10 has come into contact with an object. Here, affirmative judgment is made in cases other than minor cases. If an affirmative judgment is made in step S108, the process proceeds to step S109, and the police and the operation manager are selected as the report destinations.

ステップS108で否定判定された場合には、ステップS110へ進み、軽微な事案であるか否か判定される。ステップS110で肯定判定された場合には、ステップS111へ進み、通報先として運行管理者が選定される。 If a negative determination is made in step S108, the process proceeds to step S110, and it is determined whether or not the case is minor. If an affirmative decision is made in step S110, the process proceeds to step S111, and an operation manager is selected as the report destination.

ステップS110で否定判定された場合には、ステップS112へ進み、通報先として運行管理者が選定される。さらに、ステップS113へ進んで、ステップS104で取得された画像が運行管理者に送信される。 If a negative determination is made in step S110, the process proceeds to step S112, and the operation manager is selected as the report destination. Further, the process proceeds to step S113, and the image acquired in step S104 is transmitted to the operation manager.

なお、ステップS107、ステップS109、ステップS111、及びステップS112の処理の後に、警察、救急、または運行管理者に実際に通報してもよい。また、ステップS107、ステップS109、及びステップS111の処理の後に、ステップS104で取得された画像を送付してもよい。また、画像を送付することに代えて、ステップS105における画像認識の結果を送信してもよい。 After the processing of step S107, step S109, step S111, and step S112, the police, the emergency department, or the operation manager may actually be notified. Further, after the processing of step S107, step S109, and step S111, the image acquired in step S104 may be sent. Further, instead of sending the image, the result of the image recognition in step S105 may be transmitted.

以上説明したように本実施形態によれば、車両10が障害物に接触したときに、車両10の周囲の画像に基づいて通報先を決定することができる。これにより、適切な措置をとることができる。例えば、物に接触したときに救急車が呼ばれることを抑制できる。例えば、車両10に人が乗っていない場合であっても、適切な通報を行うことができる。 As described above, according to the present embodiment, when the vehicle 10 comes into contact with an obstacle, the report destination can be determined based on the image of the surroundings of the vehicle 10. As a result, appropriate measures can be taken. For example, it is possible to prevent an ambulance from being called when it comes into contact with an object. For example, even when no one is in the vehicle 10, an appropriate report can be made.

<その他の実施形態>
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施し得る。
<Other Embodiments>
The above embodiment is merely an example, and the present invention can be appropriately modified and implemented without departing from the gist thereof.

本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。 The processes and means described in the present disclosure can be freely combined and carried out as long as there is no technical contradiction.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。上記実施形態では、車両10のプロセッサ11が、車両10における加速度または加加速度が、自動運転に起因するものではないことに関する判定を行うことと、判定の結果が所定の条件を満たした場合に車両10を停止させることと、カメラ100を用いて車両10の周囲の画像を取得することと、画像に基づいて通報先を決定することと、を実行しているが、これらの処理の一部がサーバ30のプロセッサ31によって実行されてもよい。 Further, the processing described as being performed by one device may be shared and executed by a plurality of devices. Alternatively, the processing described as being performed by different devices may be performed by one device. In a computer system, it is possible to flexibly change what kind of hardware configuration (server configuration) is used to realize each function. In the above embodiment, the processor 11 of the vehicle 10 determines that the acceleration or jerk in the vehicle 10 is not caused by automatic driving, and when the result of the determination satisfies a predetermined condition, the vehicle The operation of stopping the vehicle 10, acquiring an image of the surroundings of the vehicle 10 using the camera 100, and determining the report destination based on the image is executed, but some of these processes are executed. It may be executed by the processor 31 of the server 30.

本発明は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present invention can also be realized by supplying a computer program having the functions described in the above-described embodiment to a computer, and having one or more processors of the computer read and execute the program. Such a computer program may be provided to the computer by a non-temporary computer-readable storage medium that can be connected to the computer's system bus, or may be provided to the computer via a network. Non-temporary computer-readable storage media include, for example, any type of disk such as a magnetic disk (floppy (registered trademark) disk, hard disk drive (HDD), etc.), optical disk (CD-ROM, DVD disk, Blu-ray disk, etc.). Includes read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic cards, flash memory, optical cards, and any type of medium suitable for storing electronic instructions.

10 車両
11 プロセッサ
20 端末
30 サーバ
10 Vehicle 11 Processor 20 Terminal 30 Server

Claims (1)

自動運転車両における加速度または加加速度が、自動運転に起因するものではないことに関する判定を行うことと、
前記判定の結果が所定の条件を満たした場合に、前記自動運転車両を停止させることと、
カメラを用いて前記自動運転車両の周囲の画像を取得することと、
前記画像に基づいて、通報先を決定することと、
を実行する制御部を備える情報処理装置。
To determine that the acceleration or jerk in an autonomous vehicle is not due to autonomous driving,
When the result of the determination satisfies the predetermined condition, the automatic driving vehicle is stopped.
Acquiring an image of the surroundings of the self-driving vehicle using a camera,
Determining the report destination based on the above image,
An information processing device including a control unit that executes the above.
JP2020002992A 2020-01-10 2020-01-10 Information processing device Pending JP2021111144A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002992A JP2021111144A (en) 2020-01-10 2020-01-10 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002992A JP2021111144A (en) 2020-01-10 2020-01-10 Information processing device

Publications (1)

Publication Number Publication Date
JP2021111144A true JP2021111144A (en) 2021-08-02

Family

ID=77059934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002992A Pending JP2021111144A (en) 2020-01-10 2020-01-10 Information processing device

Country Status (1)

Country Link
JP (1) JP2021111144A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022134338A (en) * 2021-03-03 2022-09-15 本田技研工業株式会社 Accident handling system and accident handling method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022134338A (en) * 2021-03-03 2022-09-15 本田技研工業株式会社 Accident handling system and accident handling method
JP7357019B2 (en) 2021-03-03 2023-10-05 本田技研工業株式会社 Accident response system and accident response method

Similar Documents

Publication Publication Date Title
US11341784B2 (en) Electronic device for transmitting relay message to external vehicle and method thereof
JP6668814B2 (en) Automatic traveling control device and automatic traveling control system
JP2020513617A (en) Method for confirming driving action, device, device and storage medium
US20150084757A1 (en) Methods and systems for determining auto accidents using mobile phones and initiating emergency response
US20180164809A1 (en) Autonomous School Bus
JP6494782B2 (en) Notification control device and notification control method
JP7241778B2 (en) CONTROL METHOD, CONTROL DEVICE, AND STORAGE MEDIUM OF AUTOMATIC GUIDED VEHICLE
US10852725B2 (en) Activate/deactivate functionality in response to environmental conditions
CN106056841A (en) Safety early warning method, apparatus, and system based on mobile terminal
JP6978247B2 (en) Operation monitoring system
JP2019079396A (en) Information processing system, information processor, information processing method and program
US20210244326A1 (en) System, information processing apparatus, and information processing method
US20230229152A1 (en) Processing system for dynamic event verification &amp; sensor selection
JP2018139033A (en) Danger level determination device, information providing device, danger level determination method, information providing method and computer program
US10997841B2 (en) Information processing apparatus, information processing system and information processing method
JP2021111144A (en) Information processing device
WO2019044456A1 (en) Information processing device, vehicle, and roadside unit
US20210125423A1 (en) Processing System for Dynamic Collison Verification &amp; Sensor Selection
WO2016152834A1 (en) Automatic travel control device and automatic travel control system
US20220406069A1 (en) Processing apparatus, processing method, and non-transitory storage medium
JPWO2018127962A1 (en) Notification control apparatus and notification control method
US20200184237A1 (en) Server, in-vehicle device, program, information providing system, method of providing information, and vehicle
JP6621648B2 (en) Information processing apparatus, control program, and information processing apparatus control method
JP6803663B2 (en) Terminal device, contact system, transmission method and transmission program
CN114227683B (en) Robot control method, system, terminal device and storage medium