JP7030000B2 - 情報処理方法、情報処理システム、および、プログラム - Google Patents

情報処理方法、情報処理システム、および、プログラム Download PDF

Info

Publication number
JP7030000B2
JP7030000B2 JP2018068258A JP2018068258A JP7030000B2 JP 7030000 B2 JP7030000 B2 JP 7030000B2 JP 2018068258 A JP2018068258 A JP 2018068258A JP 2018068258 A JP2018068258 A JP 2018068258A JP 7030000 B2 JP7030000 B2 JP 7030000B2
Authority
JP
Japan
Prior art keywords
information
vehicle
driving vehicle
recognition result
autonomous driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018068258A
Other languages
English (en)
Other versions
JP2019031264A (ja
Inventor
勝義 東島
俊介 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US16/028,525 priority Critical patent/US11100729B2/en
Priority to EP18182530.8A priority patent/EP3441839B1/en
Priority to CN201810868567.9A priority patent/CN109383519B/zh
Publication of JP2019031264A publication Critical patent/JP2019031264A/ja
Application granted granted Critical
Publication of JP7030000B2 publication Critical patent/JP7030000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、自動運転する車両等の移動体と通信する情報処理方法、情報処理システム、および、プログラムに関する。
近年、自動運転する車両などの移動体(以下、自動運転車両と呼称する)に関する技術が発展しつつある。また、自動運転車両の運転制御に関する情報を、当該自動運転車両に搭乗している搭乗者に通知する技術がある(例えば、特許文献1および特許文献2参照)。
特許文献1には、自動運転車両の搭乗者の指示に基づいて、予め自動運転車両に定められた走行制御に関する設定情報と、当該自動運転車両の走行制御の内容などとを関連付けて当該搭乗者に提示する技術が開示されている。
また、特許文献2には、自動運転車両が実行可能な走行制御の内容などを当該自動運転車両の搭乗者に提示する技術が開示されている。
特開2017-144110号公報 特開2016-216029号公報
しかしながら、従来技術では、人は走行制御の内容を把握できるが、当該走行制御にいたるまでの車両による認識処理の内容を把握することが困難であった。例えば、自動運転車両の自動運転を評価する評価者が、予め定められた確認すべき項目を実際に自動運転車両が確認したか否かを把握することが出来ないという問題がある。
そこで、本開示は、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる情報処理方法を提供する。
本開示の一態様に係る情報処理方法は、プロセッサを用いて、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された前記処理済み情報を出力する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様に係る情報処理方法は、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。
図1は、実施の形態における情報処理システムを含むシステムの構成を説明するための図である。 図2は、実施の形態における情報処理システムの機能構成を示すブロック図である。 図3は、実施の形態における情報処理システムと通信する自動運転車両の機能構成を示すブロック図である。 図4は、実施の形態における情報処理システムが実行する処理手順を示すフローチャートである。 図5は、実施の形態における情報処理システムと通信する自動運転車両が実行する処理手順を示すフローチャートである。 図6Aは、実施の形態における情報処理システムと通信する自動運転車両を含む画像の一例を示す図である。 図6Bは、実施の形態における情報処理システムと通信する自動運転車両と、当該自動運転車両から物体までの距離の一例を説明するための図である。 図7は、イベント関連情報の一例を示す図である。 図8Aは、地図情報および経路情報の一例を示す図である。 図8Bは、図8Aに示す地図情報の各地点の説明をするための図である。 図9Aは、実施の形態における情報処理システムに表示される画像の第1例を示す図である。 図9Bは、実施の形態における情報処理システムに表示される画像の第2例を示す図である。 図10は、実施の形態における情報処理システムに表示される画像の第3例を示す図である。 図11Aは、実施の形態における情報処理システムに表示される障害物を強調する表示の第1例を示す図である。 図11Bは、実施の形態における情報処理システムに表示される障害物を強調する表示の第2例を示す図である。 図12は、実施の形態における情報処理システムに表示される画像の第4例を示す図である。 図13は、実施の形態における情報処理システムに表示される画像の第5例を示す図である。
(本開示の基礎となった知見)
本開示者は、上述したように、先行技術について、以下の問題が生じることを見出した。
近年、車両などの移動体において、自動運転に関する技術がある。以下、自動運転する移動体を、自動運転車両と呼称する。
自動運転車両は、発進、停止、左折、右折などの走行制御をする際に、自動運転しない車両を運転する運転手などが実行する安全確認と同様に、自動運転車両の周囲の環境をカメラなどのセンサを用いて取得し、取得した情報を用いて、走行制御を行う。
ここで、自動運転車両に公道を走行させる前には、自動運転車両が安全に公道を走行できるか否かを評価することが必要になる。例えば、自動運転車両は、適切に自動運転することができるか否かを、予め評価者によって評価される。
そこで、自動運転車両が安全に走行できるか否かを評価するために、自動車教習所などの試験コースを自動運転させて、評価者が自動運転車両の自動運転を評価することが検討されている。
ここで、評価者が自動運転車両の自動運転を評価する場合、手動運転の走行を評価する場合と同様に評価できることが望まれる。
この際に、自動運転車両が適切に自動運転することができていたとしても、当該自動運転車両の周囲の環境などの予め定められた確認すべき項目を全て確認しているか否かは判定することができない。そのため、自動運転車両の周囲の環境などの予め定められた確認すべき項目を全て確認せずに自動運転を行っている可能性があるという問題がある。
そこで、評価者に自動運転車両が当該自動運転車両の周囲にある物体を認識した結果を、ディスプレイなどに表示させることが考えられる。しかし、自動運転車両の周囲にある物体の認識結果を全て表示させた場合、例えば、遠くに離れた場所にある物体、ガードレールなどの安全確認する必要のない静的物などまで表示されてしまう。こうすると、評価者は、自動運転車両が適切に安全確認している、つまり、適切に予め定められた確認すべき項目を全て確認しているかどうかを評価し難いという問題がある。
このような問題を解決するために、本開示の一態様に係る情報処理方法は、プロセッサを用いて、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された前記処理済み情報を出力する。
また、このような問題を解決するために、本開示の一態様に係るプログラムは、上記情報処理方法をコンピュータに実行させる。
このような方法によれば、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。例えば、自動運転車両の自動運転が適切に行われているか否かを評価する評価者に、自動運転車両の運転に関する認識処理が適切に行われているか否かを判定して出力できる。これにより、評価者は、所定イベント毎に、通常の自動運転の走行制御に加え、さらに、安全確認が必要となる地点において、自動運転車両が適切に安全確認できているかをチェックできる。
また、このような方法によれば、所定イベント毎に、安全確認する方向が予め設定されているために、安全確認が特に必要となる方向に対して、自動運転車両によって安全確認がなされているどうかを適切に評価することができる。
また、自動運転の障害となる障害物などを含む特定物体が自動運転車両に認識されなかった場合であっても、その旨を示す情報を表示するために、評価者は、自動運転車両によって適切に安全確認がなされたか否かを把握することができる。つまり、評価者は、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを簡便に把握することができる。
また、このような方法によれば、自動運転車両が自動運転の走行制御をする際に、所定イベントに対する判定に用いた情報のみを出力することとなるために、出力処理をするための処理量を削減することができる。そのため、当該出力処理を効率的に高速化できる。
例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1方向に前記特定物体が存在すると判定された場合は、前記第1方向に前記特定物体を認識した旨を示す第1情報を含む前記処理済み情報を生成し、前記第1方向に前記特定物体が存在しないと判定された場合は、前記第1方向に前記特定物体を認識しなかった旨を示す第2情報を含む前記処理済み情報を生成してもよい。
このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かをより適切に評価することができる。
また、例えば、前記第1認識結果情報は、前記車両から前記第1方向を含む所定の範囲を撮影することで得られる画像を前記認識処理することにより取得される情報でもよい。
つまり、このような方法は、例えば、公道などに設置されたカメラなどから情報を取得する自動運転のシステムではなく、自動運転車両に搭載されたカメラを用いて走行制御を行う自動運転車両に適用され得る。そのため、このような方法は、公道などに配置される装置ではなく、自動運転車両が備えるカメラなどの装置を用いて制御される自動運転車両に対して、特に有効である。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記車両の舵角および車速の少なくとも一方を含む前記車両の走行情報を取得し、前記所定の範囲は、前記車両の前記走行情報に応じて決定されてもよい。
このような方法によれば、自動運転車両の走行状態に応じて、自動運転車両によって自動運転のための認識処理が適切に行われているか否かをより簡便に評価者に把握させることができる。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、取得した前記車両の前記走行情報を前記処理済み情報とともに出力してもよい。
このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを、評価者により分かりやすく把握させることができる。
また、例えば、前記所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるか、又は所定の時間が経過するまで繰り返し前記処理済み情報を出力してもよい。
このような方法によれば、評価者は、自動運転車両が走行制御を変更してから、変更した走行制御の状態を維持し続けている間、常に自動運転車両が自動運転のための認識処理をしているか否かを評価者に簡便に把握させることができる。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1方向に前記特定物体が存在すると判定された場合、前記特定物体が原因で前記車両が走行の制御を決定又は変更したか否かを判定し、前記車両が走行の制御を決定又は変更したか否かの判定結果を含む前記第1情報を生成してもよい。
このような方法によれば、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを、評価者により分かりやすく把握させることができる。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1認識結果情報を用いて、前記第1方向とは異なる第2方向に、前記特定物体が存在するか否かを判定し、前記第2方向に前記特定物体が存在すると判定された場合、前記第2方向を示す情報を含む前記処理済み情報を生成してもよい。
自動運転の走行制御は、例えば、自動運転車両に最も近い特定物体などの、すぐに走行を停止する必要があるような、緊急性が高い情報から処理される。また、自動運転車両から離れた物体などの、すぐに走行を停止する必要がないような、緊急性が低い情報に関しても、走行制御に影響を及ぼす情報の処理は実行する。そこで、プロセッサは、緊急性が高い方向以外の他の方向に、自動運転車両の走行に影響を与える障害物などの特定物体が存在するか否かを判定し、走行の制御内容を変更する必要性のある情報も出力する。こうすることで、評価者は、自動運転車両によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記車両に搭載される撮影装置によって前記第1方向を撮影されることで生成された画像を取得し、取得した前記画像を前記処理済み情報とともに、検出された前記所定イベントに応じた態様で出力してもよい。
このような方法によれば、自動運転車両によって処理されている情報を、より適切に評価者に把握させることができる。
また、例えば、本開示の一態様に係る情報処理方法は、さらに、前記第1認識結果情報に前記第1方向の物体認識結果が含まれていないと判定された場合、前記車両が前記第1方向を認識処理できていないことを示す未処理情報を生成し、生成された前記未処理情報を出力してもよい。
このような方法によれば、自動運転車両によって適切に自動運転されていないことを、適切に評価者に把握させることができる。
また、本開示の一態様に係る情報処理システムは、車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定するイベント判定部と、前記イベント判定部によって前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得する方向情報取得部と、前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得する車両処理情報取得部と、前記第1認識結果情報に前記第1方向の物体認識結果含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定する車両認識判定部と、前記車両認識判定部によって前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成する表示情報生成部と、前記表示情報生成部によって生成された前記処理済み情報を表示装置に表示させる表示制御部と、を備える。
このような構成によれば、車両の運転に関する認識処理が適切に行われているか否かを人が把握することができる。例えば、自動運転車両の自動運転が適切に行われているか否かを評価する評価者に、自動運転車両の運転に関する認識処理が適切に行われているか否かを判定して出力できる。これにより、評価者は、所定イベント毎に、通常の自動運転の走行制御に加え、さらに、安全確認が必要となる地点において、自動運転車両が適切に認識処理できているかをチェックできる。
また、このような構成によれば、所定イベント毎に、安全確認する方向(つまり、確認方向)が予め設定されているために、安全確認が特に必要となる方向に対して、自動運転車両によって認識処理がなされているどうかを適切に評価することができる。
また、自動運転の障害となる障害物などを含む特定物体が自動運転車両によって認識されなかった場合であっても、その旨を示す情報を表示するために、評価者は、自動運転車両によって適切に認識処理がなされたか否かを把握することができる。つまり、評価者は、自動運転車両によって自動運転のための認識処理が適切に行われているか否かを簡便に把握することができる。
また、このような構成によれば、自動運転車両が自動運転の走行制御をする際に、所定イベントに対する判定に用いた情報のみを出力することとなるために、出力処理をするための処理量を削減することができる。そのため、当該出力処理を効率的に高速化できる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本開示の実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本開示包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
[概要]
まず、本開示の実施の形態に係る情報処理システムの概要について説明する。
図1は、実施の形態における情報処理システムを含むシステムの構成を説明するための図である。
図1には、自動運転車両2と、自動運転車両2と無線通信する端末1と、端末1を操作するユーザUとを図示している。
端末1は、本開示の実施の形態に係る情報処理システムの一例であり、自動運転車両2と通信して、自動運転車両2から、自動運転車両の走行制御に関する情報などを受信する通信装置である。
自動運転車両2は、予め任意に定められた制御プログラムに基づいて自律的に運転する、つまり、自動運転する移動体である。図1には、自動運転車両2に一例として、自動車(つまり、車両)を例示している。なお、自動運転車両2は、自動運転する移動体であればよく、バイク、3輪自動車など、特に限定されない。
ユーザUは、自動運転車両2が適切に自動運転できているか否かを、端末1を用いて評価する評価者である。例えば、ユーザUは、自動運転車両2に搭乗して、自動運転車両2の動作を評価する。
なお、図1には、自動運転車両2と端末1とは、別体として図示しているが、ユーザUが自動運転車両2に搭乗して自動運転車両2の動作を評価する場合、自動運転車両2と端末1とは一体的に形成されていてもよい。例えば、端末1は、有線通信するように通信線で自動運転車両2と接続され、自動運転車両2内に配置されていてもよい。また、ユーザUは、自動運転車両2に搭乗しなくてもよい。
なお、以下の説明では、本開示の実施の形態に係る情報処理システムを端末1として説明する。また、以下の説明では、ユーザUが端末1を持って、自動運転車両2内で利用する場合について説明する。
[構成]
続いて、本開示の実施の形態に係る端末1の構成について説明する。
図2は、実施の形態における情報処理システムの一例である端末1の機能構成を示すブロック図である。
端末1は、自動運転車両2が適切に自動運転できているか否かを評価するために用いる通信装置である。端末1は、例えば、スマートフォン、タブレット端末などの自動運転車両2と通信可能な通信装置である。なお、端末1は、本開示の実施の形態に係る情報処理システムを実現するための専用のコンピュータ、または、サーバ装置であってもよい。その場合、端末1の表示部12及び位置測定部13はユーザUが有する端末に備えられ、端末1とユーザUが有する端末とは通信を介して互いにデータを送受信する。
端末1は、通信部11と、表示部12と、位置測定部13と、制御部14と、記憶部15と、を備える。
通信部11は、自動運転車両2と通信する通信アダプタなどの通信インターフェースである。
表示部12は、自動運転車両2から受信した情報、制御部14が生成した画像などを表示する。表示部12は、例えば、ディスプレイであり、本実施の形態においては、タッチパネルディスプレイである。
位置測定部13は、端末1の位置を測定する。位置測定部13は、例えば、GPS(Grobal Positioning System)受信機などにより実現され、端末1の位置情報を取得する。
制御部14は、自動運転車両2から受信した情報に基づいて、ユーザUに自動運転車両2が適切に自動運転できているか否かを評価させるための情報を生成して表示部12へ出力する。制御部14は、例えば、CPU(Central Processing Unit)により実現される。制御部14は、機能的には、通信制御部141と、表示情報生成部142と、表示制御部143と、車両処理情報取得部144と、車両認識判定部145と、イベント判定部146と、方向情報取得部147と、を備える。
通信制御部141は、通信部11を制御することで、端末1と自動運転車両2との通信を制御する。
イベント判定部146は、自動運転車両2についての所定イベントを検出するためのイベント関連情報152を取得し、取得したイベント関連情報152を用いて所定イベントを検出したか否かを判定する。具体的には、イベント判定部146は、イベント関連情報152を用いて、自動運転車両2に所定イベントが発生したか否かを判定する。イベント判定部146は、例えば、位置測定部13が測定した位置と、イベント関連情報152と、地図情報153又は経路情報とから、自動運転車両2に所定イベントが発生したか否かを判定する。ここで、所定イベントとは、自動運転車両2の動作又は自動運転車両2の位置に関するイベントである。具体的には、所定イベントは、後述する図7に示すような、自動運転車両2が走行制御を変更すること又は自動運転車両2が所定の場所へ移動することである。例えば、自動運転車両2が走行制御を変更することとは、発進、停止、右折、左折などを含み、自動運転車両2が所定の場所へ移動することは、交差点への進入などを含む。
方向情報取得部147は、イベント判定部146が、自動運転車両2に所定イベントが発生したと判定した場合、つまり、所定イベントを検出した場合に、イベント関連情報152を用いて、検出した所定イベントに関連付けられた確認方向を示す方向情報を取得する。なお、確認方向は、第1方向の一例である。
車両処理情報取得部144は、通信部11が自動運転車両2から受信した情報を取得する。具体的には、車両処理情報取得部144は、自動運転車両2の外部に位置する物体の、自動運転車両2による認識処理により得られる認識結果情報(第1認識結果情報)を取得する。認識結果情報は、物体認識処理が行われたか否かを判定することができる情報である。具体的には、認識結果情報は、物体認識処理の実行有無、物体認識処理の成否、又は認識した物体の情報の有無などである。認識した物体の情報としては、物体の種別、物体の形状若しくは物体を囲む矩形、又は撮影部22(図3参照)若しくは自動運転車両2から物体までの方向若しくは距離などがある。認識結果情報は、例えば、自動運転車両2から確認方向を含む所定の範囲を撮影することで得られる撮影情報(つまり、画像)を、自動運転車両2が認識処理することにより取得される情報である。このような構成によれは、例えば、公道などに設置されたカメラなどから情報を取得する自動運転のシステムではなく、自動運転車両に搭載されたカメラを用いて走行制御を行う自動運転車両に適用され得る。
例えば、所定の範囲は、自動運転車両2の舵角および車速の少なくとも一方を含む自動運転車両2の走行情報を取得し、取得した走行情報に応じて決定されてもよい。このような方法によれば、自動運転車両2の走行状態に応じて、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かをより簡便にユーザUに把握させることができる。
例えば、イベント判定部146は、所定イベントを検出した場合、自動運転車両2へ、車速を含む走行情報を要求する信号を、通信部11を介して送信する。また、イベント判定部146は、自動運転車両2から受信した走行情報に含まれる車速に基づいて、所定の範囲を決定して、決定した所定の範囲を含む確認方向の撮影情報を要求する信号を、自動運転車両2へ送信する。
車両認識判定部145は、車両処理情報取得部144によって取得された認識結果情報を用いて、確認方向について自動運転車両2により行われる認識処理を判定する。具体的には、車両認識判定部145は、車両処理情報取得部144が取得した認識結果情報に確認方向の物体認識結果が含まれるか否かを判定する。例えば、車両認識判定部145は、物体認識処理が確認方向において実行されたか否か、物体認識処理が確認方向において正常に実行されたか否か、又は認識した物体の情報が確認方向に対応する認識処理範囲に存在するか否か、を判定する。例えば、車両認識判定部145は、認識処理が画像認識処理である場合、物体認識処理の動作ログから確認方向に対応する画像上の範囲についての処理の実行有無を判定してもよい。また、車両認識判定部145は、確認方向に対応する画像上の範囲内に認識に失敗した領域が存在するか否かを判定してもよい。また、車両認識判定部145は、確認方向に対応する画像上の範囲内に位置している認識された物体を囲む矩形が存在するか否かを判定してもよい。
また、車両認識判定部145は、認識結果情報を用いて、確認方向に自動運転車両2の走行に影響を与える可能性のある特定物体が存在するか否かを判定する。具体的には、車両認識判定部145は、特定物体の認識について学習した機械学習モデルを用いて、確認方向に特定物体が存在するか否かを判定する。例えば、機械学習モデルは、ディープラーニングなどのニューラルネットワークを用いた学習モデルであってよく、辞書などのルール情報を用いた学習モデルであってもよい。また、車両認識判定部145は、特定物体以外の物体を含む一般的な物体の認識について学習した機械学習モデルを用いて、確認方向に物体が存在するか否かを判定し、後述する特定物体情報154を用いて、存在すると判定された物体が特定物体であるか否かを判定してもよい。以下では、この方式を用いて車両認識判定部145の処理が行われる例を説明する。ここで、特定物体は、任意に定められてよく、例えば、歩行者、対向車など、運転の障害となる可能性のある障害物であってもよく、信号機などの安全に走行するために確認すべき対象であってもよい。
表示情報生成部142は、表示部12に表示させる情報を生成する。表示情報生成部142は、例えば、車両認識判定部145によって確認方向に特定物体が存在しないと判定された場合であって、且つ、認識結果情報に確認方向の物体認識結果が含まれると判定された場合、自動運転車両2が確認方向を認識処理済みであることを示す処理済み情報を生成する。
表示制御部143は、表示情報生成部142が生成した処理済み情報(具体的には、画像)を表示部12へ出力して、表示部12に当該情報を表示させる。表示制御部143は、例えば、表示情報生成部142によって生成された処理済み情報を表示部12へ出力する。ユーザUは、表示部12に表示された処理済み情報を確認することで、自動運転車両2が適切に自動運転のための認識処理を行っているか否かを評価する。
また、例えば、イベント判定部146が自動運転車両2の走行情報を取得している場合、走行情報を表示部12へ出力して、表示部12に表示させてもよい。このような方法によれば、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かを、ユーザUにより分かりやすく把握させることができる。
また、例えば、表示制御部143は、イベント判定部146によって所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるまで繰り返し処理済み情報を表示部12へ出力し続け、表示部12に当該処理済み情報を表示させ続けてもよい。例えば、表示制御部143は、自動運転車両2が左折する場合、左折し始めてから、つまり、イベント判定部146が所定イベントを検出してから、左折が終了するまで、つまり、イベント判定部146が当該所定イベントを検出しなくなるまで、処理済み情報を表示部12へ出力し続ける。例えば、イベント判定部146は、所定イベントが終了したことを、位置測定部13が測定した位置情報に基づいて判定してもよいし、自動運転車両2が走行を開始してからの走行距離、または、走行時間が所定の閾値を満たしたか否かにより判定してもよい。これにより、ユーザUは、自動運転車両2が走行制御を変更してから、変更した走行制御の状態を維持し続けている間、常に自動運転車両2が自動運転のための認識処理をしているか否かをユーザUに簡便に把握させることができる。
なお、表示情報生成部142は、さらに、確認方向に特定物体が存在すると車両認識判定部145によって判定された場合は、確認方向に特定物体を認識した旨を示す第1情報を含む処理済み情報を生成してもよい。一方、表示情報生成部142は、確認方向に特定物体が存在しないと判定された場合は、確認方向に特定物体を認識しなかった旨を示す第2情報を含む処理済み情報を生成してもよい。このように、表示情報生成部142は、特定物体の有無によって、異なる情報を生成して、生成した情報を、表示制御部143を用いて表示部12に表示させる。こうすることで、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かをより適切に評価することができる。
また、イベント判定部146は、車両認識判定部145によって確認方向に特定物体が存在すると判定された場合、特定物体が原因で自動運転車両2が走行の制御を決定又は変更したか否かを判定してもよい。例えば、イベント判定部146は、所定イベントを検出した場合、自動運転車両2へ、走行情報を要求する信号を、通信部11を介して送信する。また、イベント判定部146は、自動運転車両2から受信した走行情報とイベント関連情報152とに基づいて、自動運転車両2がイベント関連情報152に基づく走行を実行しているか否かを判定する。この場合、表示情報生成部142は、自動運転車両2が走行の制御を、イベント関連情報152に基づく走行の制御内容から変更したか否かの判定結果を含む情報を生成し、表示部12に表示させる。これにより、自動運転車両2によって自動運転のための認識処理が適切に行われているか否かを、ユーザUにより分かりやすく把握させることができる。
なお、自動運転車両2は、イベント関連情報152に基づく確認方向の撮影のみではなく、自動運転車両2の周囲の複数の方向を撮影している場合がある。また、複数の方向のそれぞれの方向に対して撮影して生成した画像に関して、物体の認識処理を実行している場合がある。この場合、端末1は、確認方向とは異なる方向が撮影された画像を受信してもよい。この場合、例えば、車両処理情報取得部144は、さらに、確認方向とは異なる方向(第2方向)における、自動運転車両の外部に位置する、自動運転車両2による物体の認識処理により得られる認識結果情報(第2認識結果情報)を取得してもよい。また、車両認識判定部145は、第2認識結果情報を用いて、第2方向について自動運転車両2により行われる認識処理を判定してもよい。また、表示情報生成部142は、第2方向に障害物が存在すると車両認識判定部145によって判定された場合、当該障害物が存在する第2方向を示す情報を含む処理済み情報を生成してもよい。表示制御部143は、表示情報生成部142が生成した処理済み情報を、表示部12に表示させてもよい。なお、上述の複数の方向は1つの画像上に含まれていてもよい。例えば、確認方向と第2方向とは同一画像上における異なる方向であってよい。また、認識処理の入力となる画像は、全天球カメラなどの撮影視野が広いカメラの撮影により得られるパノラマ画像であってもよい。
自動運転車両2の自動運転の走行制御は、例えば、自動運転車両2に最も近い特定物体などの、すぐに走行を停止する必要があるような、緊急性が高い情報から処理される。また、自動運転車両2から離れた物体などの、すぐに走行を停止する必要がないような、緊急性が低い情報に関しても、走行制御に影響を及ぼす情報の処理は実行する。そこで、緊急性が高い方向以外の他の方向に、自動運転車両2の走行に影響を与える障害物などの特定物体が存在するか否かを判定し、走行の制御内容を変更する必要性のある情報も出力する。こうすることで、ユーザUは、自動運転車両2によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。
また、自動運転車両2は、同一の方向(例えば、確認方向)を、異なる位置から撮影する場合がある。例えば、自動運転車両2には、自動運転車両2の進行方向側と、当該進行方向とは反対側の後方側とのそれぞれにカメラが取り付けられる場合がある。このような場合に、自動運転車両2は、例えば、自動運転車両2の左方向を撮影する場合、進行方向側と後方側とにそれぞれ取付けられたカメラで左方向を撮影する場合がある。このような場合、表示情報生成部142は、認識結果情報に基づいて、複数のカメラから得られる画像から選択された少なくとも1つの画像を処理済み情報とともに表示制御部143に提供してよい。つまり、車両処理情報取得部144は、自動運転車両2によって複数の位置から確認方向を撮影されることで生成された複数の画像を取得してもよい。この場合、表示情報生成部142は、認識結果情報に基づいて、車両処理情報取得部144によって取得された複数の画像から選択された少なくとも1つの画像を、生成した処理済み情報とともに表示制御部143に表示部12へ出力させてもよい。表示情報生成部142は、例えば、認識結果情報に基づいて、複数の画像のうち認識された物体が含まれる画像を処理済み情報とともに表示制御部143に出力してもよい。表示制御部143は、表示情報生成部142が生成した処理済み情報及び画像を、表示部12に表示させてもよい。
また、表示制御部143は、表示情報生成部142から得た処理済み情報及び画像を、所定イベントに応じた態様で表示部12に表示させてもよい。例えば、表示制御部143は、左折が検出された場合は、自動運転車両2を俯瞰するような態様で表示部12に画像及び処理済み情報を表示させてもよい。また、表示制御部143は、交差点進入が検出された場合は、自動運転車両2の中から見たような態様で表示部12に画像及び処理済み情報を表示させてもよい。これにより、自動運転車両2によって処理されている情報を、より適切にユーザUに把握させることができる。
記憶部15は、制御部14が実行する制御プログラム、自動運転車両2から受信した情報などを記憶する記憶媒体である。記憶部15は、例えば、HDD(Hard Disk Drive)、フラッシュメモリなどにより実現されるROM(Read Only Memory)、RAM(Random Access Memory)などの記憶媒体である。
記憶部15には、自動運転評価プログラム151と、イベント関連情報152と、地図情報153と、特定物体情報154とが記憶されている。
自動運転評価プログラム151は、制御部14が実行する、自動運転車両2が適切に自動運転できているか否かを判定するための制御プログラムである。
イベント関連情報152は、自動運転車両2が、所定イベントの種別と、当該所定イベントに対する確認方向とが関連付けられた情報である。なお、イベント関連情報152の詳細については、後述する。
地図情報153は、自動運転車両2が走行する道路、信号機、標識などの情報が含まれている地図を示す情報である。
特定物体情報154は、特定物体である物体を示す情報である。特定物体情報154には、例えば、歩行者、自転車などが含まれる。なお、特定物体情報154には、特定物体でない物体を示す情報が含まれてもよい。例えば、特定物体情報154には、ガードレールなどが特定物体でない物体として含まれてよい。
なお、特定物体情報154には、物体の態様が付属していてもよい。例えば、「歩行者」であっても、例えば、自動運転車両2に向かって歩行している場合と、立ち止まっている場合とで、特定物体として判定するか否かが異なっていてもよい。この場合、特定物体情報154は、「移動している」+「歩行者」、「顔の向きが正面である」+「歩行者」、又は「移動している」+「顔の向きが正面である」+「歩行者」などであってよい。また、同じ物体であっても、自動運転車両2と物体との距離に基づいて、特定物体であるか否かの判定は異なってもよい。例えば、物体は、任意に定められる基準距離よりも近い場合は特定物体であると判定され、当該基準距離よりも遠い場合は特定物体ではないと判定されてもよい。この場合、特定物体情報154は、「基準距離よりも近い」+「歩行者」などであってよい。このように、特定物体情報154は、任意に定められてよい。
図3は、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2の機能構成を示すブロック図である。
自動運転車両2は、制御プログラムに基づいて自律的に運転(つまり、走行制御)を行う移動体である。自動運転車両2は、例えば、車両である。また、自動運転車両2が行う自動運転は、人が運転しない完全自動運転であってもよく、運転の一部を人が行う自動運転であってもよい。
自動運転車両2は、通信部21と、撮影部22と、位置測定部23と、その他のセンサ24と、駆動部25と、制御部26と、記憶部27と、を備える。
通信部21は、端末1と通信する通信アダプタなどの通信インターフェースである。
撮影部22は、自動運転車両2の外部を撮影するためのカメラである。撮影部22は、自動運転車両2の外部の全方向を撮影可能に可動な1つのカメラでもよいし、自動運転車両2の前後左右の1方向をそれぞれ撮像する複数のカメラでもよい。
位置測定部23は、自動運転車両2の位置を測定する。位置測定部23は、例えば、GPS、及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)又はミリ波レーダなどの測距センサなどにより実現され、自動運転車両2および自動運転車両2からの距離が所定の範囲内に位置する物体の位置情報を取得する。さらに、位置測定部23は、自動運転車両2と自動運転車両2の周囲に位置する物体との距離を測定してもよい。
その他のセンサ24は、自動運転車両2の操舵角、車速などの走行状態を測定する各種センサである。その他のセンサ24は、例えば、舵角センサ、速度センサなどにより実現される。
駆動部25は、自動運転車両2の駆動に関するエンジン、バッテリ、ドライブトレーンなどの各種装置である。
制御部26は、撮影部22が撮影することで取得した情報、位置測定部23が取得した情報、記憶部27に記憶されている地図情報271および経路情報273に基づいて、駆動部25を制御することで自動運転車両2の走行を制御する制御装置である。制御部26は、例えば、CPUにより実現される。制御部26は、機能的には、通信制御部261と、走行制御部262と、物体認識部263と、撮影情報取得部264と、認識物体情報取得部265と、を備える。
通信制御部261は、通信部21を制御することで、端末1と自動運転車両2との通信を制御する。
走行制御部262は、地図情報271、経路情報273、及び物体認識部263から得られる認識結果情報に基づいて駆動部25を制御することで、自動運転車両2の走行を制御する。
撮影情報取得部264は、撮影部22を制御することで、自動運転車両2の外部の画像を撮影情報として取得する。
物体認識部263は、撮影情報取得部264が取得した撮影情報である画像を、物体認識プログラム274に基づいて解析することで、当該画像に含まれている物体を認識する。物体認識部263は、認識した物体の情報などの認識結果情報を生成する。生成された認識結果情報は、記憶部27に記憶される。
認識物体情報取得部265は、物体認識部263により生成された認識結果情報を、通信部21を介して端末1へ送信する。例えば、認識物体情報取得部265は、端末1から認識結果情報の要求が受信されると、記憶部27から認識結果情報を取得し、通信制御部261に提供する。認識結果情報は、通信制御部261及び通信部21を介して端末1へ送信される。
記憶部27は、制御部26が実行する制御プログラム、端末1から受信した情報などを記憶する記憶媒体である。記憶部27は、例えば、HDD、フラッシュメモリなどにより実現されるROM、RAMなどの記憶媒体である。
記憶部27には、地図情報271と、自動運転プログラム272と、経路情報273と、物体認識プログラム274とが記憶されている。
地図情報271は、自動運転車両2の走行制御に用いられる地図情報である。地図情報271は、例えば、図2に示す地図情報153と同様の情報を含んでもよい。
自動運転プログラム272は、走行制御部262が実行するプログラムであり、自動運転車両2の自動運転を制御するための制御プログラムである。
経路情報273は、自動運転車両2が走行する走行経路を示す情報である。
物体認識プログラム274は、物体認識部263が実行するプログラムであり、物体を認識するための制御プログラムである。
[処理手順]
続いて、本開示の実施の形態に係る端末1および自動運転車両2の処理手順について説明する。
なお、以下では、本開示の実施の形態に係る端末1の処理手順について説明する。
図4は、本開示の実施の形態における端末1が実行する処理手順を示すフローチャートである。
まず、ユーザUは、端末1を携帯して、自動運転車両2に搭乗する。自動運転車両2は、自動運転を開始する。
ここで、端末1は、例えば、位置測定部13が取得した端末1の位置情報と、地図情報153又は経路情報と、イベント関連情報152とに基づいて、所定イベントを検出する(ステップS1)。具体的には、ステップS1では、端末1は、位置測定部13が取得した端末1の位置情報が示す位置の種別を地図情報153から取得し、取得された位置の種別がイベント関連情報152に示される位置の種別と合致するか否かを判定する。また、端末1は、経路情報の示す経路における位置測定部13が取得した端末1の位置情報が示す位置以降の経路から自動運転車両2の走行制御の変更を判定し、判定された変更後の走行制御がイベント関連情報152に示される走行制御と合致するか否かを判定する。
なお、自動運転車両2の走行する経路が予め決定された固定ルートである場合は、走行距離から所定イベントのタイミングを判定することができるため、端末1は、例えば、位置測定部13が取得した端末1の位置情報に基づいて、自動運転車両2の走行距離を算出し、算出した走行距離から、所定イベントが発生したか否かを判定してもよい。
次に、端末1は、イベント関連情報152から、ステップS1で検知した所定イベントに関連付けられた確認方向を取得する(ステップS2)。
次に、端末1は、自動運転車両2に確認方向を含む撮影情報と認識結果情報とを要求する信号を送信する(ステップS3)。なお、確認方向が含まれる撮影情報が取得できれば、自動運転車両2への要求は、撮影情報を、確認方向を含む撮影情報として指定する要求でなく、単なる撮影情報の要求であってもよい。
次に、端末1は、自動運転車両2から撮影情報と認識結果情報とを受信し、受信した認識結果情報に、確認方向の物体認識結果が含まれているか否かを判定する(ステップS4)。
端末1は、自動運転車両2から受信した認識結果情報に、確認方向の物体認識結果が含まれていると判定した場合(ステップS4でYes)、受信した認識結果情報を用いて、確認方向に特定物体が存在するか否かを判定する(ステップS5)。
端末1は、特定物体が存在すると判定した場合(ステップS5でYes)、撮影情報に特定物体を強調する強調情報を付加する(ステップS6)。
次に、端末1は、強調情報が付加された撮影情報と、確認方向に特定物体がある旨を示す情報(第1情報)すなわち処理済み情報とを含む表示情報を生成する(ステップS7)。
一方、端末1は、自動運転車両2から受信した情報に、確認方向の認識結果情報が含まれていないと判定した場合(ステップS4でNo)、撮影情報と、自動運転車両2において確認方向を認識処理できていないことを示す未処理情報とを含む表示情報を生成する(ステップS8)。このような方法によれば、自動運転車両2によって適切に自動運転されていないことを、適切にユーザUに把握させることができる。
また、端末1は、特定物体が存在しないと判定した場合(ステップS5でNo)、撮影情報と、確認方向に障害物がない旨を示す情報(第2情報)すなわち処理済み情報とを含む表示情報を生成する(ステップS9)。
端末1は、ステップS7、ステップS8またはステップS9の次に、ユーザUが、自動運転車両2が適切に認識処理をできているか否かの評価結果を入力するためのチェックボックスを表示情報に付与する(ステップS10)。
次に、端末1は、ステップS10で生成した表示情報を出力する(ステップS11)。
以上のような方法によれば、自動運転車両2の自動運転するための認識処理が適切に行われているか否かを評価するユーザUに、自動運転車両2の自動運転するための認識処理が適切に行われているか否かを出力できる。そのため、以上のような方法によれば、自動運転車両2の運転に関する認識処理が適切に行われているか否かをユーザが把握することができる。
図5は、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2が実行する処理手順を示すフローチャートである。
まず、ユーザUは、端末1を携帯して、自動運転車両2に搭乗する。自動運転車両2は、自動運転を開始する。
自動運転車両2は、端末1から確認方向の撮影情報と、認識結果情報との要求を示す信号を受信したとする(ステップS21)。つまり、ステップS21は、図4に示すステップS3の次に行われるステップである。
次に、自動運転車両2は、確認方向の撮影情報を取得する(ステップS22)。具体的には、自動運転車両2は、確認方向を撮影している撮影部22を動作させて画像を撮影情報として取得する。
次に、自動運転車両2は、ステップS22で取得した撮影情報を用いて(具体的には、撮影情報を用いて認識処理を行うことで)、撮影情報に含まれる物体を示す情報である認識結果情報を取得する(ステップS23)。
次に、自動運転車両2は、ステップS22で取得した撮影情報と、ステップS23で取得した認識結果情報とを端末1に送信する(ステップS24)。なお、撮影情報及び認識結果情報は要求の有無に関わらず、自動運転車両2の自動運転において取得されているので、要求に応じて既に取得済みの撮影情報及び認識結果情報が送信されてもよい。
ステップS24の次に、端末1は、図4に示すステップS4を実行する。
図6Aは、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2を含む撮影情報である画像の一例を示す図である。図6Bは、実施の形態における情報処理システムの一例である端末1と通信する自動運転車両2と、自動運転車両2から物体までの距離の一例を説明するための図である。つまり、図6Aは、撮影情報の一例を示す図であり、図6Bは、認識結果情報の一例を示す図である。
自動運転車両2は、撮影情報として、例えば、自動運転車両2の周囲を撮影することで得られる撮影情報の一例である撮影画像31を端末1に送信する。
また、自動運転車両2は、認識処理によって、自動運転車両2と物体との距離及び物体の種別を認識し、認識された距離及び種別を認識結果情報として端末1に送信する。図6Bには、図6Aに示すように、自動運転車両2を上方から見た場合の自動運転車両2の中心を原点とし、原点を通過し且つ自動運転車両2の進行方向をY軸方向とし、Y軸方向に直交し且つ原点を通過する方向をX軸方向とした場合における、物体の位置(つまり、座標)を示している。
図7は、イベント関連情報152の一例を示す図である。
端末1の記憶部15には、図7に示すようなイベント関連情報152が記憶されている。
イベント関連情報152には、左折、右折などの自動運転車両2に発生する所定イベントのイベント種別と、当該所定イベントに対応する確認方向とが含まれている。端末1は、図7に示すようなイベント関連情報152を用いて、所定イベントを検出した際に、検出した所定イベントの種別に対応する確認方向を示す方向情報を取得する。
図8Aは、地図情報271および経路情報273の一例を示す図である。図8Bは、図8Aに示す地図情報271の各地点の説明をするための図である。
自動運転車両2は、図8Aに示すような地図情報271および経路情報273に基づいて、走行を制御する。また、自動運転車両2は、例えば、図8Aに示すA地点に到着した場合である交差点に進入する際には、図8Bに示すイベント種別のうちの「交差点進入」の所定イベントが発生したとして、図7に示すように自動運転車両2の左方向と右方向とを少なくとも撮影し、撮影することで得られた画像を用いた認識処理の結果に基づいて自動運転を行う。その際に、撮影情報及び認識結果情報が生成される。
端末1は、イベント関連情報152に基づいて、所定イベント(図7に示すイベント種別)に関連する確認方向を含む方向が撮影されて取得される撮影情報と、撮影情報を用いた認識処理により取得される認識結果情報とを自動運転車両2から取得して、自動運転車両2が、検出された所定イベントにおいて実行すべき認識処理を問題なく実行しているか否かを判定して、判定結果に応じて画像を表示する。ユーザUは、当該画像を確認することで、自動運転車両2の自動運転に問題があるか否かを評価する。
[表示情報]
続いて、本開示の実施の形態に係る端末1が出力する表示情報について説明する。なお、以下では、端末1が出力する表示情報(つまり、図4のステップS11で端末1が出力した表示情報)の具体例として、端末1の表示部12に表示される画像であるGUI(Graphical User Interface)について説明する。
<第1例>
図9Aは、実施の形態における端末1に表示される画像の第1例を示す図である。画像3は、表示情報の一例である。
画像3には、自動運転車両2が撮影した撮影画像31と、安全確認画像33と、チェックボックス34とが含まれている。安全確認画像33は、自動運転車両2が確認方向に特定物体を認識した旨を示す第1情報を示す画像の一例である。
撮影画像31は、端末1が自動運転車両2から取得した撮影情報を含む画像である。具体的には、撮影画像31は、複数の撮像部22によって撮影されたそれぞれの画像の合成画像であり、当該合成画像に自動運転車両2の俯瞰画像が重畳されている。図9Aには、撮影画像31に、自動運転車両2と、物体32とが含まれている場合を例示している。
安全確認画像33は、端末1が自動運転車両2から取得した認識結果情報に確認方向の認識結果情報が含まれているか否か、および、認識結果情報を用いた特定物体が存在するか否かの判定結果を含む画像である。図9Aは、確認方向および当該確認方向の認識結果情報が含まれているか否かと、物体を認識したか否かを示す情報とが、「左後方OK:移動体あり」のように安全確認画像33として表示されている例を示している。
ユーザUは、安全確認画像33を確認することで、自動運転車両2が適切に自動運転するための認識処理をしたか否かを把握し、チェックボックス34を操作することで、自動運転車両2が、正しく物体32の認識処理をしたか否かを評価する。
例えば、端末1は、自動運転車両2から、取得した認識結果情報に確認方向の認識結果情報が含まれる場合には、安全確認画像33として、図9Aに示すように、「左後方OK:移動体あり」を表示し、確認方向の認識結果情報が含まれていない場合には、安全確認画像33として、「NG」のような未処理情報を示す画像を表示する。これにより、ユーザUは、安全確認画像33を確認することで、自動運転車両2が、適切に認識処理をしているか否を把握できる。つまり、ユーザUは、自動運転車両2が、適切に自動運転できているか否かを簡便に把握できる。
チェックボックス34には、例えば、Good、Badなどの表示が含まれている。ユーザUは、物体32が表示されており、且つ、安全確認画像33に「左後方OK:移動体あり」などの表示を確認して、所定イベントに対して自動運転車両2が確認すべき確認方向の認識処理を正しく実行しているか否かを評価し、例えば、正しいと評価すればチェックボックス34の「Good」を選択し、正しくないと評価すれば「Bad」を選択する。
このような操作を所定イベントごとに繰り返すことで、ユーザUは、簡便に、自動運転車両2が適切に自動運転するための認識処理を行えているかどうかを把握できる。
<第2例>
図9Bは、実施の形態における端末1に表示される画像の第2例を示す図である。画像30は、表示情報の一例である。
画像30には、自動運転車両2が撮影した撮影画像31と、安全確認画像331と、チェックボックス34とが含まれている。安全確認画像331は、自動運転車両2が確認方向に特定物体を認識しなかった旨を示す第2情報を示す画像の一例である。
撮影画像31には、図9Aに示す画像3とは異なり、物体32が含まれていない。この場合、端末1は、自動運転車両2から認識結果情報を取得したときであって、認識結果情報を用いて特定物体が存在しないと判定したとき、画像30に、特定物体が含まれていないことを示す第2情報を示す安全確認画像331を表示させる。例えば、安全確認画像331には、「左後方OK:移動体なし」と表示される。
ユーザUは、撮影画像31に物体32が表示されていない場合においても、「左後方OK:移動体なし」などのように表示される安全確認画像331を確認することで、自動運転車両2が、適切に自動運転するための認識処理をしていることを把握できる。
<第3例>
図10は、実施の形態における端末1に表示される画像の第3例を示す図である。画像300は、表示情報の一例である。
図10に示す画像300には、図9Aに示す画像3に、さらに、確認エリア35と、強調情報36と、進行方向情報37と、走行制御画像332とが含まれる。走行制御画像332は、自動運転車両2が、走行制御を予め定められた制御内容から変更した旨を示す画像の一例である。
確認エリア35は、確認方向に対応する撮影画像31上の範囲を示す画像であり、撮影画像31に重畳される。こうすることで、ユーザUは、自動運転車両2がどの方向および範囲に対して物体の認識処理を実行したかを簡便に把握できる。
強調情報36は、撮影画像31中の物体32の位置を分かりやすくするために撮影画像31に重畳された画像である。図10には、強調情報36として、撮影画像31中の物体32の周囲を囲む画像が示されている。こうすることで、撮影画像31に物体32が含まれているか否かがユーザUにとって確認しやすくなる。
図11Aは、実施の形態における端末1に表示される物体32の強調情報36の第1例を示す図である。図11Bは、実施の形態における端末1に表示される物体32の強調情報361の第2例を示す図である。
強調情報は、自動運転車両2の走行制御に影響を与えるか否かに応じて異なる態様で表示される。例えば、図11Aに示す強調情報36の第1例は、物体32が移動している場合の表示の一例であり、図11Bに示す強調情報361の第2例は、物体32が移動していない場合の表示の一例である。
自動運転では、例えば、物体32が自動運転車両2に向かって移動している場合と、物体32が停止している場合とで、走行制御の内容を変更するか否かが異なる場合がある。そのため、自動運転車両2が、走行の制御を変更する場合、つまり、物体32が特定物体である場合(例えば、図11A)と、変更しない場合、つまり、物体32が特定物体ではない場合(例えば、図11B)とで、強調情報36または強調情報361のように、表示方法を変更することで、ユーザUは、物体32が特定物体であるか否かを一目で把握することができる。
なお、図11Aには、強調情報36を実線で示し、図11Bには、強調情報361を破線で示したが、強調情報36と、強調情報361との違いがユーザUに識別できればよく、例えば、強調情報36と強調情報361とは、色が異なっていてもよい。
また、端末1は、例えば、図10に示す進行方向情報37のように、物体32が移動している場合には、物体32が移動している方向を、例えば、矢印のように表示してもよい。
また、端末1は、図10に示す走行制御画像332のように、自動運転車両2の走行制御の内容を示す走行情報を表示してもよい。例えば、所定イベントから、自動運転車両2が実行する走行は、例えば、左折など、予め定められている。ここで、自動運転車両2が、物体32を特定物体と判定した場合、停止するなど、自動運転車両2が走行制御の内容を変更する場合がある。そこで、端末1は、自動運転車両2の走行制御の内容を示す走行情報を取得し、取得した走行情報が所定イベントにおいて実行する走行制御の内容と一致するか否かを判定し、判定結果を走行制御画像332のように表示してもよい。
これらの表示により、自動運転車両2の走行制御の内容および走行制御の変化を、ユーザUは、より簡便に把握することができる。
<第4例>
図12は、実施の形態における端末1に表示される画像の第4例を示す図である。画像4は、表示情報の一例である。なお、図12には、例えば、図9Aに示す安全確認画像33と同様に、認識結果情報が表示されてもよいが、図示を省略している。
図12に示す画像4には、画像3に対してさらに、確認方向(第1方向)とは異なる方向(第2方向)が撮影されることで得られた撮影画像311が含まれている。
撮影画像311は、例えば、確認方向(第1方向)を含む撮影画像31に含まれない方向(第2方向)を撮影して得られる画像である。このように、端末1は、確認方向を撮影して得られる画像だけでなく確認方向よりは優先度の低い第2方向を撮影して得られる画像も自動運転車両2から取得する。すなわち、自動運転車両2は、確認方向を撮影して得られる画像と第2方向を撮影して得られる画像を含む撮影情報および認識結果情報を端末1に送信する。端末1は、自動運転車両2から取得された認識結果情報を用いて第2方向に特定物体を自動運転車両2が認識したか否かを判定する。第2方向に特定物体を認識したと判定された場合、端末1は、自動運転車両2の走行制御が変化したかを判定する。走行制御が変化したと判定された場合、端末1は、第2方向を含む撮影情報と第2方向に特定物体を認識した旨を示す情報を表示情報に含めて、例えば、図12に示す画像4のように表示する。なお、走行制御の変化は、自動運転車両2から取得される走行制御の内容を示す情報を用いて判定されてもよく、自動運転車両2から取得される撮影情報若しくは位置情報等から判定されてもよい。
このように、確認方向とは異なる方向で検出した特定物体が原因で、走行制御に変化が生じた場合には、端末1は、当該異なる方向の画像を表示してもよい。例えば、所定イベントが左折である場合には、端末1は、自動運転車両2の左方向の画像を表示する。さらに、端末1は、例えば、自動運転車両2の右方向の特定物体を自動運転車両2が認識した認識結果情報を取得し、自動運転車両2の走行制御に変化があったと判定された場合には、自動運転車両2の右方向の画像も表示する。こうすることで、ユーザUは、確認方向以外についても、自動運転車両2によって自動運転の認識処理が適切に行われているか否かを、より適切に把握することができる。また、ユーザUは、所定イベントにしたがった走行制御と異なる走行制御が行われた理由を知ることができる。
なお、確認エリア35と同様に、確認エリア351は、撮影画像311にも第2方向に対応する撮影画像311上の範囲を示す画像であり、撮影画像311に重畳されてもよい。また、走行制御の変化の有無にかかわらず、特定物体が認識された第2方向の画像が表示されてもよい。
<第5例>
図13は、実施の形態における端末1に表示される画像の第5例を示す図である。画像40は、表示情報の一例である。
図9A~図12は、複数の撮影部22によって撮影された画像に基づき生成された自動運転車両2の全周の撮影画像を端末1が表示する例を示したが、端末1は、撮影画像312のように、確認方向を示す画像のみを表示してもよい。端末1は、例えば、自動運転車両2から、自動運転車両2の全周の撮影画像を受信した場合に、認識結果情報に基づいて、確認方向を含む画像の範囲を選択して、表示してもよい。具体的には、端末1は、自動運転車両2から取得した画像を所定イベントに応じた態様で表示する。例えば、端末1は、発生したイベントのイベント種別が左折である場合、自動運転車両2の全周の撮影画像を表示し、発生したイベントのイベント種別が交差点進入である場合、自動運転車両2の前方の撮影画像を表示する。
こうすることで、ユーザUは、自動運転車両2によって確認方向の認識処理が適切に実行されたか否かをより簡便に把握することができる。
また、例えば、図10に示す確認エリア35と同様に、確認エリア352は、撮影画像312にも確認方向に対応する撮影画像312上の範囲を示す画像であり、撮影画像312に重畳されてもよい。
ここで、撮影画像312のような画像を端末1が表示した場合、ユーザUは、確認画像312から奥行きを把握しづらい。つまり、ユーザUは、撮影画像312を確認することで、物体32が存在するか否かは把握できるが、物体32と自動運転車両2との距離物体32の大きさから推定することになるので把握しづらい。そこで、端末1は、物体32と自動運転車両2との距離に応じて、確認エリア352の表示の態様を変更してもよい。例えば、端末1は、物体32と自動運転車両2との距離が、予め任意に定められた所定距離以上であれば、確認エリア352を黒色で表示し、所定距離未満であれば、確認エリア352を赤色で表示する。また、例えば、端末1は、物体32と自動運転車両2との距離が、予め任意に定められた所定距離未満であれば、撮影画像312中の物体32を点滅して表示する等、物体32の表示の態様を変更してもよい。
このような構成によれば、ユーザUは、物体32の位置が、自動運転車両2からどの程度離れているかを把握することが容易となる。そのため、ユーザUは、自動運転車両2の走行制御が適切に行われているか否かを把握することができる。
また、例えば、図9Aに示す安全確認画像33と同様に、端末1は、安全確認画像333に示す「前方OK:移動体あり」のように、自動運転車両2から取得した認識結果情報を用いた特定物体が存在するか否かの判定結果を含む画像を表示する。
(その他の実施の形態)
以上、本開示の一つまたは複数の態様に係るに情報処理方法または情報処理システムついて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
例えば、上記実施の形態において、ユーザUが自動運転車両2の認識結果とそれに基づく走行制御に対する評価を行う例を説明したが、端末1が当該評価を行ってもよい。例えば、端末1は、自動運転車両2から取得された認識結果情報に確認方向の物体認識結果が含まれると判定された場合、ポイントを加算し、走行終了後のポイントを集計して評価としてスコアを算出してもよい。また、自動運転車両2から取得された認識結果情報に確認方向の物体認識結果が含まれないと判定された場合、ポイントを減算してもよい。これにより、自動運転車両2の走行を自動的に評価することができる。
また、例えば、上記実施の形態において、端末1等の構成要素の全部または一部は、専用のハードウェアで構成されてもよく、あるいは、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサ等のプログラム実行部が、HDDまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、自動運転車両2についての所定イベントを検出するためのイベント関連情報152を取得し、イベント関連情報152を用いて所定イベントを検出したか否かを判定し、所定イベントを検出したと判定された場合、所定イベントに関連付けられた第1方向を示す方向情報を取得し、自動運転車両2の外部に位置する物体の、自動運転車両2による認識処理により得られる第1認識結果情報を取得し、第1認識結果情報に第1方向の物体認識結果が含まれるか否かを判定し、第1認識結果情報を用いて、第1方向に自動運転車両2の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、第1方向に特定物体が存在しないと判定された場合であって、且つ、第1認識結果情報に第1方向の物体認識結果が含まれると判定された場合、自動運転車両2が第1方向を認識処理済みであることを示す処理済み情報を生成し、生成された処理済み情報を出力する処理を実行させる。
また、端末1等の構成要素は、1つまたは複数の電子回路で構成されてもよい。1つまたは複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
1つまたは複数の電子回路には、例えば、半導体装置、IC(Integrated Circuit)またはLSI(Large Scale Integration)等が含まれてもよい。ICまたはLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、ICまたはLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、または、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGA(Field Programmable Gate Array)も同じ目的で使うことができる。
また、本開示の全般的または具体的な態様は、システム、装置、方法、集積回路またはコンピュータプログラムで実現されてもよい。あるいは、当該コンピュータプログラムが記憶された光学ディスク、HDDもしくは半導体メモリ等のコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本開示に含まれる。
本開示の実施の形態に係る情報処理方法および情報処理システムは、車両の自動運転が適切に行われているか否かをユーザに適切に放置する装置またはシステムに利用可能である。
1 端末
11、21 通信部
12 表示部
13、23 位置測定部
14、26 制御部
141、261 通信制御部
142 表示情報生成部
143 表示制御部
144 車両処理情報取得部
145 車両認識判定部
146 イベント判定部
147 方向情報取得部
15、27 記憶部
151 自動運転評価プログラム
152 イベント関連情報
153、271 地図情報
154 特定物体情報
2 自動運転車両
22 撮影部
24 その他のセンサ
25 駆動部
262 走行制御部
263 物体認識部
264 撮影情報取得部
265 認識物体情報取得部
272 自動運転プログラム
273 経路情報
274 物体認識プログラム
3、30、300、4、40 画像
31、311、312 撮影画像
32 物体
33、331、333 安全確認画像
332 走行制御画像
34 チェックボックス
35、351、352 確認エリア
36、361 強調情報
37 進行方向情報
U ユーザ

Claims (12)

  1. プロセッサを用いて、
    車両についての所定イベントを検出するためのイベント関連情報を取得し、
    前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定し、
    前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得し、
    前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得し、
    前記第1認識結果情報に前記第1方向の物体認識結果が含まれるか否かを判定し、
    前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定し、
    前記第1方向に前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果情報に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成し、
    生成された前記処理済み情報を表示部に表示させる
    情報処理方法。
  2. さらに、
    前記第1方向に前記特定物体が存在すると判定された場合は、前記第1方向に前記特定物体を認識した旨を示す第1情報を含む前記処理済み情報を生成し、
    前記第1方向に前記特定物体が存在しないと判定された場合は、前記第1方向に前記特定物体を認識しなかった旨を示す第2情報を含む前記処理済み情報を生成する、
    請求項1に記載の情報処理方法。
  3. 前記第1認識結果情報は、前記車両から前記第1方向を含む所定の範囲を撮影することで得られる画像を前記認識処理することにより取得される情報である、
    請求項1又は2に記載の情報処理方法。
  4. さらに、
    前記車両の舵角および車速の少なくとも一方を含む前記車両の走行情報を取得し、
    前記所定の範囲は、前記車両の前記走行情報に応じて決定される、
    請求項3に記載の情報処理方法。
  5. さらに、取得した前記車両の前記走行情報を前記処理済み情報とともに前記表示部に表示させる
    請求項4に記載の情報処理方法。
  6. 前記所定イベントが検出された場合、さらに、検出された当該所定イベントが検出されなくなるか、又は所定の時間が経過するまで繰り返し前記処理済み情報を前記表示部に表示させる
    請求項1~5のいずれか1項に記載の情報処理方法。
  7. さらに、前記第1方向に前記特定物体が存在すると判定された場合、前記特定物体が原因で前記車両が走行の制御を決定又は変更したか否かを判定し、
    前記車両が走行の制御を決定又は変更したか否かの判定結果を含む前記第1情報を生成する、
    請求項2に記載の情報処理方法。
  8. さらに、
    前記第1認識結果情報を用いて、前記第1方向とは異なる第2方向に、前記特定物体が存在するか否かを判定し、
    前記第2方向に前記特定物体が存在すると判定された場合、前記第2方向を示す情報を含む前記処理済み情報を生成する、
    請求項1~7のいずれか1項に記載の情報処理方法。
  9. さらに、
    前記車両に搭載される撮影装置によって前記第1方向を撮影されることで生成された画像を取得し、
    取得した前記画像を前記処理済み情報とともに、検出された前記所定イベントに応じた態様で前記表示部に表示させる
    請求項1~8のいずれか1項に記載の情報処理方法。
  10. さらに、
    前記第1認識結果情報に前記第1方向の物体認識結果が含まれていないと判定された場合、前記車両が前記第1方向を認識処理できていないことを示す未処理情報を生成し、
    生成された前記未処理情報を前記表示部に表示させる
    請求項1~9のいずれか1項に記載の情報処理方法。
  11. 請求項1~10のいずれか1項に記載の情報処理方法をコンピュータに実行させるための、
    プログラム。
  12. 車両についての所定イベントを検出するためのイベント関連情報を取得し、前記イベント関連情報を用いて前記所定イベントを検出したか否かを判定するイベント判定部と、
    前記イベント判定部によって前記所定イベントを検出したと判定された場合、前記所定イベントに関連付けられた第1方向を示す方向情報を取得する方向情報取得部と、
    前記車両の外部に位置する物体の、前記車両による認識処理により得られる第1認識結果情報を取得する車両処理情報取得部と、
    前記第1認識結果情報に前記第1方向の物体認識結果含まれるか否かを判定し、前記第1認識結果情報を用いて、前記第1方向に前記車両の走行に影響を与える可能性のある特定物体が存在するか否かを判定する車両認識判定部と、
    前記車両認識判定部によって前記特定物体が存在しないと判定された場合であって、且つ、前記第1認識結果に前記第1方向の物体認識結果が含まれると判定された場合、前記車両が前記第1方向を認識処理済みであることを示す処理済み情報を生成する表示情報生成部と、
    前記表示情報生成部によって生成された前記処理済み情報を表示に表示させる表示制御部と、を備える、
    情報処理システム。
JP2018068258A 2017-08-08 2018-03-30 情報処理方法、情報処理システム、および、プログラム Active JP7030000B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/028,525 US11100729B2 (en) 2017-08-08 2018-07-06 Information processing method, information processing system, and program
EP18182530.8A EP3441839B1 (en) 2017-08-08 2018-07-09 Information processing method and information processing system
CN201810868567.9A CN109383519B (zh) 2017-08-08 2018-08-02 信息处理方法、信息处理系统和记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762542527P 2017-08-08 2017-08-08
US62/542,527 2017-08-08

Publications (2)

Publication Number Publication Date
JP2019031264A JP2019031264A (ja) 2019-02-28
JP7030000B2 true JP7030000B2 (ja) 2022-03-04

Family

ID=65522957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068258A Active JP7030000B2 (ja) 2017-08-08 2018-03-30 情報処理方法、情報処理システム、および、プログラム

Country Status (1)

Country Link
JP (1) JP7030000B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354686B2 (ja) * 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126002A1 (en) 2001-01-15 2002-09-12 1138037 Ontario Ltd. ("Alirt") Detecting device and method of using same
US20030236605A1 (en) 2002-06-19 2003-12-25 Nissan Motor Co., Ltd. Vehicle obstacle detecting apparatus
JP2015206655A (ja) 2014-04-18 2015-11-19 株式会社デンソー 自動運転計画表示装置および自動運転計画表示装置用のプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126002A1 (en) 2001-01-15 2002-09-12 1138037 Ontario Ltd. ("Alirt") Detecting device and method of using same
US20030236605A1 (en) 2002-06-19 2003-12-25 Nissan Motor Co., Ltd. Vehicle obstacle detecting apparatus
JP2015206655A (ja) 2014-04-18 2015-11-19 株式会社デンソー 自動運転計画表示装置および自動運転計画表示装置用のプログラム

Also Published As

Publication number Publication date
JP2019031264A (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
US10753758B2 (en) Top-down refinement in lane marking navigation
JP6942712B2 (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
CN109383519B (zh) 信息处理方法、信息处理系统和记录介质
US10795370B2 (en) Travel assist apparatus
JP6284644B2 (ja) 自動二輪車のための情報提供装置及びプログラム
US20210073557A1 (en) Systems and methods for augmenting upright object detection
US10864906B2 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
EP4187523A1 (en) Systems and methods for curb detection and pedestrian hazard assessment
US20150103159A1 (en) Forward-facing multi-imaging system for navigating a vehicle
JP6509361B2 (ja) 駐車支援装置及び駐車支援方法
WO2019148819A1 (zh) 辅助车辆行驶的方法及装置
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP7030000B2 (ja) 情報処理方法、情報処理システム、および、プログラム
CN109823344B (zh) 驾驶提示方法与系统
JP6331232B2 (ja) 車両用制限速度検出装置
JP6288204B1 (ja) 車両用制限速度検出装置
JP2019205032A (ja) 車載用故障検出装置、及び故障検出方法
JP6288205B1 (ja) 車両用制限速度検出装置
JP2024047487A (ja) 車載装置、車載装置の動作方法、およびプログラム
JP2013247470A (ja) 車両側方画像出力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7030000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150