JP2018520408A - ユニバーサル自律型ロボット運転システム - Google Patents

ユニバーサル自律型ロボット運転システム Download PDF

Info

Publication number
JP2018520408A
JP2018520408A JP2017557308A JP2017557308A JP2018520408A JP 2018520408 A JP2018520408 A JP 2018520408A JP 2017557308 A JP2017557308 A JP 2017557308A JP 2017557308 A JP2017557308 A JP 2017557308A JP 2018520408 A JP2018520408 A JP 2018520408A
Authority
JP
Japan
Prior art keywords
vehicle
data
image data
imaging
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017557308A
Other languages
English (en)
Other versions
JP7023116B2 (ja
Inventor
ガッターマン,ヒューゴ
イェヒエル,オデッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BGNegev Technologies And Applications Ltd
BG Negev Technologies and Applications Ltd
Original Assignee
BGNegev Technologies And Applications Ltd
BG Negev Technologies and Applications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BGNegev Technologies And Applications Ltd, BG Negev Technologies and Applications Ltd filed Critical BGNegev Technologies And Applications Ltd
Publication of JP2018520408A publication Critical patent/JP2018520408A/ja
Application granted granted Critical
Publication of JP7023116B2 publication Critical patent/JP7023116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

車両を目的地まで走行させるためのロボットシステムおよび関連する方法が開示される。ロボットシステムは、車両の内部に配置されるように構成され、車両の内部の少なくとも一部の画像データおよび車両の外部環境の画像データを取得するための撮像システムと、当該撮像システムが取得した画像データを処理するための制御システムとを具える。制御システムは、車両状態インジケータの車両の画像データの少なくとも一部の画像データを識別し、そこから少なくとも車両状態データを特定するように構成される。制御システムは、外部環境の画像データから道路状況データを特定し、道路に沿って車両を運転するための制御命令を生成するために車両状態データと道路状況データを分析するように適合される。
【選択図】図1

Description

本発明は、一般に、ロボット運転システムの分野に属する。
自動車の運転は比較的退屈で、反復的で、時間がかかり(KPMGの「自動運転車両:次の革命」2012年の報告書によると平均的な通勤者で毎年約250時間)、(マンパワーの面で)高価なタスクである。自動車事故の約93%は人的ミスによるものであり、したがって自動車の運転は危険なタスクでもある。自動車事故は、毎年数千の犠牲者を出しており、入院、治療とケア、および車の損害に関する膨大な費用が発生する(KPMGの報告書によれば、毎年数千億ドル)。
ロボット運転システムが、人間の運転者を、例えば、車両性能の試験、軍事作業のためといった様々な異なるタスクおよび用途に置き換えるために開発されている。これまでに提案された解決法は、通常は実施するための費用が高く、陸上車両の運用する許可/認可を付与することは非常に困難である。
いくつかの自動運転システムが特許文献で知られており、例えば、米国特許第4,742,720号、第5,172,589号、第5,270,628号、第5,363,027号、第5,394,743号、第5,816,106号、第5,821,718号、第7,628,239号および第8,051,936号がある。しかしながら、これらの自動運転システムは、所定の軌道/経路に沿って車両を駆動するために、人間のオペレータがシステムに制御および指示を与えることが必要であり、どの土地/車両でも使用できる汎用プラットフォームを提供するようには設計されていない。
様々な地形/車両の種類/モデルに機械的に連結して、目的地に向かって車両を運転するために、そのアクチュエータ(ステアリングホイール、ペダルおよび/またはレバー)を操作することができるという意味で、汎用の自動運転システムが必要であった。また、自律的に車両を操作し、車両の制御および/またはコンピュータ化されたシステムとデータをやりとりすることなく、車両の操作タスクに人間が介入することなく所望の目的地に向けて運転する自動運転システムが求められていた。
本発明は、重量が小さく、安価で、組み立て容易で、取り付けが容易な、陸上車両を操作して所望の目的地まで運転するように構成され且つ動作可能な汎用自律ロボットシステムを提供する。本発明のロボットシステムは、様々な陸上車両(例えば、セダン、バン、トラック、トラクターなど)の運転席に固定されるように構成され、且つ操作可能であり、車両のペダル、ステアリングホイールおよび/またはレバー(以下、アクチュエータと総称する)に機械的に連結され、車両の内部およびその外部周辺の画像データを連続的に取得して解析する。このロボットシステムは、取得された画像データを処理し、そこから車両および道路状況データを特定し、特定された車両および道路状況データに基づいて、制御オペレータ/命令を決定する。次に、システムは制御オペレータ/命令を、車両の1以上のアクチュエータの状態を変更するため、したがって目的地に向かって所定のルートに沿って車両を安全に運転するために使用する。
本明細書で使用されるアクチュエータという用語は、例えば、限定しないが、ホイールステアリングシステム、ギアシステム、加速システム、ブレーキシステム、クラッチシステム、エンジン点火システム、車両照明システム、ワイパーシステム、ハンドブレーキシステムなどの車両の様々なシステムを操作するのに用いられる機械的制御(例えば、ステアリングホイール、ステアリングホイール、ステアリングホイールなど)をいう。
本明細書で使用される状態インジケータという用語は、一般に、車両の制御パネルに提供されるような車両の状態を示す手段(例えば、速度計、エンジン温度インジケータ、エンジン角速度インジケータ、燃料レベルインジケータ、バッテリ充電レベルインジケータなど)をいう。
道路状況データは、車両の外部環境の取得画像において識別された外部の障害物(例えば、近辺の車両/自転車、歩行者、安全地帯など)および/または交通規制標識/照明を示してもよい。道路状況データは、他のセンサによって取得された、および/または無線で受信された(例えば、無線インターネット通信を介して)、例えば限定しないが、交通負荷、気象条件、速度制限、特定の時間帯に特定の道路区間で適用可能な平均車速などを含んでもよい。
車両状態データは、車両の制御パネルの取得画像内で識別された車両速度、モータ状態(温度、角速度)、燃料および/またはバッテリ状態などを示すことができる。任意で、そしていくつかの実施例では好ましくは、車両状態データの一部または全部は、ロボットシステムを自動車の制御バス(そのようなバスが存在する場合)に有線接続あるいは無線(例えば、CANバス、すなわちコントローラエリアネットワークバス)に接続することにより、車両から直接受信してもよい。車両状態データは、ステアリングホイールの現在の状態(角変位)、ペダルの現在の状態および/またはレバーの現在の状態、バッテリ充電履歴など、他のセンサによって取得された、および/または無線で取り込まれた追加のデータを含むことができる。
任意で、いくつかの実施例では好ましくは、ロボットシステムは、適切な入力装置を介してユーザから目的地を受信し、車両の現在位置から指示された目的地まで車両を走行させる経路を、システムの内部ストレージ、および/またはデータネットワークを介してアクセス可能なリモートデータストレージ/サービスから無線で取得されるナビゲーションデータに少なくとも部分的に基づいて、決定することができる。車両の現在位置は、任意の適切な位置決め技術(例えば、三角測量)を使用して特定されてもよいし、(例えばスマートデバイスを介して)ユーザによって提供されてもよい。好ましくは、ロボットシステムは、所望の目的地に向かって車両の移動を連続的に監視するための測位システム(例えば、全地球測位システム/GPSモジュール)および/または慣性計測ユニット(IMU)を具える。
いくつかの可能な実施例では、視覚判定技術を用いてルートに沿った車両の動きを監視してもよい。例えば、視覚オドメトリプロセスを使用して、車両の外部環境の画像のシーケンスを分析し、画像内の1または複数の静止物体を識別し、車両から識別された静止物体の距離を特定し、特定した距離に基づいて時間の関数として車両の移動を特定する。
ルート決定プロセスは、例えば、限定しないが、道路状況データ(例えば、交通負荷)および/または車両状態データ(例えば、燃料および/またはバッテリ状態)など、乗車中にロボットシステムによって収集された追加情報を利用することができる。例えば、限定しないが、車両状態データが車両の燃料/バッテリ状態が低いことを示す場合、ロボットシステムは、車両のエネルギ源を補充するガソリンおよび/またはバッテリ充電/交換ステーションで1以上の停車を含む目的地への新たなルートを示すようにしてもよい。同様に、道路状況データが、決定されたルートに沿った交通負荷を示す場合、ロボットシステムは、より少ない負荷の道路を使用して目的地までの新しいルートを決定することができる。
本書に開示される主題の発明的概念の1つは、車両を目的地へと運転するロボットシステムに関する。このロボットシステムは、車両内部に配置されるように構成され、車両を目的地まで走行させるために、撮像システムと制御システムとを利用する。システムは、撮像システムを用いて、車両の内部の少なくとも一部の画像データと、車両の外部環境の画像データとを取得する。撮像システムによって取得された画像データは、制御システムによって処理され、分析される。
制御システムは、画像内で、車両状態インジケータの車両画像データの内部の少なくとも一部のデータを識別し、そこから少なくとも車両状態データを特定する。制御システムはまた、外部環境の画像データから道路状況データを特定する。制御システムはさらに、車両状態データおよび道路状況データの少なくとも1つを分析し、分析に基づいて、道路に沿って車両を運転するための制御命令を生成する。
好ましくは、車両のアクチュエータに結合されたアクチュエータ操作システムが、制御ユニットによって生成された制御命令に従ってアクチュエータの動作状態を制御可能に変更するために使用される。
任意で、およびいくつかの実施例では好ましくは、制御システムは、車両の現在位置を示す位置データと道路データを受信し、受信された位置および道路データに少なくとも部分的に基づいて車両を目的地まで走行させる経路を決定する。いくつかの実施例では、車両の現在位置を決定するために位置決めユニットが使用される。このシステムは、遠隔のコンピュータシステム(サーバ)とデータ通信するための無線通信ユニットをさらに具えてもよい。いくつかの実施例における制御システムは、無線通信ユニットを介して少なくとも道路データを受信するように構成されている。
いくつかの実施例では、ユーザインターフェースユニットを用いてユーザとデータがやりとりされる。可能な応用例では、制御システムが、ユーザインターフェースユニットを介して少なくとも目的地データを受信するように構成される。任意で、およびいくつかの実施例では好ましくは、ユーザインターフェースユニットは、ユーザデバイスとデータを通信するために利用可能なデータ通信デバイスを具える。これにより、制御システムは、位置データおよび道路データのうちの少なくとも1つを受信するために、ユーザインターフェースユニットのデータ通信デバイスを使用することができる。変形例では、オーディオ入力装置を用いて、ユーザインタフェースユニットを介してユーザから音声命令が受信される。例えば、限定しないが、音声命令は、目的地および車両の操作命令の少なくとも1つを示す。さらに、オーディオ出力装置を用いて、ユーザインタフェースユニットを介して音声情報をユーザに出力してもよい。
任意で、およびいくつかの実施例では好ましくは、ロボットシステムの様々な構成要素(例えば、撮像システム、制御システム、およびアクチュエータ操作システム)は、システムを車両の運転席に固定するように構成され動作可能な支持部材(例えば1以上の指示フレーム)に搭載される。
可能な実施例では、アクチュエータ操作システムは、少なくともブレーキペダル操作システム、アクセルペダル操作システム、およびステアリング操作システムを含む。任意で、およびいくつかの実施例では好ましくは、ステアリングホイール操作システムは支持部材に弾性的に連結され、ステアリングホイール操作システムの角運動を防止しつつ、その並進軸の少なくとも1つにおいて動かせるようにする。可能な応用例では、アクチュエータ操作システムはさらに、車両の1以上のギアシステムを作動させるために使用する1以上のレバー操作システムを具える。しかしながら、このレバー操作システムは、ハンドブレーキ、ライト、ワイパ、および/または他の作動ノブ/スイッチおよび車両のレバーを作動させるために利用することもできる。
撮像システムは、いくつかの実施例において、車両の制御パネルの状態インジケータを示す画像データを取得し、車両の前側の外部環境を示すフロント画像データを取得するために使用される。撮像システムは、必要な画像データを取得するために単一の撮像ユニットを利用してもよいが、いくつかの実施例では、少なくとも2つの撮像ユニットが使用される。例えば、限定しないが、車両の制御パネル上の状態インジケータを示す画像データを取得するためにパネル画像取得ユニットを使用し、車両前側の外部環境を示すフロント画像データを取得するためにフロントビューイメージャを使用してもよい。
任意で、およびいくつかの実施例では好ましくは、撮像システムは、車両の外部環境のリアビュー画像データを取得するためのバック画像取得ユニットを具えてもよい。
いくつかの応用例では、撮像システムはさらに、車両の外部環境の左側と車両の左側ミラーに反射された左後方ビューのうちの1以上を示す画像データを取得し、車両の外部環境の右側と車両の右側ミラーに反射された右後方ビューのうちの1以上を示す画像データを取得するように構成されてもよい。例えば、限定しないが、撮像システムは、左側の画像取得ユニットを用いて車両の外部環境の左側と車両の左側ミラーに反射された左後方ビューのうちの1以上を示す画像データを取得し、右側の画像取得ユニットを用いて車両の外部環境の右側と車両の右側ミラーに反射された右後方ビューのうちの1以上を示す画像データを取得してもよい。
本書に開示される主題の別の発明コンセプトは、車両を目的地へと自動運転させる方法に関する。いくつかの実施例では、この方法は、少なくとも車両の状態インジケータおよび車両の外部環境を示す画像データを受信するステップと、受信した画像データ内で、少なくとも状態インジケータの状態と車両の外部環境内の物体を識別するステップと、識別された状態および物体に基づいて車両および道路の状態データを生成するステップと、当該車両状態データおよび道路状態データに少なくとも部分的に基づいて、道路に沿って車両を運転する制御命令を生成するステップとを含む。
任意で、およびいくつかの実施例では好ましくは、この方法は、車両の現在位置を示す位置データを受信するステップと、当該位置データに基づいて目的地までの経路を決定するステップとを含む。前記識別するステップは、いくつかの実施例では、画像データ内の道路レーンおよび道路カーブの少なくとも1つを検出するステップと、それを示すレーンデータを生成するステップとを含む。生成されたレーンデータは、可能な適用例において走行道路上で車両を安全にナビゲートするために使用可能である。
この方法は、可能な実施例において、識別された物体の少なくとも1つを追跡するステップと、その軌跡を示す軌跡データを生成するステップとを含む。この軌跡データは、ルートを決定し、制御命令を生成することのうちの少なくとも1つに利用可能である。
本発明を理解し、実際にどのように実施しうるかを見るために、添付の図面を参照して、非限定的な例として、いくつかの実施例を説明する。図面に示す構成は、他に明示されない限り、本発明の一部の実施例のみを例示することを意味する。図面では、対応する部分には同じ参照番号を用いて示されている。
図1A、1Bは、いくつかの可能な実施例にかかるロボット運転システムのブロック図である。 図2A乃至2Dは、陸上車両の運転席に固定されたロボットシステムの可能な実施例の概略図である。 図3は、いくつかの可能な実施例にかかる撮像システムのブロック図である。 図4は、いくつかの可能な実施例にかかる制御スキームを例示するブロック図である。 図5A−Cは、ロボットシステムの他の可能な実施例の概略図であり、。図5Aはシステムの斜視図、図5Bはシステムのベースアセンブリの断面図、図5Cはシステムの垂直支持アセンブリである。
本開示の1つまたはそれ以上の特定の実施例を、図面を参照しながら以下に説明するが、これはすべての面で例示的なものであり、決して限定ではないと理解されたい。これらの実施例の簡潔な説明を提供するために、実際の実装のすべての特徴が明細書に記載されるわけではない。図面に示す要素は必ずしも縮尺通りではなく、むしろ本発明の原理を明瞭に説明するために強調されている。本発明は、本明細書に記載の本質的な特徴から逸脱することなく、他の特定の形態および実施例で提供することができる。
本発明は、一般的な車両の使用者/所有者によって任意の陸上車両に素早く取り付けることができる、軽量で、低コストで、組み立て容易で、搭載が容易なロボット運転システムを提供することを目的とする。本書で説明されるロボット運転システムは、任意の陸上車両の運転席に固定され得る汎用ロボットナビゲーションドライバとして設計される。ロボット運転システムは、ステアリングホイール操作システム、1以上のペダル操作システム、および/または1以上のレバーおよび/またはノブ走査システムを用いて車両のアクチュエータに機械的に連結され、車両を操作して予め定められた目的地へと運転する。したがって、本発明は、任意の陸上/自動車の運転席に配置され、人間の運転者が車両を操作して所望の目的地へと運転するために慣習的に行っていたすべての機能を実行する汎用システムを提供する。
ロボットシステムの撮像システムは、車両の外部環境(周囲)およびその内部の画像データを連続的に取得するために使用される。撮像システムによって外部環境および車両内部から取得された画像データは、処理され、分析されて、道路状況データおよび車両状態データがそれぞれ特定される。
ロボットシステムの制御システムは、取得された画像から道路状況データおよび車両状態データを特定し、この道路状況および/または車両状態データ、および/または、車両の内部ストレージおよび/または遠隔データストレージ/データネットワーク越しにアクセス可能なサーバからワイヤレスで得られるナビゲーションデータに少なくとも部分的に基づいて、所定の目的地までの走行ルートを決定する。これに対応して、制御システムは、道路状況データと車両状態データ、および決定された走行ルートに少なくとも部分的に基づいて、車両のステアリングホイール、ペダル、および/またはレバー/ノブの状態を変更し、車両を所望の目的地まで安全に走行させるために、ロボットの操作システムを操作するための制御オペレータ/命令を生成する。
図1A、1Bは、いくつかの可能な実施例にかかる陸上車両の自律型ロボット動作を概略的に示すブロック図である。図1Aは、画像化システム12から受信した画像データの1以上のストリームを処理および分析するために制御ユニット11aを使用する自律型ロボットシステム10の簡易スキームを示す。制御ユニット11aは、受信した画像データのストリームから道路状況データおよび車両状態データを特定し、少なくとも特定された状態データに基づいて、所定の目的地に向かって車両を運転/操縦するための制御オペレータ/命令を生成する。制御ユニット11aによって生成された制御オペレータ/命令は、アクチュエータマニピュレータコントローラ11bによって使用され、操作システム29を操作して、車両の1つ以上のアクチュエータ(例えば、アクセルペダル、ブレーキペダル、ハンドブレーキ、ステアリングホイール、ギアレバー、ウインカーレバー、ワイパーレバーなど)の動作状態が変更される。
制御ユニット11aは、制御オペレータ/命令の生成においてアクチュエータマニピュレータコントローラ11bから受信されるデータを使用してもよい。例えば、限定しないが、いくつかの実施例では、マニピュレータコントローラ11bが、アクチュエータ操作システム29内で提供され車両のペダル、レバーおよび/またはつまみの操作状態を示す状態データをセンサユニット(例えば、図1Aには示されていないエンコーダ)から受信してもよい。任意で、およびいくつかの実施例では好ましくは、マニピュレータコントローラ11bは、例えばそのデータバス(例えば、CANバス)に接続することによって、車両のコンピュータ/データシステムから状態データの少なくとも一部を取得するように構成される。このようにしてフィードバックループが得られ、マニピュレータコントローラ11bがセンサユニットから、アクチュエータ操作システム29から、および/または車両のコンピュータ/データシステムから収集した状態データに基づいて、制御ユニット11aがマニピュレータコントローラ11bに提供される制御オペレータ/命令を適応的に調整することができる。この構成により、例えば、制御オペレータ/命令を生成するためのファジー論理およびニューラルネットワーク技術を用いる高度な運転制御スキームの使用が可能となる。
いくつかの実施例では、制御ユニット11aとアクチュエータマニピュレータコントローラ11bとの間の通信は、高レベルの命令およびフィードバックのための汎用非同期送受信(UART)接続を介して実行される。しかし、本発明の範囲および精神から逸脱することなく、任意の適切なシリアルまたはパラレルバスベースのデータ通信(例えば、USB、CANバス、イーサネット、WiFi)を同様に使用することができる。
任意で、およびいくつかの実施例では好ましくは、撮像システム12は、内部撮像ユニット12bと、外部撮像ユニット12aとの少なくとも2つの撮像ユニットを具える。内部撮像ユニット12bは、例えば車両の制御パネルのインジケータ、および/または車両の内部Ibのレバー、ノブおよび/またはペダルの操作状態を含む車両状態を示す車両内部Ibの画像を取得するように構成される。外部撮像ユニット12aは、例えば道路の方向、交通標識、交通信号、道路に存在する可能性のある障害物などの道路状況を示す車両の外部環境Iaの画像を取得するように構成される。
しかしながら、いくつかの可能な実施例では、車両の外部環境Iaおよび車両内部Ibの画像は、単一の画像取得ユニットによって取得されることに留意されたい。例えば、限定しないが、このような単一の画像取得ユニットは、外部環境Iaおよび車両内部Ibの両方の画像データを含む非常に広い視野を取得してもよい(すなわち、必要なすべての画像データを同時に取得する)。付加的または代替的に、可動/回転可能な画像取得ユニットを使用して、外部環境Iaおよび車両内部Ibを順次取得してもよい。付加的または代替的に、光学手段(ミラー、レンズ、スプリッタ)を使用して、同じ画像センサの異なる領域上の外部環境Iaおよび車両内部Ibの画像データを結合して、それらを単一の画像フレームに結合することができる。
図1Aにおいて、制御ユニット11aは、内部撮像ユニット12bによって取得された画像Ibから、とりわけ車両の車速、エンジンの温度と角速度、燃料および/またはバッテリの状態、車両のペダル、レバーおよび/またはノブの操作状態などを含む車両状態を示すデータを特定するように構成され動作可能である。道路状況データは、制御ユニット11aによって、外部撮像ユニット12aが取得した画像Iaから、取得画像内で道路および/または車線の方向、周辺の車両および/または歩行者、交通標識、交通信号、歩道および/または交通島を識別することにより特定される。抽出された道路状況および車両状態データの少なくとも一部に基づいて、制御装置11aは、車両アクチュエータの状態を変更する必要があるかどうかを判定し、それに応じてマニピュレータコントローラ11bによって車両アクチュエータの状態を調整するための制御オペレータ/命令を生成する。
図1Bは、ロボット運転システム10の他の可能な実施例を示すブロック図である。この非限定的な例では、マニピュレータコントローラ11bが、アクセルペダル操作システム24、ブレーキペダル操作システム25、ステアリングホイール操作システム23、およびレバー/ノブアクチュエータ26を含むアクチュエータ操作システム29に連結されている。
レバー/ノブアクチュエータ26は、車両の様々なボタン/ノブ、キー、ギアシャフト、および/またはハンドブレーキを操作するように適合されている。いくつかの可能な実施例では、ロボット運転システム10は、必要に応じて、車両のクラッチペダルを操作するように構成され動作可能なクラッチペダル操作システム(図示せず)をさらに具える。
マニピュレータコントローラ11bは、制御ユニット11aによって生成された制御オペレータ/命令を受信し、それに応じてアクチュエータ操作システム29(23,24,25、および/または26)の1以上を作動させ、アクチュエータ操作システム29のセンサユニット(それぞれ23e、24e、25e、26e)からの状態データ(例えば、角度位置)を受信し、これを制御ユニット11aに転送するよう構成され動作可能である。図1Bにも示されているように、撮像システム12と制御ユニット11aとの間のデータ通信は、双方向データ通信とし、撮像システム12への制御命令が出せるようにして、例えばその光学素子および/またはその1以上のイメージャの画像取得方向を調整できるようにしてもよい。
ヒューマンマシンインターフェース(HMI)ユニット16が、ユーザからのデータの入力および/またはユーザへのデータの出力に使用されてもよい。例えば、限定しないが、HMIユニット16は、(例えば、1つまたは複数のマイクロホンを使用して)ユーザからオーディオ入力デバイス16mを介して、可聴データ(例えば、目的地および/または位置データを示す)および/または命令(例えば、スタート、ストップ、ドライブ、またはその他の命令)を受信し、これを制御ユニット11aに伝達するように構成されてもよい。このHMIユニット16は、制御ユニット11aからの出力データを受信し、(例えば、1以上のスピーカを使用して)オーディオ出力デバイス16sを使用してユーザにそれぞれの音声出力を生成してもよい。この目的のために、HMIユニット16は、当技術分野で公知の任意の適切な音声認識技術および音声生成技術を用いることができる。
HMIユニット16は、データ通信ユニット16cを使用して、任意の適切な入出力デバイス(例えば、キーパッド/キーボード、ポインティングデバイス、LCD/ビデオディスプレイ、タッチスクリーンまたはパッドなど)を使用してユーザとデジタルデータを通信することができる。任意で、およびいくつかの実施例では好ましくは、データ通信ユニット16cは、(例えば、赤外線通信などの光通信および/またはWiFi、Bluetooth、近距離無線通信−NFC、Zigbeeなどの無線周波数通信を使用して)HMIユニット16を介してユーザデバイス16u(例えば、タブレット、スマートフォン、またはラップトップのようなスマートデバイス)で、データを無線で通信するための無線通信デバイス16rを具える。例えば、限定しないが、ユーザのスマートデバイス/スマートフォン16uを用いて、当該スマートデバイス16uの位置決め機能(例えば、GPSおよび/または基地局三角測量)を使用して、ロボットシステム10に目的地データおよび/または位置データを提供してもよい。同様に、スマートデバイス16uは、(例えば、グーグルマップ(商標)を用いて)地図および/または(例えば、Waze(商標)を用いて)ナビゲーションデータをシステム10に提供するために使用されてもよい。
代替的または追加的に、データ通信ユニット16cは、シリアルまたはパラレルデータ通信ケーブルを介して(例えば、ユニバーサルシリアルバスプロトコル−USBを使用して)ユーザデバイス(例えば、スマートデバイス)とデータを通信するためのケーブルコネクタ16uをさらに具えることができる。制御ユニット11aは、限定しないが、道路データ、地図データ、位置データ、1以上の目的地、ガソリンおよび/またはバッテリ充電ステーションの位置などの様々な種類の情報をケーブルコネクタ16uを介して受信するように構成してもよい。
任意で、およびいくつかの実施例では好ましくは、ロボットシステム10は、(例えば、WiFiまたは携帯電話ネットワークを介したインターネットアクセスを使用して)1以上の遠隔のコンピュータシステム/サーバ19とデータを通信するための無線通信ユニット15を具える。制御ユニット11aは、無線通信ユニット15を介して地図および/またはナビゲーションデータを直接取り出すように構成され動作可能であってもよい。無線通信ユニット15は、限定しないが、交通負荷データ、気象状況/予報、ガソリン/充電ステーションの場所などの、目的地までの車両の運転に関する様々な情報を取得するのに用いることができる。
任意で、およびいくつかの実施例では好ましくは、ロボット運転システム10によって実行される(有線および/または無線で行われる)データ通信の少なくとも一部が、安全性およびセキュリティの確実のために暗号化される。この目的のために、DES、RSA、SHAなどの任意の適切な暗号化方式を利用することができる。
ロボットシステム10はまた、ロボットシステム10が使用される車両の位置を連続的に特定するためのGPSおよび/または慣性測定ユニット(IMU)を用いる位置決めシステム18を具えてもよい。この方法により、制御ユニット11aは、測位システム18から受信した位置/方向データに基づいて車両の位置をいつでも特定し、目的地に向かう乗り物の進行を監視し、これにしたがってアクチュエータマニピュレータコントローラ11b用の制御オペレータ/指示を決定することができる。代替的または付加的に、位置決めユニット18から得た、または導出された位置データは、無線通信ユニット15を介して通信され、遠隔のサーバ/サービス19による目的地へのナビゲーションデータが処理および生成されてもよい。
ロボットシステム10の様々なユニット/デバイスに電力供給するための、ロボットシステム10の電源17も図1Bに示されている。内部充電式バッテリ(図示せず)を電源17に用いてもよいし、あるいはロボットシステム10が車両の電源に接続するように構成されてもよい。
ロボットシステム10は、システム10の全てのユニット/デバイスの適切かつ安全が動作が保証されるように、制御ユニット11aによって特定された状態データと、アクチュエータマニピュレータコントローラ11bによって得られた状態データとを、異なるアクチュエータ操作システムから受信し処理するように構成され動作可能な安全監視ユニット18をさらに具えてもよい。いくつかの実施例では、安全監視ユニット18は、監視される各ユニット/デバイスの入力データを分析してその有効性と品質を保証し(例えば、撮像システムから受信した画像が滲んだりブロックされていないことを検証する)、モジュールの出力を評価して得られた結果が許容される動作範囲内にあることを保証する。問題が同定された場合、安全監視ユニット18は、同定された問題をユーザへ示す個々の表示/警告を発行し、および/またはシステム10内にそれを記録する。例えば、限定しないが、安全監視ユニット18は、特定された問題が重大な場合、車両を停止できるようにしてもよい。いくつかの実施例では、安全監視システム18は、アクチュエータシステムのモータ(図2A、2Bに示す)の動作およびシステム10の電源17の状態を監視するように構成され動作可能である。
図2A、2Bは、いくつかの可能な実施例にかかる、陸上車両20の運転席20aに固定されたロボット運転システム10の前側および後側の斜視図をそれぞれ示す。この非限定的な例では、ロボットシステム10は、運転席20aに固定用フレーム22によって固定されており、これは運転席20aの基部に固定的に固定されたベースフレーム22aと、当該ベースフレーム22aに連結され運転席20aの背部支持部分20bに固定的に固定された支持フレーム22bとを有する。ステアリングホイール操作システム23を支持する支持部材22cを、ベースフレーム22aおよび/または支持フレーム22b、あるいはこれらのフレームの交差部に接続することができる。
任意で、およびいくつかの実施例では好ましくは、ベースフレーム22aおよび支持フレーム22bは、各フレームが互いに相対的に角運動できるように、互いに可動にヒンジ結合される。支持部材22cはまた、フレーム22aおよび22bの一方、またはそれらの交差部に可動にヒンジ止めされて、フレーム22aおよび22bの少なくとも一方に対する支持部材22cの角運動が可能である。いくつかの実施例では、ステアリングホイール操作システム23を支持する支持部材22cは、図2Dに例示されるように、ケーブルおよび/またはストラップ22sによってフレーム22aおよび/または22bの少なくとも1つに取り付けられ、それにより、ステアリングホイール操作システムに、移動軸(i、i、i)における移動の自由度を与えながら、支持部材22cを保持するのに必要な強度を提供し、その回転/角運動を防止する。フレーム22a、22bの互いに対する特定の配向、および当該フレーム22a、22bの少なくとも一方に対する支持部材22cの特定の配向は、ロック機構(例えば、22q)を用いてロックされ、フレーム22a、22b間の所望の角度、および支持部材22cとフレーム22a、22bの少なくとも一方との間の所望の角度が達成される。
この非限定的な例では、撮像システム12は、支持フレーム22bに取り付けられている。しかし、可能な実施例では、撮像システム12の様々な撮像ユニットを、支持フレーム22bの異なる位置に、またはベースフレーム22aの異なる位置に、および/または支持部材22cの異なる位置に搭載することができる。また、図2A、2Bに示すように、制御ユニット11aおよびアクチュエータマニピュレータコントローラ11bを含む制御システム11は、フレーム22a、22bの少なくとも一方に不動に固定されてもよい。しかしながら、制御システム11の制御ユニットは、フレーム22a、22bのいずれか、および/または支持部材22cに同様に不動に取り付けられてもよい。
支持部材22cに担持されたステアリングホイール操作システム23は、車両20のステアリングホイールシステム20wに取り付けられ、モータ23mとギヤ23g構造により(例えば、ウォームギヤロータアセンブリを使用して)、車両20のステアリングホイール23fを回転できるよう構成され動作可能である。ステアリングホイール操作システム23は、複数のフィン部材28p(図2A、2Bおよび2Dに3つのフィンが示されている)を有するプロペラ構造28によってステアリングホイール20wを取り付けて回転させるように構成され、ギヤシステム23gを介してモータ23mの回転シャフトに機械的に結合される。プロペラ構造28は、ギヤシステム23gの回転シャフト23hに取り付けられ、そのフィン部材28pはここからステアリングホイールシステム20wのフレーム23fに向かって半径方向に延在し、その自由端部でステアリングホイール20wのフレーム23fに取り付けられる。
フィン部材28pのプロペラ構造28は、たとえばUボルト23tおよびナットを用いるなど任意の適切なクランプ手段によって、ステアリングホイールシステム20wのフレーム23fに取り付けられてもよい。この構成により、ユーザがホイール操作システム23をステアリングホイール20wに迅速かつ容易に結合できる簡単な取り付け方式が提供される。さらに、プロペラ構造28のフィン部材28pを用いてモータ23mの回転運動をステアリングホイールシステム20wのフレーム23fに伝達するようにすると、モータ23mによってステアリングホイール20wを操作しつつ、並進軸i、iに沿って移動する幾ばくかの自由度が提供される(iは車輪23fの回転軸Wと平行あるいは一致する)。
図2Dに例示されるように、いくつかの実施例では、ステアリングホイール操作システム23の支持部材22cは、ストラップおよび/またはケーブル22sによって固定用フレーム22の少なくとも1つに取り付けられる。この特定かつ非限定的な例では、支持部材22cがストラップ22sによってベースフレーム22aに取り付けられているが、これは支持フレーム22bに、あるいはフレーム22a、22bの両方に同様に取り付けられてもよい。ストラップ/ケーブル22sによって支持部材22cを取り付けると、ステアリングホイール操作システム23と固定用フレーム22との間が可撓性/弾性のある連結となり、その角度移動を防ぎつつ、並進軸i、i、およびiに沿って動く幾らかの自由度が提供される。ケーブル/ストラップ22sを用いたこのような取り付け方法により、ステアリングホイール操作システム23が固定用フレーム22に非剛性的に連結され、これによりステアリングホイール操作システム23のモータ23mの制限された動きが可能となり、したがってステアリングホイールシステム20wとモータ23mの回転部品の芯合わせ(centering)の問題が解決し、モータ23mの作用力を低減してステアリングホイールシステム20wのフレーム23fを回転させることができる。
図2A、2Bはまた、アクセルペダル操作システム24およびブレーキペダル操作システム25を示しており、これらはそれぞれベースフレーム22aに移動不能に取り付けられ、各ペダルに機械的に結合された可動の脚部を具えている。
アクセルペダル操作システム24は、ベースフレーム22aの支持ビーム22pに移動不能に取り付けられた電気モータ24m(例えば、サーボモータ)と、このモータ24mのシャフトおよび可動脚部24fに機械的に連結された回転レバー24rとを具える。可動脚部24fは、その一方の端部で回動レバー24rにヒンジ結合されて膝状のジョイント24jを形成し、その自由端がアクセルペダル20cに機械的に連結されている。これにより、モータ24mのシャフトおよびそれに機械的に結合されたレバー24rの回転運動が、それに連結された可動脚部24fによってアクセルペダル20cをの押すか引っ張る作用へと伝達される。
同様に、ブレーキペダル操作装置25は、ベースフレーム22aの支持ビーム22pに移動不能に取り付けられた電気モータ25m(例えば、ウォームギヤモータ)と、モータ25mのシャフトおよび可動脚部25fに機械的に連結された回転レバー25rとを具える。可動脚部25fは、その一方の端部で回転レバー25rにヒンジ結合されて膝関節25jを形成し、その自由端がブレーキペダル20kに機械的に連結されている。これにより、モータ25mのシャフトおよびそれに機械的に結合されたレバー25rの回転運動が、それに連結された可動脚部25fによってアクセルペダル20cを押すか引っ張る作用へと伝達される。
図2Cを参照すると、いくつかの実施例では、可動脚部24f、25fはそれぞれ、ペダルの少なくとも一部を包囲し例えば固定ボルトでペダルにしっかりと固定される「C」字形カプリング部材(またはクランプ)24g、25gを用いて、各ペダル20c、20kに連結される。図示するように、この非限定的な例では、脚部24f、25fは、それぞれの「C」字形の連結部材24g、25gにヒンジ止めされて、脚部24f、25fとそれぞれの結合部剤24g、25g間の角運動を可能にする簡単な関節構造24x、25xを構成する。
この非限定的な例において、車両20は、アクセルペダル20c、ブレーキペダル20k、およびステアリングホイール20wを含む限られた数のアクチュエータによって操作可能な電気自動車の一種である。したがって、(例えば、車両のギアシステムを作動させる)レバー操作システムおよびクラッチ操作システムは不要であり、図2A、2Bには示されていない。しかしながら、このような操作システムは、本書に記載され例示された操作システム24、25および/または23に用いられたような機構を使用して容易に実現することができる。同様に、ロボット運転システム10は、車両の様々なボタン/ノブ、キー、ギアシャフト、および/またはハンドブレーキを操作するための1つまたは複数のそのような操作システムを具えることができる。したがって、ロボット運転システム10は、様々なマニュアルまたはオートマチックの車両に取り付けるために容易に適合させることができる。
図2A、2Bに示したロボットシステム10の実施例は、右側通行/運転車両に使用するように設計されている。これは本発明の限定ではなく、ロボットシステム10は同様に左側通行/運転車両の制御部を操作するように構成されてもよいことは明らかである。
図3は、いくつかの可能な実施例にかかる撮像システム12を示すブロック図である。この非限定的な例では、撮像システム12の内部撮像ユニット12bは、車両20の制御パネル20xの画像を取得するように構成され動作可能な1以上の撮像装置を含むパネル撮像ユニット41を含む(図3には1つの撮像ユニット41のみを示す)。撮像システム12の外部撮像ユニット12aは、例えば車両のフロントガラス30wを通して見るような、車両の外部環境の正面画像を取得するように構成され動作可能な1以上の撮像装置を含むフロント撮像ユニット42と、例えば車両のリアビューミラー(フロントガラスミラー)20nを介して見るような、車両の外部環境のリアビュー画像を取得するためのバック撮像ユニット43とを具える。
あるいは、いくつかの実施例では、撮像システム12は、PAN−TIL搭載カメラ、全方向性カメラ、標準カメラ、またはそれらの組み合わせを使用して、様々な異なる視界(FOV)から画像データを連続的に取得することができる可動/回転可能撮像装置ユニットを使用する。代替的または付加的に、撮像システム12は、様々な異なるFOVからの画像データを同じ画像センサの異なる領域に同時に収集および結合させる光学手段(例えば、レンズ、ミラー、スプリッタ)を具えてもよい。この方法により、撮像システム12の撮像装置の数を実質的に減らすことができる。例えば、ある実施例では、単一の撮像装置ユニットを用いて、制御パネル20xの画像と、車両の外部環境の正面画像を収集するようにする。
いくつかの実施例では、撮像システム12の外部撮像ユニット12aは、例えば、運転手側ウィンドウ30fを通して見られるような車両の外部環境の左側視野画像と、例えば車両の左側ビューミラー20fを介して見られるような左側−後方視野画像とを取得するための左側撮像ユニット46を具える。同様に、右側撮像ユニット45を用いて、例えば助手席側ウィンドウ30rを通して見られるような車両の外部環境の右側視野画像と、および/または車両の右側ビューミラーを介して見られるような右側−後方視野画像とを取得するようにしてもよい。
任意に、およびいくつかの実施例では好ましくは、フロント撮像ユニット42は、三次元空間(すなわち、奥行き情報を追加するため)でフロント撮像ユニット42によって撮像された物体の位置を決定するための2つの撮像装置42f、42rを用いた立体撮像技術を利用する。可能ないくつかの実施例では、このような立体撮像技術は、左右の撮像ユニット46、45のような他の撮像ユニットに組み込まれてもよい。撮像システム12の撮像ユニットは、任意の適切な撮像装置に実装することができ、これには限定しないが、Point GreyのFLEA3 1.3Mpix 30FPSカラーGigEカメラなどがある。しかしながら、いくつかの実施例では、回転/移動型の撮像装置、および/または、画像FOVを拡張するおよび/または撮像装置の異なるセンサ領域に異なる画像データを同時に組み合わせる光学手段を用いる単一の撮像ユニットを撮像システム12に用いて、必要な画像データ(すなわち、制御パネル20x、フロントビュー画像、リアビュー画像、左側ビュー画像、および右側ビュー画像)のすべてを取得してもよい。
撮像システム12は、撮像ユニット41、42、43、45および/または46の撮像装置によって取得されたイメージを受け取り、それらを処理のために制御システム11に転送するように構成され動作可能な1以上の制御および/または処理ユニット12cを具えてもよい。いくつかの可能な実施例では、撮像システム12の制御/処理ユニット12cは、撮像ユニットによって取得された画像を処理および分析し、制御システム11が車両を運転する制御オペレータ/命令を生成するのに必要な外部と内部の状況データを特定するように構成される。
図4は、いくつかの可能な実施例にかかる制御ユニット11aの構成要素および機能を例示するブロック図40である。この非限定的な例では、制御ユニット11aは、一特定モジュール3tを用いて、測位システム18から受信した位置/方位データに基づいて車両の位置(例えば、全地球測位および/またはロードマップ上)を特定し、それを示す位置データを生成する。測位システム18がGPSとIMUユニットとの両方を具える場合、これらのユニットからの位置/方位データは、車両の実世界位置の正確さと理解を向上させるために、位置特定モジュール3tにおいて融合/組み合わされ、これにより生成される位置データの精度が向上する。例えば、限定しないが、カルマン(Kalman)フィルタを少なくとも部分的に用いて、GPSおよび/またはIMUユニットによって生成された位置/方位データに基づく位置データを生成してもよい。
制御ユニット11aの画像処理モジュール3eは、撮像システム12から受信した画像データ(IaおよびIb)から道路状況および/または車両状態データを特定するために用いられる。制御ユニット11aのルート計画および監視モジュール3rは、ルートを生成し、生成されたルートに沿った車両の進行を監視し、測位システム18によって生成された位置データと画像処理モジュール3eによって生成された道路および/または車両の状況データとに少なくとも部分的に基づいて意志決定を行うために用いられる。このルート計画および監視モジュール3rはさらに、受信した位置データ、道路および/または車両の状況データに少なくとも部分的に基づいて、運転命令(例えば、加速/減速、車両停止、左折または右折、車線変更等)を生成する。ルート計画および監視モジュール3rによって生成された運転命令は、操作システムを操作するためにアクチュエータマニピュレータコントローラ11bによって用いられる制御オペレータ/命令を生成するために、制御ユニット11aのアクチュエータ制御モジュール3cによって使用される。
ルート計画および監視モジュール3rは、位置特定モジュール3tによって生成された位置データと、無線通信ユニット15を介して遠隔データベース/サーバ(19)から受信した道路/地図および/またはナビゲーションデータと、画像処理ユニット3eから受信する道路状況および/または車両状態データとの少なくとも一部に基づいて、生成されたルートに沿った車両の進行を監視するように構成され動作可能である。
いくつかの可能な実施例では、道路/地図データおよび/またはナビゲーションデータは、制御ユニット11aのメモリ/記憶ユニット3b(例えば、磁気/光ディスク、フラッシュメモリなど)から取り出される。同様に、運転のための所定の目的地がメモリ/記憶ユニット3bから取り出され、これがルート計画および/監視モジュール3rに用いられて、ルートが生成される。したがって、いくつかの可能な実施例では、ロボット運転システム10は、無線通信ユニット15なしで実施することができる。
いくつかの可能な実施例では、画像処理モジュール3eは、道路および車両の状況データの少なくとも一部を生成するために、1以上の物体検出(OD)コンポーネントm1と、物体追跡(OT)コンポーネントm2と、道路/車線検出(RD)コンポーネントm3とを具える(例えば、視覚/マッピングアルゴリズムを利用する)。物体検出コンポーネントm1は、撮像システム12から受信した画像データ内の物体(例えば、車両/自転車、歩行者、交通標識/照明/島、歩道、制御パネルインジケータなど)を識別し、それを示す物体データを生成するよう構成され動作可能である。物体検出コンポーネントm1によって生成される物体データは、車両を目的地まで安全に運転し、事故および/または事変を防止するために重要である。オブジェクト追跡コンポーネントm2は、オブジェクト検出コンポーネントm1によって識別された様々なオブジェクトの軌跡を予測し、それを示す軌道データを生成するように構成され動作可能である。道路/車線検出コンポーネントm3は、撮像システムから受信した画像データ内の車線および道路カーブを検出し、それを示す車線データを生成するように構成され動作可能である。この道路/斜線検出コンポーネントm3によって生成された車線データは、ロボット運転システム10が、道路上で安全にナビゲートするのに用いられ、また車両を車線内に維持し、必要に応じて車線変更させ、道路で転回させるのに必要である。
画像処理部3eからの物体データ、軌跡データおよび車線データは、ルート計画および/監視ユニット3rに提供され、車両の安全なルート決定のために使用される。
図5Aは、いくつかの可能な実施例にかかるロボットシステム50を示し、図5B、5Cは、システム50のベースアセンブリ51と垂直支持アセンブリ52の断面図である。図5Aを参照すると、ベースアセンブリ51は運転席にしっかりと取り付けられ、垂直支持アセンブリ52は運転席の背もたれにしっかりと取り付けられるように構成される。いくつかの実施例では、垂直支持アセンブリ52は、ベースアセンブリ51に回動可能にヒンジ止めされる。
図5Aに示すように、垂直支持アセンブリ52は、その上部にフロント撮像ユニット42用の光入射口として作用する2つの開口部52r、52fを具える。図5Cを参照すると、垂直支持アセンブリ52は、撮像ユニット42と測位システム18とを収容するのに用いられる上部区画52cを具える。より具体的には、撮像ユニット42の撮像装置42f、42rは、開口部52r、52fと整合するように上部区画52cの側方に取り付けられ、位置決めシステム18がその間に配置される。中間区画52iが、上述した制御システムおよび撮像システム/DSPの機能を実装するように構成された、システムのコンピュータシステム55(例えば、ラップトップ)を収容するために使用される。
図5Bは、ベースアセンブリ51の断面図であり、電気モータ25mを収容保持するよう構成された前側支持フレーム51fと、電気モータ24mを収容保持するよう構成された前側支持フレーム51rと、電気モータ24m、25mの回路ドライバ51dならびに図2に示すシステムの他の要素を収容保持する後側支持フレーム51eとを具える。
上述し関連する図面に示したように、本発明は、車両を所望の/所定の目的地に自動運転させるために、任意の陸上/自動車両の内部に設置するように構成され動作可能な汎用ロボット運転システム10/50とおよび関連する方法を提供する。理解されるように、本発明のロボット運転システムは、任意の車両を自律型車両に変える簡単な解決策を提供し、これは様々な異なる用途に利用することができ、それには例えば、限定しないが、農業、輸送、鉱業、清掃、巡回パトロール、配達、および、障害者/能力欠如者、高齢者、視覚障害者および眠気のある運転手の補助が含まれる。
上述した制御ユニット11aの様々なモジュールは、いくつかの実施例では、ソフトウェアモジュールおよび/またはハードウェアモジュール、またはそれらの組み合わせとして実装することができる。上述のロボット運転システム10/50の機能は、制御システム11内に収容され得るコンピュータベースの制御システムによって実行される命令によって制御されてもよい。上述の実施例での使用に適した制御システムは、例えば、共通バス、1以上の揮発性メモリ(例えば、ランダムアクセスメモリ−RAM)または不揮発性メモリ(例えば、フラッシュメモリ)に接続された1以上のプロセッサとすることができる。二次メモリ(例えば、ハードディスクドライブ、リムーバブルストレージドライブ、および/またはEPROM、PROMまたはフラッシュメモリなどのリムーバブルメモリチップ)を用いて、コンピュータシステムにロードされるデータ、コンピュータプログラムまたは他の命令を格納してもよい。
例えば、制御システム11の1以上のプロセッサによる実行のために、コンピュータプログラム(例えば、コンピュータ制御ロジック)を二次メモリからメインメモリにロードすることができる。代替的または付加的に、コンピュータプログラムは通信インタフェースを介して受信してもよい。そのようなコンピュータプログラムは、実行されると、本書に記載された本発明の特定の特徴をコンピュータシステムが実行することを可能にする。特に、コンピュータプログラムは、実行されると、制御プロセッサが本発明の特徴を実行および/または実行することを可能にする。したがって、そのようなコンピュータプログラムは、コンピュータシステムの制御部を実装することができる。
ロボット運転システム10/50のモジュールおよび/またはユニットがソフトウェアを用いて実装される実施例では、ソフトウェアをコンピュータプログラム製品に格納し、リムーバブルストレージドライブ、メモリチップまたは通信インターフェースを利用してコンピュータシステムにロードすることができる。制御プロセッサによって実行されると、制御ロジック(ソフトウェア)は、制御プロセッサに本書で説明される本発明の特定の機能を実行させる。
別の実施例では、ロボット運転システム10/50のモジュールおよび/またはユニットの構成は、例えば、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)などのハードウェア構成要素を使用して、主にハードウェアに実装されてもよい。本明細書で説明された機能を実行するためのハードウェアステートマシンの実装は、当業者には明らかであろう。さらに別の可能な実施例では、本発明の構成は、ハードウェアとソフトウェアの両方を組み合わせて実施することができる。
本発明の特定の実施例について説明したが、本発明はこれに限定されるものではなく、特に前述の教示に照らして当業者によって変更がなされてもよいことが理解されよう。当業者には理解されるように、本発明は、本発明の範囲を逸脱することなく、上述したものから2以上の技術を用いて多種多様な方法で実施することができる。

Claims (22)

  1. 車両を目的地まで走行させるためのロボットシステムであって、前記ロボットシステムは、前記車両の内部に配置されるように構成され、
    車両の内部の少なくとも一部の画像データと、車両の外部環境の画像データとを取得するように構成され動作可能な撮像システムと、
    前記撮像システムによって取得された画像データを処理および分析し、車両の内部の少なくとも一部の画像データ内の車両状態インジケータの画像データを識別し、ここから少なくとも車両状態データを特定し、前記外部環境の画像データから道路状況データを特定し、前記少なくとも車両状態データと前記道路状況データとを分析して、前記道路に沿って前記車両を走行させるための制御命令を生成するように構成され動作可能な制御システムとを具えることを特徴とするシステム。
  2. 請求項1のシステムにおいて、さらに、前記車両のアクチュエータに連結し、その動作状態を前記制御ユニットが生成する制御命令に従って制御可能に変更するように構成され動作可能なアクチュエータ操作システムを具えることを特徴とするシステム。
  3. 請求項1または2のシステムにおいて、前記制御システムは、前記車両の現在位置を示す位置データおよび道路データを受信し、当該位置データおよび道路データに少なくとも部分的に基づいて前記車両を目的地まで走行させるためのルートを決定するように構成され動作可能であることを特徴とするシステム。
  4. 請求項3のシステムにおいて、前記車両の現在位置を特定するように構成され動作可能な位置決めユニットを具えることを特徴とするシステム。
  5. 請求項3または4のシステムにおいて、無線通信ユニットであって、当該無線通信ユニットを介して少なくとも前記道路データを受信するために遠隔のコンピュータシステムとデータ通信するように構成され動作可能な無線通信ユニットを具えることを特徴とするシステム。
  6. 請求項1乃至5のいずれかのシステムにおいて、少なくとも前記目的地のデータを受信するために、ユーザとのデータ通信のためのユーザインタフェースユニットを具えることを特徴とするシステム。
  7. 請求項6のシステムにおいて、前記ユーザインタフェースユニットは、ユーザデバイスとデータ通信を行うよう構成され動作可能なデータ通信デバイスを具え、当該データ通信デバイスを介して前記位置データおよび道路データの少なくとも一方が受信されることを特徴とするシステム。
  8. 請求項6または7のシステムにおいて、前記ユーザインタフェースユニットを介してユーザから可聴命令を受信するための音声入力装置を具え、前記可聴命令は、前記目的地および車両の操作命令のうちの少なくとも1つを示すことを特徴とするシステム。
  9. 請求項6乃至8のいずれかのシステムにおいて、前記ユーザインタフェースユニットを介して可聴情報を前記ユーザに出力するための音声出力装置を具えることを特徴とするシステム。
  10. 請求項2乃至9のいずれかのシステムにおいて、前記ロボットシステムの構成要素は、前記車両の運転席に前記システムを固定するように構成され動作可能な支持部材に取り付けられていることを特徴とするシステム。
  11. 請求項10のシステムにおいて、前記アクチュエータ操作システムは、少なくとも、ブレーキペダル操作システム、アクセルペダル操作システム、およびステアリングホイール操作システムを具えることを特徴とするシステム。
  12. 請求項11のシステムにおいて、前記ステアリングホイール操作システムは、前記ステアリングホイール操作システムの角運動を防止しつつ、その並進軸の少なくとも1つにおいて前記ステアリングホイール操作システムの動きを許容するように、前記支持部材に弾性的に連結されていることを特徴とするシステム。
  13. 請求項11または12のシステムにおいて、前記アクチュエータ操作システムがさらに、前記車両の少なくとも1つのギアシステムを作動させるように構成され作動可能な少なくとも1つのレバー操作システムを具えることを特徴とするシステム。
  14. 請求項1乃至13のいずれかのシステムにおいて、前記撮像システムは、前記車両の制御パネルの状態インジケータを示す画像データを取得するとともに、前記車両の前側の外部環境を示すフロント画像データを取得するように構成されていることを特徴とするシステム。
  15. 請求項14のシステムにおいて、前記撮像システムは、前記車両の制御パネルの状態インジケータを示す画像データを取得するためのパネル撮像ユニットと、前記車両の前側の外部環境を示すフロント画像データを取得するためのフロントビュー撮像装置とを含む少なくとも2つの撮像ユニットを具えることを特徴とするシステム。
  16. 請求項14または15のシステムにおいて、前記撮像システムが、前記車両の外部環境のリアビュー画像データを取得するためのバック画像ユニットを含むことを特徴とするシステム。
  17. 請求項14乃至16のいずれかのシステムにおいて、前記撮像システムがさらに、前記車両の外部環境の左側視野と、前記車両の左側ミラーに反射された左側後方ビューとの少なくとも一方を示す画像データを取得し、前記車両の外部環境の右側視野と、前記車両の右側ミラーに反射された右側後方ビューとの少なくとも一方を示す画像データを取得するように構成されていることを特徴とするシステム。
  18. 請求項17のシステムにおいて、前記撮像システムは、前記車両の外部環境の左側視野と、前記車両の左側ミラーに反射された左側後方ビューとの少なくとも一方を示す画像データを取得するための左側撮像ユニットと、前記車両の外部環境の右側視野と、前記車両の右側ミラーに反射された右側後方ビューとの少なくとも一方を示す画像データを取得するための右側撮像部とを具えることを特徴とするシステム。
  19. 請求項1乃至18のいずれかのシステムを使用して車両を目的地に自律的に走行させる方法であって、
    少なくとも車両の状態インジケータおよび車両の外部環境を示す画像データを受信するステップと、
    受信された画像データ内で少なくとも前記状態インジケータの状態と前記車両の外部環境内の物体とを識別し、識別された状態および物体に基づいて車両状態データおよび道路状況データをそれぞれ生成するステップと、
    前記車両状態データおよび前記道路状況データに少なくとも部分的に基づいて制御命令を生成するステップとを含むことを特徴とする方法。
  20. 請求項19の方法において、前記車両の現在位置を示す位置データを受信するステップと、前記位置データに基づいて前記目的地までの経路を決定するステップとを含むことを特徴とする方法。
  21. 請求項19または20の方法において、前記識別することは、前記画像データ内で車線および道路カーブの少なくとも一方を検出し、これを示すとともに運転する道路上で前記車両をナビゲートするのに利用可能なレーンデータを生成するステップを含むことを特徴とする方法。
  22. 請求項19乃至21のいずれかの方法において、前記識別された物体のうちの少なくとも1つを追跡し、その軌跡を示す軌跡データを生成するステップと、前記軌跡データを、ルートの決定および前記制御命令の生成の少なくとも一方に使用するステップとを含むことを特徴とする方法。
JP2017557308A 2015-05-05 2016-05-02 ユニバーサル自律型ロボット運転システム Active JP7023116B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562156911P 2015-05-05 2015-05-05
US62/156,911 2015-05-05
PCT/IL2016/050453 WO2016178213A1 (en) 2015-05-05 2016-05-02 Universal autonomous robotic driving system

Publications (2)

Publication Number Publication Date
JP2018520408A true JP2018520408A (ja) 2018-07-26
JP7023116B2 JP7023116B2 (ja) 2022-02-21

Family

ID=57218482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017557308A Active JP7023116B2 (ja) 2015-05-05 2016-05-02 ユニバーサル自律型ロボット運転システム

Country Status (7)

Country Link
US (1) US10613544B2 (ja)
EP (1) EP3292014B1 (ja)
JP (1) JP7023116B2 (ja)
CN (1) CN107614308B (ja)
ES (1) ES2891338T3 (ja)
IL (1) IL255095B (ja)
WO (1) WO2016178213A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256175A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 음성인식 로봇에 사용되는 사운드 처리방법

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3365143B1 (en) * 2015-10-23 2020-08-12 Yamaha Hatsudoki Kabushiki Kaisha Robot and robot control system
MX2019012666A (es) * 2017-05-02 2020-07-22 Gomaco Corp Sistemas de direccion libre para maquinas moviles.
DE102018200435B3 (de) * 2017-07-31 2018-11-15 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Steuern eines Roboters
CN107571867B (zh) * 2017-09-05 2019-11-08 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法和装置
KR102374919B1 (ko) * 2017-10-16 2022-03-16 주식회사 만도모빌리티솔루션즈 자율주행 지원 장치 및 방법
CN110871813A (zh) * 2018-08-31 2020-03-10 比亚迪股份有限公司 虚拟机器人的控制方法、装置、车辆、设备和存储介质
WO2020196264A1 (ja) * 2019-03-25 2020-10-01 株式会社明電舎 車両自動運転装置のペダルアクチュエータ
US11467064B2 (en) 2019-03-25 2022-10-11 Meidensha Corporation Transmission actuator attachment structure for automatic vehicle driving device
US11453116B2 (en) 2019-03-25 2022-09-27 Meidensha Corporation Transmission actuator support structure for vehicle automated driving device
US11453350B2 (en) * 2019-03-25 2022-09-27 Meidensha Corporation Support structure for automatic vehicle driving device
JP6750760B1 (ja) 2019-03-25 2020-09-02 株式会社明電舎 車両自動運転装置のトランスミッションアクチュエータ取付構造
US11474002B2 (en) 2019-03-25 2022-10-18 Meidensha Corporation Vehicle automated driving device for mounting a pedal actuator
WO2020198937A1 (en) * 2019-03-29 2020-10-08 Baidu.Com Times Technology (Beijing) Co., Ltd. Communications protocols between planning and control of autonomous driving vehicle
CN110103221A (zh) * 2019-05-21 2019-08-09 深圳市超时空机器人有限公司 一种远程驾驶方法、设备及其系统
CN110519703A (zh) * 2019-08-28 2019-11-29 北京易控智驾科技有限公司 一种矿车无人驾驶系统
CN110481601B (zh) * 2019-09-04 2022-03-08 深圳市镭神智能系统有限公司 一种轨道检测系统
KR102234194B1 (ko) * 2019-11-08 2021-03-31 재단법인대구경북과학기술원 자율주행차동차의 제어권 전환 안전성 평가 장치 및 이를 이용하는 평가 방법
US11820356B2 (en) 2019-12-20 2023-11-21 Humanetics Austria Gmbh System and method for force compensation in a robotic driving system
CN113276861B (zh) * 2021-06-21 2023-03-28 上汽通用五菱汽车股份有限公司 车辆控制方法、车辆控制系统及存储介质
CN113589835B (zh) * 2021-08-13 2024-05-14 北京科技大学 一种基于自主感知的智能机器人飞行员飞行方法及装置
CN115056849B (zh) * 2022-07-25 2023-03-14 珠海骏驰智联科技有限公司 一种基于视觉检测的汽车智能驾驶方法、装置及存储介质
CN117067228B (zh) * 2023-08-23 2024-03-26 中国人民解放军95791部队 用于驾驶有人机的机器人

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338006A (ja) * 1999-05-28 2000-12-08 Horiba Ltd 自動車運転システム、自動車運転システムの車両データ設定方法、および、車両制御プログラムを記録した記録媒体
JP2004093354A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 運転情報出力装置およびプログラム
JP2007112400A (ja) * 2005-10-24 2007-05-10 Denso Corp 車両周囲確認装置
JP2012501269A (ja) * 2008-08-29 2012-01-19 レイセオン カンパニー 遠隔動作、自動車遠隔制御変換ぺデスタル用に自動車ビークルを適合するためのキット及びシステム
JP2013078151A (ja) * 2013-01-18 2013-04-25 Denso Corp 車両用表示装置
KR20130085235A (ko) * 2012-01-19 2013-07-29 김동용 자동차의 무인 운전 시스템
CN104002818A (zh) * 2014-05-27 2014-08-27 昆山市智汽电子科技有限公司 一种集互动与自动为一体的车载系统
JP2014174081A (ja) * 2013-03-12 2014-09-22 Panasonic Corp 車載用ナビゲーション装置及びナビゲーションシステム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3435703A (en) 1967-04-26 1969-04-01 Earl Allgaier Dual control vehicle brake system for driver training automobiles
ATE42831T1 (de) 1986-03-04 1989-05-15 Schenck Ag Carl Bezugsplattform fuer eine arretierbare aufstellung.
DE3940588A1 (de) 1989-12-08 1991-06-13 Georg Witt Fahrroboter
JPH0619307B2 (ja) 1990-12-30 1994-03-16 株式会社堀場製作所 自動車自動運転ロボットの制御方法
JPH0743296B2 (ja) 1991-01-16 1995-05-15 株式会社堀場製作所 自動車自動運転ロボットの制御方法
JPH05312686A (ja) 1992-05-09 1993-11-22 Horiba Ltd 自動車自動運転ロボットの制御方法
US5816106A (en) 1996-05-02 1998-10-06 Chrysler Corporation Column shifter linkage for robotic control of vehicle
US5821718A (en) 1996-05-07 1998-10-13 Chrysler Corporation Robotic system for automated durability road (ADR) facility
US5999865A (en) 1998-01-29 1999-12-07 Inco Limited Autonomous vehicle guidance system
US7113867B1 (en) 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4020128B2 (ja) * 2005-04-22 2007-12-12 トヨタ自動車株式会社 目標位置設定装置およびそれを備えた駐車支援装置
US9373149B2 (en) * 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US8139109B2 (en) 2006-06-19 2012-03-20 Oshkosh Corporation Vision system for an autonomous vehicle
US7628239B1 (en) 2006-08-30 2009-12-08 The United States Of America As Represented By The Secretary Of The Navy Adaptable remote control driving system
US8051936B1 (en) 2006-08-30 2011-11-08 The United States Of America As Represented By The Secretary Of The Navy Human-portable remote control driving system
US8532862B2 (en) 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
US8090489B2 (en) 2007-11-09 2012-01-03 Bruno Delean Computerized driverless vehicles and traffic control system
US8319666B2 (en) * 2009-02-20 2012-11-27 Appareo Systems, Llc Optical image monitoring system and method for vehicles
US8365634B2 (en) 2009-09-17 2013-02-05 Exelis Inc. Universal actuation and control of steering mechanisms for mobile vehicles
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US8346426B1 (en) * 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
JP5523954B2 (ja) 2010-06-30 2014-06-18 富士通テン株式会社 画像表示システム
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8078349B1 (en) 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
EP2815383B1 (en) 2012-02-15 2017-08-16 Mobileye Vision Technologies Ltd. Time to collision using a camera
DE102012015968A1 (de) 2012-08-11 2014-03-06 Audi Ag Verfahren zum fahrerlosen Bewegen eines Fahrzeugs auf einer Parkfläche
CN102881156A (zh) 2012-09-29 2013-01-16 北京龙德天地科技有限公司 一种通道式无人驾驶自主行驶智能公共交通系统
US8825258B2 (en) * 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US8788134B1 (en) 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338006A (ja) * 1999-05-28 2000-12-08 Horiba Ltd 自動車運転システム、自動車運転システムの車両データ設定方法、および、車両制御プログラムを記録した記録媒体
JP2004093354A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 運転情報出力装置およびプログラム
JP2007112400A (ja) * 2005-10-24 2007-05-10 Denso Corp 車両周囲確認装置
JP2012501269A (ja) * 2008-08-29 2012-01-19 レイセオン カンパニー 遠隔動作、自動車遠隔制御変換ぺデスタル用に自動車ビークルを適合するためのキット及びシステム
KR20130085235A (ko) * 2012-01-19 2013-07-29 김동용 자동차의 무인 운전 시스템
JP2013078151A (ja) * 2013-01-18 2013-04-25 Denso Corp 車両用表示装置
JP2014174081A (ja) * 2013-03-12 2014-09-22 Panasonic Corp 車載用ナビゲーション装置及びナビゲーションシステム
CN104002818A (zh) * 2014-05-27 2014-08-27 昆山市智汽电子科技有限公司 一种集互动与自动为一体的车载系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256175A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 음성인식 로봇에 사용되는 사운드 처리방법

Also Published As

Publication number Publication date
EP3292014A4 (en) 2019-01-02
EP3292014A1 (en) 2018-03-14
WO2016178213A1 (en) 2016-11-10
JP7023116B2 (ja) 2022-02-21
ES2891338T3 (es) 2022-01-27
EP3292014B1 (en) 2021-07-14
CN107614308B (zh) 2020-06-26
US20180284801A1 (en) 2018-10-04
IL255095B (en) 2021-05-31
CN107614308A (zh) 2018-01-19
IL255095A0 (en) 2017-12-31
US10613544B2 (en) 2020-04-07

Similar Documents

Publication Publication Date Title
JP7023116B2 (ja) ユニバーサル自律型ロボット運転システム
US11023788B2 (en) Systems and methods for estimating future paths
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
JP6722756B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20170197615A1 (en) System and method for reverse perpendicular parking a vehicle
US11221630B2 (en) Work vehicle
KR102408837B1 (ko) 고속 이미지 판독 및 프로세싱
CN110315961A (zh) 制冷剂和冷却剂级联回路的热系统拓扑
US10843722B2 (en) Systems and methods for controlling an input device of an autonomous vehicle
JP2019152896A (ja) 走行制御装置、走行制御方法およびプログラム
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
CN105974920A (zh) 一种无人驾驶系统
US20230215196A1 (en) Information processing apparatus, information processing method, and program
WO2020116194A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
US20230046691A1 (en) External environment sensor data prioritization for autonomous vehicle
US20210034884A1 (en) Information processing apparatus, information processing method, program, and mobile object
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
JP6943525B2 (ja) 情報提示装置、操舵装置、および情報提示方法
CN114120691A (zh) 使用远程辅助逐渐调整车辆传感器视角的方法和系统
US11110970B2 (en) Removable interior for reconfigurable vehicles
WO2020240398A1 (en) Electric vehicle with autonomous drive
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
US20230236593A1 (en) Systems and methods for controlling a trailer separately from a vehicle
US20230052669A1 (en) Sensor data prioritization for autonomous vehicle based on vehicle operation data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220208

R150 Certificate of patent or registration of utility model

Ref document number: 7023116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150