JP2023177663A - 連結車両の状態推定装置 - Google Patents

連結車両の状態推定装置 Download PDF

Info

Publication number
JP2023177663A
JP2023177663A JP2022090455A JP2022090455A JP2023177663A JP 2023177663 A JP2023177663 A JP 2023177663A JP 2022090455 A JP2022090455 A JP 2022090455A JP 2022090455 A JP2022090455 A JP 2022090455A JP 2023177663 A JP2023177663 A JP 2023177663A
Authority
JP
Japan
Prior art keywords
vehicle
unit
towed
towing
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022090455A
Other languages
English (en)
Inventor
キム タンチャン
Tan Chang Kim
裕人 今西
Yuto Imanishi
康宏 布施
Yasuhiro Fuse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2022090455A priority Critical patent/JP2023177663A/ja
Priority to PCT/JP2023/014097 priority patent/WO2023233815A1/ja
Publication of JP2023177663A publication Critical patent/JP2023177663A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】本開示は、外部の光学センサを利用して事業者の負担を軽減するとともに、牽引車または被牽引車が光学センサの死角に入った場合でも、牽引車と被牽引車のそれぞれの位置と姿勢を推定することが可能な連結車両の状態推定装置を提供する。【解決手段】連結車両10を構成する牽引車と被牽引車のそれぞれの位置と姿勢を含む車両状態を検出する連結車両の状態推定装置100である。状態推定装置100は、牽引車と前記被牽引車との間の屈曲角を取得する屈曲角取得部111と、連結車両10の外部に設置された光学センサ131の検出結果に基いて牽引車および被牽引車を認識可能な車両認識部132と、車両認識部132による牽引車または被牽引車の認識結果R11,R12と屈曲角とに基いて車両状態を推定可能な状態推定部121と、を備える。【選択図】図1

Description

本開示は、連結車両の状態推定装置に関する。
従来から牽引車を有する作業車両の運転を支援する運転支援システムに関する発明が知られている。たとえば、下記特許文献1に記載された従来の運転支援システムは、走行制御部と、携帯通信端末と、走行指示生成部と、を備えている(要約、第0006段落、請求項1等)。
前記走行制御部は、前記作業車両に備えられ、走行指示に従って当該走行車両の走行を制御する。前記携帯通信端末は、前記走行制御部との間で無線通信可能に構成され、タッチ操作可能な表示部を有する。前記走行指示生成部は、前記携帯通信端末の表示部に表示された走行操作画面に対する入力操作に基づいて前記走行指示を生成し、当該生成した走行指示を前記走行制御部に出力する。
この従来の運転支援システムは、次の構成を特徴としている。前記携帯通信端末が、衛星測位システムを利用して測定した前記作業車両の現在位置を地図情報とともに前記走行操作画面に表示する。また、前記走行指示生成部が、前記走行操作画面に表示した前記作業車両の現在位置に対するドラッグ操作に基づいて前記走行指示を生成する。
この従来の運転支援システムによれば、作業車両から降車して携帯通信端末を操作するユーザが、当該作業車両の周囲を確認しながら、当該携帯通信端末を用いて作業車両を遠隔で意図どおりに走行させることができる。したがって、この従来の運転支援システムによれば、牽引車を有する作業車両を走行させて所定の目標移動位置に移動させる場合であっても、意図どおり走行させるように当該作業車両の運転を支援することができる(特許文献1、第0007段落等)。
特開2019-175254号公報
連結車両は、カプラおよびキングピンなどの連結部を介して連結された牽引車と被牽引車と備え、牽引車と被牽引車と間の角度が変化する。そのため、連結車両にレベル4の自動運転などの高度な自動運転を行わせるためには、牽引車と被牽引車のそれぞれの位置と姿勢を正確に検出することが必要になる。しかし、このような高度な自動運転に必要な種々のセンサや電子制御装置を個々の連結車両に搭載することは、たとえば、多数の連結車両を所有する事業者にとって大きな負担になる。
本開示は、外部の光学センサを利用して事業者の負担を軽減するとともに、牽引車または被牽引車が光学センサの死角に入った場合でも、牽引車と被牽引車のそれぞれの位置と姿勢を推定することが可能な連結車両の状態推定装置を提供する。
本開示の一態様は、連結車両を構成する牽引車と被牽引車のそれぞれの位置と姿勢を含む車両状態を検出する連結車両の状態推定装置であって、前記牽引車と前記被牽引車との間の屈曲角を取得する屈曲角取得部と、前記連結車両の外部に設置された光学センサの検出結果に基いて前記牽引車および前記被牽引車を認識可能な車両認識部と、前記車両認識部による前記牽引車または前記被牽引車の認識結果と前記屈曲角とに基いて前記車両状態を推定可能な状態推定部と、を備えることを特徴とする連結車両の状態推定装置である。
本開示の上記一態様によれば、外部の光学センサを利用して事業者の負担を軽減するとともに、牽引車または被牽引車が光学センサの死角に入った場合でも、牽引車と被牽引車のそれぞれの位置と姿勢を推定することが可能な連結車両の状態推定装置を提供することができる。
本開示に係る連結車両の状態推定装置の一実施形態を示すブロック図。 図1の状態推定装置により車両状態を推定する連結車両の一例を示す側面図。 図1の連結車両の状態推定装置の処理の一例を示すフロー図。 図1の連結車両のODDにおける連結車両の状態の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。 図1の連結車両のODDにおける連結車両の状態の他の一例を示す平面図。
以下、図面を参照して本開示に係る連結車両の状態推定装置の実施形態を説明する。
図1は、本開示に係る連結車両の状態推定装置の一実施形態を示すブロック図である。図2は、図1の状態推定装置100により車両状態を推定する連結車両10の一例を示す側面図である。
本実施形態の連結車両の状態推定装置100による検出対象は、たとえば、図2に示すように、被牽引車(トレーラー)12を牽引する牽引車(トレーラーヘッド)11と、牽引車11によって牽引される被牽引車12とによって構成される連結車両10である。牽引車11と被牽引車12は、たとえば、ピントルフックとドローバーアイまたはカプラとキングピンなどの連結部13によって連結され、連結部13を中心に所定の屈曲角の範囲で屈曲可能である。被牽引車12の上には、たとえば、コンテナ14が積載される。
本実施形態の連結車両の状態推定装置100は、連結車両10を構成する牽引車11と被牽引車12のそれぞれの位置と姿勢を含む車両状態を検出または推定する。状態推定装置100は、たとえば、図1に示すように、連結車両10に搭載された電子制御装置(ECU)110、連結車両10の外部に設置されるサーバ120、または、連結車両10の外部に設置されて光学センサ131を含む路側ユニット130の少なくとも一つによって構成することができる。
サーバ120は、たとえば、ネットワークを介して無線基地局20に接続され、ネットワークおよび無線基地局20を介して連結車両10に搭載された通信装置15と通信可能に接続される。路側ユニット130は、たとえば、交差点、駐車場、倉庫、工場などの複雑な環境に設置され、ネットワークを介してサーバ120と通信可能に接続され、状態推定装置100による連結車両10の位置および姿勢の推定を支援する。なお、路側ユニット130が通信装置を備える場合、サーバ120は、ネットワークおよび無線基地局20を介して路側ユニット130の通信装置と通信可能に接続されてもよい。
本実施形態の連結車両の状態推定装置100は、屈曲角取得部111と、車両認識部132と、状態推定部121とを備えている。また、状態推定装置100は、たとえば、走行情報取得部112をさらに備えている。また、状態推定装置100は、たとえば、遮蔽検出部122と、車両制御部115と、状態管理部123との少なくとも一つを備えていてもよい。これらの状態推定装置100の各部は、たとえば、連結車両10、サーバ120、または路側ユニット130に搭載されたECUもしくはマイクロコントローラによって構成することができる。
すなわち、本実施形態の連結車両の状態推定装置100の各部は、たとえば、メモリに記録されたプログラムを中央処理装置(CPU)によって実行することで実現される状態推定装置100の各機能を表している。なお、本実施形態の連結車両の状態推定装置100は、個々の部分を一つのECUまたはマイクロコントローラによって構成してもよく、複数の部分を一つのECUまたはマイクロコントローラによって構成してもよい。以下、本実施形態の状態推定装置100の構成をより詳細に説明する。
屈曲角取得部111は、牽引車11と被牽引車12との間の屈曲角を取得する。より詳細には、連結車両10は、屈曲角を検出する屈曲角センサ16を備えている。屈曲角取得部111は、屈曲角センサ16に接続され、屈曲角センサ16の検出結果に基いて牽引車11と被牽引車12との間の屈曲角を取得する。屈曲角センサ16は、特に限定はされないが、たとえば、牽引車11と被牽引車12との間の連結部13に取り付けられたエンコーダ、または、牽引車11と被牽引車12との間の距離を測定する一つ以上の超音波センサもしくはレーダセンサなどを使用することができる。
走行情報取得部112は、牽引車11の操舵角と走行距離を含む走行情報を取得する。図1に示す例において、連結車両10は、牽引車11の操舵角を検出する操舵角センサ17と、牽引車11の走行距離を検出する走行距離センサ18とを備えている。走行情報取得部112は、操舵角センサ17の検出結果が入力される操舵角取得部113と、走行距離センサ18の検出結果が入力される走行距離取得部114とを含む。
操舵角センサ17と走行距離センサ18は、それぞれ、牽引車11の操舵角と走行距離に応じた検出結果を操舵角取得部113と走行距離取得部114へ出力する。操舵角取得部113と走行距離取得部114は、それぞれ、操舵角センサ17と走行距離センサ18の検出結果に基いて、牽引車11の操舵角と走行距離を含む走行情報を取得する。牽引車11の走行情報は、たとえば、牽引車11の速度を含んでもよい。
図1に示す例において、屈曲角取得部111および走行情報取得部112は、たとえば、連結車両10の牽引車11に搭載されたECU110によって構成されている。なお、屈曲角取得部111および走行情報取得部112は、必ずしも連結車両10に搭載されている必要はなく、サーバ120または路側ユニット130に設けられていてもよい。この場合、屈曲角センサ16、操舵角センサ17、および走行距離センサ18の検出結果は、連結車両10に搭載された通信装置15を介して連結車両10の外部の屈曲角取得部111および走行情報取得部112へ送信される。
車両制御部115は、たとえば、牽引車11と被牽引車12との間の屈曲角と、牽引車11の操舵角と、牽引車11の走行情報と、連結車両10に搭載された通信装置15を介して取得した連結車両10の車両状態とに基いて、連結車両10の走行を制御する。また、車両制御部115は、たとえば、牽引車11と被牽引車12との間の屈曲角と、牽引車11の操舵角と、牽引車11の走行情報とを、連結車両10に搭載された通信装置15および無線基地局20を介してサーバ120へ送信する。車両制御部115は、たとえば、連結車両10の牽引車11に搭載されたECU110によって構成されている。
車両認識部132は、連結車両10の外部に設置された光学センサ131の検出結果に基いて牽引車11および被牽引車12を認識可能に構成されている。光学センサ131は、いわゆるインフラセンサであり、連結車両10の運行設計領域(ODD)を監視して連結車両10を検出するセンサである。本実施形態において、連結車両10のODDは、たとえば、全球測位衛星システム(GNSS)の電波が届かない工場、倉庫、または駐車場などの屋内を含む。
光学センサ131は、たとえば、単眼カメラやステレオカメラなどの撮像装置と、LiDAR(Light Detection And Ranging)などのレーザレーダの少なくとも一方を含む。光学センサ131は、所定の検出範囲内の物体を検出し、検出結果を車両認識部132へ出力する。なお、車両認識部132は、たとえば、複数の光学センサ131の検出結果に基いて牽引車11および被牽引車12を認識することも可能である。この場合、複数の光学センサ131は、すべて撮像装置であってもよく、すべてレーザレーダであってもよく、撮像装置とレーザレーダが混在してもよい。
車両認識部132は、たとえば、連結車両10の外部に設置され、光学センサ131を含む路側ユニット130に搭載されたECUまたはマイクロコントローラによって構成される。なお、車両認識部132は、必ずしも路側ユニット130に設けられていなくてもよい。たとえば、車両認識部132が、サーバ120または連結車両10に設けられている場合、路側ユニット130は、光学センサ131の検出結果を、有線通信回線または無線通信回線を介して、サーバ120または連結車両10へ送信することができる。
車両認識部132は、たとえば、車両識別部133と、牽引車認識部134と、被牽引車認識部135とを有している。車両識別部133は、光学センサ131の検出結果から牽引車11と被牽引車12を識別する。牽引車認識部134は、車両識別部133の識別結果に基いて牽引車11の位置と姿勢を含む認識結果R11を状態推定部121へ送信する。被牽引車認識部135は、車両識別部133の識別結果に基いて被牽引車12の位置と姿勢を含む認識結果R12を状態推定部121へ送信する。
状態推定部121は、車両認識部132による牽引車11または被牽引車12の認識結果と、牽引車11と被牽引車12との間の屈曲角とに基いて、牽引車11と被牽引車12のそれぞれの位置と姿勢を含む車両状態を推定可能な構成を有している。状態推定部121は、たとえば、屈曲角、車両認識部132による認識結果R11,R12、および走行情報取得部112によって取得された連結車両10の走行情報に基いて、より正確な車両状態を推定してもよい。
状態推定部121は、たとえば、サーバ120に設けられている。状態推定部121は、たとえば、連結車両10において、屈曲角センサ16によって検出されて屈曲角取得部111によって取得され、通信装置15を介してサーバ120へ送信された屈曲角を取得する。なお、状態推定部121は、必ずしもサーバ120に設けられていなくてもよく、連結車両10または路側ユニット130に設けられていてもよい。
遮蔽検出部122は、車両認識部132の認識結果R11または認識結果R12に基いて牽引車11または被牽引車12と光学センサ131との間が遮蔽されていることを検出する。遮蔽検出部122は、たとえば、サーバ120に設けられ、牽引車11または被牽引車12の遮蔽の有無の検出結果とともに、車両認識部132から入力される認識結果R11,R12を状態推定部121へ出力する。なお、遮蔽検出部122は、必ずしもサーバ120に設けられていなくてもよく、たとえば、路側ユニット130に設けられていてもよい。
状態推定部121は、たとえば、牽引車状態推定部124と、被牽引車状態推定部125とを有している。牽引車状態推定部124は、連結車両10の屈曲角取得部111から通信装置15を介して送信された牽引車11と被牽引車12との間の屈曲角と、牽引車認識部134による牽引車11の認識結果R11と、遮蔽検出部122の検出結果を入力とする。牽引車状態推定部124は、これらの入力に基いて、牽引車11の位置と姿勢を推定する。
被牽引車状態推定部125は、連結車両10の屈曲角取得部111から通信装置15を介して送信された牽引車11と被牽引車12との間の屈曲角と、被牽引車認識部135による被牽引車12の認識結果R12と、遮蔽検出部122の検出結果を入力とする。被牽引車状態推定部125は、これらの入力に基いて、被牽引車12の位置と姿勢を推定する。
以下、図3から図9を参照して、本実施形態の連結車両の状態推定装置100の動作を説明する。
図3は、図1の連結車両の状態推定装置100の処理の一例を示すフロー図である。図4は、連結車両10のODDにおける連結車両10の状態、光学センサ131の検出結果に基く連結車両10の認識結果R10、および連結車両10の車両状態の推定結果E10の一例を示す平面図である。
図4に示すように、連結車両10が、たとえば、GNSSの電波が届かない工場、倉庫、または駐車場などの屋内を含むODDに到達すると、連結車両10の外部に設置された光学センサ131によって連結車両10が検出される。すると、連結車両の状態推定装置100によって、図3に示す処理が開始され、光学センサ131の検出結果を取得する処理P1が実行される。この処理P1において、連結車両の状態推定装置100は、たとえば、路側ユニット130の光学センサ131の検出結果を、車両認識部132によって取得する。
より詳細には、車両認識部132の車両識別部133は、入力された光学センサ131の検出結果から、連結車両10の牽引車11に対応する検出結果を分離して、牽引車認識部134へ出力する。また、車両識別部133は、入力された光学センサ131の検出結果から、連結車両10の被牽引車12に対応する検出結果を分離して、被牽引車認識部135へ出力する。
牽引車認識部134は、車両識別部133から入力された光学センサ131による牽引車11の検出結果に基いて、牽引車11の位置および姿勢を認識して、状態推定部121へ認識結果R11を出力する。被牽引車認識部135は、車両識別部133から入力された光学センサ131による被牽引車12の検出結果に基いて、被牽引車12の位置および姿勢を認識して、認識結果R12を状態推定部121へ出力する。
図4に示す例では、連結車両10のODDを監視する光学センサ131の検出範囲に連結車両10の全体が含まれ、光学センサ131と牽引車11、被牽引車12およびコンテナ14との間に障害物が存在しない。この場合、車両認識部132による連結車両10の認識結果R10は、牽引車11および被牽引車12のそれぞれの側部の認識結果R11,R12を含む。牽引車11の認識結果R11と、被牽引車12の認識結果R12は、それぞれ、路側ユニット130に設けられた車両認識部132の牽引車認識部134と被牽引車認識部135から、ネットワークを介してサーバ120へ送信される。
路側ユニット130の車両認識部132から送信された牽引車11と被牽引車12の認識結果R11,R12は、たとえば、サーバ120の状態推定部121、遮蔽検出部122、および状態管理部123へ入力される。遮蔽検出部122は、たとえば、入力された牽引車11と被牽引車12の認識結果R11,R12に基いて、光学センサ131と、牽引車11および被牽引車12との間が遮蔽されていないことを検出する。
遮蔽検出部122は、たとえば、光学センサ131と連結車両10との間の遮蔽の有無の検出結果とともに、牽引車11と被牽引車12の認識結果R11,R12を、それぞれ、牽引車状態推定部124と被牽引車状態推定部125へ出力する。図4に示す例において、遮蔽検出部122は、認識結果R11,R12とともに、光学センサ131と牽引車11および被牽引車12との間が遮蔽されていないことを出力する。
次に、連結車両の状態推定装置100は、図3に示す処理P2を実行する。この処理P2において、サーバ120に設けられた状態推定部121は、入力された牽引車11および被牽引車12の認識結果R11,R12に基いて、牽引車11と被牽引車12の双方を認識できたか否かを判定する。図4に示す例において、牽引車11と被牽引車12と光学センサ131との間は遮蔽されておらず、牽引車11と被牽引車12の双方の認識結果R11,R12が得られている。
したがって、状態推定部121は、処理P2において、牽引車11と被牽引車12の双方が認識可であること(YES)を判定し、次の処理P3を実行する。この処理P3において、状態推定部121は、たとえば、記憶装置にあらかじめ記憶された牽引車11および被牽引車12の3次元モデルと、牽引車11および被牽引車12の認識結果R11,R12とに基いて、牽引車11および被牽引車12の位置と姿勢を推定する。
より具体的には、状態推定部121の牽引車状態推定部124は、たとえば、牽引車11の3次元モデルと、牽引車11の認識結果R11とに基いて、牽引車11の全体の位置と姿勢を含む推定結果E11を出力する。また、状態推定部121の被牽引車状態推定部125は、たとえば、被牽引車12の三次元モデルと、被牽引車12の認識結果R12とに基いて、被牽引車12の全体の位置と姿勢を含む推定結果E12を出力する。
なお、状態推定部121は、連結車両10の位置と姿勢を含む車両状態の推定時に、牽引車11と被牽引車12との間の屈曲角、牽引車11と被牽引車12の認識結果R11,R12に加えて、牽引車11の操舵角と走行距離を含む走行情報を用いてもよい。牽引車11の走行情報は、前述のように、連結車両10に搭載された走行情報取得部112によって取得され、たとえば、通信装置15、無線基地局20、およびネットワークを介して状態推定部121へ入力される。
状態管理部123は、たとえば、状態推定部121から入力された牽引車11の推定結果E11および被牽引車12の推定結果E12と、車両認識部132から入力された認識結果R11,R12とに基いて、連結車両10の全体の位置と姿勢を含む推定結果E10を生成する。状態管理部123は、たとえば、連結車両10の推定結果E10を路側ユニット130の車両識別部133へ送信するとともに、無線基地局20および通信装置15を介して連結車両10の車両制御部115へ送信する。
これにより、連結車両10において、連結車両10の全体の位置および姿勢を含む推定結果E10を利用して、たとえば、レベル4などの高度な自動運転を行うことが可能になる。なお、状態管理部123は、連結車両10の位置および姿勢を含む推定結果E11を、連結車両10以外の連結車両、他の車両、携帯情報端末などに送信してもよい。これにより、連結車両10の安全性をより向上させることができる。その後、連結車両の状態推定装置100は、図4に示す処理フローを終了させ、たとえば、所定の周期で繰り返す。
図5から図7は、連結車両10のODDにおける連結車両10の状態、光学センサ131の検出結果に基く牽引車11の認識結果R11、および連結車両10の車両状態の推定結果E10の他の一例を示す平面図である。
図5に示す例において、光学センサ131は、連結車両10を正面から検出しているが、被牽引車12は牽引車11の死角に入っている。図6に示す例において、光学センサ131は、連結車両10を斜め前方から検出しているが、被牽引車12は光学センサ131と被牽引車12との間に置かれたコンテナ14の死角に入っている。図7に示す例において、光学センサ131は、連結車両10を斜め後方から検出しているが、牽引車11は被牽引車12およびコンテナ14の死角に入っている。
図5および図6に示す状態で連結車両の状態推定装置100が図3に示す処理フローを開始すると、処理P1において、光学センサ131の検出結果として、牽引車11の検出結果のみが車両認識部132の車両識別部133へ入力される。車両識別部133は、入力された牽引車11の検出結果を牽引車認識部134へ出力するが、被牽引車認識部135へ被牽引車12の検出結果を出力しない。
この場合、牽引車認識部134は、車両識別部133から入力された牽引車11の検出結果に基いて、牽引車11の位置および姿勢を認識して、認識結果R11をサーバ120へ送信する。一方、被牽引車認識部135は、車両識別部133から被牽引車12の検出結果が入力されないため、被牽引車12の認識結果R12をサーバ120へ送信しない。
また、図7に示す状態で連結車両の状態推定装置100が図3に示す処理フローを開始すると、処理P1において、光学センサ131の検出結果として、被牽引車12の検出結果のみが車両認識部132の車両識別部133へ入力される。車両識別部133は、入力された被牽引車12の検出結果を被牽引車認識部135へ出力するが、牽引車認識部134へ牽引車11の検出結果を出力しない。
この場合、被牽引車認識部135は、車両識別部133から入力された被牽引車12の検出結果に基いて、被牽引車12の位置および姿勢を認識して、認識結果R12をサーバ120へ送信する。一方、牽引車認識部134は、車両識別部133から牽引車11の検出結果が入力されないため、牽引車11の認識結果R11をサーバ120へ送信しない。
なお、牽引車認識部134は、車両識別部133から牽引車11の検出結果が入力されなかった場合に、牽引車11の認識結果R11として、認識結果R11が認識不可であることをサーバ120へ送信するようにしてもよい。同様に、被牽引車認識部135は、車両識別部133から被牽引車12の検出結果が入力されなかった場合に、被牽引車12の認識結果R12として、被牽引車12が認識不可であることをサーバ120へ送信するようにしてもよい。
遮蔽検出部122は、たとえば、路側ユニット130の車両認識部132から牽引車11の認識結果R11のみが入力されると、光学センサ131と被牽引車12との間が遮蔽されていることを検出する。また、遮蔽検出部122は、たとえば、路側ユニット130の車両認識部132から被牽引車12の認識結果R12のみが入力されると、光学センサ131と牽引車11との間が遮蔽されていることを検出する。
図5および図6に示す例において、遮蔽検出部122は、たとえば、牽引車11の認識結果R11を牽引車状態推定部124へ出力するとともに、光学センサ131と被牽引車12との間が遮蔽されていることを被牽引車状態推定部125へ出力する。また、図7に示す例において、遮蔽検出部122は、たとえば、被牽引車12の認識結果R12を状態推定部121の被牽引車状態推定部125へ出力するとともに、光学センサ131と牽引車11との間が遮蔽されていることを牽引車状態推定部124へ出力する。
次に、連結車両の状態推定装置100は、図3に示す処理P2を実行する。この処理P2において、サーバ120に設けられた状態推定部121は、入力された牽引車11または被牽引車12の認識結果R11,R12に基いて、牽引車11と被牽引車12の双方を認識できたか否かを判定する。図5から図7に示す例では、牽引車11または被牽引車12と光学センサ131との間が遮蔽され、牽引車11の認識結果R11または被牽引車12の認識結果R12のみが得られている。
したがって、状態推定部121は、処理P2において、牽引車11と被牽引車12のいずれか一方が認識されていないこと(NO)を判定し、次の処理P4を実行する。この処理P4において、連結車両の状態推定装置100は、被牽引車12が認識可であるか否かを判定する。より詳細には、この処理P4において、連結車両10が図7に示すような状態である場合、状態推定部121は、入力された認識結果R12などの情報に基いて、被牽引車12が認識可であること(YES)を判定し、次の処理P5および処理P6を実行する。
処理P5において、状態推定部121は、たとえば、記憶装置にあらかじめ記憶された牽引車11の3次元モデルと、被牽引車12の認識結果R12と、牽引車11と被牽引車12との間の屈曲角とに基いて、牽引車11の位置と姿勢を推定する。より具体的には、状態推定部121の牽引車状態推定部124は、処理P5において、たとえば、被牽引車12の認識結果R12と、牽引車11の3次元モデルと、牽引車11と被牽引車12との間の屈曲角とに基いて、牽引車11の全体の位置と姿勢を推定する。
その後、状態推定部121の牽引車状態推定部124は、処理P6において、牽引車11の全体の位置と姿勢を含む推定結果E11を出力する。なお、状態推定部121の被牽引車状態推定部125は、たとえば、処理P5において、被牽引車12の三次元モデルと、被牽引車12の認識結果R12とに基いて、被牽引車12の全体の位置と姿勢を推定し、処理P6において、その推定結果E12を出力するようにしてもよい。
その後、状態管理部123は、たとえば、入力された牽引車11の推定結果E11および被牽引車12の推定結果E12に基いて、連結車両10の全体の位置と姿勢を含む推定結果E10を生成する。状態管理部123は、たとえば、連結車両10の推定結果E10を路側ユニット130の車両識別部133へ送信するとともに、無線基地局20および通信装置15を介して連結車両10の車両制御部115へ送信する。その後、連結車両の状態推定装置100は、図3に示す処理フローを終了させ、たとえば、所定の周期で繰り返す。
一方、連結車両10が図5および図6に示すような状態である場合、前述の処理P4において、状態推定部121は、被牽引車12が認識不可であること(NO)を判定し、次の処理P7を実行する。この処理P7において、状態推定部121は、入力された情報に基いて牽引車11が認識可であるか否かを判定する。連結車両10が図5および図6に示すような状態である場合、状態推定部121に牽引車11の認識結果R11が入力される。
そのため、この処理P7において、状態推定部121は、牽引車11が認識可であること(YES)を判定し、次の処理P8を実行する。この処理P8において、状態推定部121の被牽引車状態推定部125は、たとえば、牽引車11の認識結果R11と、被牽引車12の3次元モデルと、牽引車11と被牽引車12との間の屈曲角とに基いて、被牽引車12の全体の位置と姿勢を推定する。
その後、状態推定部121の被牽引車状態推定部125は、処理P6において、被牽引車12の全体の位置と姿勢を含む推定結果E12を出力する。なお、状態推定部121の牽引車状態推定部124は、たとえば、処理P8において、牽引車11の三次元モデルと、牽引車11の認識結果R11とに基いて、牽引車11の全体の位置と姿勢を推定し、処理P6において、その推定結果E11を出力するようにしてもよい。
その後、状態管理部123は、たとえば、入力された牽引車11の推定結果E11および被牽引車12の推定結果E12に基いて、連結車両10の全体の位置と姿勢を含む推定結果E10を生成する。状態管理部123は、たとえば、連結車両10の推定結果E10を路側ユニット130の車両識別部133へ送信するとともに、無線基地局20および通信装置15を介して連結車両10の車両制御部115へ送信する。
その後、連結車両の状態推定装置100は、図3に示す処理フローを終了させ、たとえば、所定の周期で繰り返す。なお、光学センサ131によって牽引車11および被牽引車12の双方が検出されなかった場合、状態推定部121に牽引車11および被牽引車12のいずれの認識結果R11,R12も入力されない。この場合、前述の処理P7において、状態推定部121は、牽引車11が認識不可であること(NO)を判定する。その後、連結車両の状態推定装置100は、再度、処理P1を実行する。
以下、本実施形態の連結車両の状態推定装置100の作用を説明する。
前述のように、光学センサ131によって監視されている連結車両10のODDにおいて、牽引車11、被牽引車12、またはコンテナ14などの物体が、光学センサ131に死角を生じさせることがある。連結車両10のODDに存在する物体の位置および姿勢は動的に変化し得る。また、連結車両10のODDは、たとえば、GNSSの電波が届かない工場、倉庫、または駐車場などの屋内を含む。
連結車両10の牽引車11、被牽引車12、またはコンテナ14などの物体が光学センサ131の検出範囲の一部を遮蔽すると、連結車両10の移動中に牽引車11または被牽引車12が光学センサ131によって検出できなくなる。このような場合、光学センサ131による物体検出の精度が低下して、安全性が低下するおそれがある。
これに対し、本実施形態の連結車両の状態推定装置100は、連結車両10を構成する牽引車11と被牽引車12のそれぞれの位置と姿勢を含む車両状態を検出する。連結車両の状態推定装置100は、牽引車11と被牽引車12との間の屈曲角を取得する屈曲角取得部111と、連結車両10の外部に設置された光学センサ131の検出結果に基いて牽引車11および被牽引車12を認識可能な車両認識部132を備えている。連結車両の状態推定装置100は、さらに、車両認識部132による牽引車11の認識結果R11または被牽引車12の認識結果R12と、牽引車11と被牽引車12との間の屈曲角とに基いて車両状態を推定可能な状態推定部121を備えている。
このような構成により、本実施形態の連結車両の状態推定装置100によれば、GNSSが利用できない場合でも、連結車両10のODDを監視する光学センサ131の検出結果を利用することで、連結車両10の牽引車11と被牽引車12のそれぞれの位置と姿勢を正確に推定することができる。このように、連結車両10のODDに設置された光学センサ131の検出結果を利用することで、レベル2の自動運転が可能なセンサやECUを搭載した連結車両10によって、コストの増加を抑制しつつより高度なレベル4の自動運転が可能になる。さらに、光学センサ131によって牽引車11と被牽引車12のいずれか一方が検出できない場合でも、検出できなかった牽引車11または被牽引車12の位置と姿勢を推定することができる。すなわち、本実施形態の連結車両の状態推定装置100は、たとえば、連結車両10の経路にGNSSを利用できない場所を含む場合でも、その場所に光学センサ131を設置することで、連結車両10によるコンテナ14の輸送の自動化が可能になる。
また、本実施形態の連結車両の状態推定装置100は、牽引車11の操舵角と走行距離を含む走行情報を取得する走行情報取得部112をさらに備えている。そして、状態推定部121は、牽引車11と被牽引車12との間の屈曲角、牽引車11の認識結果R11または被牽引車12の認識結果R12、および牽引車11の走行情報に基いて、牽引車11と被牽引車12のそれぞれの位置と姿勢を含む車両状態を推定する。
このような構成により、本実施形態の連結車両の状態推定装置100は、牽引車11の走行情報を用いて、牽引車11と被牽引車12のそれぞれの位置と姿勢を含む車両状態を、より正確に推定することが可能になる。
また、本実施形態の連結車両の状態推定装置100は、連結車両10の外部に設置されて連結車両10に搭載された通信装置15と通信可能なサーバ120と、連結車両10の外部に設置されて光学センサ131を含むとともにサーバ120に接続される路側ユニット130とを備えている。そして、屈曲角取得部111は、連結車両10に搭載され、車両認識部132は、路側ユニット130に設けられ、状態推定部121は、サーバ120に設けられている。
このような構成により、連結車両10に搭載された屈曲角取得部111によって取得した連結車両10の屈曲角を、通信装置15を介してサーバ120に送信し、サーバ120に設けられた状態推定部121によって取得することができる。また、光学センサ131を含む路側ユニット130に設けられた車両認識部132によって牽引車11および被牽引車12を認識し、その認識結果R11,R12をサーバ120に設けられた状態推定部121へ送信することができる。これにより、光学センサ131の検出結果を路側ユニット130からサーバ120へ送信する場合と比較して、データ通信量を削減することが可能になる。
また、本実施形態の連結車両の状態推定装置100において、車両認識部132は、車両識別部133と、牽引車認識部134と、被牽引車認識部135とを有している。車両識別部133は、光学センサ131の検出結果から牽引車11と被牽引車12を識別する。牽引車認識部134は、車両識別部133の識別結果に基いて牽引車11の位置と姿勢を含む認識結果R11を状態推定部121へ送信する。被牽引車認識部135は、車両識別部133の識別結果に基いて被牽引車12の位置と姿勢を含む認識結果R12を状態推定部121へ送信する。
このような構成により、本実施形態の連結車両の状態推定装置100によれば、光学センサ131の検出結果から、牽引車11の認識結果R11と、被牽引車12の認識結果R12とを分離して取得することが可能になる。また、路側ユニット130からサーバ120へ、牽引車11の認識結果R11と、被牽引車12の認識結果R12とを分離して送信することで、データ通信量を削減することができる。
また、本実施形態の連結車両の状態推定装置100において、連結車両10は、牽引車11と被牽引車12との間の屈曲角を検出する屈曲角センサ16を備えている。状態推定部121は、屈曲角センサ16によって検出されて屈曲角取得部111によって取得され、通信装置15を介してサーバ120へ送信された屈曲角を取得する。
このような構成により、連結車両10の屈曲角センサ16から牽引車11と被牽引車12との間の屈曲角に応じて出力される検出結果を屈曲角取得部111へ入力し、屈曲角取得部111によって屈曲角を演算して取得することができる。また、屈曲角取得部111によって取得された屈曲角を、連結車両10から通信装置15を介してサーバ120へ送信することで、屈曲角センサ16の検出結果をサーバ120へ送信する場合と比較して、データ通信量を削減することができる。
また、本実施形態の連結車両の状態推定装置100は、車両認識部132の認識結果R11,R12に基いて牽引車11または被牽引車12と光学センサ131との間が遮蔽されていることを検出する遮蔽検出部122をさらに備えている。このような構成により、状態推定部121は、遮蔽検出部122による遮蔽の有無の検出結果に基いて、牽引車11または被牽引車12のいずれかが認識不可であることを把握し、認識できなかった牽引車11または被牽引車12の位置および姿勢を推定することができる。
以上説明したように、本実施形態によれば、外部の光学センサ131を利用して事業者の負担を軽減するとともに、牽引車11または被牽引車12が光学センサ131の死角に入った場合でも、牽引車11と被牽引車12のそれぞれの位置と姿勢を推定することが可能な連結車両の状態推定装置100を提供することができる。なお、本開示に係る連結車両の状態推定装置は、前述の実施形態に限定されない。以下、図8から図10までを参照して、前述の実施形態に係る連結車両の状態推定装置100のいくつかの変形例を説明する。
図8は、前述の実施形態に係る連結車両の状態推定装置100の変形例1を示す平面図であり、図1の連結車両10のODDにおける連結車両10の状態の他の一例を示す平面図である。本変形例において、路側ユニット130は、複数の光学センサ131A,131Bを備えている。複数の光学センサ131A,131Bは、たとえば、同一の車両識別部133に接続されている。
車両識別部133は、たとえば、複数の光学センサ131A,131Bのうち、一つの光学センサ131Aによって認識された被牽引車12の認識結果R12Aと、他の光学センサ131Bによって認識された牽引車11および被牽引車12の認識結果R11B,R12Bとを統合する。さらに、車両識別部133は、統合した認識結果から、牽引車11の認識結果を分離して牽引車認識部134へ出力するとともに、被牽引車12の認識結果を分離して被牽引車認識部135へ出力する。
すなわち、本変形例の連結車両の状態推定装置100において、車両識別部133は、複数の光学センサ131A,131Bの検出結果に基いて牽引車11および被牽引車12を認識する。これにより、連結車両10のODDにおいて、光学センサ131A,131Bの死角を減少させ、より正確に牽引車11および被牽引車12の位置および姿勢を検出または推定することが可能になる。
図9は、前述の実施形態に係る連結車両の状態推定装置100の変形例2を示す平面図であり、図1の連結車両10のODDにおける連結車両10Aの状態の他の一例を示す平面図である。本変形例において、連結車両10Aは、一つの牽引車11と、複数の被牽引車12とを備えている。前後に並んだ被牽引車12の間は、牽引車11と被牽引車12との間の連結部13と同様の連結部13によって連結されている。
光学センサ131は、連結車両10Aの複数の被牽引車12のうち、隣り合う二つの被牽引車12を検出しているが、牽引車11と他の被牽引車12は、コンテナ14の死角に入って検出されない。したがって、車両認識部132は、隣り合う二つの被牽引車12の認識結果R12,R12を出力する。この場合、状態推定部121は、車両認識部132の認識結果の時系列データを用いて、連結車両10Aの一つの牽引車11の位置および姿勢の推定結果E11と、複数の被牽引車12の位置および姿勢の推定結果E12を得ることができる。
図10は、前述の実施形態に係る連結車両の状態推定装置100の変形例3を示す平面図であり、図1の連結車両10のODDにおける連結車両10Aの状態の他の一例を示す平面図である。本変形例において、連結車両10Aは、前述の変形例2と同様に複数の被牽引車12とを備えている。この場合、状態推定部121は、たとえば、車両認識部132の認識結果R11,R12に基いて、光学センサ131の死角となる死角領域BAを算出してもよい。
本変形例の連結車両の状態推定装置100によれば、状態推定部121によって算出した死角領域BAの情報を、他の連結車両10、サーバ120、および路側ユニット130などの間で共有することで、連結車両10の安全性を向上させることが可能になる。
以上、図面を用いて本開示に係る連結車両の状態推定装置の実施形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲における設計変更等があっても、それらは本開示に含まれるものである。
10 連結車両
10A 連結車両
11 牽引車
12 被牽引車
15 通信装置
16 屈曲角センサ
100 連結車両の状態推定装置
111 屈曲角取得部
112 走行情報取得部
120 サーバ
121 状態推定部
122 遮蔽検出部
130 路側ユニット
131 光学センサ
132 車両認識部
133 車両識別部
134 牽引車認識部
135 被牽引車認識部
R11 認識結果
R11B 認識結果
R12 認識結果
R12A 認識結果
R12B 認識結果

Claims (7)

  1. 連結車両を構成する牽引車と被牽引車のそれぞれの位置と姿勢を含む車両状態を検出する連結車両の状態推定装置であって、
    前記牽引車と前記被牽引車との間の屈曲角を取得する屈曲角取得部と、
    前記連結車両の外部に設置された光学センサの検出結果に基いて前記牽引車および前記被牽引車を認識可能な車両認識部と、
    前記車両認識部による前記牽引車または前記被牽引車の認識結果と前記屈曲角とに基いて前記車両状態を推定可能な状態推定部と、
    を備えることを特徴とする連結車両の状態推定装置。
  2. 前記状態推定装置は、前記牽引車の操舵角と走行距離を含む走行情報を取得する走行情報取得部をさらに備え、
    前記状態推定部は、前記屈曲角、前記認識結果、および前記走行情報に基いて前記車両状態を推定することを特徴とする請求項1に記載の連結車両の状態推定装置。
  3. 前記状態推定装置は、前記連結車両の外部に設置されて前記連結車両に搭載された通信装置と通信可能なサーバと、前記連結車両の外部に設置されて前記光学センサを含むとともに前記サーバに接続される路側ユニットとを備え、
    前記屈曲角取得部は、前記連結車両に搭載され、
    前記車両認識部は、前記路側ユニットに設けられ、
    前記状態推定部は、前記サーバに設けられていることを特徴とする請求項1に記載の連結車両の状態推定装置。
  4. 前記車両認識部は、前記光学センサの検出結果から前記牽引車と前記被牽引車を識別する車両識別部と、前記車両識別部の識別結果に基いて前記牽引車の位置と姿勢を含む認識結果を前記状態推定部へ送信する牽引車認識部と、前記車両識別部の識別結果に基いて前記被牽引車の位置と姿勢を含む認識結果を前記状態推定部へ送信する被牽引車認識部と、を有することを特徴とする請求項3に記載の連結車両の状態推定装置。
  5. 前記連結車両は、前記屈曲角を検出する屈曲角センサを備え、
    前記状態推定部は、前記屈曲角センサによって検出されて前記屈曲角取得部によって取得され、前記通信装置を介して前記サーバへ送信された前記屈曲角を取得することを特徴とする請求項3に記載の連結車両の状態推定装置。
  6. 前記車両認識部は、複数の前記光学センサの検出結果に基いて前記牽引車および前記被牽引車を認識することを特徴とする請求項1に記載の連結車両の状態推定装置。
  7. 前記状態推定装置は、前記車両認識部の認識結果に基いて前記牽引車または前記被牽引車と前記光学センサとの間が遮蔽されていることを検出する遮蔽検出部をさらに備えることを特徴とする請求項1に記載の連結車両の状態推定装置。
JP2022090455A 2022-06-02 2022-06-02 連結車両の状態推定装置 Pending JP2023177663A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022090455A JP2023177663A (ja) 2022-06-02 2022-06-02 連結車両の状態推定装置
PCT/JP2023/014097 WO2023233815A1 (ja) 2022-06-02 2023-04-05 連結車両の状態推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022090455A JP2023177663A (ja) 2022-06-02 2022-06-02 連結車両の状態推定装置

Publications (1)

Publication Number Publication Date
JP2023177663A true JP2023177663A (ja) 2023-12-14

Family

ID=89026186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022090455A Pending JP2023177663A (ja) 2022-06-02 2022-06-02 連結車両の状態推定装置

Country Status (2)

Country Link
JP (1) JP2023177663A (ja)
WO (1) WO2023233815A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10035223A1 (de) * 2000-07-20 2002-01-31 Daimler Chrysler Ag Vorrichtung und Verfahren zur Überwachung der Umgebung eines Objekts
DE102013214368A1 (de) * 2013-07-23 2015-01-29 Application Solutions (Electronics and Vision) Ltd. Verfahren und Vorrichtung zur Wiedergabe eines seitlichen und/oder rückwärtigen Umgebungsbereichs eines Fahrzeugs
NL2015843B1 (en) * 2015-11-23 2017-06-07 Daf Trucks Nv Auto docking method for application in heavy trucks.
JP2019020171A (ja) * 2017-07-12 2019-02-07 株式会社デンソー 車幅検出装置、車幅検出方法、およびプログラム
DE102017223098A1 (de) * 2017-12-18 2019-06-19 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung eines Relativwinkels zwischen zwei Fahrzeugen
JP2019147459A (ja) * 2018-02-27 2019-09-05 トヨタ自動車株式会社 車両走行制御システム
JP2020123050A (ja) * 2019-01-29 2020-08-13 トヨタ自動車株式会社 駐車管理サーバ

Also Published As

Publication number Publication date
WO2023233815A1 (ja) 2023-12-07

Similar Documents

Publication Publication Date Title
US11892853B2 (en) Vehicle guidance systems and associated methods of use at logistics yards and other locations
US10471976B2 (en) Railway maintenance device
KR101812088B1 (ko) 스마트 팩토리 구현을 위한 원격제어방식의 무인반송시스템
EP3380392B1 (en) Auto docking method for application in heavy trucks
JP7154362B2 (ja) 作業車
US10768616B2 (en) Parking control method and parking control device
EP3816945B1 (en) Abnormality determination apparatus and vehicle assistance system
US10126755B1 (en) Method, apparatus and system for wireless automotive trailer assist in various maneuvers
US11835967B2 (en) System and method for assisting collaborative sensor calibration
US11262747B2 (en) Vehicle identification and guidance systems and associated methods
US11635762B2 (en) System and method for collaborative sensor calibration
CN105142962A (zh) 用于感应式充电的借助车辆相机的引导的车辆定位
US11875682B2 (en) System and method for coordinating collaborative sensor calibration
EP3556625B1 (en) Vehicle control system, external electronic control unit, vehicle control method, and application
KR20190040573A (ko) 자율주행차량의 정밀위치감지 장치, 감지방법, 그 정밀위치감지장치를 통한 정차지원 시스템 및 정차지원방법
KR101805423B1 (ko) 스마트 팩토리에 적용되는 ict 기반의 무인반송시스템
US11852730B2 (en) System and method for collaborative calibration via landmark
CN110962744A (zh) 车辆盲区检测方法和车辆盲区检测系统
JP2021026378A (ja) 追従対象特定システム及び追従対象特定方法
WO2023233815A1 (ja) 連結車両の状態推定装置
KR20210096719A (ko) 자율주행 차량의 택배 수령 시스템
CN111284337B (zh) 运载工具无线充电对准的方法及其系统
JP7326429B2 (ja) センサの画像区間の選択方法
CN114616609A (zh) 驾驶辅助系统
CN115909795B (zh) 基于车场协同的自主泊车系统及方法