JP7441190B2 - 運転支援装置、運転支援方法及び運転支援システム - Google Patents
運転支援装置、運転支援方法及び運転支援システム Download PDFInfo
- Publication number
- JP7441190B2 JP7441190B2 JP2021028497A JP2021028497A JP7441190B2 JP 7441190 B2 JP7441190 B2 JP 7441190B2 JP 2021028497 A JP2021028497 A JP 2021028497A JP 2021028497 A JP2021028497 A JP 2021028497A JP 7441190 B2 JP7441190 B2 JP 7441190B2
- Authority
- JP
- Japan
- Prior art keywords
- height
- moving
- plan
- driving support
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000000605 extraction Methods 0.000 claims description 22
- 239000000284 extract Substances 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
- G05D1/0282—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Description
移動体と障害物との干渉を判定する手段の1つとして、特開2014-56506号公報(特許文献1)がある。特許文献1には、「障害物検出装置は、移動体の形状を記憶する移動体形状記憶部48と、移動領域内にある障害物の位置と形状を記憶する障害物記憶部46と、移動体の位置情報と、移動体形状記憶部に記憶された移動体の形状と、障害物記憶部に記憶された障害物の位置と形状に基づいて、移動体と障害物との干渉を判定する干渉判定部38と、を有している。移動体形状記憶部は、移動体を高さ方向に複数の層に分割したときの各層について、その層における移動体の形状を記憶している。障害物記憶部は、複数の層のそれぞれについて、その層における障害物の位置と形状を記憶する二次元地図を記憶している。干渉判定部は、複数の層のそれぞれについて、その層における移動体の形状と、その層における障害物の二次元地図を用いて、移動体と障害物の干渉を判定する」技術が記載されている。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
ここでの通信ネットワーク230は、例えばインターネット、LAN(Local Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)等を含んでもよい。
センサ群210の数、種類、及び配置は、移動領域の広さや間取りによって適宜に選択されてもよいが、移動領域の全体を撮影することが可能なように構成されることが望ましい。ここでの移動領域は、移動体220が移動する環境であり、例えば空港、駅、病院、オフィスビル等の公共施設であってもよく、センサ群210が設置可能であれば、任意の環境であってもよい。
センサ群210は、移動体220や移動領域について取得するセンサデータをそのまま運転支援装置240に転送してもよく、センサ群210に利用可能でローカルなコンピューティングデバイスを用いてセンサデータ集計、前処理、オブジェクト検出等を行った後、運転支援装置240に転送して。
ある実施形態では、センサ群210は、移動体の高さである第1の高さを示す第1の高さ情報と、移動体から所定の距離以内に存在する物体の高さである第2の高さを示す第2の高さ情報とをセンサデータとして取得し、運転支援装置240に送信してもよい。また、ある実施形態では、センサ群210は、移動領域又は移動体220を示す入力映像をセンサデータとして取得し、運転支援装置240に送信してもよい。
ある実施形態では、移動体220は、自動運転機能を備え、移動領域内の目的地までの経路を自動で決定することができる。一例として、移動体220は、移動環境内に入場した際、サービス要求を運転支援装置240に送信した後、移動環境内で移動するための案内情報として、当該移動環境に存在する障害物等の物体やリスク等を示す2次元地図(結合地図)を運転支援装置240から受信する。その後、移動体220は、受信した結合地図に基づいて、移動領域内の目的地までの安全な経路を自動で決定してもよい。
図2に示すように、運転支援装置240は、入力部242と、抽出部244と、生成部246と、解析部248と、出力部250と、記憶部252とを含んでもよい。
ここでの3次元モデルは、例えばCGモデルであってもよく、移動領域の間取り図や映像等に基づいて事前に生成され、記憶部252に格納される。3次元モデルを生成する手段として、任意の既存の手段を用いてもよく、本開示では特に限定されない。
ある実施形態では、サービス要求は、運転支援サービスを要求する指示に加えて、移動体に関する情報(例えば寸法、重量、最大速度)、移動体の目的地の情報や、乗客の意向に関する情報(混雑している経路を避けたい、外の景色が見える経路を通りたい)等の情報を含んでもよい。
サービス要求を受信した運転支援装置は、センサデータ取得指示を移動領域内に設置されているセンサ群に送信してもよい。その後、このセンサデータ取得指示を受信したセンサ群は、センサデータの取得を開始する。
ここでの第1の高さと第2の高さは、センサ群によって計測される。例えば、ある実施形態では、センサ群はLIDAR等の3次元スキャン手段によって第1の高さと第2の高さとを計測してもよい。また、ある実施形態では、センサ群は移動領域又は移動体を示す入力映像を取得し、この入力映像に対して所定の画像処理手段を施すことによって第1の高さと第2の高さとを取得してもよい。
なお、「移動体の高さ」との表現は、移動体そのものの高さであってもよく、移動体に着席している乗客も含めた全体の高さであってもよい。
距離基準をより小さな値として設定することにより、物体が検出される対象の範囲が狭くなるが、結合地図の生成に要するコンピューティング資源を抑えることができる。
一方、距離基準をより大きな値として設定することにより、物体が検出される対象の範囲が広くなるが、結合地図の生成に要するコンピューティング資源が多くなる。
従って、この距離基準は、移動領域の間取りや広さ、移動体の移動速度、運転支援装置システムの使用可能なコンピューティング資源の量等に応じて適切に設定されてもよい。
ある実施形態では、例えばコンピューティング資源が特に限られない場合には、ここでの距離基準は、移動領域の全体を含む値として設定されてもよい。これにより、移動領域に存在する全ての物体やリスクを網羅的に検出することができ、より広範囲の結合地図を生成することが可能となる。
より具体的には、抽出部は、移動体の高さ方向(走路面に直交する方向)に直交し、第1の高さに対応する第1の平面を第1の平面図として3次元モデルから抽出すると共に、移動体の高さ方向に直交し、第2の高さに対応する第2の平面を第2の平面図として3次元モデルから抽出する。
言い換えれば、抽出部は、3次元モデルを、移動体の高さ方向に直交する複数の平面で切断し、第1の高さ及び第2の高さに対応する平面における物体の断面形状を示す平面図を抽出する。
これにより、移動領域内で第1の平面において存在する物体の断面形状を示す第1の平面図と、移動領域内で第2平面において存在する物体の断面形状を示す第2の平面図を得ることができる。
より具体的には、生成部は、第1の高さ及び第2の高さに基づいて、第1の平面図と、第2の平面図とを重畳することで、移動領域内で第1の平面において存在する物体の断面形状と、移動領域内で第2平面において存在する物体の断面形状とを示す2次元地図を結合地図として生成する。
このように、移動体の高さ方向に直交する複数の平面における物体の断面形状を示す地図を重ね合わせた2次元地図を結合地図として得ることができる。
なお、ここで、結合地図に基づいて、移動領域内の目的地までの安全な経路を判定する手段として、既存の自動運転手段を用いることができ、ここでは特に限定されない。
ある実施形態では、センサ群210は、異なる時刻a、bに計測した物体の高さHaii、Hbiiや荷物の高さHaiii、Hbiiiを取得し、異なる時刻で計測した高さの平均値を第2の高さHii及び第3の高さHiiiとしてもよい。これにより、例えば乗客や物体の動き(座っている人が立ち上がった)等による高さの変化を捉えることができる。
ある実施形態では、このセンサデータ405は、1次元の行列として構成されてもよい。
例えば、図4に示すように、運転支援装置240は、3次元モデル410から、第1の高さHiに対応する第1の平面図Miと、第2の高さHiiに対応する第2の平面図Miiと、第3の高さHiiiに対応する第3の平面図Miiiを抽出してもよい。また、この平面図の抽出は、異なる時刻a、b毎に行われてもよい。
これにより、移動体220の高さ方向515に直交し、第1の高さ514に対応する第1の平面において存在する移動体220、荷物535、及び物体530の断面形状を示す第1の平面図540と、移動体220の高さ方向515に直交し、第2高さ516に対応する第2の平面において存在する物体520及び物体530の断面形状を示す第2の平面図550を得ることができる。
その後、運転支援装置は、第1の平面図540と第2の平面図550とを結合することで、移動領域を2次元で示し、移動体220の運転を支援するための結合地図(図5には図示しない)を生成し、生成した結合地図を、移動体220に送信する。
なお、運転支援装置の解析部を用いてリスク要素を判定する処理の詳細については後述する。
上述したように、抽出部は、3次元モデル410を、移動体の高さ方向750に直交する複数の平面で切断し、センサ群によって取得されたセンサデータに含まれるそれぞれの高さに対応する平面における物体の断面形状を示す平面図を抽出するように構成されている。
この場合、抽出部は、移動体220の高さ方向750に直交し、第1の高さ710に対応する第1の平面715を第1の平面図810(図8参照)として3次元モデル410から抽出する。また、抽出部は、移動体220の高さ方向750に直交し、第2の高さ720に対応する第2の平面725を第2の平面図820(図8参照)として3次元モデル410から抽出する。また、抽出部は、移動体220の高さ方向750に直交し、第3の高さ730に対応する第3の平面735を第3の平面図830(図8参照)として3次元モデル410から抽出する。
図8に示すように、第2の平面図820は、移動体220の高さ方向750に直交し、第2の高さ720に対応する第2の平面725において存在する4つの椅子705、2つのテーブルの脚部711、移動体220及び冷蔵庫707の断面形状を示す。
また、第1の平面図810は、移動体220の高さ方向750に直交し、第1の高さ710に対応する第1の平面715において存在するテーブルの天板709、移動体220の背もたれ部及び冷蔵庫707の断面形状を示す。
また、第3の平面図830は、移動体220の高さ方向750に直交し、第3の高さ730に対応する第3の平面735において存在する冷蔵庫707の断面形状を示す。
このように、移動領域内で移動体220の高さ方向750に直交し、任意の高さに対応する平面に存在する物体の断面形状を示す平面図を得ることができる。
より具体的には、生成部は、第1の平面図810と、第2の平面図820と、第3の平面図830とを重畳することで、移動領域内で第1の平面715、第2の平面725、及び第3の平面735において存在する物体の断面形状を示す2次元地図を結合地図として生成してもよい。
また、ある実施形態では、生成部は、移動領域の異なる部分について生産した結合地図を合成することで、より広範囲の地図を生成してもよい。
ここでのリスク要素とは、移動体の移動を阻止する可能性があるものを意味し、例えば人の行動、障害物、危険な状況等を含んでもよい。
ここでは、解析部は、リスク要素を判定するための画像処理手段として、例えばHaar-Like特徴に基づくViola-Jones物体検出フレームワーク、スケール不変特徴量変換(SIFT)、Hog特徴量等の機械学習アプローチや、領域提案(R-CNN、Fast R-CNN、Faster R-CNN、cascade R-CNN)、Single Shot MultiBox Detector(SSD)、You Only Look Once(YOLO)、Single-Shot Refinement Neural Network for Object Detection (RefineDet)、Retina-Net、Deformable convolutional networks等の深層学習によるアプローチ等、任意の手法を用いてもよい。
ここで、解析部は、リスク要素を判定するための機械学習手段として、Linear Regression, Logistic Regression, Decision Trees, Support Vector Machines, Naive Bayes, K-Nearest Neighbor, K-means, Random Forest, Dimensionality Reduction Algorithms, Gradient Boosting Algorithms等、任意の手法を用いてもよい。
ある実施形態では、解析部は、判定したリスク要素を結合地図に反映させてもよい。
一例として、解析部は、センサ群から受信した入力映像や、生成部によって生成された結合地図(例えば、図9に示す結合地図910)を解析した結果、冷蔵庫707の扉が開けられた場合、当該扉を移動体220の移動に干渉する可能性があるリスク要素1020として判定し、判定したリスク要素1020を結合地図1010において対応する領域に反映させる。
また、解析部は、センサ群から受信した入力映像や、生成部によって生成された結合地図を解析した結果、椅子705に着席している人が立ち上がった場合、当該人を移動体220の移動に干渉する可能性があるリスク要素1030として判定し、判定したリスク要素1030を結合地図1010において対応する領域に反映させる。
ある実施形態では、解析部は、判定したリスク要素を避けるためのリスク回避指示を結合地図と共に移動体に送信してもよい。ここでのリスク回避指示は、移動体220が決定する移動経路を制御する指示であってもよく、移動体220の乗客の行動に関する指示であってもよい。
その後、リスク回避指示を受けた移動体の乗客は、リスク回避指示に従って荷物1120を縦に持つようにすることで、移動経路中にある狭い空間1130を通ることができるようになる。
また、ある実施形態では、運転支援装置の解析部は、移動体から受信したサービス要求に含まれる情報を考慮した経路を決定してもよい。例えば、解析部は、移動体に関する情報(例えば寸法、重さ、最大速度)、移動体の目的地の情報や、乗客の意向に関する情報(混雑している経路を避けたい、外の景色が見える経路を通りたい)等の情報に基づいて、リスク要素を避けつつ、乗客の意向に合った経路を判定してもよい。
210 センサ群
220 移動体
230 通信ネットワーク
240 運転支援装置
242 入力部
244 抽出部
246 生成部
248 解析部
250 出力部
252 記憶部
Claims (8)
- 移動領域内に移動する移動体の運転を支援するための運転支援装置であって、
前記移動領域を表す3次元モデルを少なくとも格納する記憶部と、
前記移動領域に設置されているセンサ群から、前記移動体の高さである第1の高さを示す第1の高さ情報と、前記移動体に対して所定の距離基準を満たす物体の高さである第2の高さを示す第2の高さ情報とを受信可能な入力部と、
前記第1の高さ情報に基づいて第1の平面図を前記3次元モデルから抽出し、前記第2の高さ情報に基づいて第2の平面図を前記3次元モデルから抽出する抽出部と、
前記第1の平面図と、前記第2の平面図とを結合することで、前記移動領域を2次元で示し、前記移動体の運転を支援するための結合地図を生成する生成部と、
生成した前記結合地図を、前記移動体に送信可能な出力部と、
を含むことを特徴とする運転支援装置。 - 前記抽出部は、
前記移動体の高さ方向に直交し、前記第1の高さに対応する第1の平面を前記第1の平面図として前記3次元モデルから抽出し、
前記移動体の高さ方向に直交し、前記第2の高さに対応する第2の平面を前記第2の平面図として前記3次元モデルから抽出し、
前記第1の平面図は、
前記移動領域内で前記第1の平面において存在する物体の断面形状を示し、
前記第2の平面図は、
前記移動領域内で前記第2の平面において存在する物体の断面形状を示す、
ことを特徴とする、請求項1に記載の運転支援装置。 - 前記生成部は、
前記第1の高さ及び前記第2の高さに基づいて前記第1の平面図と、前記第2の平面図とを重畳することで、前記移動領域内で前記第1の平面において存在する物体の断面形状と、前記移動領域内で前記第2の平面において存在する物体の断面形状とを示す2次元地図を前記結合地図として生成する、
ことを特徴とする、請求項2に記載の運転支援装置。 - 前記運転支援装置は、
解析部を更に含み、
前記入力部は、
前記移動領域又は前記移動体を示す入力映像を前記センサ群から受信し、
前記解析部は、
前記入力映像又は前記結合地図を解析することで、前記移動体の移動を阻止する可能性があるリスク要素を判定し、
前記生成部は、
前記リスク要素の情報を前記結合地図に反映させる、
ことを特徴とする、請求項1に記載の運転支援装置。 - 前記解析部は、
前記リスク要素を回避するためのリスク回避指示を生成し、
前記出力部は、
前記リスク要素の情報を反映させた結合地図と、前記リスク回避指示とを前記移動体に送信する、
ことを特徴とする、請求項4に記載の運転支援装置。 - 前記移動体は、
自動運転機能を備えた移動体である、
ことを特徴とする、請求項1に記載の運転支援装置。 - 移動領域内に移動する移動体の運転を支援する運転支援装置においてコンピュータソフトウエアによって実施される運転支援方法であって、
前記運転支援装置は、
メモリと、プロセッサとを含み、
前記メモリは、
入力部と、出力部と、抽出部と、生成部とを含む運転支援アプリケーションを格納し、
前記運転支援アプリケーションは、
前記入力部によって、運転支援サービスを要求するサービス要求を移動体から受信する工程と、
前記出力部によって、センサデータの取得を開始させるセンサデータ取得指示を、前記移動体が移動する移動領域に設置されているセンサ群に送信する工程と、
前記センサ群から、前記移動体の高さである第1の高さを示す第1の高さ情報と、前記移動体に対して所定の距離基準を満たす物体の高さである第2の高さを示す第2の高さ情報とを前記入力部によって受信する工程と、
前記抽出部によって、前記移動体の高さ方向に直交し、前記第1の高さに対応する第1の平面を第1の平面図として、前記移動領域を立体的に示す3次元モデルから抽出する工程と、
前記抽出部によって、前記移動体の高さ方向に直交し、前記第2の高さに対応する第2の平面を第2の平面図として前記3次元モデルから抽出する工程と、
前記生成部によって、前記第1の高さ及び前記第2の高さに基づいて前記第1の平面図と、前記第2の平面図とを重畳することで、前記移動領域内で前記第1の平面において存在する物体の断面形状と、前記移動領域内で前記第2の平面において存在する物体の断面形状とを示す2次元地図を結合地図として生成する工程と、
前記出力部によって、生成した前記結合地図を、前記移動体に送信する工程と、
を前記プロセッサに実行させることを特徴とする運転支援方法。 - 移動領域内に移動する移動体の運転を支援するための運転支援システムであって、
移動領域内に移動する移動体と、
前記移動領域内に設置されているセンサ群と、
前記移動体の運転を支援するための運転支援装置とを含み、
前記移動体と、前記センサ群と、前記運転支援装置とが通信ネットワークを介して接続されており、
前記運転支援装置は、
前記移動領域を立体的に示す3次元モデルを少なくとも格納する記憶部と、
前記センサ群から、前記移動体の高さである第1の高さを示す第1の高さ情報と、前記移動体に対して所定の距離基準を満たす物体の高さである第2の高さを示す第2の高さ情報とを受信する入力部と、
前記第1の高さ情報に基づいて第1の平面図を前記3次元モデルから抽出し、前記第2の高さ情報に基づいて第2の平面図を前記3次元モデルから抽出する抽出部と、
前記第1の平面図と、前記第2の平面図とを結合することで、前記移動領域を2次元で示し、前記移動体の運転を支援するための結合地図を生成する生成部と、
生成した前記結合地図を、前記移動体に送信する出力部と、
を含むことを特徴とする運転支援システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021028497A JP7441190B2 (ja) | 2021-02-25 | 2021-02-25 | 運転支援装置、運転支援方法及び運転支援システム |
US17/678,310 US20220270328A1 (en) | 2021-02-25 | 2022-02-23 | Drive assist apparatus, drive assist method, and drive assist system |
CN202210170264.6A CN115047865A (zh) | 2021-02-25 | 2022-02-24 | 驾驶支援装置、驾驶支援方法以及驾驶支援系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021028497A JP7441190B2 (ja) | 2021-02-25 | 2021-02-25 | 運転支援装置、運転支援方法及び運転支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022129713A JP2022129713A (ja) | 2022-09-06 |
JP7441190B2 true JP7441190B2 (ja) | 2024-02-29 |
Family
ID=82900722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021028497A Active JP7441190B2 (ja) | 2021-02-25 | 2021-02-25 | 運転支援装置、運転支援方法及び運転支援システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220270328A1 (ja) |
JP (1) | JP7441190B2 (ja) |
CN (1) | CN115047865A (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011134234A (ja) | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム |
JP2014056506A (ja) | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
-
2021
- 2021-02-25 JP JP2021028497A patent/JP7441190B2/ja active Active
-
2022
- 2022-02-23 US US17/678,310 patent/US20220270328A1/en active Pending
- 2022-02-24 CN CN202210170264.6A patent/CN115047865A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011134234A (ja) | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム |
JP2014056506A (ja) | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
Also Published As
Publication number | Publication date |
---|---|
CN115047865A (zh) | 2022-09-13 |
US20220270328A1 (en) | 2022-08-25 |
JP2022129713A (ja) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10922536B2 (en) | Age classification of humans based on image depth and human pose | |
US8891855B2 (en) | Information processing apparatus, information processing method, and program for generating an image including virtual information whose size has been adjusted | |
KR102491846B1 (ko) | 다중 모드 대화 상호 작용에서 음성 언어 이해를 위한 눈 시선 | |
US9796093B2 (en) | Customer service robot and related systems and methods | |
US10380814B1 (en) | System for determining entry of user to an automated facility | |
US11158128B2 (en) | Spatial and semantic augmented reality autocompletion in an augmented reality environment | |
US8107688B2 (en) | Gaze detection apparatus and the method of the same | |
US10440497B2 (en) | Multi-modal dereverbaration in far-field audio systems | |
US10728616B2 (en) | User interest-based enhancement of media quality | |
US10438588B2 (en) | Simultaneous multi-user audio signal recognition and processing for far field audio | |
US10445593B1 (en) | User interface for acquisition of group data | |
CN102222347A (zh) | 使用波阵面编码来创建深度图像 | |
US11436866B2 (en) | System and method for eye-tracking | |
US20240104744A1 (en) | Real-time multi-view detection of objects in multi-camera environments | |
Ghani et al. | Detecting negative obstacle using Kinect sensor | |
JP7441190B2 (ja) | 運転支援装置、運転支援方法及び運転支援システム | |
CN110557193A (zh) | 最大化飞行时间光学深度传感器在计算环境中的效率 | |
WO2020144848A1 (ja) | オーサリング装置、オーサリング方法、及びオーサリングプログラム | |
Zahid et al. | Mitigating inherent latency in off-device computer vision for spatial interfaces | |
Khan et al. | Smartphone application for indoor scene localization | |
JP6213193B2 (ja) | 動作判定方法及び動作判定装置 | |
Malerczyk | Dynamic Gestural Interaction with Immersive Environments | |
WO2018034054A1 (ja) | 触覚提示装置、触覚提示システム及び触覚提示方法 | |
Nakauchi et al. | A service robot for peopled environments-Finding lined people by stereo vision and standing in line |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7441190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |