JP7358108B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7358108B2 JP7358108B2 JP2019141358A JP2019141358A JP7358108B2 JP 7358108 B2 JP7358108 B2 JP 7358108B2 JP 2019141358 A JP2019141358 A JP 2019141358A JP 2019141358 A JP2019141358 A JP 2019141358A JP 7358108 B2 JP7358108 B2 JP 7358108B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- freedom
- information
- degrees
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 76
- 238000003672 processing method Methods 0.000 title claims 5
- 238000000034 method Methods 0.000 claims description 67
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000005484 gravity Effects 0.000 claims description 12
- 230000007423 decrease Effects 0.000 claims 1
- 230000036544 posture Effects 0.000 description 28
- 239000013598 vector Substances 0.000 description 25
- 230000003287 optical effect Effects 0.000 description 22
- 238000005259 measurement Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 230000009194 climbing Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 208000031872 Body Remains Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
本実施形態では、移動体の移動制御に本発明を適用した場合について説明する。工場や倉庫で荷物を運搬するロボット等の一般的な移動体は、画像センサや距離センサを用いて自己位置姿勢推定をしながら自動運転する。一般的な移動体は水平な面を走行することを想定されているが、走行環境に存在する坂道や段差、また自身に搭載された荷物によって、予め地図情報等で設定された基準となる水平面に対して移動体自身が傾いてしまうことがある。このような場合、平面を走査する2次元の距離センサの計測値から推定された自己位置姿勢推定の結果は、地図情報における絶対位置とズレて推定される可能性がある。
図4に、本実施形態における情報処理装置の機能構成例を示す図を示す。情報処理装置11は、画像情報入力部111、6自由度推定部112、変換部113、制御部115、地図情報取得部116、平面情報取得部117、から構成される。情報処理装置11は、さらに距離情報入力部118、3自由度推定部119、決定部120、第2地図情報取得部121、計測部122から構成される。また、移動体1には、計測部122、制御部115、距離情報入力部118、3自由度推定部119、決定部120、第2地図情報取得部121を有する。情報処理装置11は、例えばPC、組み込みシステム、PLC(Programmable Logic Controller)である。
ここで、RpvはZ軸(0,0,1)tを平面の法線ベクトルnvに変換する3×3回転行列である。Rpvは、回転軸を(0,0,1)tとnvの外積、回転角を(0,0,1)tとnvの内積の逆余弦(arccos)として計算する。よって、3次元世界座標系における3次元座標Xvは次式のように平面座標系における3次元座標Xpに変換される。
Xvとしてtvを入力したときのXpを算出する。3自由度の位置姿勢のうちxv,yvは、3次元座標XpのXp成分、Yp成分に該当する。θvは画像センサの光軸を平面に射影したベクトルの方向である。本実施形態ではステレオカメラの左側のカメラの光軸を画像センサの光軸とする。画像センサに規定されるカメラ座標系における画像センサの光軸を表わす3次元ベクトルをvcとすると、平面座標系における画像センサの光軸voは次式のように表わされる。
前述したように、本実施形態ではステレオカメラの光軸が水平面よりやや上方を向くように無人搬送車に取り付けるため、光軸voを平面座標系のXY平面に射影してθvを算出する。平面座標系のXY平面上に射影された光軸vo’は、次式のように算出される。
本実施形態では、平面座標系のX軸に対するvo’の角度をθvとする。
前述の実施形態では、移動体の傾きが所定の値より大きい場合、画像情報によって推定される6自由度の位置姿勢を3自由度の位置姿勢に変換した情報を用いて移動体の位置姿勢を決定することを可能にした。実施形態2では、移動体は略平面(基準となる面)を走行するものとして、走行時に本来傾くはずのない移動体の傾きを検出する。移動体の傾きは、例えば移動体上の荷物が荷台にバランスよく搭載されていない場合に生じる。この場合、荷崩れが起こる可能性があるため、傾きを検出したらユーザに警告を通知する必要がある。
本実施形態では、移動体の移動制御に本発明を適用した場合について説明する。本実施形態では、移動体は、部分的に坂道が存在する平面(床面)を走行するものとし、移動体に搭載された画像センサ(カメラ)が撮影する画像情報をもとに推定される6自由度の位置姿勢をもとに移動体の走行距離の算出を行う。6自由度の位置及び姿勢の計測結果を用いて移動体の位置及び姿勢を推定する。これによって、移動体の位置及び姿勢を安定的に取得できる。
図10に、本実施形態における情報処理装置の機能構成例を示す図を示す。情報処理装置31は、画像情報入力部311、6自由度推定部312、変換部313、走行距離算出部314、制御部315、地図情報取得部316、平面情報取得部317、から構成される。情報処理装置31は、例えばPC、組み込みシステム、PLC(Programmable Logic Controller)である。
ここで、RpvはZ軸(0,0,1)tを平面の法線ベクトルnvに変換する3×3回転行列である。Rpvは、回転軸を(0,0,1)tとnvの外積、回転角を(0,0,1)tとnvの内積の逆余弦(arccos)として計算する。よって、3次元世界座標系における3次元座標Xvは次式のように平面座標系における3次元座標Xpに変換される。
Xvとしてtvを入力したときのXpを算出する。3自由度の位置姿勢のうちxv,yvは、3次元座標XpのXp成分、Yp成分に該当する。θvは画像センサの光軸を平面に射影したベクトルの方向である。本実施形態ではステレオカメラの左側のカメラの光軸を画像センサの光軸とする。画像センサに規定されるカメラ座標系における画像センサの光軸を表わす3次元ベクトルをvcとすると、平面座標系における画像センサの光軸voは次式のように表わされる。
前述したように、本実施形態ではステレオカメラの光軸が水平面よりやや上方を向くように無人搬送車に取り付けるため、光軸voを平面座標系のXY平面に射影してθvを算出する。平面座標系のXY平面上に射影された光軸vo’は、次式のように算出される。
本実施形態では、平面座標系のX軸に対するvo’の角度をθvとする。
前述の実施形態では、画像センサとしてステレオカメラを利用していた。しかしながら画像センサはこれに限るものではなく、位置姿勢を推定するための画像情報が得られるカメラであればいかなるカメラであってもよい。例えば、単眼カメラであってもよいし、RGB画像と距離画像が取得できるRGBDカメラであってもよい。また、画像はモノクロである必要はなく、RGB画像などのカラー画像であってもよい。
11 情報処理装置
12 画像センサ
13 距離センサ
14 接触センサ
15 アクチュエータ
17 オドメーター
111 入力部
112 6自由度推定部
113 変換部
115 制御部
116 地図情報取得部
117 平面情報取得部
Claims (18)
- 複数の位置及び姿勢を計測する機能を搭載した移動体の位置及び姿勢を決定する情報処理装置であって、
前記移動体の6自由度の位置及び姿勢を示す第1情報を取得する第1取得手段と、
前記移動体の3自由度の位置及び姿勢を示す第2情報を取得する第2取得手段と、
前記第1情報を用いて、3自由度の位置及び姿勢を示す第3情報を出力する出力手段と、
前記移動体が走行する位置での高さ方向の値から得られる、前記移動体の傾きが所定の値より小さい場合は前記第2情報を、前記移動体の傾きが所定の値より大きい場合は前記第3情報を、それぞれ用いて前記移動体の位置及び姿勢を決定する決定手段と、を有することを特徴とする情報処理装置。 - 前記第1取得手段は、少なくとも前記移動体の周辺を撮像装置が撮像した画像に基づいて、前記第1情報を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記第2取得手段は、前記移動体が走行する環境を示す2次元の地図情報と、前記移動体が走行する環境における物体と該移動体との距離を計測した距離情報とに基づいて、前記第2情報を取得することを特徴とする請求項1または2に記載の情報処理装置。
- 前記決定手段によって決定された前記移動体の3自由度の位置及び姿勢と、前記移動体が走行する環境を表した地図情報とに基づいて、前記地図情報において示される目標位置に前記移動体を移動させる制御手段と、を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記移動体の傾きが前記所定の値より小さい場合は、前記第2情報に基づいて前記移動体の3自由度の位置及び姿勢を決定し、前記移動体の傾きが前記所定の値より大きい場合、前記第3情報に基づいて前記移動体の3自由度の位置及び姿勢を決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記移動体の傾きは前記第1情報に基づいて得られることを特徴とする請求項5に記載の情報処理装置。
- 前記移動体に搭載された重力センサに基づいて、前記移動体の傾きが得られることを特徴とする請求項5に記載の情報処理装置。
- 前記第1取得手段は、前記移動体に搭載された撮像装置によって撮像された前記移動体の周辺を写した画像を入力し、前記移動体の3自由度の位置及び姿勢を出力する学習済みモデルに基づいて前記移動体の3自由度の位置及び姿勢を取得することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記第1情報に基づいて、前記移動体の傾きが検出された場合にユーザに通知を出力する出力手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記移動体の傾きが所定の値より小さい場合は、前記第2情報と第3情報とに基づいて前記移動体の3自由度の位置及び姿勢を決定することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
- 前記移動体の3自由度の位置及び姿勢は、2自由度の位置と1自由度の姿勢であることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
- 前記移動体の6自由度の位置及び姿勢は、3自由度の位置と3自由度の姿勢であることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記移動体の傾きが所定の値より大きい状態が所定の時間より長く継続した場合は、前記第3情報を用いて前記移動体の3自由度の位置及び姿勢を決定することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記移動体の傾きが所定の値より大きい状態から小さくなり、かつ該移動体の傾きが小さい状態が所定の時間より長く継続した場合は、前記第3情報から前記第2情報を用いた前記移動体の位置及び姿勢を決定するように変更することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
- 撮像装置を搭載した移動体の位置及び姿勢を推定する情報処理装置であって、
少なくとも前記移動体の周辺を撮像した画像に基づいて、前記撮像装置の6自由度の位置及び姿勢を示す第1情報を推定する6自由度推定手段と、
前記移動体が走行する位置での高さ方向の値から得られる、前記移動体と基準となる面との成す傾きが所定の値より大きい場合は、前記第1情報に基づいて前記移動体の3自由度の位置及び姿勢を決定し、前記移動体と基準となる面との成す傾きが所定の値より小さい場合は、前記移動体が走行する環境における物体と該移動体との距離を計測した距離情報に基づいて前記移動体の3自由度の位置及び姿勢を示す第2情報に基づいて前記移動体の3自由度の位置及び姿勢を決定する決定手段と、を有することを特徴とする情報処理装置。 - コンピュータを、請求項1乃至15のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。
- 撮像装置を搭載した移動体の位置及び姿勢を推定する情報処理方法であって、
前記撮像装置の6自由度の位置及び姿勢を示す第1情報を推定する6自由度推定ステップと、
前記移動体が走行する位置での高さ方向の値から得られる、前記移動体と基準となる面との成す傾きが所定の値より大きい場合は、前記第1情報に基づいて前記移動体の3自由度の位置及び姿勢を決定し、前記移動体と基準となる面との成す傾きが所定の値より小さい場合は、前記移動体の3自由度の位置及び姿勢を示す第2情報に基づいて前記移動体の3自由度の位置及び姿勢を決定する決定ステップと、有することを特徴とする情報処理方法。 - 複数の位置及び姿勢を計測する機能を搭載した移動体の位置及び姿勢を決定する情報処理方法であって、
前記移動体の6自由度の位置及び姿勢を示す第1情報を取得する第1取得ステップと、
前記移動体の3自由度の位置及び姿勢を示す第2情報を取得する第2取得ステップと、
前記第1情報を用いて、3自由度の位置及び姿勢を示す第3情報を出力する出力ステップと、
前記移動体が走行する位置での高さ方向の値から得られる、前記移動体の傾きが所定の値より小さい場合は前記第2情報を、前記移動体の傾きが所定の値より大きい場合は前記第3情報を、それぞれ用いて前記移動体の位置及び姿勢を決定する決定ステップと、を有することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141358A JP7358108B2 (ja) | 2019-07-31 | 2019-07-31 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141358A JP7358108B2 (ja) | 2019-07-31 | 2019-07-31 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021026302A JP2021026302A (ja) | 2021-02-22 |
JP7358108B2 true JP7358108B2 (ja) | 2023-10-10 |
Family
ID=74664690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019141358A Active JP7358108B2 (ja) | 2019-07-31 | 2019-07-31 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7358108B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102542550B1 (ko) * | 2021-12-07 | 2023-06-13 | 주식회사 케이스랩 | 차량 자세 추정 시스템 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5173628B2 (ja) | 2008-06-30 | 2013-04-03 | 電気化学工業株式会社 | 積層シート |
JP2017215199A (ja) | 2016-05-31 | 2017-12-07 | 株式会社デンソー | 位置推定装置 |
WO2018020589A1 (ja) | 2016-07-26 | 2018-02-01 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
JP2018101346A (ja) | 2016-12-21 | 2018-06-28 | 株式会社デンソー | 緊急通報装置 |
JP2019125116A (ja) | 2018-01-15 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6049914B2 (ja) * | 1981-03-27 | 1985-11-05 | 日産自動車株式会社 | 車両用走行誘導装置 |
JPH05173628A (ja) * | 1991-12-25 | 1993-07-13 | Ishikawajima Shibaura Mach Co Ltd | 無人走行車の視覚装置 |
JP2004034272A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 移動体の自己位置同定装置 |
JP5235114B2 (ja) * | 2008-08-07 | 2013-07-10 | 矢崎エナジーシステム株式会社 | 坂道検出方法及び坂道検出装置 |
JP6561616B2 (ja) * | 2015-06-19 | 2019-08-21 | 日本精機株式会社 | 車載ヘッドアップディスプレイ装置及び車載表示システム |
-
2019
- 2019-07-31 JP JP2019141358A patent/JP7358108B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5173628B2 (ja) | 2008-06-30 | 2013-04-03 | 電気化学工業株式会社 | 積層シート |
JP2017215199A (ja) | 2016-05-31 | 2017-12-07 | 株式会社デンソー | 位置推定装置 |
WO2018020589A1 (ja) | 2016-07-26 | 2018-02-01 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
JP2018101346A (ja) | 2016-12-21 | 2018-06-28 | 株式会社デンソー | 緊急通報装置 |
JP2019125116A (ja) | 2018-01-15 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021026302A (ja) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3994950B2 (ja) | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 | |
US11836974B2 (en) | Detecting boxes | |
US7769491B2 (en) | Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus | |
JP4929506B2 (ja) | 脚式移動ロボット | |
US20230247015A1 (en) | Pixelwise Filterable Depth Maps for Robots | |
Kuramachi et al. | G-ICP SLAM: An odometry-free 3D mapping system with robust 6DoF pose estimation | |
US11331799B1 (en) | Determining final grasp pose of robot end effector after traversing to pre-grasp pose | |
CN113012219A (zh) | 信息处理装置、信息处理方法及计算机可读介质 | |
US11769269B2 (en) | Fusing multiple depth sensing modalities | |
Sun et al. | Autonomous state estimation and mapping in unknown environments with onboard stereo camera for micro aerial vehicles | |
Jun et al. | Autonomous driving system design for formula student driverless racecar | |
WO2022115215A1 (en) | Systems and methods for monocular based object detection | |
WO2022238189A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
JP7358108B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11467592B2 (en) | Route determination method | |
US11440196B1 (en) | Object association using machine learning models | |
Kang et al. | Adaptive trajectory tracking of wheeled mobile robots based on a fish-eye camera | |
US11915523B2 (en) | Engagement detection and attention estimation for human-robot interaction | |
Yuan et al. | Visual steering of UAV in unknown environments | |
Sasaki et al. | Construction of an Environmental Map including Road Surface Classification Based on a Coaxial Two-Wheeled Robot | |
US11865724B2 (en) | Movement control method, mobile machine and non-transitory computer readable storage medium | |
Poomarin et al. | Automatic docking with obstacle avoidance of a differential wheel mobile robot | |
US11618167B2 (en) | Pixelwise filterable depth maps for robots | |
US11372475B2 (en) | Information processing apparatus, information processing method, and floor modeling system | |
JP7223587B2 (ja) | 物体運動推定方法及び物体運動推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230927 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7358108 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |