JP2018010412A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP2018010412A JP2018010412A JP2016137627A JP2016137627A JP2018010412A JP 2018010412 A JP2018010412 A JP 2018010412A JP 2016137627 A JP2016137627 A JP 2016137627A JP 2016137627 A JP2016137627 A JP 2016137627A JP 2018010412 A JP2018010412 A JP 2018010412A
- Authority
- JP
- Japan
- Prior art keywords
- fitting
- target area
- information processing
- unit
- fitting target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 30
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 abstract description 19
- 238000005259 measurement Methods 0.000 description 51
- 239000013598 vector Substances 0.000 description 19
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000002411 adverse Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
図1は、実施の形態のクローラ1の外観を示す斜視図である。また、図2は、クローラ1の上面図である。この図1及び図2は、クローラ1の前側に境界を形成する境界物3が存在する例を示している。境界物3は、例えば車道と歩道の区切りを示す縁石等が該当する。クローラ1は、キャタピラ4を回転駆動して地面を移動する。本体5上には、屈曲動作及び回転動作等が可能なアーム部6が設けられている。また、アーム部6の先端部(反本体5側)には、三次元計測センサ2が設けられている。
次に、図6に、クローラ1の電気回路のハードウェア構成を示す。この図6に示すように、クローラ1は、CPU21、ROM22、RAM23、HDD24、三次元計測センサ25、モーションセンサ26、アクチュエータ27、移動モータ28及び通信部29を有している。CPU21〜通信部29は、バスライン30を介して相互に接続されている。
次に、図7は、クローラ1に記憶されているプログラム及び各種情報を示している。この図7に示しように、クローラ1には、情報処理プログラム、三次元情報、認識結果、OS及び3Dモデル等が記憶されている。これらのプログラム及び各種情報は、クローラ1の内外を問わず、どこに記憶されていてもよいが、一例として、この実施の形態の場合、情報処理プログラム、三次元情報、認識結果、及び、3Dモデルは、HDD24に記憶されている。また、OSは、ROM22に記憶されている。
次に、クローラ1のCPU21は、HDD24に記憶されている情報処理プログラムを実行することで、図8に示す各種機能を実現する。具体的には、CPU21は、情報処理プログラムを実行することで、演算部41及び作成部42を実現する。演算部41は、各種機能として、点群取得部51、領域抽出部52、姿勢認識部53、三次元計測センサ制御部54及び移動制御部55を有している。また、作成部42は、各種機能として、3Dモデル作成部61、地図作成部62及び記憶制御部63を有している。
次に、図9を用いて、領域抽出部52における領域抽出動作を説明する。図9(a)は、三次元計測センサ25が地面と水平に前方を向いている状態を示す図である。三次元計測センサ25には、モーションセンサ26が取り付けられている。モーションセンサ26で、三次元計測センサ25の姿勢を検出することで、三次元計測センサ25から取得した点群情報の地面からの高さ位置を検出することができる。例えば、図9(a)に示すように、地面に対して垂直方向を三次元計測センサ25のZ軸とし、右側(移動体の前方)方向を三次元計測センサ25のY軸とする。三次元計測センサ25の中心を原点(0,0,0)としたとき、重力加速度の基底ベクトルgは(0,0,−1)で表すことができる。
次に、図10のフローチャートを用いて、領域抽出部52における、3Dモデルをあてはめる領域を抽出する動作の流れを説明する。まず、クローラ1に取り付けられている三次元計測センサ25の地面からの高さ位置を取得する(ステップS1)。この三次元計測センサ25の高さ位置は、あらかじめ人間が入力しても良いし、超音波センサからの超音波を地面に出射して戻ってくる時間を検出して測定しても良い。
次に、図11を用いて姿勢認識部53による姿勢認識処理を説明する。姿勢認識部53は、境界を形成する物体に対し、3Dモデルを当て嵌めることで、物体がどのような姿勢で存在しているのかを認識する。例えば、図11(a)に示すように四角柱形状の縁石70が車道と歩道の境界に沿って設けられていたとする。これに対して、図11(b)に示す四角柱形状の3Dモデルである縁石モデル70Dが、縁石70に対して当て嵌めを行う3Dモデルである。図11(b)に示すxyzの座標系は、縁石モデル70Dの中心を原点としたモデル座標系を示している。
図12は、各3Dモデルの当て嵌め例を示している。図12(a)は、ガードレール75の3Dモデルであるガードレールモデル75Dの当て嵌め例を示している。図12(a)の場合、ガードレール75は、クローラ1の前進方向の斜め右側に位置している。姿勢認識部53は、上述のラベル1が付された点群である当て嵌め対象領域の中から、ガードレールモデル75Dの形に合致する形状の当て嵌め対象領域を検出し、ガードレールモデル75Dを当て嵌める。これにより、センサ座標系におけるガードレールモデル75Dの姿勢及び位置を介して、実際のガードレール75がどのような姿勢で存在しているかを認識することができる。
次に、姿勢認識部53が、3Dモデルを当て嵌めて、物体の姿勢を認識する姿勢認識処理の流れを、図14のフローチャートを用いて説明する。まず、3Dモデルは、事前に3Dモデル作成部61により作成され、記憶制御部63によりHDD24に記憶されている。姿勢認識部53は、認識対象となる3DモデルをHDD24から取得する(ステップS11)。
次に、上述のステップS2で説明した当て嵌め対象領域に対する3Dモデルの当て嵌まり具合を評価するための評価関数Eの設定アルゴリズムを説明する。この実施の形態のクローラ1は、3Dモデルを当て嵌め対象領域に当て嵌めるためのアルゴリズムとしては、三次元の点群をそのまま利用するアルゴリズムと、画像との対応関係に基づいて点群を2次元の点群に変換して行うアルゴリズム等がある。
P.Besl and N. McKay. A Method for Registration of 3-D Shapes. IEEE Trans. Pattern Analysis and Machine Intelligence, 14:239-256, 1992.
T. Drummond and R. Cipolla. Real-time visual tracking of complex struc- tures. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24:932- 946, 2002.
Klein, Georg, and David Murray. "Parallel tracking and mapping for small AR workspaces." Mixed and Augmented Reality, 2007. ISMAR 2007.
V. A. Prisacariu and I. D. Reid. PWP3D: Real-time segmentation and tracking of 3D objects. In Proc 19th British Machine Vision Conference, 2009.
次に、移動制御部55の移動制御動作を説明する。なお、移動制御部55は、図15に示すように対向二輪モデルとなるクローラ1を、移動体として移動制御することとして説明を進める。しかし、対向二輪モデルの他、リモートコントローラ等で遠隔操作される空中を移動する移動体、又は、人が運転操作する自動車等移動体にも、以下に説明する移動制御をモデル化して適用可能である。
以上の説明から明らかなように、実施の形態のクローラ1は、三次元計測センサ25からのセンサ出力に基づいて検出される通路上の物体を示す当て嵌め対象領域に、通路上の物体に対応する3Dモデルを当て嵌めることで、縁石70等の境界物を認識する。そして、境界物に沿ってクローラ1を移動制御する。これにより、屋外環境又は不整地環境等であっても、簡単な演算で安定してクローラ1を走行制御できる。
2 三次元計測センサ
3 縁石
4 キャタピラ
5 本体
6 アーム部
7 アクチュエータ
8 アクチュエータ
9 アクチュエータ
10 レール
21 CPU
22 ROM
23 RAM
24 HDD
25 三次元計測センサ
26 モーションセンサ
27 アクチュエータ
28 移動モータ
29 通信部
41 演算部
42 作成部
51 点群取得部
52 領域抽出部
53 姿勢認識部
54 三次元センサ制御部
55 移動制御部
61 3Dモデル作成部
62 地図作成部
63 記憶制御部
70 縁石
70D 縁石モデル
75 ガードレール
75D ガードレールモデル
76 段差
76D 段差モデル
77 ロードコーン
77D ロードコーンモデル
78 側溝
78D 側溝モデル
Claims (9)
- 検出部により検出された移動体の移動路の三次元環境から、各物体の存在位置及び姿勢を示す当て嵌め対象領域を抽出する抽出部と、
前記当て嵌め対象領域に対応する物体の外形となる三次元モデルを、位置及び姿勢を調整して前記当て嵌め対象領域に当て嵌めることで、前記移動体を原点とした座標系における前記各物体の位置及び姿勢を認識する認識部と、
認識された前記各物体の位置及び姿勢に応じて、前記移動体を移動制御するための制御信号を生成する生成部と
を有する情報処理装置。 - 前記抽出部は、前記各物体の姿勢と高さに基づいて、前記移動路を分離する境界物の前記当て嵌め対象領域を前記三次元環境から抽出し、
前記認識部は、前記当て嵌め対象領域に対応する前記境界物の外形となる三次元モデルを、位置及び姿勢を調整して前記当て嵌め対象領域に当て嵌めることで、前記移動体を原点とした前記境界物の位置及び姿勢を認識し、
前記生成部は、認識された前記境界物に沿って、前記移動体を移動制御するための制御信号を生成すること
を特徴とする請求項1に記載の情報処理装置。 - 前記認識部は、前記当て嵌め対象領域に前記三次元モデルを当て嵌める処理を、前記検出部からの検出出力のフレーム毎に行うこと
を特徴とする請求項1又は請求項2に記載の情報処理装置。 - 前記認識部は、前記当て嵌め対象領域の全長が前記三次元モデルの全長よりも長い場合、前記当て嵌め対象領域に対する前記三次元モデルの当て嵌め位置を、前記移動体の進行に応じて更新すること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。 - 検出部により検出された移動体の移動路の三次元環境から、抽出部が、各物体の存在位置及び姿勢を示す当て嵌め対象領域を抽出する抽出ステップと、
認識部が、前記当て嵌め対象領域に対応する物体の外形となる三次元モデルを、位置及び姿勢を調整して前記当て嵌め対象領域に当て嵌めることで、前記移動体を原点とした座標系における前記各物体の位置及び姿勢を認識する認識ステップと、
生成部が、認識された前記各物体の位置及び姿勢に応じて、前記移動体を移動制御するための制御信号を生成する生成ステップと
を有する情報処理方法。 - コンピュータを、
検出部により検出された移動体の移動路の三次元環境から、各物体の存在位置及び姿勢を示す当て嵌め対象領域を抽出する抽出部と、
前記当て嵌め対象領域に対応する物体の外形となる三次元モデルを、位置及び姿勢を調整して前記当て嵌め対象領域に当て嵌めることで、前記移動体を原点とした座標系における前記各物体の位置及び姿勢を認識する認識部と、
認識された前記各物体の位置及び姿勢に応じて、前記移動体を移動制御するための制御信号を生成する生成部として機能させること
を特徴とする情報処理プログラム。 - 前記抽出部は、前記各物体の姿勢と高さに基づいて、前記移動路を分離する境界物の前記当て嵌め対象領域を前記三次元環境から抽出し、
前記認識部は、前記当て嵌め対象領域に対応する前記境界物の外形となる三次元モデルを、位置及び姿勢を調整して前記当て嵌め対象領域に当て嵌めることで、前記移動体を原点とした前記境界物の位置及び姿勢を認識し、
前記生成部は、認識された前記境界物に沿って、前記移動体を移動制御するための制御信号を生成すること
を特徴とする請求項6に記載の情報処理プログラム。 - 前記認識部は、前記当て嵌め対象領域に前記三次元モデルを当て嵌める処理を、前記検出部からの検出出力のフレーム毎に行うこと
を特徴とする請求項6又は請求項7に記載の情報処理プログラム。 - 前記認識部は、前記当て嵌め対象領域の全長が前記三次元モデルの全長よりも長い場合、前記当て嵌め対象領域に対する前記三次元モデルの当て嵌め位置を、前記移動体の進行に応じて更新すること
を特徴とする請求項6から請求項8のうち、いずれか一項に記載の情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016137627A JP6786922B2 (ja) | 2016-07-12 | 2016-07-12 | 情報処理装置、情報処理方法及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016137627A JP6786922B2 (ja) | 2016-07-12 | 2016-07-12 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018010412A true JP2018010412A (ja) | 2018-01-18 |
JP6786922B2 JP6786922B2 (ja) | 2020-11-18 |
Family
ID=60994371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016137627A Active JP6786922B2 (ja) | 2016-07-12 | 2016-07-12 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6786922B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176278A1 (ja) * | 2018-03-12 | 2019-09-19 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
US11628573B2 (en) | 2019-04-26 | 2023-04-18 | Fanuc Corporation | Unmanned transfer robot system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030445A (ja) * | 2002-06-27 | 2004-01-29 | National Institute Of Advanced Industrial & Technology | 移動ロボットの自己位置推定方法及びシステム、並びにプログラム |
JP2007058805A (ja) * | 2005-08-26 | 2007-03-08 | Fuji Heavy Ind Ltd | 前方環境認識装置 |
JP2010066934A (ja) * | 2008-09-10 | 2010-03-25 | Nippon Yusoki Co Ltd | 3次元モデルを用いた自己位置認識手法及び自己位置認識システム |
JP2011209203A (ja) * | 2010-03-30 | 2011-10-20 | Sony Corp | 自己位置推定装置および自己位置推定方法 |
JP2013205130A (ja) * | 2012-03-28 | 2013-10-07 | Zenrin Co Ltd | 路面形状データの生成方法、路面形状データ生成装置およびコンピュータプログラム |
JP2014194729A (ja) * | 2013-02-27 | 2014-10-09 | Sharp Corp | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
-
2016
- 2016-07-12 JP JP2016137627A patent/JP6786922B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030445A (ja) * | 2002-06-27 | 2004-01-29 | National Institute Of Advanced Industrial & Technology | 移動ロボットの自己位置推定方法及びシステム、並びにプログラム |
JP2007058805A (ja) * | 2005-08-26 | 2007-03-08 | Fuji Heavy Ind Ltd | 前方環境認識装置 |
JP2010066934A (ja) * | 2008-09-10 | 2010-03-25 | Nippon Yusoki Co Ltd | 3次元モデルを用いた自己位置認識手法及び自己位置認識システム |
JP2011209203A (ja) * | 2010-03-30 | 2011-10-20 | Sony Corp | 自己位置推定装置および自己位置推定方法 |
JP2013205130A (ja) * | 2012-03-28 | 2013-10-07 | Zenrin Co Ltd | 路面形状データの生成方法、路面形状データ生成装置およびコンピュータプログラム |
JP2014194729A (ja) * | 2013-02-27 | 2014-10-09 | Sharp Corp | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176278A1 (ja) * | 2018-03-12 | 2019-09-19 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
US11628573B2 (en) | 2019-04-26 | 2023-04-18 | Fanuc Corporation | Unmanned transfer robot system |
Also Published As
Publication number | Publication date |
---|---|
JP6786922B2 (ja) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3371670B1 (en) | Device and method for autonomous localisation | |
CN107144285B (zh) | 位姿信息确定方法、装置和可移动设备 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP3937414B2 (ja) | 平面検出装置及び検出方法 | |
JP4328692B2 (ja) | 物体検出装置 | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP4297501B2 (ja) | 移動体周辺監視装置 | |
CN100494900C (zh) | 适用于自主移动车辆的环境感知的单目视觉导航方法 | |
KR102091580B1 (ko) | 이동식 도면화 시스템을 이용한 도로 표지 정보 수집 방법 | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
KR20170118040A (ko) | 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치 | |
EP2933604B1 (en) | A method for localizing a robot in a localization plane | |
CN114503043A (zh) | 受限移动性建图 | |
KR20150144730A (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
Maier et al. | Self-supervised obstacle detection for humanoid navigation using monocular vision and sparse laser data | |
US20220101534A1 (en) | Sidewalk edge finder device, system and method | |
CN109085840A (zh) | 一种基于双目视觉的车辆导航控制系统及控制方法 | |
Fischer et al. | Stereo vision-based localization for hexapod walking robots operating in rough terrains | |
Rehder et al. | Submap-based SLAM for road markings | |
JP6786922B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP2006053754A (ja) | 平面検出装置及び検出方法 | |
JP4270386B2 (ja) | 移動体移動量算出装置 | |
Diop et al. | A computer vision-aided motion sensing algorithm for mobile robot's indoor navigation | |
JP2020076714A (ja) | 位置姿勢推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201012 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6786922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |