JP2022182898A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2022182898A
JP2022182898A JP2021090685A JP2021090685A JP2022182898A JP 2022182898 A JP2022182898 A JP 2022182898A JP 2021090685 A JP2021090685 A JP 2021090685A JP 2021090685 A JP2021090685 A JP 2021090685A JP 2022182898 A JP2022182898 A JP 2022182898A
Authority
JP
Japan
Prior art keywords
image
control unit
information processing
self
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021090685A
Other languages
English (en)
Inventor
千恵 藤川
Chie Fujikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2021090685A priority Critical patent/JP2022182898A/ja
Publication of JP2022182898A publication Critical patent/JP2022182898A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】現在位置の推定処理にかかる負荷を低減する。【解決手段】本開示の情報処理装置は、画像取得部と制御部とを含む。前記画像取得部は、移動体の周囲の画像を取得する。前記制御部は、前記画像取得部の取得した画像から、前記移動体が移動可能な通路を含む移動可能領域を検出し、前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定する。【選択図】図10

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
移動体がカメラを用いて撮像した画像に基づいて、自己位置の推定を行う自己位置推定技術の開発が進められている。例えば、特許文献1では、撮像した画像からランドマークを検出し、検出した画像のランドマークと、ランドマークの位置を記憶した地図データと比較する処理を行うことにより、自己位置を推定している。
国際公開第2020/213275号
しかしながら、リアルタイム性の高い自己位置推定を行うために、先行技術では処理方法を改善する余地がある。
本開示の目的は、移動体の現在位置の推定処理を行う負荷を低減することができる情報処理装置、情報処理方法およびプログラムを提供することにある。
本開示の情報処理装置は、画像取得部と制御部とを含む。前記画像取得部は、移動体の周囲の画像を取得する。前記制御部は、前記画像取得部の取得した画像から、前記移動体が移動可能な通路を含む移動可能領域を検出し、前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定することを特徴とするものである。
本開示の情報処理方法は、移動体の周囲の画像を取得することと、前記画像から、前記移動体が移動可能な通路を含む移動可能領域を検出することと、前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定することとを含むことを特徴とするものである。
本開示のプログラムは、移動体の周囲の画像を取得することと、前記画像から、前記移動体が移動可能な通路を含む移動可能領域を検出することと、前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定することとを含む処理をコンピュータに実行させることを特徴とするものである。
本開示の実施形態によれば、現在位置の推定処理を行う負荷を低減した情報処理装置、情報処理方法およびプログラムを提供することができる。
一実施形態に係る情報処理システムの概略構成を示す図である。 図1の携帯型情報処理装置の概略構成を示すブロック図である。 フリースペースと自己位置推定処理エリアの位置関係の一例を示す図である。 フリースペースと自己位置推定処理エリアの位置関係の一例を示す図である。 移動体が移動しているときのフリースペース検出処理エリアの一例を示す図である。 移動体が移動しているときのフリースペース検出処理エリアの一例を示す図である。 図1の情報処理システムが適用される場面の一例である駅のプラットホームを上側から見た図である。 携帯型情報処理装置の制御部が実行する処理の一例を示すフローチャートである。 図8の目的地の方向を決定する処理の詳細を示すフローチャートである。 図8の自己位置推定処理(停止時)の詳細を示すフローチャートである。 画像取得部11により取得される画像を加工した画像の一例を示す図である。 図8の自己位置推定処理(移動中)の詳細を示すフローチャートである。 図11の画像を取得し移動した後に、画像取得部11により取得される画像を加工した画像の一例を示す図である。 図13の画像を取得し移動した後に、画像取得部11により取得される画像を加工した画像の一例を示す図である。 他の一実施形態に係る情報処理システムの概略構成を示す図である。 図15の情報処理装置の概略構成を示すブロック図である。 図15の携帯型端末の概略構成を示すブロック図である。 地図情報を利用せずに自己位置推定を行う処理の一例を示すフローチャートである。 本開示の情報処理装置を有するロボットの構成を示すブロック図である。
以下、本開示の実施形態について、図面を参照して説明する。以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
(全体構成)
一実施形態に係る情報処理システム1は、図1に示すように、携帯型情報処理装置10と地図情報サーバ100とを含んで構成される。携帯型情報処理装置10と地図情報サーバ100とは、ネットワーク5を介して通信可能に構成される。ネットワーク5は、インターネットまたは特定の通信事業者により提供されるネットワークを使用しうる。携帯型情報処理装置10は、ネットワーク5に無線通信により接続することができる。携帯型情報処理装置10は、第4世代移動通信システム(4G:4th Generation)、第5世代移動通信システム(5G:5th Generation)、または、Wi-Fi等の無線LANを介してネットワーク5に接続されてよい。地図情報サーバ100は、ネットワーク5に有線または無線通信により接続されてよい。
一実施形態において、情報処理システム1は、駅のプラットホームを歩行する視覚障害者である利用者の位置を検出し、当該利用者を、目的地まで導くシステムである。したがって、情報処理システム1は、歩行者案内システムと言い換えることができる。利用者は、携帯型情報処理装置10の案内に従って、目的地まで移動する。この場合、利用者は人である。利用者は、移動体に含まれる。
地図情報サーバ100は、携帯型情報処理装置10に対して、当該携帯型情報処理装置10の周辺の地図情報を送信することができる。地図情報は、VSLAM(Visual Simultaneous Localization and Mapping)、および、VISLAM (Visual-Inertial Simultaneous Localization and Mapping)等の技術を用いて予め作成された地図情報を用いることができる。地図情報は、固定物の3次元の情報を含むことができる。固定物は、駅の柱および屋根等の構造物、並びに、情報表示板、ベンチ及び自動販売機等の設置物を含む。固定物は、短時間に位置を変えることがない、または、位置を変えることが稀である物体である。地図情報は、固定物の特徴となる部分の3次元位置情報を含んでよい。
(携帯型情報処理装置の構成)
携帯型情報処理装置10は、図2に示すように、画像取得部11、入力部12、通知部13、制御部14、地図情報取得部15、記憶部16、及び、警報部17を含む。携帯型情報処理装置10は、これらの構成部を有するスマートフォン、スマートウォッチ又は他の携帯型情報端末を用いることができる。
画像取得部11は、利用者の周囲の画像を取得する。画像取得部11は、例えばスマートフォンに内蔵するカメラとすることができる。画像取得部11は、携帯型情報処理装置10とは別に設けられたカメラから、画像データを取得するように構成されてよい。カメラは、通常の単眼のカメラ、複数の撮像部により構成されるステレオカメラ、および、奥行き情報を取得可能なデプスカメラを含む。画像取得部11は、利用者の正面の方向の画像を取得することができる。このため、携帯型情報処理装置10が、スマートフォンの場合、携帯型情報処理装置10は、内蔵するカメラの光軸を利用者の正面方向に向けるように、利用者の体に装着されてよい。画像取得部11は、カメラから取得した画像に対して、ひずみ補正、明度調整、コントラスト調整等の任意の画像処理を実行してよい。
入力部12は、利用者から目的地の入力を受けるように構成される。入力部12は、例えばマイクである。マイクにより入力された利用者の音声は、制御部14により音声認識処理を受けてよい。
通知部13は、制御部14の制御の下で、利用者に対して進行、方向変更、および停止等の案内を行う。通知部13は、スピーカ、イヤホン及びバイブレータ等を含んでよい。
制御部14は、携帯型情報処理装置10全体の処理を制御するとともに、種々の処理を実行する。制御部14は、一つまたは複数のプロセッサ及びメモリを含む。プロセッサには、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および、特定の処理に特化した専用のプロセッサが含まれる。専用プロセッサとしては、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)等を採用しうる。メモリは、種々の処理のためのプログラム及び演算中の情報を記憶する。制御部14の実行する処理は、以下においてさらに記載される。
地図情報取得部15は、地図情報サーバ100から地図情報を取得する。以下に説明する例では、地図情報は駅構内の地図情報であって、プラットホーム上の地図情報を含む。地図情報取得部15は、ネットワーク5を介して地図情報サーバ100と通信する通信部であってよい。地図情報取得部15は、特定の無線通信規格に対応した無線通信機を含んでよい。
記憶部16は、地図情報取得部15を介して取得した地図情報、および、携帯型情報処理装置10で実行される各種のプログラム等を記憶する。記憶部は、例えば半導体メモリ、磁気メモリ、および光メモリ等の何れか一つ以上を用いて構成されてよい。半導体メモリは、揮発性メモリおよび不揮発性メモリを含んでよい。
警報部17は、制御部14の制御の下で、制御部14が利用者の危険な方向への移動を検出した場合に、利用者に対して危険を知らせるための警報を発生させる。警報部17は、通知部13と共通のスピーカ、イヤホン及びバイブレータ等を使用してよい。
(制御部の処理の概要)
制御部14は、画像取得部11で取得した画像に基づいて、利用者が移動可能な通路を含むフリースペースを検出することができる。「フリースペース」は、移動体の移動の障害となる障害物が存在しない通路上の移動可能な領域である。移動体が歩行者の場合、「フリースペース」は、歩行者が他の歩行者または通路上の障害物と干渉することなく歩行可能な通路上の領域を意味する。フリースペースは、移動可能領域と言い換えることができる。
制御部14は、機械学習または深層学習(ディープラーニング)によるフリースペースの検知を行うことができる。制御部14は、機械学習による学習済みのモデルを使用して、取得した画像内の、歩行者、ベンチ等の設置物、柱等の構造物を含む物体の検出と、フリースペースの検出とを行うことができる。このため、制御部14は、専用の画像処理用のプロセッサを搭載することができる。画像処理用のプロセッサは、例えば、機械学習で使用される畳み込みニューラルネットワークを用いた画像判別処理を実装する。自動車等の移動体分野において、撮像装置から取得した画像に基づいて、フリースペースを検出する技術は、近年多くの研究がなされている。機械学習の結果、フリースペースを精度高く検出できることが知られている
制御部14は、検出したフリースペースに基づいて、画像取得部11で取得した画像の一部の領域を自己位置推定処理エリアとして決定することができる。制御部14は、検出したフリースペースの一部または全部の領域を含んで、自己位置推定処理エリアとして決定してよい。自己位置推定処理エリアの画像は、部分画像である。部分画像とは、すなわち画像取得部11で取得した画像の一部である。自己位置推定処理エリアは、画像取得部11から取得した画像の領域の1/2以下、1/4以下、または、1/8以下の大きさとすることができる。制御部14は、自己位置推定処理エリアに基づいて、携帯型情報処理装置10の自己位置を推定する処理を実行する。携帯型情報処理装置10の自己位置は、利用者の現在位置に対応する。すなわち、制御部14は、利用者の現在位置を推定することができる。
図3に示すように、フリースペース27は歩行者P、ベンチ等の設置物、柱24等の構造物を含む障害物によって、二つ以上の領域で検出される場合がある。図3は、後述の例と同じく駅のプラットホームの上で撮像した画像の例である。図4から図6についても同様。利用者が移動する方向は、複数のフリースペース27a、27bの中で大きさがある所定の大きさ以上であり、面積が最も大きいフリースペース27aの重心位置Cgを含んだ自己位置推定処理エリア28により決定されてよい。図4に示すように、フリースペース27が一つの領域で検出され、大きさが所定の大きさ以上である場合は、同様にフリースペースの重心位置Cgを含んだ自己位置推定処理エリア28が設定され、移動する方向が決定されてよい。
図5および図6を参照して、制御部14は、カメラ等センサーの姿勢の変化が小さく、連続的に自己位置推定処理が実行されている場合、移動速度を推定することができる。移動速度によって、画像取得部11で取得した画像の一部の領域をフリースペース検出処理エリア27Aとして決定できる。フリースペース検出処理エリア27Aは、画像取得部11で取得した画像中でフリースペース27の検出を行う領域である。フリースペース27は、路面または床面等に位置するので、画像中の水平方向付近より下側から探索される。移動速度を考慮することによって、画像取得部11で取得した画像中の利用者の最も近傍に位置する最下部の領域は、フリースペース検出処理エリア27Aから除外されてよい。利用者の近傍のエリアは、移動を考慮した場合、撮像した次の瞬間には画像に映らない領域になりフリースペースの検出が不要となるからである。
制御部14は、自己位置推定処理エリア28を長方形の領域として決定してよい。制御部14は、自己位置推定処理エリア28を少なくとも部分的にフリースペース27を含むように決定する。制御部14は、自己位置推定処理エリア28を画像取得部11が取得した画像から、所定の大きさ以上のフリースペース27を含むように決定してよい。例えば、制御部14は、画像中のフリースペース27の中から所定の大きさ以上の大きさを有する凸な平面領域(例えば、凸多角形)または凹な平面領域(例えば、凹多角形)を抽出し、この凸な平面領域または凹な平面領域を含むように自己位置推定処理エリア28を決定してよい。制御部14は、自己位置推定処理エリア28を位置推定のための特徴となる物体を含むように決定してよい。制御部14は、自己位置推定処理エリア28を画像取得部11が取得した画像から、他の歩行者等の移動する物体を含まないように決定してよい。
制御部14は、自己位置推定処理エリア28の画像と、地図情報取得部15から取得される利用者の周辺の地図情報とに基づいて、携帯型情報処理装置10の自己位置を推定する。自己位置は、携帯型情報処理装置10の空間内の3次元で表される位置に加え、3次元で表される姿勢または向きの情報を含む6自由度の量として表すことができる。携帯型情報処理装置10の自己位置は、利用者の現在位置と言い換えることができる。制御部14は、例えば、自己位置推定処理エリア28に含まれる特徴点と、VSLAM等の技術で作成されたプラットホーム上の地図情報の特徴点とのマッチングを行うことで自己位置を推定することができる。制御部14は、自己位置推定処理エリア28の画像に含まれる、プラットホームのエッジ部、プラットホームの番号を表示する表示板、および、自動販売機等の特徴となる物体の画像の方向やこれらの物体との距離と、地図情報とのマッチングにより自己位置を推定してよい。
制御部14は、入力部12から入力された音声を認識して、目的地を認識するように構成される。制御部14は、フリースペース27と地図情報とに基づいて目的地に移動するための移動方向を決定することができる。制御部14は、目的地に近づくため、利用者を一定以上の大きさを有するフリースペース27の方向に案内することができる。制御部14は、利用者の移動中に移動方向を順次決定し、該移動方向に基づいて利用者の移動を案内することができる。
一例として、本開示の携帯型情報処理装置10が適用される駅のプラットホーム20の構成例が、図7に示される。プラットホーム20には、地下の通路からプラットホーム20上に移動するための階段21がある。利用者Uは、階段21を上った位置から、目的地Gである乗車位置まで移動するものとする。プラットホーム20は、2本の線路22aおよび22bに挟まれた島式ホームとする。
プラットホーム20は、全体が上部を屋根23で覆われている。屋根23は、プラットホーム20上に配置された複数の柱24により支えられる。さらに、プラットホーム20上には、ベンチ、自動販売機、売店、事務所、および、情報表示板などの種々の固定物25が設置されている。
(利用者を目的地に案内する処理フロー)
図8を参照して、携帯型情報処理装置10の制御部14の処理フローの一例を説明する。
まず、利用者Uが携帯型情報処理装置10の入力部12に目的地情報を音声で入力することにより、制御部14はこの音声を認識し目的地情報を取得する(ステップS101)。利用者Uは、目的地Gを「A駅の4番線1号車の2番乗車位置まで」のように発話して指定することができる。携帯型情報処理装置10が、GPS受信機から得られる緯度及び経度情報、または、携帯電話の通信可能な基地局の位置情報を取得可能な場合、駅名等のおよその現在位置を示す情報の入力は、省略することができる。利用者Uは、目的地Gの入力に加え、「北側階段上から」のように、音声により現在位置の情報を入力することができる。
次に、制御部14は、地図情報取得部15を介して、地図情報サーバ100から利用者Uの現在位置の周辺の地図情報を取得する(ステップS102)。利用者Uが徒歩で移動する場合、利用者Uの現在位置の周辺の地図情報は、目的位置の周辺の地図情報に少なくとも部分的に重複する。したがって、制御部14は、ステップS101で入力された目的地を含む周辺の地図情報を取得してよい。制御部14は、取得した地図情報を記憶部16に記憶する。
制御部14は、ステップS102の後、目的地Gの方向を決定する(ステップS103)。目的地Gの方向を決定するフローは、図9に示される。
まず、制御部14は、利用者Uに対して、画像取得部11の画像取得に使用されるカメラを、利用者Uを中心にして水平方向に移動するように指示する(ステップS201)。利用者Uがカメラを搭載したスマートフォンを体に装着している場合、制御部14は利用者Uに対してその場でゆっくり回転しながら向きを変えるように指示をする。画像取得部11は、順次連続的に画像を取得する(ステップS202)。これにより、画像取得部11の取得する画像の方向は、利用者Uを中心として変化する。
制御部14は、画像取得部11から取得した画像を順次地図情報と対比することにより、自己位置を推定するとともに、取得した画像の方向と地図上の目的地Gの方向とが一致しているか判定する(ステップS203)。例えば、制御部14は、画像に含まれる目印となる物体(ランドマーク)の位置と、同物体の地図情報における位置から、自己位置と目的地Gの方向の一致又は不一致を決定することができる。
制御部14が画像取得部11から取得した画像の方向が、目的地Gの方向と一致していない場合(ステップS204:No)、制御部14は、ステップS202の処理に戻る。制御部14は、取得した画像の方向と目的地Gの方向とが一致するまで、利用者Uにより移動されるカメラの向きに応じて、ステップS202からS204の処理を繰り返す。
ステップS204において、画像取得部11から取得した画像の方向が移動方向に一致した場合(ステップS204:Yes)、制御部14は、利用者Uに目的地Gの方向を通知する(ステップS205)。例えば、制御部14は、通知部13のバイブレータを振動させることにより、カメラが現在向いている向きが目的地Gの向きであることを、利用者Uに知らせる。これにより、利用者Uは、目的地Gの方向を把握することができる。
次に、図8のフローチャートに戻り、制御部14は、停止中において自己位置を推定する自己位置推定処理を実行する(ステップS104)。自己位置推定処理は、図10を参照して以下に説明される。
まず、制御部14は、画像取得部11を介して、目的地の方向の画像を取得する(ステップS301)。目的地の方向は、利用者Uの向いている正面の方向と一致してよい。図11は、画像取得部11により取得される画像を加工した画像の一例を説明する図である。画像取得部11により取得される画像は、プラットホーム20、線路22a,22b、屋根23、柱24に加え、線路22aおよび22bの番号を示す表示板26aおよび26b等が含まれてよい。表示板26a及び26bは、情報表示板である。
制御部14は、取得した画像からフリースペース27を検出する(ステップS302)。フリースペース27は、図11において、プラットホーム20上の網掛された領域として示される。プラットホーム20上の柱24等の構造物及び歩行者Pと重なる部分は、利用者Uが移動できない領域であり、フリースペース27に含まれない。
次に、制御部14は、フリースペース27に基づき画像の一部分を自己位置推定処理エリア28(図11において二点鎖線で囲まれた領域)として決定する(ステップS303)。自己位置推定処理エリア28の画像は部分画像である。例えば、制御部14は、図11においてプラットホーム20上の比較的広いフリースペース27を含む、柱24の左側の長方形の領域を自己位置推定処理エリア28として決定する。自己位置推定処理エリア28は、歩行者Pを含まないように決定されてよい。自己位置推定処理エリア28は、プラットホーム20のエッジ部20a、屋根23、および、線路22aの番号を示す表示板26a等のマッチングにおいて特徴となる物体またはその部分の画像が含まれてよい。このため、図11の例では、自己位置推定処理エリア28は、フリースペース27の位置する画像内の下部から画像内の上部までの領域を含んでいる。
制御部14は、自己位置推定処理エリア28の画像と地図情報とに基づき自己位置を推定する(ステップS304)。自己位置推定には、VSLAM、VISLAM、VO(Visual Odometry)、または、VIO(Visual Inertial Odometry)等の移動体による自己位置推定の技術を利用することができる。位置推定の技術は、これらに限られない。
例えば、制御部14は、自己位置推定処理エリア28の画像から、複数の特徴点を抽出する。制御部14は、自己位置推定処理エリア28の画像に含まれる複数の特徴点と地図情報に含まれる複数の特徴点のマッチングにより、携帯型情報処理装置10の自己位置を推定することができる。制御部14は、さらに、画像に含まれるベンチおよび自動販売機等の固定物25、ならびに、屋根23および線路の番号を表示する表示板26a等を特徴物として、自己位置推定に利用することができる。プラットホーム20のエッジ部20aを表す直線の画像は、特徴となる画像要素として自己位置推定に利用することができる。表示板26aには、例えば「3」のような線路22aに割り振られた番号が表示される。制御部14は、表示板26aの文字等の特徴を位置推定に利用してよい。
地図情報には含まれない画像中の歩行者P等の移動可能な物体は、自己位置推定を行ううえにおいてノイズとなる。自己位置推定処理エリア28は、フリースペース27の一部を含むので、画像中の特徴点または特徴物が歩行者P等と重なることがない、または、重なることが少ない。さらに、自己位置推定処理エリア28は、プラットホーム20のエッジ部20a、線路の番号を含む表示板26a、および、柱24等の画像中の特徴となる画像部分を含む。このため、制御部14は、地図情報に含まれる特徴点または特徴物を精度よく検出することができる。したがって、制御部14は、自己位置推定処理エリア28を、画像取得部11で取得した画像全体から、狭い範囲に限定しながら、精度よく自己位置推定をすることが可能となる。これによって、利用者Uの現在位置を推定する処理を行う負荷が低減される。
次に、制御部の処理は、図8に戻る。制御部14は、移動可能なスペースの有無を判定する(ステップS105)。移動可能なスペースは、フリースペース27に基づいて判定されてよい。フリースペース27が、目的地Gに向かう方向に所定の大きさ以上の移動可能なスペースを含んでいる場合(ステップS105:Yes)、当該移動可能なスペースの方向が移動方向となる。移動可能なスペースは、例えば、他の物体に干渉せずに所定の距離、例えば、2mまたは3m以上進むことができる空間を意味する。フリースペース27が、目的地Gに向かうために移動可能なスペースを含まない場合(ステップS105:No)、制御部14はステップS104に戻り、移動可能なスペースを探索する処理を繰りかえす。時間とともに、利用者Uの周囲の歩行者Pが移動することにより、利用者Uの移動が可能なる。
制御部14は、ステップS105で移動可能なスペースがあると判定した場合、移動方向に移動を開始することを、通知部13のスピーカまたはイヤホンを介して利用者Uに通知する(ステップS106)。例えば、図11の例では、制御部14は、柱24を避けて前進するために、「左に1m進んで、元の向きに戻って直進して下さい。」のように、利用者Uに対して通知することができる。このため、制御部14は、音声合成機能を有してよい。
移動開始後の移動中に、制御部14は、自己位置推定処理(ステップS107)を実行する。ステップS107の移動中の自己位置推定処理のフローは、図12に示される。図12に示す自己位置推定処理(移動中)は、図10に示す自己位置推定処理(停止時)と部分的に共通する。ステップS401およびステップS402は、ステップS301およびステップS302と同一または類似する。ステップS403において、制御部14は、フリースペース27と、自己位置及び推定される携帯型情報処理装置10の移動速度に基づき画像の一部分を自己位置推定処理エリア28として決定する。携帯型情報処理装置10の移動速度は、利用者Uの移動速度である。ステップS403では、ステップS303とは異なり利用者Uの移動速度が考慮される。制御部14は、移動速度に基づいて移動速度の情報がない場合に比べて自己位置推定処理エリア28をさらに狭めることができる。移動速度は、図12のフローチャートの処理で、後述するステップS405において推定された移動速度が使用される。使用可能な所定の移動速度の範囲内で使用され、移動速度が速いほどフリースペース検出処理エリア27A及び自己位置推定処理エリア28を狭めて使用することが可能である。なお、自己位置推定処理を開始してから時間が経過することにより、自己位置推定精度が向上している場合には、自己位置推定処理エリア28を徐々に狭めていっても良い。
制御部14は、自己位置推定処理エリア28の画像と地図情報とに基づき最新の自己位置を推定する(ステップS404)。制御部14は、ステップS304と同一または類似の方法で自己位置を推定してよい。制御部14は、直前に撮像した画像からの画像の変化を考慮して、現在の自己位置を推定してよい。制御部14は、自己位置の情報を順次更新する。制御部14は、自己位置の時系列の情報を順次記憶部16に記憶してよい。
制御部14は、自己位置の時系列の変化に基づいて最新の移動速度を推定することができる(ステップS405)。制御部14は、移動速度の情報を順次更新する。
図12の処理の後、制御部14は、図8のフローチャートの処理に戻る。制御部14は、移動可能なスペースの有無を判定する(ステップS108)。ステップS108は、ステップ105と類似して、フリースペース27に基づいて判定される。ステップS108の判定においては、移動速度が考慮される。移動速度が速い場合、利用者Uが移動することを考慮して、利用者Uが停止している場合よりも、利用者Uのより前方のフリースペース27の有無が判定に用いられる。
制御部14は、フリースペース27の利用者Uの前方に十分な大きさの移動可能なスペースがない場合(ステップS108:No)、通知部13のスピーカまたはイヤホン等を用いて、利用者Uに停止要求を通知する(ステップS109)。例えば、制御部14は、利用者Uに対して、「止まってください」のような音声を通知する。これによって、利用者Uは目的地Gに向かう方向に移動可能なスペースがない場合、歩行を停止することにより他の歩行者Pまたは固定物25と接触すること避けることができる。
制御部14は、移動可能なスペースがある場合(ステップS108:Yes)、利用者Uに移動方向を指示する(ステップS110)。一例として、図11の画像を撮像後に移動を開始した利用者Uの携帯型情報処理装置10が、図13に示す画像を取得した場合を想定する。この場合、制御部14は、プラットホーム20上のフリースペース27に基づいて、移動可能な方向を判定する。図13の例では、撮像方向中央に移動可能なスペースがあるので、制御部14は、利用者Uに対して通知部13のスピーカまたはイヤホンを介して、「直進して下さい」のように進行方向を指示してよい。
制御部14は、移動可能なスペースの有無を判定するとき、携帯型情報処理装置10の移動速度およびフリースペース27の時間的変化を考慮することができる。利用者U自身の移動および歩行者Pの移動によって、画像取得部11で取得される画像中のフリースペース27の大きさおよび形状は、時間とともに変化する。制御部14は、フリースペース27の所定時間後(例えば、1秒から3秒後)の変化を予測して、利用者Uに移動方向の指示または停止指示をしてよい。
ステップS110の後、制御部14は、携帯型情報処理装置10が、目的地Gである乗車位置に到着したか否かを判定する(ステップS111)。目的地Gへの到着は、目的地Gへ完全に到達した場合以外に、目的地Gの近傍に到着した場合を含む。目的地Gへの到着は、ステップS107における自己位置推定処理で推定された自己位置と目的地Gの位置との対比により行うことができる。
制御部14は、ステップS111で目的地Gに未だ到着していないと判断した場合(ステップS111:No)、ステップS107に戻って、利用者Uを案内する処理を続ける。
制御部14は、ステップS111で目的地Gである乗車位置に到着したと判断した場合、利用者Uに通知部13のスピーカまたはイヤホンを介して目的地Gに到着したことを通知する。例えば、図13の画像を撮像後に、利用者Uの携帯型情報処理装置10が図14の画像を取得した場合を想定する。この場合、目的地Gである乗車位置は、プラットホーム20の右側に位置する。一方、利用者Uの正面には歩行者Pが存在するので、前方のフリースペース27が狭くなっている。このような場合、制御部14は、利用者Uに対して、「右へ1m進んで、元の向きに戻り3m直進した右側が乗車位置です」のように通知することができる。
なお、図8のフローチャートには含まれていないが、制御部14は、利用者Uがプラットホーム20のエッジ部20aに近づいた場合に、警報を発することができる。例えば、制御部14は、プラットホーム20のエッジ部20aからプラットホーム20の内側方向に所定の幅(例えば、50cm)の領域を安全確保領域とすることができる。安全確保領域は、フリースペース27に含まれてよい。図11、図13および図14に、プラットホーム20上の安全確保領域の境界を示す仮想的な直線である安全確保領域境界線29が示されている。制御部14は、携帯型情報処理装置10の推定された自己位置が、安全確保領域境界線29を超えて安全確保領域に入った場合、警報部17により、利用者Uに対する警報を発生させることができる。これにより、携帯型情報処理装置10は、利用者Uに対してシームレスな移動支援を行いながら、プラットホーム20からの転落を防止することができる。
以上説明したように本実施形態によれば、制御部14は、フリースペース27に基づいて決定されたフリースペース27の一部を含む自己位置推定処理エリア28により、自己位置を推定する。フリースペース27は、自己位置推定をするうえでノイズとなる歩行者P等の移動する物体が含まれない。このため、制御部14は、自己位置推定処理エリア28の画像から、地図情報と対比して位置を推定するための特徴点または特徴物を精度よく検出することができる。したがって、制御部14は、画像取得部11から取得した画像の一部分である自己位置推定処理エリア28を用いて自己位置推定を行うことで、所望の精度を満足しながら処理負荷を低減することができる。携帯型情報処理装置10の自己位置は、利用者Uの現在位置に対応する。したがって、本実施形態によれば、よりリアルタイム性の高い利用者Uの現在位置の推定、および、目的地への案内が可能になる。
(情報処理装置の機能分担)
図1の情報処理システム1では、携帯型情報処理装置10が制御部14により利用者の現在位置の推定、および、目的地Gへの案内の処理を行っていた。他の実施形態では、携帯型情報処理装置10の行っていた処理は、他の装置と機能分担することができる。一例として、図15に示す情報処理システム2は、情報処理装置30と携帯型端末40と地図情報サーバ100とを含む。情報処理装置30は、利用者から離れた情報処理センター等に配置されるコンピュータである。携帯型端末40は、利用者が携帯するスマートフォン等の情報端末である。
例えば、情報処理装置30は、図16に示すように、第1通信部31と、制御部32と、記憶部33とを含む。第1通信部31は、ネットワーク5を介して一つ以上の携帯型端末40および地図情報サーバ100と通信をすることができる。制御部32は、携帯型端末40から画像を取得し、利用者の現在位置の推定、および、移動可能なスペースの有無の判定等の処理を実行する。制御部32は、一つ以上のプロセッサを含んで構成される。記憶部33は、地図情報サーバ100から第1通信部31を介して取得した、利用者の周辺の地図情報を記憶する。
例えば、携帯型端末40は、図17に示すように、第2通信部41、画像取得部42、入力部43、通知部44、制御部45、および、警報部46を含む。画像取得部42、入力部43、通知部44、および、警報部46は、それぞれ、図2の携帯型情報処理装置10の画像取得部11、入力部12、通知部13、および、警報部17と同一または類似に構成される。制御部45は、制御部14と同じに一つ以上のプロセッサを含んで構成される。制御部45は、情報処理装置30の制御部32と連携して、利用者を目的地Gまで案内する。
以上のような構成により、情報処理システム2では、利用者の周辺の画像の取得および利用者に対する情報の入出力を携帯型端末40により行い、取得した情報の処理を情報処理装置30で行うことができる。例えば、図8のフローチャートにおける、ステップS101、S106、S109、S110およびS112に相当する処理の少なくとも一部が携帯型端末40により実行され、他のステップに相当する処理が情報処理装置30により実行されてよい。このようにすることによって、携帯型端末40、または、図1の携帯型情報処理装置10ですべての処理をする場合に比べて、携帯型端末40側の処理負荷を低減することができる。上記機能分担は例示である。情報処理装置30と携帯型端末40との間は、種々の方法で機能を分担することができる。
(地図情報がない場合の移動支援)
上記実施形態では、携帯型情報処理装置10は外部の地図情報サーバ100から地図情報を取得する。携帯型情報処理装置10は、所定の環境下で外部から地図情報を取得しないで、取得した画像のみから相対的な自己位置を推定することが可能である。携帯型情報処理装置10は、地図情報が存在しない駅のプラットホーム20で、プラットホーム20のエッジ部20aを検出し、プラットホーム20上での自己位置を推定することができる。この場合の自己位置は、エッジ部20aからの距離およびエッジ部20aに対する姿勢または向きである。携帯型情報処理装置10は、利用者に対して、プラットホーム20を歩行する際にエッジ部20aまで安全な距離を確保した移動支援を行うことができる。
地図なしで携帯型情報処理装置10の制御部14が実行する処理を、図18を参照して説明する。
まず、制御部14は、画像取得部11を介して利用者Uの正面に位置する利用者Uの周辺の画像を取得する(ステップS501)。
制御部14は、取得した画像からフリースペース27を検出する処理を実行する(ステップS502)。
制御部14は、検出したフリースペース27に基づいて、画像取得部11から取得した画像の一部分を自己位置推定処理エリア28として決定する(ステップS503)。自己位置推定処理エリア28は、フリースペース27の一部分を含む。地図情報なしで、駅のプラットホーム20において自己位置を推定する場合、制御部14は、プラットホーム20のエッジ部20aが含まれる範囲を自己位置推定処理エリア28として決定してよい。
制御部14は、ステップS503で決定された自己位置推定処理エリアの画像から、特徴となる画像要素を抽出する(ステップS504)。この例では、プラットホーム20のエッジ部20aに対応する直線が抽出される。
制御部14は、画像要素に対応する実空間の空間要素に対する距離及び姿勢を現在位置として判定する(ステップS505)。この例では、空間要素は、検出した直線に対応する、実空間におけるプラットホーム20の端部であるエッジ部20aである。すなわち、制御部14は、プラットホーム20のエッジ部20aに対する利用者Uの距離および利用者Uの向きを検出する。
さらに、制御部14は、位置検出で検出された現在位置の変化から、携帯型情報処理装置10の、空間要素(すなわち、プラットホーム20のエッジ部20a)に対する、移動速度を推定することができる(ステップS506)。移動速度は、エッジ部20aに対する距離の時間変化として算出することができる。
制御部14は、空間要素に対する距離および移動速度の少なくとも何れかが、所定の条件を満たす場合に、警報部17から利用者Uに対して警報を発することができる(ステップS507)。例えば、制御部14は、携帯型情報処理装置10のエッジ部20aからの距離が、所定距離よりも短くなった場合に、利用者Uに対して、プラットホーム20から転落する可能性があることを警告する。また、例えば、制御部14は、携帯型情報処理装置10がエッジ部20aに向かう方向に、所定速度以上の速さで移動している場合、エッジ部20aからの距離と移動速度とに基づいて警報を発してよい。例えば、制御部14は、現在の速度で移動を継続した場合に、所定時間(例えば、3秒間)以内にエッジ部20aに到達する場合に警報を発してよい。
以上説明したように、携帯型情報処理装置10は、地図情報がない場合でも、駅のプラットホーム20などの所定の条件下で、自己位置推定をすることができる。携帯型情報処理装置10は、利用者Uがプラットホーム20のエッジ部20aに近づくと警報を発生するので、利用者Uは駅のプラットホーム20上で、エッジ部20aまでの安全な距離を確保した移動が可能になる。また、携帯型情報処理装置10は、取得した画像の一部である自己位置推定処理エリア28の画像を用いて自己位置を推定するので、自己位置推定に係る処理負荷を低減することができる。
(ロボットへの適用)
上記実施形態において、移動体は視覚障害者であるものとして説明したが、移動体は視覚障害者等の人に限られない。また、本開示の情報処理装置およびプログラムが適用される環境は、駅のプラットホーム20に限られない。例えば、移動体はロボットであってよい。ロボットには、物品を運搬するロボット、無人で警備を行うロボット、および、掃除をするロボット等が含まれる。また、適用される環境は、駅のプラットホーム以外の施設であってよい。
本開示の一実施形態に係る情報処理装置50をロボット60に採用した例が、図19に示される。ロボット60は、情報処理装置50と、カメラ61と、駆動機構62とを含む。カメラ61は、ロボット60の通常前進する方向に光軸を向けて取り付けられる。駆動機構62は、モーターおよびタイヤ等任意のロボット60を移動させる手段を含む。駆動機構62は、ロボット60の進む方向を変更可能である。駆動機構62は、ロボット60を情報処理装置50からの指示に従って移動させる。情報処理装置50は、図2の携帯型情報処理装置10と類似しており、画像取得部51、入力部52、出力部53、制御部54、地図情報取得部55、および、記憶部56を含む。
画像取得部51は、カメラ61が撮像した画像を順次取得する。
入力部52は、ロボット60の移動の目的地の入力を受けるように構成される。ロボット60は、キーボード等の任意の入力装置または通信により目的地の入力を受けてよい。
出力部53は、ロボット60の移動中の状態または移動完了などを、予め定められた外部に通知する。出力部53は、外部と無線通信を行う通信インタフェースを含んでよい。
制御部54は、情報処理装置50の全体を制御するとともに、駆動機構62を制御してロボット60の移動を制御する。制御部54は、携帯型情報処理装置10の制御部14と同じに、一つまたは複数のプロセッサおよびメモリを含んでよい。制御部54は、制御部14と同じに、フリースペース検知処理、自己位置推定処理、移動可能なスペースの検出処理等を実行してよい。制御部54は、入力部52から入力された目的地に移動するように、順次移動可能なスペースを検出して進行するように、駆動機構62を制御してよい。
地図情報取得部55は、携帯型情報処理装置10の地図情報取得部15と同じに、地図情報サーバ100から地図情報を取得することができる。記憶部56は、携帯型情報処理装置10の記憶部16と同じに、地図情報および各種プログラム等を記憶することができる。ロボット60が特定の場所のみで使用される場合、地図情報取得部55および地図情報サーバ100は不要である。地図情報はあらかじめ記憶部56に記憶されていてよい。
ロボット60の情報処理装置50に含まれる制御部54は、図8に示された携帯型情報処理装置10の実行する処理と類似の処理を実行する。ただし、制御部54は、入力部43または外部システムから目的地情報を取得する。制御部54は、利用者Uに対して指示または通知を行うことに代えて、駆動機構62を駆動させロボット60を移動させる。
以上説明したような構成によって、ロボット60は、歩行者または他のロボットとぶつからないようにしながら、目的地まで移動することが可能になる。ロボット60は、駅のプラットホーム上のみならず、店舗、病院または公共施設等で利用することができる。
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した非一時的なコンピュータ可読媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。
1,2 情報処理システム
5 ネットワーク
10 携帯型情報処理装置(情報処理装置)
11 画像取得部
12 入力部
13 通知部
14 制御部
15 地図情報取得部
16 記憶部
17 警報部
20 プラットホーム
21 階段
22a,22b 線路
23 屋根
24 柱
25 固定物
26a,26b 表示板(情報表示板)
27 フリースペース(移動可能領域)
27A フリースペース検出処理エリア
28 自己位置推定処理エリア(部分画像)
29 安全確保領域境界線
30 情報処理装置
31 第1通信部
32 制御部
33 記憶部
40 携帯型端末
41 第2通信部
42 画像取得部
43 入力部
44 通知部
45 制御部
46 警報部
50 携帯型情報処理装置
51 画像取得部
52 入力部
53 通知部
54 制御部
55 記憶部
56 警報部
100 地図情報サーバ
U 利用者(移動体)
P 歩行者
G 目的地

Claims (12)

  1. 移動体の周囲の画像を取得する画像取得部と、
    前記画像取得部の取得した画像から、前記移動体が移動可能な通路を含む移動可能領域を検出し、前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定する制御部と
    を備える情報処理装置。
  2. 前記移動可能領域は、前記移動体の移動の障害となる障害物が存在しない通路上の領域である、請求項1に記載の情報処理装置。
  3. 前記部分画像は、前記移動可能領域を含む画像である、請求項1又は2に記載の情報処理装置。
  4. 前記制御部は、前記移動体の現在位置の推定を開始した時からの経過時間に応じて、前記部分画像の大きさを小さくさせる、請求項1から3に記載の情報処理装置。
  5. 前記移動体の周囲の地図情報を取得する地図情報取得部をさらに備え、
    前記制御部は、前記部分画像と前記地図情報とに基づいて、前記現在位置を判定する、請求項1から4の何れか一項に記載の情報処理装置。
  6. 前記地図情報は、前記移動体の周辺の固定物の3次元の位置情報を含む、請求項5に記載の情報処理装置。
  7. 前記制御部は、駅における、プラットホームのエッジ部、柱、および、情報表示板の少なくとも何れかを含む前記部分画像と、前記地図情報とを対比して前記現在位置を判定する、請求項5または6に記載の情報処理装置。
  8. 前記移動体の目的地の情報の入力を受ける入力部をさらに備え、
    前記制御部は、前記移動可能領域、前記現在位置、及び前記地図情報に基づいて、前記目的地に移動するための移動方向を決定する、請求項5から7の何れか一項に記載の情報処理装置。
  9. 前記制御部は、前記部分画像から駅のプラットホームのエッジ部に対応する直線を抽出し、抽出した該エッジ部からの距離を、前記現在位置として判定する、請求項1から4の何れか一項に記載の情報処理装置。
  10. 前記移動体は人であり、前記情報処理装置は、前記移動体に対して警報を発する警報部をさらに備え、前記制御部は前記移動体の前記プラットホームの前記エッジ部からの距離及び前記プラットホームの前記エッジ部に向かう移動速度の少なくとも何れかに基づいて、前記移動体に対する警報を発するように構成される、請求項9に記載の情報処理装置。
  11. 移動体の周囲の画像を取得することと、
    前記画像から、前記移動体が移動可能な通路を含む移動可能領域を検出することと、
    前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定することと
    を含む情報処理方法。
  12. 移動体の周囲の画像を取得することと、
    前記画像から、前記移動体が移動可能な通路を含む移動可能領域を検出することと、
    前記移動可能領域に基づいて決定される前記画像の一部である部分画像に基づき前記移動体の現在位置を推定することと
    を含む処理をコンピュータに実行させるプログラム。
JP2021090685A 2021-05-28 2021-05-28 情報処理装置、情報処理方法およびプログラム Pending JP2022182898A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021090685A JP2022182898A (ja) 2021-05-28 2021-05-28 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021090685A JP2022182898A (ja) 2021-05-28 2021-05-28 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022182898A true JP2022182898A (ja) 2022-12-08

Family

ID=84328427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021090685A Pending JP2022182898A (ja) 2021-05-28 2021-05-28 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2022182898A (ja)

Similar Documents

Publication Publication Date Title
JP4528295B2 (ja) 案内ロボット装置及び案内システム
US8090193B2 (en) Mobile robot
JP5366048B2 (ja) 情報提供システム
WO2017057053A1 (ja) 情報処理装置、情報処理方法
JP2004299025A (ja) 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
KR20180038879A (ko) 공항용 로봇 및 그의 동작 방법
JP2008254122A (ja) ロボット
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
KR102425288B1 (ko) 자율 이동체, 자율 이동체의 제어 프로그램, 자율 이동체의 제어 방법 및 자율 이동체를 원격지로부터 제어하는 시스템 서버
JP2008260107A (ja) 移動ロボットシステム
KR20190083727A (ko) 안내 로봇 및 그의 동작 방법
JP2008238383A (ja) ロボット
US20220315062A1 (en) Information processing apparatus, control apparatus for moving body, method of controlling information processing apparatus, and method of controlling moving body
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
JP4764377B2 (ja) 移動型ロボット
JP3768957B2 (ja) 移動ロボットの経路設定方法
US20230298340A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
JP2022182898A (ja) 情報処理装置、情報処理方法およびプログラム
JP2021105754A (ja) 車載処理装置、及び車載処理システム
US20220308556A1 (en) Delivery robot and notification method
JP7061474B2 (ja) 走行装置
US11964402B2 (en) Robot control system, robot control method, and control program
US20220253069A1 (en) Robot control system, robot control method, and control program
JP7245864B2 (ja) 走行制御装置、走行制御方法およびプログラム
US20230294739A1 (en) Mobile body control device, mobile body control method, mobile body, information processing method, and storage medium