JP5348215B2 - 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム - Google Patents

情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム Download PDF

Info

Publication number
JP5348215B2
JP5348215B2 JP2011215700A JP2011215700A JP5348215B2 JP 5348215 B2 JP5348215 B2 JP 5348215B2 JP 2011215700 A JP2011215700 A JP 2011215700A JP 2011215700 A JP2011215700 A JP 2011215700A JP 5348215 B2 JP5348215 B2 JP 5348215B2
Authority
JP
Japan
Prior art keywords
information
light
robot
position information
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011215700A
Other languages
English (en)
Other versions
JP2013077088A (ja
JP2013077088A5 (ja
Inventor
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011215700A priority Critical patent/JP5348215B2/ja
Priority to CN201210374407.1A priority patent/CN103033792B/zh
Priority to EP12186307.0A priority patent/EP2575105B1/en
Priority to US13/630,845 priority patent/US8921752B2/en
Publication of JP2013077088A publication Critical patent/JP2013077088A/ja
Publication of JP2013077088A5 publication Critical patent/JP2013077088A5/ja
Application granted granted Critical
Publication of JP5348215B2 publication Critical patent/JP5348215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システムに関する。
空間内に存在する複数のオブジェクトを個別に認識することが可能なシステムがある。例えば、多数のオブジェクト(人)が、ある建物のフロア内を自由に移動する状況において、天井等の見通しの良い場所にイメージセンサ通信を行う受信機(カメラ)を配置し、各オブジェクトは、自己のIDに応じて変調された光をLED(Light Emitting Diode)等で発する。受信機は、測定対象装置から発せられた光を受けてIDを認識し、ひいては各オブジェクトの位置関係を把握する。
特開2009−118178号公報
しかし、上記のようなシステムにおいて、各オブジェクトが高度な判断力を持たない電子機器(例えば自走式ロボット)の場合、各オブジェクトの位置を認識することはできても、その情報を各オブジェクトに伝達し、互いに良好な位置関係を保つようにするためには、別のコントロールシステムを用意し、各オブジェクトに対し移動コマンドを送信しなければならないという問題が生じる。
本発明は、このような問題に鑑みてなされたものであり、移動可能なノードが複数存在する空間において、位置認識の確実性を向上させることを目的とする。
上記目的を達成するために、本発明に係る情報取得装置は、二次元の受光面を有する受光手段と、この受光手段が二次元の受光面で受光した光が情報を輝度変調したものである場合、この受光された光から前記情報へ復号する復号手段と、この復号手段によって復号された情報に前記光を発した物体の空間上の位置情報が含まれる場合、複数の光源から夫々この光を受光し前記復号手段に復号させて複数の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の位置情報を取得する取得手段と、発光手段と、前記取得手段によって取得された自己の位置情報を輝度変調し、この変調された輝度で発光するよう前記発光手段を制御する発光制御手段と、を備えることを特徴とする。
本発明によれば、移動可能なノードが複数存在する空間において、位置認識の確実性を向上させることが可能となる。
本発明の一実施形態に係る情報取得システムを構成するロボット及び基準光源の配置の一例を示す斜視図である。 本発明の一実施形態に係る情報取得システムを構成するロボット及び基準光源の配置の一例を示す上面図である。 本発明の一実施形態に係るロボットの構成の一例を示す図である。 本発明の一実施形態に係るロボットによる情報送信の動作を示すフローチャートである。 本発明の一実施形態に係るロボットにより送信される自ノード情報の一例を示す図である。 本発明の一実施形態に係るロボットにより送信される他ノード情報の一例を示す図である。 本発明の一実施形態に係るロボットによる絶対位置判別の動作を示すフローチャートである。 (a)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第1の例を示す図、(b)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第2の例を示す図、(c)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第3の例を示す図、(d)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第4の例を示す図、(e)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第5の例を示す図である。 (a)は本発明の一実施形態に係るロボットによる位置判別の第1の手順の一例を示す図、(b)は本発明の一実施形態に係るロボットによる位置判別の第2の手順の一例を示す図、(c)は本発明の一実施形態に係るロボットによる位置判別の第3の手順の一例を示す図である。 本発明の一実施形態に係る各ロボットの配置の一例を示す図である。 (a)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第6の例を示す図、(b)は本発明の一実施形態に係る各ロボットにおいて撮影される画像の第7の例を示す図である。 本発明の一実施形態に係るロボットによる位置判別の手順の一例を示す図である。 本発明の一実施形態に係る各ロボットによる位置判別の時間遷移の一例を示す図である。 本発明の一実施形態に係る各ロボットによる位置判別の時間遷移の一例を示す図である。
以下、図面を参照して、本発明の実施形態に係る情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システムを説明する。
図1及び図2に示すように、情報取得システム1は、作業空間内に存在する情報取得装置としてのロボット100A、100B、100C、100D、100E(以下、ロボット100A、100B、100C、100D、100Eをまとめて、適宜「ロボット100」と称する)と、作業空間における絶対位置と発光面の形態とが確定している光源としての基準光源200とを含んで構成される。なお、図1では、作業空間内に障害物としての柱501及び502が配置されているが、これら柱501及び502は必須の構造物ではない。
各ロボット100は、作業空間に投入され、その作業空間内を移動することができる。なお、各ロボット100が作業空間内に投入される場合、投入位置や投入の順序に制限はない。例えば、各ロボット100は、移動しつつ、作業空間内の清掃を分担して行う等の各種のサービスを実行する。ロボット100は、初期状態では、作業空間に関する知識を有しておらず、作業空間における自己の絶対位置及び絶対方位を認識していない。ここで、絶対位置とは、作業空間内の所定位置を原点とする2次元平面上におけるロボット100の位置を示し、絶対方位とは、作業空間内の所定位置を原点とする2次元平面上におけるロボット100の撮像部内の受光面(後述)の中心軸の方位を示す。なお、本実施形態では、2次元平面の場合を例に説明するが、3次元空間であっても同様に本発明を適用することができる。
ロボット100は、イメージセンサ通信の機能を有する。ロボット100は、移動中に、随時、基準光源200から発せられる光や、他のロボット100から発せられる、他のロボット100の絶対位置を示す位置情報に応じて変調された光等を受け、これらの光により、自己の絶対位置を判別する。また、ロボット100は、自己の絶対位置を示す位置情報に応じて変調された光等を発し、その光を受けた他のロボット100が、他のロボット100の絶対位置を判別することを支援する。図2の点線は、各ロボット100が光を受けることが可能な範囲である撮像画角を示す。
次に、ロボット100の詳細な構成を説明する。図3に示すように、ロボット100は、制御部102、メモリ104、駆動機構105、レンズ112、撮像部114、バッファ118、復号処理部120、符号化・変調部130、駆動部132及び発光部134を含む。
制御部102は、例えばCPU(Central Processing Unit)によって構成される。制御部102は、メモリ104に記憶されたプログラム(例えば、後述する図4及び図7に示すロボット100の動作を実現するためのプログラム)に従ってソフトウェア処理を実行することにより、ロボット100が具備する各種機能を制御する。制御部102には、他ノード情報取得部142と、自ノード位置判別部144とが構成される。
メモリ104は、例えばRAM(Random Access Memory)やROM(Read Only Memory)である。メモリ104は、ロボット100における制御等に用いられる各種情報(プログラム等)を記憶する。駆動機構105は、ロボットが移動するためのモータ、車輪、ステアリング機構等により構成される。駆動機構105は、制御部102による駆動制御に基づく制御信号が入力されることにより駆動し、ロボット100を移動させる。
レンズ112は、ズームレンズ及びフォーカスレンズにより構成される。レンズ112は、制御部102による合焦制御により動作し、撮像部114が撮像する撮像画角や光学像を制御する。
撮像部114は、受光面115に規則的に二次元配列された複数の受光素子により構成される。受光素子は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像デバイスである。撮像部114は、レンズ112を介して入光された光学像を、制御部102からの制御信号に基づいて所定範囲の撮像画角で撮像(受光)し、その撮像画角内の画像信号をデジタルデータに変換してフレームを生成する。また、撮像部114は、撮像とフレームの生成とを時間的に連続して行い、連続するフレームをバッファ118に逐次記憶させ、更新させる。
また、撮像部114は、所定量のフレームのそれぞれにおける同一領域の輝度を判別する。判別の結果、撮像画角内の所定の領域における輝度が、あるフレームでは第1の所定値以上であり、他のフレームでは第2の所定値以下となるというように、大きく変化する場合には、当該所定の領域は、他のロボット100や基準光源200からの光を受光することにより生じる点滅箇所であると見なされる。点滅箇所が存在する場合には、撮像部114は、フレームにおける点滅箇所の領域(以下、「輝点領域」と称する)の外縁部の位置を示す情報(輝点領域範囲情報)と、当該輝点領域における所定量のフレーム間の時間的な輝度変化の態様を、点灯を「1」、消灯を「0」で表したビットデータ列とを生成し、バッファ118に構成される座標データリストに記憶させ、更新させる。なお、輝点領域が複数存在する場合には、撮像部114は、輝点領域毎に、輝点領域範囲情報と、ビットデータ列とを生成する。
復号処理部120は、制御部102からの制御信号に基づいて、バッファ118内の座標データリストに格納された輝度変化の態様を示すビットデータ列をデジタルデータに復号する。復号方式は、他のロボット100内の符号化・変調部130及び基準光源200における符号化方式に対応する方式が採用される。
符号化・変調部130は、制御部102から出力されたデータをビットデータ列に符号化する。更に、符号化・変調部130は、ビットデータ列に基づくデジタル変調を行う。符号化方式及び変調方式は任意であるが、変調方式として望ましくは周波数を28.8(kHz)とする副搬送波を用いた4PPM(Pulse Position Modulation)が採用される。駆動部132は、符号化・変調部130から出力される信号に対応し、発光部134が発する光の輝度を時間的に変化させるための駆動信号を生成する。駆動信号は、ビット「1」に対応してパルスが存在するタイミングでは輝度を第1の所定値以上に上げることを指示し、ビット「0」に対応してパルスが存在しないタイミングでは輝度を第2の所定値以下(但し、第2の所定値<第1の所定値)以下に下げることを指示する信号である。
発光部134は、駆動部132から出力される駆動信号に応じて、時間的に輝度が第1の所定値以上と第2の所定値以下に変化する光を発光面135から発する。本実施形態では、発光面135は、例えば、直径が5cm程度の円形であり、基準光源200の発光面と比較すると非常に小さい。
次に、ロボット100の動作を説明する。ロボット100による情報送信時には、図4に示すように、ステップS101において、ロボット100は、そのロボット100(自ノード)に関する情報である自ノード情報(第1自ノード情報)光を発する。
具体的には、ステップS101において、制御部102は、第1自ノード情報を生成する。図5に示すように、上記第1を含む自ノード情報300は、自ノードID301、自光源形状情報302、位置確定状態情報303、自ノード位置情報304、自ノード方位情報305を含む。自ノードID301は、対応する自ノードであるロボット100の識別情報である。自光源形状情報302は、対応する自ノードであるロボット100に設けられた発光部134の発光面135の形状及びサイズを示すベクトル情報である。位置確定状態情報303は、対応する自ノードであるロボット100について、位置が確定していない状態(未確定)、他のロボット100からの光を捉えることによって他のロボット100を基準とした相対位置のみが確定している状態(相対位置確定)、作業空間における絶対位置が確定している状態(絶対位置確定)の何れかであるかを示す情報である。
自ノード位置情報304は、対応する自ノードであるロボット100が絶対位置確定の状態の場合における、作業空間における絶対位置の情報(座標)である。作業空間における絶対位置の判別手法については後述する。自ノード方位情報305は、対応する自ノードであるロボット100が絶対位置確定の状態の場合における、撮像部114内の受光面115の中心軸についての絶対方位を示す情報である。
制御部102は、デジタルデータである第1自ノード情報300をメモリ104に記憶させる。また、制御部102は、第1自ノード情報300を符号化・変調部130へ出力する。符号化・変調部130は、制御部102から出力された第1自ノード情報300をビットデータ列に符号化する。更に、符号化・変調部130は、ビットデータ列に基づくデジタル変調を行う。駆動部132は、符号化・変調部130から出力される信号に応じた駆動信号を生成する。発光部134は、発光面135から駆動信号に応じて、第1自ノード情報300に対応し、時間的に輝度が変化する光である第1自ノード情報光を発する。
ステップS102において、ロボット100は、他のロボット100(他ノード)からの光を受ける。具体的には、撮像部114は、レンズ112を介して入光された光学像を撮像画角で撮像(受光)し、その撮像画角内の画像信号をデジタルデータに変換してフレームを生成し、フレームをバッファ118に逐次記憶させ、更新させる。更に、撮像部114は、所定量のフレームのそれぞれにおける同一領域の輝度が、あるフレームでは第1の所定値以上であり、他のフレームでは第2の所定値以下となる場合には、当該領域である輝点領域に対応する輝点領域範囲情報と、輝点領域における所定量のフレーム間の時間的な輝度変化の態様を、点灯を「1」、消灯を「0」で表したビットデータ列とを、バッファ118に構成される座標データリストに記憶させ、更新させる。復号処理部120は、バッファ118内の座標データリストに格納された輝度変化の態様を示すビットデータ列をデジタルデータに復号し、制御部102へ出力する。
ステップS103において、ロボット100は、受けた光の発光源である他のロボット100(他ノード)についての第1他ノード情報400に対応して変調した光である第1他ノード情報光を発する。なお、本実施形態では、基準光源200も第1自ノード光を発している。
具体的には、制御部102内の他ノード情報取得部142は、復号処理部120からのデジタルデータが、他のロボット100(他ノード)に関する情報である第2自ノード情報であるか否かを判定する。例えば、他ノード情報取得部142は、デジタルデータが図5に示す構造を有しており、図5における自ノードID301の領域に自ノードであるロボット100のID以外のIDが含まれている場合に、デジタルデータが第2自ノード情報300であると判定する。
デジタルデータが第2自ノード情報300である場合、他ノード情報取得部142は、他のロボット100(他ノード)に関する情報である第1他ノード情報400を生成する。図6に示すように、上記第1を含む他ノード情報400は、自ノードID301、他ノードID401、自ノードと他ノードの対応関係情報402、他ノード方位情報403により構成される。
自ノードID301は、対応する自ノードであるロボット100の識別情報である。他ノードID401は、対応する他ノードである他のロボットのIDである。自ノードと他ノードの対応関係情報402は、自ノードであるロボット100が、絶対位置確定の状態である場合には、「絶対」となり、未確定の状態及び相対位置確定の状態である場合には、「相対」となる。他ノード方位情報403は、自ノードであるロボット100が、絶対位置確定の状態である場合には、自ノードであるロボット100の位置から他ノードである他のロボット100への絶対方位を示し、未確定の状態及び相対位置確定の状態である場合には、撮像部114内の受光面115の中心軸を基準とした場合の自ノードであるロボット100の位置から他ノードである他のロボット100への方位(相対方位)を示す。
次に、他ノード情報取得部142は、生成したデジタルデータとしての第1他ノード情報400を、符号化・変調部130へ出力する。符号化・変調部130は、制御部102から出力された第1他ノード情報400をビットデータ列に符号化する。更に、符号化・変調部130は、ビットデータ列に基づくデジタル変調を行う。駆動部132は、符号化・変調部130から出力される信号に応じた駆動信号を生成する。発光部134は、発光面135から駆動信号に応じて、第1他ノード情報400に対応し、時間的に輝度が変化する光である第1他ノード情報光を発する。
その後、ステップS104において、ロボット100内の制御部102は、例えば、ロボット100がサービスを実現するために送信するデータ等、通常のデータを送信する必要があるか否かを判定する。
通常のデータを送信する必要がある場合、ステップS105において、通常のデータに対応して変調した光である通常データ光を発する。具体的な手法は、ステップS101及びステップS103における手法と同様である。
ロボット100による位置判別時には、図7に示すように、ステップS201において、ロボット100は、他のロボット100(他ノード)や基準光源200からの光を受ける。具体的には、撮像部114は、レンズ112を介して入光された光学像を撮像画角で撮像(受光)し、その撮像画角内の画像信号をデジタルデータに変換してフレームを生成し、フレームをバッファ118に逐次記憶させ、更新させる。更に、撮像部114は、所定量のフレームのそれぞれにおける同一領域の輝度が、あるフレームでは第1の所定値以上であり、他のフレームでは第2の所定値以下となる場合には、当該領域である輝点領域に対応する輝点領域範囲情報と、輝点領域における所定量のフレーム間の時間的な輝度変化の態様を、点灯を「1」、消灯を「0」で表したビットデータ列とを、バッファ118に構成される座標データリストに記憶させ、更新させる。復号処理部120は、バッファ118内の座標データリストに格納された輝度変化の態様を示すビットデータ列をデジタルデータに復号し、輝点領域範囲情報とともに、制御部102へ出力する。
ステップS202において、ロボット100は、受けた光の発光源である他のロボット100(他ノード)についての情報である第2自ノード情報300と、自己(自ノード)についての情報である第2他ノード情報400とを、輝点領域範囲情報に対応づけて記憶又は更新する。
具体的には、制御部102内の自ノード位置判別部144は、復号処理部120からのデジタルデータが、他のロボット100(他ノード)に関する情報である第2自ノード情報300であるか否かを判定する。例えば、自ノード位置判別部144は、デジタルデータが図5に示す構造を有しており、図5における自ノードID301の領域に自ノードであるロボット100のID以外のIDが含まれている場合に、デジタルデータが第2自ノード情報300であると判定する。デジタルデータが第2自ノード情報300である場合、自ノード位置判別部144は、この第2自ノード情報300と、対応する輝点領域範囲情報とをメモリ104に記憶させる。但し、記憶させようとする第2自ノード情報300内の自ノードID301と同一の自ノードIDを含んだ第2自ノード情報300が既にメモリ104に記憶されている場合には、自ノード位置判別部144は、第2自ノード情報300及び輝点領域範囲情報を更新する。
また、自ノード位置判別部144は、復号処理部120からのデジタルデータが、ロボット100(自ノード)に関する情報である第2他ノード情報400であるか否かを判定する。例えば、自ノード位置判別部144は、デジタルデータが図6に示す構造を有しており、図6における自ノードID301の領域に自ノードであるロボット100のID以外のIDが含まれており、且つ、他ノードID401の領域に自ノードであるロボット100のIDが含まれている場合に、デジタルデータが第2他ノード情報400であると判定する。デジタルデータが第2他ノード情報400である場合、自ノード位置判別部144は、第2他ノード情報400と、対応する輝点領域範囲情報とをメモリ104に記憶させる。但し、記憶させようとする第2他ノード情報400内の自ノードID301と同一の自ノードIDを含んだ第2他ノード情報400が既にメモリ104に記憶されている場合には、自ノード位置判別部144は、第2他ノード情報400及び輝点領域範囲情報を更新する。
ステップS203において、ロボット100は、自己の絶対位置が確定済みであるか否かを判定する。具体的には、自ノード位置判別部144は、メモリ104内に第1自ノード情報300が記憶されており、且つ、当該第1自ノード情報内の位置確定状態情報が絶対位置確定の状態を示す場合には、自ノードであるロボット100の絶対位置が確定済みであると判定し、それ以外の場合には、自ノードであるロボット100の絶対位置が確定済みでないと判定する。
ステップS203において、自己の絶対位置が確定済みであると判定した場合(ステップS203;Yes)、ステップS204において、ロボット100は、ステップS201において受けた光に対応する輝点領域について、閾値以上の画素数を有する輝点領域が存在するか否かを判定する。具体的には、自ノード位置判別部144は、メモリ104に記憶された輝点領域範囲情報に基づいて、輝点領域の画素数の計数を行い、輝点領域の画素数が閾値以上であるか否かを判定する。なお、輝点領域範囲情報が複数存在する場合、換言すれば、フレーム内に輝点領域が複数存在する場合には、自ノード位置判別部144は、輝点領域毎に、画素数の計数を行い、各輝点領域の画素数が閾値以上であるか否かを判定する。上述したように、本実施形態では、ロボット100の発光部134内の発光面135は、基準光源200の発光面と比較すると非常に小さい。このため、輝点領域の画素数が閾値以上である場合、その輝点領域に対応する光は、基準光源200から発せられたと見なし得る。
ステップS204において、閾値の画素数を有する輝点領域が存在すると判定した場合(ステップS204;Yes)、ステップ205において、ロボット100は、その輝点領域の形状分析による自己の絶対位置及び絶対方位を判別する。
具体的な判別手法は、特開2005−115500号公報、特開2008−39494号公報等に開示されているので、詳細な説明は省略するが、例えば、各ロボット100が図1及び図2に示すように配置されている場合、ロボット100Aによって撮影される画像(フレーム)は図8(a)、ロボット100Bによって撮影される画像(フレーム)は図8(b)、ロボット100Cによって撮影される画像(フレーム)は図8(c)となり、何れも基準光源200からの光に対応する輝点領域201が含まれる。このため、ロボット100A、100B、100C内の自ノード位置判別部144は、輝点領域範囲情報に基づいて、基準光源200からの光に対応する輝点領域の形状分析を行うことにより、自ノードであるロボット100の絶対位置及び絶対方位を判別することができる。
一方、ステップS204において、閾値の画素数を有する輝点領域が存在しないと判定した場合(ステップS204;No)、ステップS207において、ロボット100は、絶対位置が確定している他のロボット100(他ノード)が3つ以上存在するか否かを判定する。具体的には、自ノード位置判別部144は、メモリ104に記憶された第2自ノード情報300のうち、位置確定状態情報303が絶対位置確定の状態を示している第2自ノード情報300が3つ以上存在するか否かを判定する。
絶対位置が確定している他のロボット100(他ノード)が3つ以上存在する場合(ステップS207;Yes)、ステップS208において、ロボット100は、絶対位置が確定している3つの他のロボット100からの絶対位置の情報に基づいて、自己の絶対位置を判別する。
具体的には、自ノード位置判別部144は、メモリ104に記憶されている、位置確定状態情報303が絶対位置確定の状態を示している3つの第2自ノード情報300のそれぞれにおける自ノード位置情報304を読み出す。読み出された自ノード位置情報304は、他のロボット100の絶対位置を示している。以下、読み出された自ノード位置情報304を他のロボット100の絶対位置情報と称する。
次に、自ノード位置判別部144は、読み出した絶対位置情報を含む3つの第2自ノード情報300のそれぞれに対応づけられた輝点領域範囲情報をメモリ104から読み出す。更に、自ノード位置判別部144は、輝点領域範囲情報に基づいて、フレーム内における、3つの他のロボット100からの光に対応する輝点領域の位置を認識する。例えば、各ロボット100が図1及び図2に示すように配置されている場合、ロボット100Dによって撮影される画像(フレーム)は図8(d)となる。ロボット100Dによって撮影されるフレームには、ロボット100Aからの光に対応する輝点領域101A、ロボット100Bからの光に対応する輝点領域101B、ロボット100Cからの光に対応する輝点領域101C、ロボット100Eからの光に対応する輝点領域101Cが存在する。そして、輝点領域101Eの位置を基準とした場合、輝点領域101Aの見かけ上の角度は−a度、輝点領域101Bの見かけ上の角度はb度、輝点領域101Cの見かけ上の角度はc度となる。
以上の処理によって、3つの他のロボット100の絶対位置と、3つの他のロボット100からの光に対応する輝点領域の見かけ上の角度が確定する。自ノード位置判別部144は、3つの他のロボット100の絶対位置と、3つの他のロボット100からの光に対応する輝点領域の見かけ上の角度に基づいて、自ノードであるロボット100の絶対位置を判別することができる。
例えば、各ロボット100が図1及び図2に示すように配置されており、ロボット100Dが自己の絶対位置を判別する場合を考える。この場合、上述したようにロボット100A、100Bの絶対位置が確定しており、ロボット100Aとロボット100Bとの間の見かけ上の角度はa+b度である。従って、円周角の定理に基づき、ロボット100Dは、図9(a)において点線で示した弧の上に存在する。また、上述したようにロボット100B、100Cの絶対位置が確定しており、ロボット100Bとロボット100Cとの間の見かけ上の角度はc−b度である。従って、円周角の定理に基づき、ロボット100Dは、図9(b)において点線で示した弧の上に存在する。このため、ロボット100Dの絶対位置は、図9(c)に示すように、点線で示した2つの弧の交点となる。
一方、ステップ207において、絶対位置が確定している他のロボット100(他ノード)が3つ以上存在しないと判定した場合(ステップS207;No)、ステップS209において、ロボット100は、絶対位置が確定している2つの他のロボット100(他ノード)から自ノードであるロボット100の方位情報(他ノード方位情報403)を取得したか否かを判定する。
具体的には、自ノード位置判別部144は、メモリ104に記憶された第2他ノード情報400のうち、自ノードの他ノードとの対応関係が「絶対」である第2他ノード情報400が2つ以上存在するか否かを判定する。自ノードの他ノードとの対応関係が「絶対」である第2他ノード情報400が2つ以上存在する場合には、更に、自ノード位置判別部144は、自ノードの他ノードとの対応関係が「絶対」である2つの第2他ノード情報400に、他ノード方位情報403が含まれているか否かを判定する。
ステップS209において、絶対位置が確定している2つの他のロボット100(他ノード)から自ノードであるロボット100の方位情報を取得したと判定した場合(ステップS209;Yes)、ステップS210において、ロボット100は、絶対位置が確定している2つの他のロボット100(他ノード)からの絶対位置の情報と、他ノード方位情報403とに基づいて、自己の絶対位置を判別する。
具体的には、自ノード位置判別部144は、メモリ104に記憶されている、自ノードの他ノードとの対応関係情報402が「絶対」であり、且つ、他ノード方位情報403を含む2つの第2他ノード情報400のそれぞれにおける、他ノード方位情報403を読み出す。更に、自ノード位置判別部144は、2つの第2他ノード情報400内の自ノードID301と同一の自ノードIDを含む2つの第2自ノード情報300内の自ノード位置情報304を読み出す。読み出された他ノード方位情報403は、他のロボット100の位置から自ノードであるロボット100への絶対方位を示し、読み出された自ノード位置情報304は、他のロボット100の絶対位置を示している。以下、読み出された他ノード方位情報403を自ノードであるロボット100の絶対方位情報と称し、読み出された自ノード位置情報304を他のロボット100の絶対位置情報と称する。
次に、自ノード位置判別部144は、読み出した絶対位置情報を含む2つの第2自ノード情報300のそれぞれに対応づけられた輝点領域範囲情報をメモリ104から読み出す。更に、自ノード位置判別部144は、輝点領域範囲情報に基づいて、フレーム内における、2つの他のロボット100からの光に対応する輝点領域の位置を認識する。例えば、各ロボット100が図10に示すように配置されており、ロボット100Cが自己の絶対位置を判別する場合を考える。
この場合、ロボット100Aによって撮影される画像(フレーム)は図11(a)となる。ロボット100Aによって撮影されるフレームには、ロボット100Cからの光に対応する輝点領域101Cが存在する。そして、撮像部114内の受光面115の中心軸を基準とした場合の輝点領域101Cの見かけ上の角度を−α2度とし、図12に示すように、ロボット100Aの撮像部114内の受光面115の中心軸の絶対方位がα度とする場合、ロボット100Aの位置からロボット100ACの絶対方位は、α−α2度となる。この値がロボット100Aからロボット100Cへの他ノード情報400内の他ノード方位情報403に含まれる。
また、ロボット100Bによって撮影される画像(フレーム)は図11(b)となる。ロボット100Bによって撮影されるフレームには、ロボット100Cからの光に対応する輝点領域101Cが存在する。そして、撮像部114内の受光面115の中心軸を基準とした場合の輝点領域101Cの見かけ上の角度を−β2度とし、図12に示すように、ロボット100Bの撮像部114内の受光面115の中心軸の絶対方位がβ度とする場合、ロボット100Bの位置からロボット100Cへの絶対方位は、β−β2度となる。この値がロボット100Bからロボット100Cへの他ノード情報400内の他ノード方位情報403に含まれる。
以上の処理によって、2つの他のロボット100の絶対位置と、2つの他のロボット100の位置から自ノードであるロボット100への絶対方位とが確定する。自ノード位置判別部144は、2つの他のロボット100の絶対位置と、2つの他のロボット100の位置から自ノードであるロボット100への絶対方位とに基づいて、自己のロボット100の絶対位置を判別することができる。例えば、図12に示すように、ロボット100Aの絶対位置から絶対方位がα−α2度である方向に引いた直線と、ロボット100Bの絶対位置から絶対方位がβ−β2度である方向に引いた直線との交点がロボット100Cの絶対位置となる。
ステップ205、ステップS208及びステップS210の何れかにおいて、自己の絶対位置が判別された後、ステップS206において、ロボット100は、自己の絶対位置及び絶対方位の情報を記憶する。更に、ロボット100は、絶対位置確定の状態に遷移する。具体的には、自ノード位置判別部144は、判別した自ノードであるロボット100の絶対位置の情報をメモリ104に記憶させる。なお、ステップS205において、絶対方位が判別された場合には、自ノード位置判別部144は、判別したロボット100の絶対方位の情報もメモリ104に記憶させる。記憶された、自ノードであるロボット100の絶対位置及び絶対方位の情報と、絶対位置確定の状態を示す情報とは、その後、第1自ノード情報300及び第1他ノード情報400の生成に用いられる。
上述したように、本実施形態の情報取得システム1では、作業空間内の各ロボット100は、3つの他のロボット100からの光を受けて、当該他のロボット100の絶対位置の情報を取得することにより、自己の絶対位置を判別することができる。また、各ロボット100は、全てのロボット100が自己の絶対位置を判別していない状態の場合には、基準光源200からの光を受けることで、自己の絶対位置を判別することができる。
従って、ロボット100が、基準光源200からの光を受けることで自己の絶対位置を判別し、その絶対位置の情報に対応して変調した光を発することで、基準光源200からの光を受けることができないロボット100も更に自己の絶対位置を判別することが可能となり、時間経過によって自己の絶対位置を判別したロボット100の数が増加する。
例えば、各ロボット100が図1及び図2に示すように配置されている場合の時間経過によって絶対位置を判別したロボット100が増加する例を説明する。図13に示すように、時刻t0において、ロボット100A〜100Eは、自己の絶対位置を判別していない。
その後、ロボット100A〜100Eによる影場行われると、ロボット100Aによって撮影される画像(フレーム)は図8(a)、ロボット100Bによって撮影されるフレームは図8(b)、ロボット100Cによって撮影されるフレームは図8(c)、ロボット100Dによって撮影されるフレームは図8(d)、ロボット100Cによって撮影されるフレームは図8(e)となる。このうち、図8(a)、図8(b)及び図8(c)に示すフレームには、基準光源200に対応する輝度領域201が含まれている。このため、図13に示すように、時刻t1において、ロボット100A、100B及び100Cは、自己の絶対位置を確定することができる。一方、時刻t1において、ロボット100Dは、図8(d)に示すように、自己の絶対位置を確定した3つのロボット100A、100B及び100Cからの光を捉えただけの状態であり、相対位置のみを確定することができる。また、時刻t1において、ロボット100Dは、図8(e)に示すように、自己の絶対位置を確定した2つのロボット100B及び100Cからの光を捉えただけの状態であり、自己の絶対位置及び相対位置を確定することができない状態である。
その後、時刻t2において、ロボット100Dは、自己の絶対位置を確定した3つのロボット100A、100B及び100Cから絶対位置の情報に対応して変調された光を受けることで、自己の絶対位置を確定することができる。一方、ロボット100Dは、自己の絶対位置を確定した2つのロボット100B及び100Cからの絶対位置の情報に対応して変調された光を受けただけの状態であり、自己の相対位置のみを確定した状態となる。
時刻t3において、ロボット100Eは、自己の絶対位置を確定した3つのロボット100B、100C及び100Dから絶対位置の情報に対応して変調された光を受けることで、自己の絶対位置を確定することができる。
このように、1つの基準光源200が作業空間内に設置され、少なくとも3つのロボット100が、基準光源200からの光により自己の絶対位置を判別することができれば、他のロボット100は、基準光源200からの光を捉えることができなくても、自己の絶対位置を判別できるようになる。従って、ロボット100は、基準光源が見通し範囲内にない場合であっても、自己の絶対位置を判別することができ、位置認識の確実性を向上させることができる。
また、本実施形態の情報取得システム1では、作業空間内の各ロボット100は、2つの他のロボット100からの光を受けて、当該他のロボット100の絶対位置の情報と、当該他のロボットの位置から自ノードであるロボット100への絶対方位の情報とを取得することにより、自己の絶対位置を判別することができる。
例えば、各ロボット100が図10に示すように配置されている場合を考える。この場合も、上述と同様、図14に示すように、2つのロボット100A及び100Bの絶対位置と絶対方位が確定すれば、その後、他のロボット100Cも自己の絶対位置を確定することができる。
このように、少なくとも2つのロボット100が、自己の絶対位置及び絶対方位を判別することができれば、他のロボット100は、自己の絶対位置を判別できるようになり、位置認識の確実性を向上させることができる。
なお、上述した実施形態では、作業空間内に基準光源200が設置されたが、設置されていなくてもよい。基準光源が設置されていない場合には、少なくとも3つのロボットが作業空間内に投入されたときの絶対位置を認識できるようにし、その後、移動によって絶対位置を更新することができるようにする。あるいは、少なくとも2つのロボットが作業空間内に投入されたときの絶対位置及び絶対方位を認識できるようにし、その後、移動によって絶対位置及び絶対方位を更新することができるようにする。
また、上述した実施形態では、情報取得装置がロボット100である場合について説明したが、光源を有する他の移動体、あるいは、固定された装置の場合にも同様に本発明を適用することができる。
なお、本発明に係る機能を実現するための構成を予め備えた装置、システムとして提供できることはもとより、プログラムの適用により、既存の機器を本発明に係る装置、システムとして機能させることもできる。また、プログラムの適用方法は任意であり、例えば、CD−ROMやDVD−ROM、メモリカードなどのコンピュータ読み取り可能な記憶媒体に格納して適用できる他、インターネットなどの通信媒体を介して適用することもできる。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
複数の他の情報取得装置からの情報を取得する情報取得装置であって、
前記複数の他の情報取得装置から発光され、前記複数の他の情報取得装置の絶対位置を示す位置情報に応じて変調された光を受ける受光手段と、
前記受光手段が受光した光を復調して前記複数の他の情報取得装置に対応する位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に基づいて、自装置の絶対位置を判別する位置判別手段と、
を備えることを特徴とする情報取得装置。
(付記2)
前記受光手段は、前記複数の他の情報取得装置から発光され、前記複数の他の情報取得装置の絶対位置を示す位置情報と前記他の情報取得装置を基準とした自装置の方位を示す方位情報とに応じて変調された光を受光し、
前記位置情報取得手段は、前記受光手段が受光した光を復調して前記位置情報及び方位情報を取得し、
前記位置判別手段は、前記位置情報取得手段により取得された前記位置情報及び方位情報に基づいて、自装置の絶対位置を判別することを特徴とする付記1に記載の情報取得装置。
(付記3)
前記位置判別手段は、3つ以上の前記複数の他の情報取得装置からの位置情報が取得された場合に、前記位置情報に基づいて、自装置の絶対位置を判別することを特徴とする付記1に記載の情報取得装置。
(付記4)
前記位置判別手段は、2つ以上の前記複数の他の情報取得装置からの位置情報及び方位情報が取得された場合に、前記位置情報及び方位情報に基づいて、自装置の絶対位置を判別することを特徴とする付記2に記載の情報取得装置。
(付記5)
前記受光手段は、絶対位置と発光面の形状が確定している光源からの光を受光面で受け、
前記位置判別手段は、前記受光面において受光した領域の形状に基づいて、自装置の絶対位置を判別することを特徴とする付記1乃至4の何れか1つに記載の情報取得装置。
(付記6)
自装置の絶対位置を示す位置情報に応じて変調された光を発光する発光手段を備えることを特徴とする付記1乃至5の何れか1つに記載の情報取得装置。
(付記7)
前記発光手段は、自装置を基準とした前記複数の他の情報取得装置の方位を示す方位情報に応じて変調された光を発光することを特徴とする付記6に記載の情報取得装置。
(付記8)
複数の他の情報取得装置からの情報を取得する情報取得装置における情報取得方法であって、
前記複数の他の情報取得装置から発光され、前記複数の他の情報取得装置の絶対位置を示す位置情報に応じて変調された光を受ける受光ステップと、
前記受光ステップにて受光した光を復調して前記複数の他の情報取得装置に対応する位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップにて取得された前記位置情報に基づいて、前記情報取得装置の絶対位置を判別する位置判別ステップと、
を含むことを特徴とする情報取得方法。
(付記9)
前記複数の他の情報取得装置が発光する光は、前記複数の他の情報取得装置の絶対位置を示す位置情報と前記複数の他の情報取得装置を基準とした前記情報取得装置の方位を示す方位情報とに応じて変調された光であり、
前記位置情報取得ステップでは、前記受光ステップにて受光した光を復調して前記位置情報及び方位情報を取得し、
前記位置判別ステップでは、前記位置情報取得ステップにて取得された前記位置情報及び方位情報に基づいて、前記情報取得装置の絶対位置を判別することを特徴とする付記8に記載の情報取得方法。
(付記10)
コンピュータを、
複数の他のコンピュータから発光され、前記複数の他のコンピュータの絶対位置を示す位置情報に応じて変調された光を受ける受光手段、
前記受光手段が受光した光を復調して前記複数の他のコンピュータに対応する位置情報を取得する位置情報取得手段、
前記位置情報取得手段により取得された前記位置情報に基づいて、前記コンピュータの絶対位置を判別する位置判別手段、
として機能させることを特徴とする情報取得プログラム。
(付記11)
前記複数の他のコンピュータが発光する光は、前記複数の他のコンピュータの絶対位置を示す位置情報と前記複数の他のコンピュータを基準とした前記コンピュータの方位を示す方位情報とに応じて変調された光であり、
前記位置情報取得手段は、前記受光手段が受光した光を復調して前記位置情報及び方位情報を取得し、
前記位置判別手段は、前記位置情報取得手段によって取得された前記位置情報及び方位情報に基づいて、前記コンピュータの絶対位置を判別することを特徴とする付記10に記載の情報取得プログラム。
(付記12)
複数の情報取得装置によって構成される情報取得システムであって、
各情報取得装置は、
複数の他の情報取得装置から発光され、前記複数の他の情報取得装置の絶対位置を示す位置情報に応じて変調された光を受光する受光手段と、
前記受光手段が受光した光を復調して前記複数の他の情報取得装置に対応する位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に基づいて、自装置の絶対位置を判別する位置判別手段と、
を備えることを特徴とする情報取得システム。
(付記13)
前記受光手段は、前記複数の他の情報取得装置から発光され、前記複数の他の情報取得装置の絶対位置を示す位置情報と前記他の情報取得装置を基準とした自装置の方位を示す方位情報とに応じて変調された光を受光し、
前記位置情報取得手段は、前記受光手段が受光した光を復調して前記位置情報及び方位情報を取得し、
前記位置判別手段は、前記位置情報取得手段により取得された前記位置情報及び方位情報に基づいて、自装置の絶対位置を判別することを特徴とする付記12に記載の情報取得システム。
100A、100B、100C、100C、100D、100E…ロボット、102…制御部、104…メモリ、105…駆動機構、112…レンズ、114…撮像部、115…受光面、116…画像処理部、118…バッファ、120…復号処理部、130…符号化・変調部、132…駆動部、134…発光部、142…他ノード情報取得部、144…自ノード位置判別部、200…基準光源、300…第1自ノード情報、第2自ノード情報400…第1他ノード情報、第2他ノード情報、501、502…柱

Claims (9)

  1. 二次元の受光面を有する受光手段と、
    この受光手段が二次元の受光面で受光した光が情報を輝度変調したものである場合、この受光された光から前記情報へ復号する復号手段と、
    この復号手段によって復号された情報に前記光を発した物体の空間上の位置情報が含まれる場合、複数の光源から夫々この光を受光し前記復号手段に復号させて複数の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の位置情報を取得する取得手段と、
    発光手段と、
    前記取得手段によって取得された自己の位置情報を輝度変調し、この変調された輝度で発光するよう前記発光手段を制御する発光制御手段と、
    を備えることを特徴とする情報取得装置。
  2. 前記復号手段に復号させた位置情報の数が、前記自己の存在位置を確定するために十分な数か否かを判断する第1の判断手段を更に備え、
    前記第1の判断手段により肯定と判断すると、前記取得手段は、前記十分な数の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の位置情報を取得することを特徴とする請求項1記載の情報取得装置。
  3. 前記復号手段によって復号された情報には、更に前記複数の光源が存在する位置から見た自己の方位を示す方位情報が含まれ、
    前記取得手段は、前記複数の位置情報と前記複数の方位情報とから前記空間における自己の位置情報を取得することを特徴とする請求項1又は2に記載の情報取得装置。
  4. 前記復号手段に復号させた位置情報と方位情報との組の数が、前記自己の存在位置を確定するために十分な数か否かを判断する第2の判断手段を更に備え、
    前記第2の判断手段により肯定と判断すると、前記取得手段は、前記十分な数の位置情報と方位情報の組を得ることにより前記空間における自己の位置情報を取得することを特徴とする請求項3に記載の情報取得装置。
  5. 前記受光面における、前記複数の光源から夫々受光した光の受光位置を取得する受光位置取得手段を更に備え、
    前記取得手段は、前記複数の位置情報に加え、前記受光位置取得手段によって取得された複数の受光位置から、前記空間における自己の位置情報を取得することを特徴とする請求項1乃至4の何れか1項に記載の情報取得装置。
  6. 前記取得手段によって取得された情報に更に前記複数の光源が存在する位置から見た自己の方位を示す方位情報が含まれている場合、前記発光制御手段は複数の方位情報も輝度変調し、この変調された輝度で発光するよう前記発光手段を制御することを特徴とする請求項1乃至5の何れか1項に記載の情報取得装置。
  7. 受光部における二次元の受光面で光を受光する受光ステップと、
    この受光ステップにて受光した光が情報を輝度変調したものである場合、この受光された光から前記情報へ復号する復号ステップと、
    この復号ステップにて復号された情報に前記光を発した物体の空間上の位置情報が含まれる場合、複数の光源から夫々この光を受光し、前記復号ステップにて復号させて複数の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の位置情報を取得する取得ステップと、
    この取得ステップにて取得された自己の位置情報を輝度変調し、この変調された輝度で発光するよう発光部を制御する発光制御ステップと、
    を含むことを特徴とする情報取得方法。
  8. 受光部と発光部とを備えた情報取得装置が有するコンピュータを、
    前記受光部における二次元の受光面で光を受光する受光手段、
    この受光手段によって受光した光が情報を輝度変調したものである場合、この受光された光から前記情報へ復号する復号手段、
    この復号手段によって復号された情報に前記光を発した物体の空間上の位置情報が含まれる場合、複数の光源から夫々この光を受光し前記復号手段によって復号させて複数の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の位置情報を取得する取得手段、
    この取得手段によって取得された自己の位置情報を輝度変調し、この変調された輝度で発光するよう前記発光部を制御する発光制御手段、
    として機能させることを特徴とする情報取得プログラム。
  9. 複数の情報取得装置によって構成される情報取得システムであって、
    各情報取得装置は、夫々、
    二次元の受光面を有する受光手段と、
    自己以外の他の情報取得装置が発光し、前記二次元の受光面で受光した光が情報を輝度変調したものである場合、この受光された光から前記情報へ復号する復号手段と、
    この復号手段によって復号された情報に前記光を発した前記他の情報取得装置の空間上の位置情報が含まれる場合、この光を複数受光し前記復号手段に復号させて、前記複数の他の情報取得装置の位置情報を得ることにより、これら複数の位置情報から前記空間における自己の情報取得装置の位置情報を取得する取得手段と、
    発光手段と、
    前記取得手段によって取得された自己の位置情報を輝度変調し、この変調された輝度で発光するよう前記発光手段を制御する発光制御手段と、
    を備えることを特徴とする情報取得システム。
JP2011215700A 2011-09-29 2011-09-29 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム Active JP5348215B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011215700A JP5348215B2 (ja) 2011-09-29 2011-09-29 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム
CN201210374407.1A CN103033792B (zh) 2011-09-29 2012-09-27 信息取得装置、信息取得方法、程序以及信息取得系统
EP12186307.0A EP2575105B1 (en) 2011-09-29 2012-09-27 Information acquisition device, information acquisition method, program, and information acquisition system
US13/630,845 US8921752B2 (en) 2011-09-29 2012-09-28 Information acquisition device, information acquisition method, recording medium, and information acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011215700A JP5348215B2 (ja) 2011-09-29 2011-09-29 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム

Publications (3)

Publication Number Publication Date
JP2013077088A JP2013077088A (ja) 2013-04-25
JP2013077088A5 JP2013077088A5 (ja) 2013-06-06
JP5348215B2 true JP5348215B2 (ja) 2013-11-20

Family

ID=47044830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011215700A Active JP5348215B2 (ja) 2011-09-29 2011-09-29 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム

Country Status (4)

Country Link
US (1) US8921752B2 (ja)
EP (1) EP2575105B1 (ja)
JP (1) JP5348215B2 (ja)
CN (1) CN103033792B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
DE102015114883A1 (de) * 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
EP3532859A1 (en) * 2016-10-31 2019-09-04 Vizar Technologies Sàrl A method and apparatus for detection of light-modulated signals in a video stream
EP3974934A1 (de) 2017-03-02 2022-03-30 Robart GmbH Verfahren zur steuerung eines autonomen, mobilen roboters

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1083242A (zh) * 1992-08-15 1994-03-02 华中理工大学 公交车辆监控数据采集系统
IL106544A (en) * 1993-08-01 1996-10-16 Israel State Area surveying apparatus for communication system
JP4401564B2 (ja) * 2000-12-12 2010-01-20 本田技研工業株式会社 自律ロボット、集中制御装置、自律ロボットの行動計画策定方法、自律ロボットの集中制御方法、自律ロボットの行動計画策定プログラムを記録した記録媒体、自律ロボットの集中制御プログラムを記録した記録媒体
JP3914906B2 (ja) * 2003-08-13 2007-05-16 株式会社東芝 自走式移動装置及び位置補正方法
JP2005115500A (ja) 2003-10-06 2005-04-28 Mitsubishi Electric Corp 情報処理装置及び情報処理方法
KR100863245B1 (ko) * 2006-07-18 2008-10-15 삼성전자주식회사 거리측정 기능을 갖는 비컨, 이를 이용한 위치인식시스템및 그 위치인식방법
JP4637066B2 (ja) 2006-08-03 2011-02-23 カシオ計算機株式会社 情報取得装置、情報取得方法、情報取得プログラム、及び、距離情報取得システム
JP5253791B2 (ja) * 2007-11-06 2013-07-31 株式会社東芝 個体情報識別システム
JP2011134058A (ja) * 2009-12-24 2011-07-07 B-Core Inc 光学式自己位置検知装置及び方法

Also Published As

Publication number Publication date
CN103033792A (zh) 2013-04-10
US8921752B2 (en) 2014-12-30
EP2575105A3 (en) 2015-01-21
JP2013077088A (ja) 2013-04-25
US20130082167A1 (en) 2013-04-04
EP2575105B1 (en) 2018-03-21
EP2575105A2 (en) 2013-04-03
CN103033792B (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
JP5348215B2 (ja) 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム
JP4765027B2 (ja) 情報処理装置及び情報処理システム
US9301372B2 (en) Light control method and lighting device using the same
JP5620707B2 (ja) 照明システム
JP2006346767A (ja) 移動ロボット、マーカ、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
US20190325749A1 (en) Illuminating device, illuminating guidance system and illuminating guidance method
TWI499223B (zh) 指向式機器人之遙控系統
US20130278423A1 (en) Detecting device and operating method thereof
CN108781268B (zh) 图像处理装置和方法
JP2010055765A (ja) 防犯用照明システム
TW201947336A (zh) 通過光通信裝置對能夠自主移動的機器進行導引的方法
JP3057004B2 (ja) 追尾装置
JP2011134058A (ja) 光学式自己位置検知装置及び方法
US20190280770A1 (en) Method and apparatus for free-space optical transmission
JP6612853B2 (ja) 遠隔制御装置、ユーザ装置、システム、方法、コンピュータ・プログラム、識別信号
JP2015095225A (ja) 情報生成装置、情報生成方法、及び、情報生成プログラム
JP5414379B2 (ja) 光無線通信装置、光無線通信方法、およびプログラム
TW201435656A (zh) 資訊科技裝置輸入系統及相關方法
KR20040027561A (ko) 카메라 기반의 지시 장치를 갖는 텔레비전 시스템, 및 그동작 방법
JP6710200B2 (ja) ポインティングデバイスに基づくユーザインタフェースシステム
WO2018016081A1 (ja) 位置推定プログラム、位置推定装置、および位置推定方法
JP2020159997A (ja) 位置同定装置および位置同定方法
JP5620889B2 (ja) 情報伝送システム
CN112118045B (zh) 位置取得装置、位置取得方法以及记录介质
JP5317329B2 (ja) 照明器具

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R150 Certificate of patent or registration of utility model

Ref document number: 5348215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150