JP2007309921A - 構造光を用いた物体検出方法及びこれを用いたロボット - Google Patents

構造光を用いた物体検出方法及びこれを用いたロボット Download PDF

Info

Publication number
JP2007309921A
JP2007309921A JP2007098371A JP2007098371A JP2007309921A JP 2007309921 A JP2007309921 A JP 2007309921A JP 2007098371 A JP2007098371 A JP 2007098371A JP 2007098371 A JP2007098371 A JP 2007098371A JP 2007309921 A JP2007309921 A JP 2007309921A
Authority
JP
Japan
Prior art keywords
structured light
bottom object
video frame
projected
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007098371A
Other languages
English (en)
Other versions
JP4646942B2 (ja
Inventor
Dong Ryeol Park
東 烈 朴
Hyoung-Ki Lee
李 炯 機
Dong-Jo Kim
棟 助 金
Seok-Won Bang
方 錫 元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007309921A publication Critical patent/JP2007309921A/ja
Application granted granted Critical
Publication of JP4646942B2 publication Critical patent/JP4646942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/009Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/30Arrangement of illuminating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

【課題】 本発明は、構造光を用いた物体検出方法及びこれを用いたロボットを提供する。
【解決手段】 所定の構造光が投射された地点の高低差を測定する段階、及び前記測定された高低差を用いて底物体を検出する段階を含む。これにより、ロボットの作業に影響を及ぼすことができる底物体を検出でき、底物体に対する区別された作業付与が可能であり、底物体の存在が感知されない状態でも底物体に対する作業付与が可能である。
【選択図】 図2B

Description

本発明はロボットに係り、さらに詳細には、構造光を用いて底物体を検出する方法及びこれを用いたロボットに関する。
一般にロボットは、産業用に開発されて工場自動化の一環として使用されるか、或いは人間が耐えることができない極限の環境で人間の代わりに作業を行う場合に使用されてきた。このようなロボット工学分野は近来に入って最先端の宇宙開発産業に使用されながら発展を重ねて最近に入っては人間親和的な家庭用ロボットの開発にまで達した。付け加えて、ロボットは医療用機器に代わって人間生体内に投入されることによって、既存の医療用機器としては治療が不可能であった微細な人間生体組織の治療にまで用いられる。このような目覚しいロボット工学の発展はインターネットによる情報革命とこれに次いで流行している生命工学分野を代替して新たに登場する最先端分野として脚光を浴びている。
この中で、前記家庭用ロボットは、産業用ロボットに局限されてきた既存の重工業中心のロボット工学分野を軽工業中心のロボット工学分野まで拡大させた主役として最も基本的に想起されるものとして清掃用ロボットをその例に挙げることができる。このような前記清掃用ロボットは普通移動のための駆動手段と、清掃のための清掃手段、そして全方位障害物を感知するための監視手段などで構成されている。
一般に、前記駆動手段は駆動力を発揮するための駆動モータと、前記駆動モータによって駆動される無限軌道又は所定直径の輪と、駆動を制御するための駆動制御回路などで構成されている。そして、前記清掃手段は埃などを集塵して除去するための集塵機などと、集塵行動を制御するための集塵制御回路などで構成されている。また、前記監視手段は全方位障害物を捕捉するための監視用カメラと、前記監視用カメラで捕捉される映像を使用者に伝送するための伝送装置で構成されている。
このようなロボットは、周辺に存在する障害物の配置構造を感知して自分が移動可能な領域を所定の基準マップと作成して置き、作成された基準マップによって障害物にぶつけず目的地まで移動するようになる。ところで、カーペットやラグなどのような底物体はロボットの移動経路上に置いていてもロボットの移動に妨害を与えないので底物体の存在有無は基準マップに反映されない場合が多い。しかしながら、カーペットやラグなどの底物体はロボットの作業遂行に影響を及ぼすことができるので底物体の存在を感知する技術が必要である。例えば、清掃用ロボットの場合には、底物体が清掃用ロボットのブラシに吸入されて清掃用ロボットの動作が非正常的に中止されたりする。
特許文献1は多数本のレーザービームを発生させ、ビームによって目標物に形成されるポイントの映像物によって目標物に対する相対位置を算出することによって目標物までの距離を測定する技術について開示している。しかしながら、特許文献1は単純に目標物までの距離を測定すること以外に底物体を検出するための方案を提示できない。すなわち、特許文献1はロボットの移動可能領域を示す基準マップを作成するため障害物を感知する方法では使用できるが、底物体を検出するための具体的実現方案がまだ十分でない。
韓国公開特許第10−2004−2162号公報
本発明が解決しようとする技術的課題は、構造光を用いて底物体を検出することにある。
本発明の技術的課題は以上で言及した技術的課題で制限されないし、言及されないまた他の技術的課題は以下の記載から当業者に明確に理解されることができることである。
前記技術的課題を達成するための本発明の実施形態による構造光を用いた底物体検出方法は、所定の構造光が投射された地点の高低差を測定する段階、及び前記測定された高低差を用いて底物体を検出する段階を含む。
また、前記技術的課題を達成するための本発明の実施形態によるロボットは、所定の構造光が投射された領域の映像フレームを提供する撮影部、前記映像フレームに撮像された前記構造光の撮像位置を用いて底物体の境界を追従する走行部、前記走行部の走行経路を用いて前記底物体を検出する検出部を含む。
上述したような本発明の構造光を用いた物体検出方法及びこれを用いたロボットによれば、次の通りの効果が一つ或いはその以上ある。
第一、ロボットの作業に影響を及ぼすことができる底物体を検出できる長所がある。
第二、底物体を検出することによって底物体に対する区別された作業付与が可能な長所もある。
第三、ロボットが底物体の表面に移動せずにも底物体を検出できるため、底物体の存在が感知されない状態でも底物体に対する作業付与が可能である。
その他実施形態の具体的な事項は詳細な説明及び図面に含まれている。
本発明の利点及び特徴、そしてそれらを達成する方法は添付する図面と共に詳細に後述している実施形態を参照すれば明確になる。しかしながら、本発明は、以下で開示される実施形態に限定されるものではなく、相異なる多様な形態で具現されるものであり、本実施形態は、本発明の開示が完全となり、当業者に発明の範疇を完全に知らせるために提供されるものであり、本発明は、特許請求の範囲の記載に基づいて決められなければならない。なお、明細書全体にかけて同一参照符号は同一構成要素を示すものとする。
以下、添付した図面を参照して本発明の好適な実施形態を詳細に説明する。
図1は、本発明の一実施形態によるロボット100の動作を説明するための図面である。
本発明でロボット100は、自ら移動可能であり、所定の目的のために付与された作業を行う装置であって、清掃用ロボットを好適な実施形態として挙げることができる。ロボット100の走行経路には底物体10が存在できるが、ロボット100が移動できる領域20の中で底物体10が存在する領域と底物体10が存在しない領域間には高低差が存在する。ここで底物体はカーペット、ラグ、スリッパなどのようにロボット100の移動範疇20上に存在し、ロボット100が行う作業に影響を及ぼすことができる多様な類型の物体を言う。
ロボット100は、走行中に底の高低差を測定し、これによって底物体10を検出する。底の高低差を測定するためロボット100は走行方向に所定の構造光30を投射して構造光30の投射領域を撮影する。ここで構造光30は、一つの線形、複数の線形、所定の格子を形成する行列形態の線形など多様な形態を有することができる。以下では構造光30が一つの線形を有することと説明するものであるが、本発明はこれに限定されない。構造光30は、ロボット100から所定距離離隔された位置の底に向かって下向投射される。
一般底に構造光30が投射された場合、構造光30の投射領域を撮影して得た映像フレームで構造光30は固定された位置に撮像される。しかしながら、構造光30が底物体10に投射された場合、構造光30の投射領域を撮影して得た映像フレームで構造光30の撮像位置はさらに高くなるようになる。これは、底物体10によって高低差が発生するためである。従って、構造光30が底に投射される場合の映像フレーム上で構造光が撮像される基準位置を実験などによって予め設定して置き、実際にロボット10が使用される間撮影した映像フレームで構造光30の位置を基準位置と比較すれば底物体10の存在有無が分かるようになる。
底物体10の存在が感知されれば、ロボット100は底物体10の境界を追従することによって底物体10の大きさと底物体が存在する領域が分かるようになる。これにより、底物体10が設けられた領域と一般底に対するロボット100の作業方式を区分して設定するか、或いはこれらについてのロボット100の作業要否を選択的に設定するなど、底物体10について必要なロボットの動作を予め設定及び制御できるようになる。例えば、ロボット100が清掃用ロボットである場合、一般底と底物体10に対する清掃方式を別途に設定するか、或いは底物体10に対する清掃だけを指示できるようになる。以下、前述したロボット100について図2A及び図2Bを参照してさらに詳細に説明する。
図2Aは本発明の一実施形態によるロボット100の斜視図であり、図2Bは本発明の一実施形態によるロボット100の構造を示したブロック図である。示されているロボット100は走行部210、投射部220、撮影部230、動作管理部240、検出部250、及びマップ管理部260を含む。図2Aで投射部220が撮影部230の上端に存在するが、本発明は投射部220と撮影部230の配置構造に限定されない。
走行部210は、ロボット100を移動させる。このため走行部210は一つ以上の輪212と輪212を回転させるモータ(図示せず)を含むことができる。しかしながら、本発明はこれに限定されず、走行部210はロボット100を移動させることができる公知の他の走行手段を含んでもよい。
投射部220は、構造光30を投射する。前述したように、構造光は一つの線形、複数の線形、行列形態などを有し、ロボット100の前方に下向投射される。構造光の好適な実施形態としてラインレーザーを挙げることができる。ラインレーザーは、レーザーを発生させる発光ダイオードと発光ダイオードを発生させたレーザーを線形に分散させる光学系(レンズ、鏡、プリズムなど)で実現可能である。投射部220は、構造光を周期的に投射するか、常に投射することができる。
撮影部230は、構造光が投射される領域に対する撮影作業を行うことによって、構造光が撮像された映像フレームを提供する。好ましくは、撮影部230は映像フレームを周期的に提供する。構造光を撮像させるために撮影部230は投射部220と同期化できる。すなわち、投射部220が構造光を投射する時点に撮影部230は撮影作業を行うことができるようになる。このような撮影部230はCCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)、SMPD(Single−carrier Modulation Photo Detector)などの撮像素子を含むことができる。
動作管理部240は、ロボット100の移動方向を制御する。従って、走行部210は動作管理部240の制御によってロボット100を移動させるようになる。特に動作管理部240は、撮影部230が提供する映像フレームに撮像された構造光を用いてロボット100が底物体に接近し、底物体の境界を追従するようにロボット100の移動方向を制御できる。動作管理部240についての説明は図3を参照して後述する。
検出部250は、底物体の境界を追従する作業によるロボット100の移動経路に基づいて底物体を検出する。本明細書で底物体を検出するというのは底物体を占めている領域を確定し、底物体の大きさを測定するという意味を含む。ロボット100の移動経路を確認するために検出部250はロボット100の位置及び方向の変化を測定できるエンコーダ、ジャイロスコープなどを含むことができる。
検出部250は、底物体の大きさによって底物体の種類を分類してもよい。例えば検出部250は、1m*1m以上の大きさを有する底物体はカーペット類に分類し、0.5m*0.5m〜1m*1mの大きさを有する底物体はラグ類に分類し、0.5m*0.5未満の大きさを有する底物体はスリッパ類に分類できる。底物体の種類を分類することによって底物体の種類に応じる作業分類が可能となる。
境界測定部244は、底物体の境界を測定するために色相情報を用いてもよい。例えば、映像フレームに撮像された構造光によって底物体の存在が感知されれば、境界測定部244は底物体の色相情報と底の色相情報との間の差分値を求め、求められた差分値の絶対値(以下、初期色度差という。)を所定の臨界値と比較する。ここで底物体の色相情報は構造光によって底物体が存在することと推定される領域を映像フレームでサンプリングし、サンプリングされた領域の色相情報を分析することによって得ることができる。
もし初期色度差が第1の臨界値以上であれば、境界測定部244は映像フレームで底物体の色相情報と第2の臨界値未満の差を示す色相を有する領域と第2の臨界値以上の差を示す色相を有する領域を分離することによって、底物体の境界を測定できる。
その後、構造光を用いて得た底物体の境界方向と色相情報を用いて得た底物体の境界方向の加重値和によって底物体の境界方向を決定でき、これを(式1)に示した。
Figure 2007309921
(式1)で
Figure 2007309921
は構造光によって得た底物体の境界方向であり、
Figure 2007309921
は色相情報を用いて得た底物体の境界方向であり、
Figure 2007309921
はこれらの加重値和による底物体の境界方向である。またkは加重値を示すが、
Figure 2007309921
の信頼度によって予め設定されていてもよく、
Figure 2007309921
についての測定結果によって動的に設定されてもよい。例えば、加重値kは初期色度差を映像フレームを有することができる最大色度値である255に除算した値で設定できる。
マップ管理部260は、ロボット100の移動可能領域を示す基準マップが検出部250によって検出された底物体の存在が反映されるように基準マップを更新する。ここで基準マップは壁や家具などのようにロボット100の移動を遮断させる障害物の配置構造を示したマップであって、予め作成されていることがある。基準マップを作成する技術は多様なように公知になっているため、本明細書ではこれについての説明を省略する。マップ管理部260は検出部250から底物体の大きさ、領域、材質、種類などのような検出情報を得ることができ、検出情報を基準マップ上に反映させる。
図3は、図2の動作管理部240をより具体的に示したブロック図である。図示する動作管理部240は距離計算部242、境界測定部244、及び制御部246を含む。
距離計算部242は、撮影部230から提供される映像フレームに撮像された構造光によって高低差が感知される場合底物体が存在することと判断し、ロボット100の現在位置から底物体までの距離を計算する。前述したように、底の高低差は映像フレーム上で構造光の位置によって判断できる。投射部220が投射した構造光が一般的な底に投影されれば、撮影部230が提供する映像フレームで構造光が撮像される位置は一定に維持される。従って、構造光が底に投射される場合に撮影部230が提供する映像フレームで構造光が存在する基準位置を予め保存させて置き、実際に撮影された映像フレームで構造光が存在する位置を基準位置と比較することによって底物体の存在有無が確認できる。図4A及び図4Bを参照して底物体の存在を確認する過程について説明する。
図4Aは、ロボット100が底物体10の境界面に垂直な方向に移動する場面と各場面で撮影部230が撮影した映像フレームを時間的順序によって示した図面である。時間t1と時間t2でのように構造光30が底に投射された場合、映像フレームに存在する構造光30aの位置は基準位置410と同一である。しかしながら、時間t3でのように構造光30が底物体10に投射された場合、映像フレームに存在する構造光30aの位置が基準位置410より高く示される。この場合、検出部250は前方に底物体10が存在することと判断できる。
図4Bは、ロボット100が底物体10の境界面に斜めな方向に移動する場面と各場面で撮影部230が撮影した映像フレームを時間的順序に応じて示した図面である。時間t1と時間t2でのように構造光30が底に投射された場合、映像フレームに存在する構造光30aの位置は基準位置410と同一である。しかしながら、時間t3でのように構造光30が底物体10と底にかけて投射されれば、撮影部230が撮影した映像フレームに存在する構造光30aには段差420が存在するようになる。段差420が存在する構造光30aで基準位置410上に撮像された部分は底を示し、基準位置410より高い部分は底物体10を示す。
映像フレームに撮像された構造光の位置によって高低差が感知されれば距離計算部242は構造光が投射された領域に底物体が存在することと判断し、ロボット100の現在位置から底物体まで移動するための距離及び方向を計算する。以下、図5A〜図5Cを参照してこれについて説明する。
図5Aは、本発明の一実施形態による撮影部230と任意の対象地点間の座標関係を示した図面である。図5Aで座標軸Xc、Yc、Zcはロボット100上で撮影部230が使用する基準座標軸であり、基準座標軸Xc、Yc、Zcは基準点Cを中心にする。Ox、Oyは映像フレーム510の座標のうち撮影部230の座標軸Zcに対応する基準点であり、Yp、Xpは映像フレーム510の基準座標軸である。点Pは対象地点を示し、P’は映像フレーム510で対象地点Pが撮像された位置を示す。
本発明で対象地点は構造光が投射された地点を示す。好ましくは、対象地点は映像フレームに撮像された構造光に段差が存在しなければ、構造光の中心点に対応する位置であり、映像フレームに撮像された構造光に段差が存在すれば、段差地点に対応する位置でありうる。
図5Bは、図5Aのような座標関係で撮影部230から対象地点PまでのZc軸方向への距離CzとYc軸方向への距離Cy間の関係を示した図面である。図5Bでfは撮影部230の焦点距離であり、yは焦点距離fで対象地点Pの像が結ばれるYc軸方向の距離である。yは(式2)のように示すことができる。
Figure 2007309921
(式2)で
Figure 2007309921
は映像フレーム510で対象地点の撮像位置P’が映像フレーム510の基準点(Ox、Oy)からYp軸方向に離隔された距離であり、
Figure 2007309921
は撮影部230の撮影作業と映像フレーム510の大きさによるYc軸方向のずれの程度を補償するためのスケールパラメータである。
図5Bに示されている関係による三角法と(式2)を用いれば、(式3)のようなCyとCz間の関係が成り立つ。
Figure 2007309921
これと類似した方式を用いれば、撮影部230から物体までのZc軸方向への距離CzとXc軸方向への距離Cx間の関係も求めることができる。(式4)はCxとCz間の関係及びCyとCz間の関係を行列式に示したことである。
Figure 2007309921
(式4)で
Figure 2007309921
は撮影部230の撮影作業と映像フレーム510の大きさによるXc軸方向のずれの程度を補償するためのスケールパラメータである。
図5Cは、本発明の一実施形態による撮影部230の基準座標軸とロボット100の基準座標軸間の関係を示した図面である。Xr、Yr、Zrはロボット100の基準座標軸であり、Xc、Yc、Zcは撮影部230の基準座標軸である。ここで撮影部230の基準座標軸は図5Aで説明したことと同一である。CとRはそれぞれロボット100の基準座標軸と撮影部230の基準座標軸の中心を示す基準点である。
ロボット100の基準座標軸のうちXrとZrで形成される平面はロボットが移動する底平面と同一であり、Zrはロボットの前方を向く。本実施形態でXrとXcは互いに平行し、撮影部230の基準点Cはロボット100の基準点RからYr方向にHほど離隔されている。また、ZcはZrについて角度αほど回転されている。
この場合、ロボット100の基準座標軸を使用した座標系と撮影部230の基準座標軸を使用した座標系間の関係は(式5)のように示すことができる。
Figure 2007309921
(式5)でRx、Ry、Rzはそれぞれロボット100の基準点RからXr、Yr、Zr方向への距離を意味し、Cx、Cy、Czはそれぞれ撮影部230の基準点CからXc、Yc、Zc方向への距離を意味する。
(式5)を用いれば、
Figure 2007309921
の関係が成り立つ。ここで、ロボット100の移動面であるXrZr平面のためにRy=0に置いて(式4)によって得たCyとCz間の関係を代入すれば、(式6)を得ることができる。
Figure 2007309921
(式5)と(式6)を用いれば、ロボット100から対象地点までのZr軸及びXr軸方向への距離RzとRxを求めることができる。(式7)と
(式8)はそれぞれRzとRxを求める式を示す。
Figure 2007309921
Figure 2007309921
図5A〜図5Cと(式2)〜(式8)を参照して説明した距離計算方式は本発明の一実施形態であるだけなので、本発明がこれに限定されるものではなく、実施形態によって多様な公知の技術が用いられてもよい。
一方、前述した距離計算方式を使用すれば、底から構造光が投射された地点までの高低差を直接計算することも可能である。
再び図3を参照すれば、境界測定部244は底物体の境界方向を測定する。底物体の境界方向はロボット100が底物体から一定距離以内に位置した状態でロボット100が回転する間撮影部230が提供する連続した映像フレームに存在する構造光の段差の延長方向によって測定できる。例えば、図6に示すようにロボット100が底物体10の境界付近で時計方向に回転しながら、時間的に連続した4個の映像フレームを生成する場合、距離計算部242はロボット100の現在位置から各映像フレームで構造光の段差610、620、630、640が存在する地点に対応する位置までの距離と方向を計算できる。この時、境界測定部244は段差が存在する地点の座標を生成し、生成された座標を連結することによって底物体の境界方向を測定できる。
制御部246は、距離計算部242と境界測定部244から提供される情報を用いてロボット100が進行する方向やロボット100の回転方向などを決定し、決定結果によって走行部210を制御する。
以下、前述したロボット100の底物体検出過程について具体的に説明する。
図7は、本発明の一実施形態による底物体を検出する過程を示したフローチャートである。
先ず、投射部220が構造光を投射すれば(S710)、撮影部230は構造光が投射された領域を撮影して映像フレームを提供する(S720)。構造光は周期的に投射でき、撮影部230は投射部220と同期化されて構造光が投射されるとき毎に撮影作業を行うことができる。又は、投射部220は構造光を連続投射し、撮影部230が一定周期毎に構造光が投射された領域を撮影してもよい。本フローチャートでは構造光の投射と撮影作業が過程S710とS720によって一回行われることのように示されているが、以下の過程が行われる間構造光の投射と撮影作業は持続的に行われる。
動作管理部240は、映像フレームに存在する構造光によって底の高低差が発生したかを判断する(S730)。底物体によって高低差が発生したかの要否は図4A及び図4Bを参照して説明したような作業によって判断できる。勿論、図5A〜図5Cと(式2)〜(式8)を参照して説明した内容に基づいて映像フレームに存在する構造光の位置に対応する地点の高さを計算することによって高低差を感知することも可能である。
もし高低差が存在しなければ、走行部210は動作管理部240の制御によって今までのロボット100の移動パターンを維持する(S740)。しかしながら、過程S730の判断結果底の高低差が感知されれば、走行部210は動作管理部240の制御によって底物体にロボット100を接近させる(S750)。この時、ロボット100は底物体の境界から一定距離に位置するときまで移動し、ロボット100から底物体までの距離及び方向は図5A〜図5Cを参照して説明した内容でのように距離計算部242によって求められることができる。
ロボット100が底物体の境界から所定の距離に位置するときまで移動すれば、動作管理部240はロボット100が底物体の境界を追従するように走行部210を制御し、走行部210は動作管理部240の制御によって底物体の境界に沿ってロボット100を移動させる(S760)。
底物体の境界を追従する作業が完了すれば、検出部250はロボット100が底物体の境界に沿って移動した経路を用いて底物体を検出する(S770)。この時、検出部250は底物体の大きさを用いて底物体の種類を分類して置くことができる。
その後、マップ管理部260は底物体の存在領域が反映されるようにロボット100の移動可能領域を示す基準マップを更新する(S780)。
図8は、本発明の一実施形態による底物体の境界を追従する過程を示したフローチャートである。示されているフローチャートは図7の過程S760をより具体的に示した図面である。
先ず、底物体から一定距離以内に接近すれば、制御部246は回転方向を指示し、走行部210は制御部246が指示した方向にロボット100を回転させる(S810)。
ロボット100が回転する間にも投射部220と撮影部230の動作によって構造光が撮像された映像フレームが周期的に提供される。境界測定部244は連続的に提供された映像フレームを分析して底物体の境界方向を決定する(S815)。
底物体の境界方向が決定されれば、制御部246は移動方向を底物体の境界方向と平行な方向に決定し、走行部210は制御部246が決定した方向にロボット100を移動させる(S820)。
底物体の境界に沿って移動した間ロボット100に発生できる状況は広く二つに分けて見ることができる。一方は、底物体のコーナーに接近する場合であり、他方は障害物に会うようになる場合である。
先ず、底物体のコーナーに接近する場合撮影部230が提供する映像フレームで構造光の段差がなくなる。図9にロボット100が底物体10のコーナーに接近する場面と各場面での映像フレームを示したが、図9の時間t3で構造光910の段差920がなくなっている。
ロボット100が底物体の境界方向に沿って移動する間に、制御部246は撮影部230が提供する映像フレームで構造光の段差がなくなるか否かを判断する(S825)。もし映像フレームで構造光の段差がなくなれば、底物体のコーナーに至ることを意味するため、制御部246は段差がなくなった地点までロボット100の移動を指示し、走行部210がその指示によってロボット100を移動させる(S830)。
ロボット100が段差がなくなった地点まで移動すれば、制御部246は回転を指示し、走行部210はロボット100を回転させる(S835)。ここで、ロボット100の回転方向は底物体が存在した方向である。例えば、図9に示すような段差を感知しながら底物体の境界に沿って移動したら、映像フレームの構造光によって底物体がロボット100の左側方向に存在するという事実が分かる。この場合、制御部246はロボット100が左側方向に回転するように指示するようになる。
ロボット100が回転する間撮影部230から提供される映像フレームによって境界測定部244は底物体の境界方向を再び決定する(S840)。その後、走行部210は境界測定部244によって決定された底物体の境界方向と平行な方向にロボット100を移動させる(S845)。過程S835〜S845は過程S810〜S820と類似した方式で行われる。
ロボット100が底物体の境界方向に沿って移動する間に制御部246は底物体の追従作業によるロボット100の移動経路が閉ループを形成するかを判断する(S850)。もしロボット100の移動経路が閉ループを形成すれば、底物体の追従作業が終了する。
一方、ロボットが底物体の境界に沿って走行する途中、制御部246はロボット100の前方に障害物が存在するかの要否を判断する(S855)。撮影部230が提供する映像フレームで構造光の高さが臨界値以上に高まれる場合制御部246は障害物が存在することと判断できるが、その一例を図10Aと図10Bに示した。
図10Aにロボット100が障害物1010に接近する場面と各場面での映像フレームを示した図面である。図示するように底物体が障害物に接している状態でロボット100が障害物に近くなれば構造光が障害物に投射される。この時、映像フレームで構造光1020の段差1030がなくなり(時間t2参照)、構造光1020の撮像位置が次第に高くなるようになる(時間t3参照)。制御部246は映像フレームで構造光の撮像位置が一定高さを超過する場合障害物の存在を確認できる。
図10Bやはりロボット100が障害物に接近する場面と各場面での映像フレームを示した図面である。図10Bのような状況でロボット100が障害物に接近して近くなれば、構造光1080は障害物1040と底にかけて投射される。この場合、映像フレームで構造光1080の段差1050、1060、1070が次第に大きくなるようになるが、これによって制御部246は障害物1040の存在を確認できるようになる。
再び図8を参照すれば、過程S855で障害物が存在することと判断されれば、制御部246は底物体の境界を追従した間始めに感知された障害物であるかを判断する(S860)。始め感知された障害物であれば、制御部246はロボット100の進行方向が反対になるように指示する。この時、走行部210はロボット100の進行方向を180度回転させ、再び底物体の境界に沿ってロボットを移動させる(S865)。勿論この場合、過程S810〜S820でのように底物体の境界を再び測定し、測定された境界方向によってロボット100を移動させることができる。
他方、過程S860の判断結果二番目に感知された障害物であれば、底物体追従作業が終了する。
このような過程によって底物体の境界の追従が完了すれば、図7の過程S770で検出部250は底物体を検出するようになるが、底物体が障害物と隣接している状態によって底物体検出方式が変わることができる。
先ず、図11Aに示すように底物体10が障害物と接していない場合、底物体10の追従作業時ロボットの移動経路1110(以下、追従経路という。)は閉ループを形成するようになる。追従経路が閉ループを形成すれば、検出部250は追従経路1110で区画される領域を底物体10が存在する領域として決定するようになる。
一方、図11Bに示すように底物体10の一側境界面が障害物と接している場合、ロボット100は底物体10の残り三つの境界面を追従するようになる。従って、追従経路1120は所定の角度に連結された三本のラインで形成されるが、この場合検出部250は追従経路1120の両端点1122、1124を連結して得られる閉ループを底物体10の領域として決定するようになる。
また、図11Cに示すように底物体10の両境界面が障害物と接している場合、ロボット100は底物体10の残り両境界面を追従するようになる。従って、追従経路1130は所定の角度に連結された二本のラインで形成されるが、この場合検出部250は追従経路1130の両端点1132、1134を結ぶ線分1136を基準として追従経路1130を対称処理し、対称処理結果得られる閉ループを底物体10の領域として決定するようになる。
最後に、図11Dに示すように、底物体10の三つの境界面が障害物と接している場合、ロボット100は底物体10の残り一側境界面を追従するようになる。この場合、検出部250は底物体10の色相情報を使用して底物体10の領域を決定するようになる。これをより具体的に説明すれば、底物体10の一側境界だけが把握された場合、走行部210は制御部246の制御によって底物体10の境界方向について垂直な方向に一定間隔ロボット100を移動させる。好ましくは、走行部210は底物体10の境界の中央部分で底物体10の境界方向について垂直な方向にロボット100を移動させることができる。
その後、走行部210はロボット100が底物体10を向くようにロボット100を回転させ、撮影部230は底物体10を撮影する。この時、撮影部230から提供される映像フレームには図12に示すように底物体10が撮像されるようになる。検出部250は、映像フレームで底物体10の色相情報と臨界値以内の色度差を有する領域を分離することによって底物体10の両境界1210、1220を決定する。ここで、底物体10の色相情報は底物体10の境界追従時撮影部230が提供する映像フレームで構造光の位置によって底物体10が存在することと判断された領域に対するサンプリングによって予め求めて置いたことでありうる。
映像フレーム上で底物体10の両境界1210、1220が決定されれば、検出部250は両境界1210、1220間の距離を用いて底物体10の幅1141を推定するようになる。勿論映像フレームは2次元的であるため、底物体10の高さを示す部分1230が底物体10の幅1141(図11D参照)を測定する場合に影響を及ぼさないようにするため、両境界1210、1220間の距離で底物体10の厚さに該当する部分1230の距離は除外させることが好ましい。底物体10の厚さは底物体10を感知する当時構造光によって得た底物体10の高低差に対応する数値で決定できる。このような作業のため映像フレームで所定位置のライン間の距離による各ラインに対応する位置間の実際距離に対する情報を予め保存して置き、検出部250がこれを用いるようにできる。
底物体10の幅が決定されれば、検出部250は底物体10の一側境界に対する追従経路1140と色相情報を用いて得た底物体10の幅をかけた値で底物体10の大きさを計算し、底物体の存在領域を決定するようになる。
一方、検出部250は底物体の材質を測定してもよい。底物体の材質は従来の技術によって測定されてもよいが、検出部250は構造光によって底物体の材質を測定してもよい。このため走行部210は制御部246の制御によって構造光が底物体の表面をスキャニングするようにロボット10を移動させる。この時、撮影部230が提供する連続した映像フレームは底物体の表面に投射された構造光が撮像されている。検出部250は、映像フレーム上での構造光の位置情報を用いて構造光が投射された地点の高さ情報を獲得する。その後、検出部250は高さ情報で雑音を除去した後残った情報の高周波成分を計算する。図13Aに示すように長い毛を含むなどの理由に表面が不均一な底物体の高さ情報は雑音を除去しても高周波成分が多く存在する。従って、高周波成分が所定の臨界値より多ければ、検出部250は底物体を長い毛を含む物体と判断し、それについての情報を底物体の検出情報に反映する。しかしながら、図13Bに示すように短い毛で形成されるなどの理由に表面が均一な底物体の高い情報は雑音を除去する場合高周波成分が少ない。従って、所定の臨界値より多くなければ、検出部250は底物体を平らな物体と判断し、それに対する情報を底物体の検出情報に反映する。
本発明の実施形態はコード、インストラクション、コンピュータプログラムなどに作成でき、コンピュータで読み取ることができる記録媒体を使用して前記コード、前記インストラクション、前記コンピュータプログラムを実行する汎用ディジタルコンピュータで実現できる。コンピュータで読み取ることができる記録媒体の実施形態として、ROM、フロッピ(登録商標)ディスク、ハードディスクなどのようなマグネティックストレージメディア、CD−ROMやDVDのような光記録メディア、及びインターネットによって伝送できる搬送波を用いるストレージメディアなどを挙げることができる。前記コンピュータで読み取ることができる記録媒体は、コンピュータで読み取ることができるコードが分散された形態で保存されて実行できるようにコンピュータシステムと結合されたネットワーク上に分布されていてもよい。
以上、添付した図面を参照して本発明の好適な実施形態を説明したが、当業者であれば、本発明の技術的思想や必須的な特徴を変更せずに他の具体的な形態で実施されうることを理解することができる。したがって、上述した好適な実施形態は、例示的なものであり、限定的なものではないことを理解すべきである。
本発明の一実施形態によるロボットの動作を説明するための図である。 本発明の一実施形態によるロボットの斜視図である。 本発明の一実施形態によるロボットの構造を示したブロック図である。 図2の動作管理部をより具体的に示したブロック図である。 本発明の一実施形態による底物体の存在を確認する過程を説明するための図である。 本発明の一実施形態による底物体の存在を確認する過程を説明するための図である。 本発明の一実施形態によるロボットから底物体までの移動距離及び方向の計算方式を説明するための図である。 本発明の一実施形態によるロボットから底物体までの移動距離及び方向の計算方式を説明するための図である。 本発明の一実施形態によるロボットから底物体までの移動距離及び方向の計算方式を説明するための図である。 本発明の一実施形態による底物体の境界方向を測定する過程を説明するための図である。 本発明の一実施形態による底物体を検出する過程を示したフローチャートである。 本発明の一実施形態による底物体の境界を追従する過程を示したフローチャートである。 本発明の一実施形態によるロボットが底物体のコーナーに接近する状態を示した図である。 本発明の一実施形態によるロボットが底物体が接している障害物に接近する状態を示した図である。 本発明の一実施形態によるロボットが底物体が接している障害物に接近する状態を示した図である。 本発明の一実施形態による底物体の検出状態を示した図である。 本発明の一実施形態による底物体の検出状態を示した図である。 本発明の一実施形態による底物体の検出状態を示した図である。 本発明の一実施形態による底物体の検出状態を示した図である。 本発明の一実施形態による底物体が撮像された映像フレームを示した図である。 本発明の一実施形態による構造光によって獲得した底物体の高さ情報を示した図である。 本発明の一実施形態による構造光によって獲得した底物体の高さ情報を示した図である。
符号の説明
210 走行部
220 投射部
230 撮影部
240 動作管理部
242 距離計算部
244 境界推定部
246 制御部
250 検出部
260 マップ管理部

Claims (35)

  1. 所定の構造光が投射された地点の高低差を測定する段階と、
    前記測定された高低差を用いて底物体を検出する段階とを含むことを特徴とする構造光を用いた底物体検出方法。
  2. 前記測定する段階は、
    前記構造光を投射する段階と、
    前記構造光が投射された領域についての映像フレームを提供する段階と、
    前記映像フレームで前記構造光が撮像された位置を用いて前記構造光が投射された地点の高低差を計算する段階とを含むことを特徴とする請求項1に記載の構造光を用いた底物体検出方法。
  3. 前記構造光は一つの線形、複数の線形、又は行列形態のうち何れか一つの形態を有することを特徴とする請求項1に記載の構造光を用いた底物体検出方法。
  4. 前記検出する段階は、
    前記構造光を用いて底物体の境界を追従する段階と、
    前記底物体の境界についての追従経路によって前記底物体を検出する段階とを含むことを特徴とする請求項1に記載の構造光を用いた底物体検出方法。
  5. 前記追従する段階は、
    前記構造光が投射された領域の映像フレームを提供する段階と、
    前記構造光が投射された領域に対応する映像フレームで前記構造光の撮像位置を用いて前記底物体の境界方向を測定する段階と、
    前記境界方向に平行な方向に移動する段階とを含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  6. 前記追従する段階は、
    前記構造光が投射された領域の映像フレームを提供する段階と、
    前記構造光が投射された領域についての映像フレームで前記構造光の撮像位置を用いて前記底物体の第1の境界方向を測定する段階と、
    前記映像フレームで前記底物体の色相情報と底の色相情報との間の差を用いて前記底物体の第2の境界方向を測定する段階と、
    前記第1の境界方向と前記第2の境界方向の加重値和によって前記底物体の第3の境界方向を計算する段階と、
    前記第3の境界方向に平行な方向に移動する段階とを含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  7. 前記検出する段階は、
    前記追従経路が閉ループを形成すれば、前記追従経路を前記底物体の領域として決定する段階を含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  8. 前記検出する段階は、
    前記追従経路が所定の角度で連結された三本のラインを形成すれば、前記追従経路の両端点を連結して得られた閉ループを前記底物体の領域として決定する段階を含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  9. 前記検出する段階は、
    前記追従経路が所定の角度で連結された二本のラインを形成すれば、前記追従経路の両端点を結ぶ線分を基準として前記追従経路を対称させることによって得られる閉ループを前記底物体の領域として決定する段階を含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  10. 前記検出する段階は、
    前記追従経路が一つの線分であれば、前記追従経路に垂直な方向に前記底物体を撮影して前記底物体の両境界が撮像された映像フレームを生成する段階と、
    前記映像フレームに撮像された前記両境界間の距離情報を用いて前記底物体の幅を計算する段階と、
    前記追従経路と前記計算された幅を用いて前記底物体の領域を決定する段階とを含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  11. 前記検出する段階は、
    前記底物体の大きさによって、前記底物体の種類を分類する段階を含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  12. 前記検出する段階は、
    前記構造光を前記底物体の表面に投射する段階と、
    前記底物体に投射された構造光によって求められた前記底物体の表面の高さ情報を用いて前記底物体の材質を分類する段階を含むことを特徴とする請求項4に記載の構造光を用いた底物体検出方法。
  13. 前記高低差を測定した結果、前記底物体の存在が確認されれば、前記構造光が投射された地点までの距離を計算する段階と、
    前記計算された距離を用いて前記底物体から所定の間隔以内に移動する段階をさらに含むことを特徴とする請求項1に記載の構造光を用いた底物体検出方法。
  14. 前記検出された底物体についての情報を反映して所定の基準マップを更新する段階をさらに含むことを特徴とする請求項1に記載の構造光を用いた底物体検出方法。
  15. 所定の構造光が投射された領域の映像フレームを提供する撮影部と、
    前記映像フレームに撮像された前記構造光の撮像位置を用いて底物体の境界を追従する走行部と、
    前記走行部の走行経路を用いて前記底物体を検出する検出部とを含むことを特徴とするロボット。
  16. 前記構造光を投射する投射部と、
    前記映像フレームで前記構造光が撮像された位置を用いて前記構造光が投射された地点の高低差を計算する距離計算部とをさらに含むことを特徴とする請求項15に記載のロボット。
  17. 前記構造光は一つの線形、複数の線形、又は行列形態のうち何れか一つの形態を有することを特徴とする請求項15に記載のロボット。
  18. 前記映像フレームで前記構造光の撮像位置を用いて前記底物体の境界方向を測定する境界測定部をさらに含むことを特徴とする請求項15に記載のロボット。
  19. 前記映像フレームで前記構造光の撮像位置を用いて測定した第1の境界方向と前記映像フレームで前記底物体の色相情報と底の色相情報との間の差を用いて測定した第2の境界方向の加重値和によって前記底物体の第3の境界方向を計算する境界測定部をさらに含み、
    前記走行部は、前記第3の境界方向に平行な方向に前記底物体を追従することを特徴とする請求項15に記載のロボット。
  20. 前記検出部は前記追従経路が閉ループを形成すれば、前記追従経路を前記底物体の領域として決定することを特徴とする請求項15に記載のロボット。
  21. 前記検出部は、前記追従経路が所定の角度で連結された三本のラインを形成すれば、前記追従経路の両端点を連結して得られた閉ループを前記底物体の領域として決定することを特徴とする請求項15に記載のロボット。
  22. 前記検出部は、前記追従経路が所定の角度で連結された二本のラインを形成すれば、前記追従経路の両端点を結ぶ線分を基準として前記追従経路を対称させることによって得られる閉ループを前記底物体の領域として決定することを特徴とする請求項15に記載のロボット。
  23. 前記検出部は前記追従経路が一つの線分であれば、前記撮影部が前記追従経路に垂直な方向に前記底物体を撮影して生成した映像フレームで前記底物体の両境界間の距離情報を用いて前記底物体の幅を計算し、前記追従経路と前記計算された幅を用いて前記底物体の領域を決定することを特徴とする請求項15に記載のロボット。
  24. 前記検出部は、前記底物体の大きさによって前記底物体の種類を分類することを特徴とする請求項15に記載のロボット。
  25. 前記検出部は、前記底物体に投射された構造光によって求められた前記底物体の表面の高さ情報を用いて前記底物体の材質を分類することを特徴とする請求項15に記載のロボット。
  26. 前記高低差を測定した結果、前記底物体の存在が確認されれば、前記構造光が投射された地点までの距離を計算する距離計算部をさらに含み、
    前記走行部は、前記計算された距離を用いて前記底物体から所定の間隔以内に移動することを特徴とする請求項15に記載のロボット。
  27. 前記検出された底物体についての情報を反映して所定の基準マップを更新するマップ管理部をさらに含むことを特徴とする請求項15に記載のロボット。
  28. 前記構造光を投射する投射部をさらに含むことを特徴とする請求項15に記載のロボット。
  29. 所定領域の底に構造光を投射する段階と、
    前記構造光が投射された位置の映像フレームを撮影する段階と、
    前記映像フレームで前記構造光が撮像された位置が、前記構造光が前記底に投射されるとき前記映像フレームでの前記構造光の位置を示す固定位置と異なるかを判断する段階と、
    前記構造光が撮像された位置と前記固定位置が異なる場合、物体の存在を検出する段階と、
    前記物体のサイズと前記物体を占有する領域を獲得し、前記獲得した情報を用いて基準マップを更新する段階とを含むことを特徴とするロボットが移動できる領域をマッピングする方法。
  30. 前記獲得した物体のサイズに基づいて、前記検出された物体の類型を分類する段階をさらに含むことを特徴とする請求項29に記載のロボットが移動できる領域をマッピングする方法。
  31. 方向を転換しながら底に向かって構造光を投射する段階と、
    前記投射された構造光が撮像された位置を含む映像フレームを撮影する段階と、
    前記撮像された位置に基づいて、前記底で物体の存在を検出する段階とを含み、
    前記撮影された位置のうち少なくとも一つの部分の高さが前記構造光が前記底に投射されるとき前記映像フレームで前記投射された構造光の位置を示す基準位置より高いとき前記物体が検出されることを特徴とする底で物体の存在を判断する方法。
  32. 前記投射する段階は、間欠的に実行され、前記撮影する段階は前記投射する段階と共に実行されることを特徴とする請求項31に記載の底で物体の存在を判断する方法。
  33. 所定の構造光が投射された地点の高低差を測定する段階と、
    前記測定された高低差を用いて底物体を検出する段階とを含むことを特徴とする構造光を用いた底物体検出方法を実行するようにプロセッサを駆動させるプロセッシングインストラクションにコーディングされたコンピュータで読み取ることができる記録媒体。
  34. 所定領域の底に構造光を投射する段階と、
    前記構造光が投射された位置の映像フレームを撮影する段階と、
    前記映像フレームで前記構造光が撮像された位置が、前記構造光が前記底に投射されるとき前記映像フレームでの前記構造光の位置を示す固定位置と異なるかを判断する段階と、
    前記構造光が撮像された位置と前記固定位置が異なる場合、物体の存在を検出する段階と、
    前記物体のサイズと前記物体を占有する領域を獲得し、前記獲得した情報を用いて基準マップを更新する段階とを含むことを特徴とするロボットが移動できる領域をマッピングする方法を実行するようにプロセッサを駆動させるプロセッシングインストラクションにコーディングされたコンピュータで読み取ることができる記録媒体。
  35. 方向を転換しながら底に向かって構造光を投射する段階と、
    前記投射された構造光が撮像された位置を含む映像フレームを撮影する段階と、
    前記撮像された位置に基づいて、前記底で物体の存在を検出する段階とを含み、
    前記撮影された位置のうち少なくとも一つの部分の高さが前記構造光が前記底に投射されるとき前記映像フレームで前記投射された構造光の位置を示す基準位置より高いとき前記物体が検出されることを特徴とする底で物体の存在を判断する方法を実行するようにプロセッサを駆動させるプロセッシングインストラクションにコーディングされたコンピュータで読み取ることができる記録媒体。
JP2007098371A 2006-05-17 2007-04-04 構造光を用いた物体検出方法及びこれを用いたロボット Active JP4646942B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060044419A KR100735565B1 (ko) 2006-05-17 2006-05-17 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇

Publications (2)

Publication Number Publication Date
JP2007309921A true JP2007309921A (ja) 2007-11-29
JP4646942B2 JP4646942B2 (ja) 2011-03-09

Family

ID=38503217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007098371A Active JP4646942B2 (ja) 2006-05-17 2007-04-04 構造光を用いた物体検出方法及びこれを用いたロボット

Country Status (3)

Country Link
US (1) US7507948B2 (ja)
JP (1) JP4646942B2 (ja)
KR (1) KR100735565B1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517350A (ja) * 2008-01-28 2011-06-02 シーグリッド コーポレーション サービスロボットによって収集された時空間情報のリパーパシングを行うための方法
JP2011145924A (ja) * 2010-01-15 2011-07-28 Nec Access Technica Ltd 移動装置及び方法
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
JP2014113488A (ja) * 2012-12-05 2014-06-26 Vorwerk & Co Interholding Gmbh 走行式掃除機並びにこのような装置の運転方法
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
WO2018225852A1 (ja) * 2017-06-08 2018-12-13 東芝ライフスタイル株式会社 自律型電気掃除装置
CN110621208A (zh) * 2017-06-02 2019-12-27 伊莱克斯公司 检测机器人清洁设备前方的表面的高度差的方法

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840664B2 (en) * 2003-05-21 2010-11-23 Ixia Automated characterization of network traffic
US7627669B2 (en) * 2003-05-21 2009-12-01 Ixia Automated capturing and characterization of network traffic using feedback
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
US8219274B2 (en) * 2009-07-02 2012-07-10 Robert Bosch Gmbh 3-dimensional perception system and method for mobile platform
KR101741583B1 (ko) 2009-11-16 2017-05-30 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
KR101641237B1 (ko) * 2009-11-20 2016-07-21 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP5560978B2 (ja) * 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
KR101778028B1 (ko) * 2010-12-20 2017-09-13 삼성전자주식회사 로봇 및 로봇의 경로 생성 방법
KR101798045B1 (ko) 2011-05-12 2017-11-15 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR101949277B1 (ko) * 2012-06-18 2019-04-25 엘지전자 주식회사 이동 로봇
ES2610755T3 (es) * 2012-08-27 2017-05-03 Aktiebolaget Electrolux Sistema de posicionamiento de un robot
DE102012108802A1 (de) * 2012-09-19 2014-03-20 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenreinigungsgerät und Verfahren zum Betreiben eines Bodenreinigungsgerätes
KR20150141979A (ko) 2013-04-15 2015-12-21 악티에볼라겟 엘렉트로룩스 돌출 측부 브러시를 구비하는 로봇 진공 청소기
US10448794B2 (en) 2013-04-15 2019-10-22 Aktiebolaget Electrolux Robotic vacuum cleaner
KR102095817B1 (ko) * 2013-10-31 2020-04-01 엘지전자 주식회사 이동 로봇, 이동 로봇의 충전대 및 이들을 포함하는 이동 로봇 시스템
KR102152641B1 (ko) * 2013-10-31 2020-09-08 엘지전자 주식회사 이동 로봇
JP6638987B2 (ja) 2013-12-19 2020-02-05 アクチエボラゲット エレクトロルックス 回転側面ブラシの適応速度制御
WO2015090399A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
ES2656664T3 (es) 2013-12-19 2018-02-28 Aktiebolaget Electrolux Dispositivo robótico de limpieza con función de registro del perímetro
JP2017502371A (ja) 2013-12-19 2017-01-19 アクチエボラゲット エレクトロルックス 掃除領域の優先順位付け
EP3084540B1 (en) 2013-12-19 2021-04-14 Aktiebolaget Electrolux Robotic cleaning device and operating method
JP6494118B2 (ja) 2013-12-19 2019-04-03 アクチエボラゲット エレクトロルックス 障害物の乗り上げの検出に伴うロボット掃除機の制御方法、並びに、当該方法を有するロボット掃除機、プログラム、及びコンピュータ製品
KR102116596B1 (ko) 2013-12-19 2020-05-28 에이비 엘렉트로룩스 나선형 패턴으로 이동하는 사이드 브러시를 구비한 로봇 진공 청소기
KR102116595B1 (ko) 2013-12-20 2020-06-05 에이비 엘렉트로룩스 먼지통
EP3087888B1 (en) 2013-12-23 2019-08-14 LG Electronics Inc. Robot cleaner
KR101558508B1 (ko) * 2014-05-02 2015-10-07 엘지전자 주식회사 청소기
WO2016005012A1 (en) 2014-07-10 2016-01-14 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
DE102014111217A1 (de) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Bodenreinigungsgerät zur Trocken- und Feuchtreinigung sowie Verfahren zum Betrieb eines selbstfahrenden Bodenreinigungsgerätes
JP6517482B2 (ja) * 2014-08-29 2019-05-22 東芝ライフスタイル株式会社 自律走行体および電気掃除機
EP3190939B1 (en) 2014-09-08 2021-07-21 Aktiebolaget Electrolux Robotic vacuum cleaner
KR102271782B1 (ko) 2014-09-08 2021-06-30 에이비 엘렉트로룩스 로봇 진공 청소기
JP2017535279A (ja) 2014-09-23 2017-11-30 宝時得科技(中国)有限公司Positec Technology (China) Co.,Ltd. 自動移動ロボット
CN104266673B (zh) 2014-09-26 2016-06-08 博奥生物集团有限公司 一种利用摄像头识别反应单元种类的方法
CN104298970B (zh) * 2014-09-26 2017-10-27 博奥生物集团有限公司 一种基于颜色特征的摄像头识别和检测方法
KR101571719B1 (ko) 2014-10-02 2015-11-25 엘지전자 주식회사 로봇 청소기
KR20160048492A (ko) 2014-10-24 2016-05-04 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
CN106998980B (zh) * 2014-12-10 2021-12-17 伊莱克斯公司 使用激光传感器检测地板类型
WO2016091320A1 (en) 2014-12-12 2016-06-16 Aktiebolaget Electrolux Side brush and robotic cleaner
JP6879478B2 (ja) 2014-12-16 2021-06-02 アクチエボラゲット エレクトロルックス ロボット掃除機のための経験ベースロードマップ
EP3234713B1 (en) 2014-12-16 2022-06-15 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
CN113147582B (zh) * 2015-04-10 2023-12-26 麦克赛尔株式会社 具有影像投射部的车辆
KR102343513B1 (ko) 2015-04-17 2021-12-28 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
US9746854B2 (en) 2015-04-24 2017-08-29 Autonomous Solutions, Inc. System and method for controlling a vehicle
EP3285630B1 (en) * 2015-04-24 2023-08-16 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces
US9964398B2 (en) * 2015-05-06 2018-05-08 Faro Technologies, Inc. Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
US10874274B2 (en) 2015-09-03 2020-12-29 Aktiebolaget Electrolux System of robotic cleaning devices
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
JP6685755B2 (ja) * 2016-02-16 2020-04-22 東芝ライフスタイル株式会社 自律走行体
CN108603935A (zh) 2016-03-15 2018-09-28 伊莱克斯公司 机器人清洁设备以及机器人清洁设备进行陡壁检测的方法
EP3454707B1 (en) 2016-05-11 2020-07-08 Aktiebolaget Electrolux Robotic cleaning device
KR102598711B1 (ko) 2016-07-07 2023-11-06 삼성전자주식회사 불균일 광을 조사하는 라이다 장치 및 이를 포함하는 자율 주행 로봇
JP2020509500A (ja) 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
US11009886B2 (en) 2017-05-12 2021-05-18 Autonomy Squared Llc Robot pickup method
US11921517B2 (en) 2017-09-26 2024-03-05 Aktiebolaget Electrolux Controlling movement of a robotic cleaning device
US11507097B2 (en) * 2018-02-05 2022-11-22 Pixart Imaging Inc. Control apparatus for auto clean machine and auto clean machine control method
US10830889B2 (en) 2018-05-02 2020-11-10 Faro Technologies, Inc. System measuring 3D coordinates and method thereof
US11398968B2 (en) 2018-07-17 2022-07-26 Keysight Technologies, Inc. Methods, systems, and computer readable media for testing virtualized network functions and related infrastructure
CN109643127B (zh) * 2018-11-19 2022-05-03 深圳阿科伯特机器人有限公司 构建地图、定位、导航、控制方法及系统、移动机器人
KR102234642B1 (ko) * 2019-01-17 2021-04-01 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR102210360B1 (ko) * 2019-03-05 2021-01-29 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
DE102019106227A1 (de) * 2019-03-12 2020-09-17 Vorwerk & Co. Interholding Gmbh Bodenbearbeitungsgerät und System aus einem Bodenbearbeitungsgerät und einem externen Endgerät
US11327483B2 (en) * 2019-09-30 2022-05-10 Irobot Corporation Image capture devices for autonomous mobile robots and related systems and methods
CN111590589A (zh) * 2020-06-04 2020-08-28 小狗电器互联网科技(北京)股份有限公司 机器人及目标物定位系统
EP3929690A1 (en) * 2020-06-22 2021-12-29 Carnegie Robotics, LLC A method and a system for analyzing a scene, room or venueby determining angles from imaging elements to visible navigation elements
US11323354B1 (en) 2020-10-09 2022-05-03 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using switch emulation
CN112162294B (zh) * 2020-10-10 2023-12-15 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
US11483227B2 (en) 2020-10-13 2022-10-25 Keysight Technologies, Inc. Methods, systems and computer readable media for active queue management
US11483228B2 (en) 2021-01-29 2022-10-25 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using an emulated data center environment
US11405302B1 (en) 2021-03-11 2022-08-02 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using configurable test infrastructure
CN112986912B (zh) * 2021-03-19 2023-06-16 北京小狗吸尘器集团股份有限公司 基于结构光传感器的扫地机重定位方法、装置和电子设备
US11388081B1 (en) 2021-03-30 2022-07-12 Keysight Technologies, Inc. Methods, systems, and computer readable media for impairment testing using an impairment device
CN113377106B (zh) * 2021-06-09 2022-03-15 安徽信息工程学院 基于平板电脑的室内图像测绘系统、方法
US11729087B2 (en) 2021-12-03 2023-08-15 Keysight Technologies, Inc. Methods, systems, and computer readable media for providing adaptive background test traffic in a test environment
US11765068B2 (en) 2021-12-22 2023-09-19 Keysight Technologies, Inc. Methods, systems, and computer readable media for programmable data plane processor based traffic impairment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6443710A (en) * 1987-08-11 1989-02-16 Agency Ind Science Techn Cloth shape detecting method
JPH0489510A (ja) * 1990-08-01 1992-03-23 Matsushita Electric Ind Co Ltd 段差形状検出装置
JPH0683442A (ja) * 1992-09-04 1994-03-25 Sanyo Electric Co Ltd 走行ロボット
JP2005211366A (ja) * 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
JPH05341842A (ja) 1992-05-07 1993-12-24 Nec Corp 走行車の障害検知装置
JPH0643935A (ja) 1992-07-24 1994-02-18 Mutoh Ind Ltd 走行ロボットの障害物検出装置
JPH1163986A (ja) 1997-08-15 1999-03-05 Meidensha Corp 移動・静止物体追跡方式及びこれを実現するソフトウェアを記録した記録媒体並びにこの方法を実現する装置
US6594844B2 (en) * 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
KR20020038296A (ko) 2000-11-17 2002-05-23 이충전 모빌로봇의 장애물 감지장치 및 감지방법
KR100556612B1 (ko) 2002-06-29 2006-03-06 삼성전자주식회사 레이저를 이용한 위치 측정 장치 및 방법
JP2004174149A (ja) 2002-11-29 2004-06-24 Matsushita Electric Ind Co Ltd 自走式掃除機
TWM294508U (en) * 2005-12-27 2006-07-21 Supply Internat Co Ltd E Self-moving device with obstacle-detecting function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6443710A (en) * 1987-08-11 1989-02-16 Agency Ind Science Techn Cloth shape detecting method
JPH0489510A (ja) * 1990-08-01 1992-03-23 Matsushita Electric Ind Co Ltd 段差形状検出装置
JPH0683442A (ja) * 1992-09-04 1994-03-25 Sanyo Electric Co Ltd 走行ロボット
JP2005211366A (ja) * 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
JP2011517350A (ja) * 2008-01-28 2011-06-02 シーグリッド コーポレーション サービスロボットによって収集された時空間情報のリパーパシングを行うための方法
JP2011145924A (ja) * 2010-01-15 2011-07-28 Nec Access Technica Ltd 移動装置及び方法
JP2014113488A (ja) * 2012-12-05 2014-06-26 Vorwerk & Co Interholding Gmbh 走行式掃除機並びにこのような装置の運転方法
JP2020522288A (ja) * 2017-06-02 2020-07-30 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
CN110621208A (zh) * 2017-06-02 2019-12-27 伊莱克斯公司 检测机器人清洁设备前方的表面的高度差的方法
WO2018225852A1 (ja) * 2017-06-08 2018-12-13 東芝ライフスタイル株式会社 自律型電気掃除装置
GB2577008A (en) * 2017-06-08 2020-03-11 Toshiba Lifestyle Products & Services Corp Autonomous electrical cleaning apparatus
JP2018202038A (ja) * 2017-06-08 2018-12-27 東芝ライフスタイル株式会社 自律型電気掃除装置
JP7264584B2 (ja) 2017-06-08 2023-04-25 東芝ライフスタイル株式会社 自律型電気掃除装置

Also Published As

Publication number Publication date
US7507948B2 (en) 2009-03-24
US20070267570A1 (en) 2007-11-22
JP4646942B2 (ja) 2011-03-09
KR100735565B1 (ko) 2007-07-04

Similar Documents

Publication Publication Date Title
JP4646942B2 (ja) 構造光を用いた物体検出方法及びこれを用いたロボット
EP2888603B1 (en) Robot positioning system
US10705535B2 (en) Systems and methods for performing simultaneous localization and mapping using machine vision systems
JP6772129B2 (ja) 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN110801180B (zh) 清洁机器人的运行方法及装置
US20170305010A1 (en) Systems and Methods for Performing Occlusion Detection
JP2022546289A (ja) 掃除ロボット及び掃除ロボットの自動制御方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US7646917B2 (en) Method and apparatus for detecting corner
CN113916230A (zh) 用于使用机器视觉系统执行同时定位和映射的系统和方法
JP2006221610A (ja) 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
JP2007078476A (ja) 物体位置検出装置、地図作成装置、自律移動装置、物体位置検出方法および物体位置検出プログラム
KR20100098997A (ko) 로봇 청소기 및 그의 위치 검출 방법
KR20190093800A (ko) 이동 로봇 및 이동 로봇의 제어방법
JP3882083B2 (ja) 測距装置
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
RU2800503C1 (ru) Робот-уборщик и способ автоматического управления роботом-уборщиком
WO2019104739A1 (zh) 制约装置和自移动视觉机器人及其控制方法
EP2325713B1 (en) Methods and systems for movement of robotic device using video signal
Sujan et al. MOBILE ROBOT LOCALIZATION AND MAPPING USING SPACE INVARIANT TRANSFORMS

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4646942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250