JP3187472U - 移動ロボット - Google Patents

移動ロボット Download PDF

Info

Publication number
JP3187472U
JP3187472U JP2013005414U JP2013005414U JP3187472U JP 3187472 U JP3187472 U JP 3187472U JP 2013005414 U JP2013005414 U JP 2013005414U JP 2013005414 U JP2013005414 U JP 2013005414U JP 3187472 U JP3187472 U JP 3187472U
Authority
JP
Japan
Prior art keywords
mobile robot
processing unit
robot according
beams
generates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2013005414U
Other languages
English (en)
Inventor
豪宇 陳
士哲 洪
耀世 冷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MSI Computer Shenzhen Co Ltd
Original Assignee
MSI Computer Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MSI Computer Shenzhen Co Ltd filed Critical MSI Computer Shenzhen Co Ltd
Application granted granted Critical
Publication of JP3187472U publication Critical patent/JP3187472U/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】迅速且つ効果的に領域の奥行きを検出できる移動ロボットを提供する。
【解決手段】メインビームを発する発光ユニット101と、メインビームを処理し、領域を覆う光線を構成する複数のサブビームを生成する処理ユニット102と、複数のサブビームの一部が第1物体を照射して第1物体が複数の環境反射ビームを生成したときに、環境反射ビームを受けて第1収集ビームを生成する光学部品103と、第1収集ビームに基づいて第1検出結果を生成する画像検出ユニット104と、第1検出結果に基づいて領域の奥行き情報を生成する制御ユニット105と、奥行き情報に基づき移動ロボット100の関連動作を制御して移動ロボットを動かす移動ユニット106とを含む。
【選択図】図1

Description

本考案は、移動ロボットに関し、特に、迅速且つ効果的に領域の奥行きを検出できる移動ロボットに関するものである。
従来より、移動ロボットは、未知の環境において移動するときに、センサにより検出された領域の奥行きの情報が必要である。
しかし、仮に領域の奥行きの情報が十分でないならば、移動ロボットは、予想外の望まざる動きを行う恐れがある。
本考案は、このような従来の問題点に着目してなされたものであり、迅速且つ効果的に領域の奥行きを検出可能な移動ロボットの提供を目的とする。
そこで、本考案者らは、鋭意研究を行った結果、以下に述べる移動ロボットを採用することで、上記課題を解決することに想到した。
本考案に係る移動ロボットは、領域の奥行きを検出可能な移動ロボットであって、メインビームを発する発光ユニットと、当該メインビームを処理し、当該領域を覆う光線を構成する複数のサブビームを生成する処理ユニットと、当該複数のサブビームの一部が第1物体を照射して当該第1物体が複数の環境反射ビームを生成したときに、当該環境反射ビームを受けて第1収集ビームを生成する光学部品と、当該第1収集ビームに基づいて第1検出結果を生成する画像検出ユニットと、当該第1検出結果に基づいて当該領域の奥行き情報を生成する制御ユニットと、当該奥行き情報に基づき当該移動ロボットの関連動作を制御して当該移動ロボットを動かす移動ユニットとを含むことを特徴とする。
また、本考案に係る移動ロボットにおいて、前記光線は、地面に平行であることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、地面に向けて前記サブビームを発するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、第1処理ユニットと第2処理ユニットとからなり、当該第1処理ユニット及び第2処理ユニットは、前記メインビームに基づいて複数の検出ビームを生成し、当該第1処理ユニットが地面に向けて当該検出ビームを発し、当該第2処理ユニットが地面に平行に当該検出ビームを発するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記複数の検出ビームの一部が第2物体を照射して当該第2物体が複数の路面反射ビームを生成したときに、前記光学部品が当該路面反射ビームを受けて第2収集ビームを生成し、前記画像検出ユニットが当該第2収集ビームに基づいて第2検出結果を生成し、前記制御ユニットが当該第2検出結果に基づいて前記領域の第2奥行き情報を生成し、前記移動ユニットによって移動ロボットの関連動作を調整するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記光線は、平面光線または曲線光線であることが好ましい。
また、本考案に係る移動ロボットにおいて、前記サブビームは、順次に生成するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記サブビームは、同時に生成するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記メインビームを反射して前記サブビームを生成するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記制御ユニットにより回転する固定ベースと、当該固定ベースに結合して前記メインビームを反射する鏡とを含むことが好ましい。
また、本考案に係る移動ロボットにおいて、前記鏡は、円錐鏡であることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記メインビームを屈折させて前記サブビームを生成するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記メインビームを屈折させる円柱状レンズを含むことが好ましい。
また、本考案に係る移動ロボットにおいて、前記円柱状レンズは、第1領域及び第2領域からなる表面を備え、当該第1領域は第1反射膜を有し、当該第2領域は第2反射膜を有し、当該第1反射膜の厚さが当該第2反射膜の厚さと同じであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記円柱状レンズは、第1領域及び第2領域からなる表面を備え、当該第1領域は第1反射膜を有し、当該第2領域は第2反射膜を有し、当該第1反射膜の厚さが当該第2反射膜の厚さと同じでないことが好ましい。
また、本考案に係る移動ロボットにおいて、前記円柱状レンズは、反射膜を有する表面を備え、当該反射膜を蒸着方式によって形成したものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記メインビームを回折させて前記サブビームを生成するものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記処理ユニットは、前記メインビームを回折させる格子レンズを含むことが好ましい。
また、本考案に係る移動ロボットにおいて、前記発光ユニットは、レーザーエミッタを含むことが好ましい。
また、本考案に係る移動ロボットにおいて、前記光線は、線状の光線であることが好ましい。
また、本考案に係る移動ロボットにおいて、前記制御ユニットは、前記奥行き情報に基づいて少なくとも1つの所定の関連動作の中から前記移動ロボットの関連動作となるものを選択するか、または前記奥行き情報及びランダムな方式に基づいて前記移動ロボットの関連動作を決めるか、または前記奥行き情報及び制御命令に基づいて前記移動ロボットの関連動作を決め、当該制御命令がユーザーによって直接または間接方式で設定されるものであることが好ましい。
また、本考案に係る移動ロボットにおいて、前記移動ロボットは、前記所定の関連動作に基づいて、直線移動、障害物に沿って移動、ランダム方向に移動、点に沿って回転、渦巻き状に回転、進行しながら回転、加速、減速、後進、または停止するものであることが好ましい。
本考案に係る移動ロボットは、迅速且つ効果的に領域の奥行きを検出することが出来る。従って、本考案に係る移動ロボットによれば、予想外の望まざる動きを行う恐れが生じない
本考案は、添付の図面と併せて後に続く詳細な説明と実施例を解釈することによって、より完全に理解されることができる。
本考案に係る移動ロボットの一実施形態を示す概略図である。 本考案に係る移動ロボットの別の実施形態を示す概略図である。 本考案に係る移動ロボットの一実施形態を示す前面図である。 本考案に係る移動ロボットの一実施形態を示す側面図である。 本考案の処理ユニットの一実施形態を示す概略図である。 本考案の処理ユニットの別の実施形態を示す概略図である。
本考案の詳細な説明は、添付の図面と併せて以下の実施形態に説明される。
以下の説明は、本考案を実施するベストモードが開示されている。この説明は、本考案の一般原理を例示する目的のためのもので本考案を限定するものではない。本考案の範囲は、添付の実用新案登録請求の範囲を参考にして決定される。
図1は、本考案に係る移動ロボットの一実施形態を示す概略図である。図1に示されるように、移動ロボット100は、発光ユニット101、処理ユニット102、光学部品103、画像検出ユニット104、制御ユニット105、及び移動ユニット106を含む。本実施形態では、移動ロボット100は、ラインレーザーのようなビームを発して、全領域を検出し(即ち、360°の周囲環境を検出)、領域の奥行き情報を確立し、当該奥行き情報に基づいて関連動作(relevant behavior)を計画する。
発光ユニット101は、メインビームLを発する。本考案はメインビームの種類を限定するものではない。1つの実施形態では、メインビームLは、可視光または不可視光である。また、本考案は、発光ユニット101の内部回路構造を限定するものではない。ビームを発することができる回路構造であれば、発光ユニット101となることができる。1つの実施形態では、発光ユニット101は、レーザービームを発するレーザーエミッタ(不図示)を有する。他の実施形態では、発光ユニット101は、赤外線エミッタ(不図示)を有する。
処理ユニット102は、メインビームLを処理し、複数のサブビームを生成する。説明を容易にするために、図1には、サブビームLS1〜LS5のみを表している。サブビームLS1〜LS5は、光線110を構成する。即ち、光線110の照射範囲は、サブビームLS1〜LS5で覆われた範囲である。本考案は、処理ユニット102がサブビームLS1〜LS5を生成する順序を限定するものではない。1つの実施形態では、サブビームLS1〜LS5は、順次に生成される。もう1つの実施形態では、サブビームLS1〜LS5は、同時に生成される。他の実施形態では、光線110は、線状のような光線である。複数のサブビームLS1〜LS5のうち一部のサブビームが物体に照射した時、当該物体はサブビームを反射し、複数の環境反射ビームLR1〜LR4を生成する。本考案は、処理ユニット102の内部構造を限定するものではない。メインビームを複数のサブビームに変換できるハードウェア構造であれば、処理ユニット102となることができる。
光学部品103は、複数の環境反射ビームを受け、収集ビームSDT1を生成する。説明を容易にするために、図1は、環境反射ビームLR1〜LR4のみを表している。環境反射ビームLR1〜LR4は、異なる方向からの反射光である。本実施形態では、光学部品103は、全領域を検出することができ、360°の範囲内の全ての環境反射ビームを受けることができる。本考案は、光学部品103の種類を限定するものではない。1つの実施形態では、光学部品103は、鏡面であり、環境反射ビームを反射する。もう1つの実施形態では、光学部品103は、全方位広角レンズ(omni directional and wide angle lens)である。
画像検出ユニット104は、光学部品103に接続され、光学部品103によって生成された収集ビームSDT1を感知し、検出結果IFMを生成する。本考案は、画像検出ユニット104が光学部品103によって生成された収集ビームSDT1を感知するかを限定するものではない。1つの実施形態では、画像検出ユニット104は、電荷結合素子(CCD)または相補性金属酸化膜半導体(CMOS)によって光学部品103によって生成された収集ビームSDT1を感知する。また、本考案は、画像検出ユニット104の種類を限定するものではない。1つの実施形態では、画像検出ユニット104は、カメラまたはビデオカメラである。
制御ユニット105は、画像検出ユニット104に接続され、画像検出ユニット104によって生じた検出結果IFMに基づいて領域の奥行き情報を生成し、当該奥行き情報に基づいて制御信号SC1を生成する。制御ユニット105は、制御信号SC1を移動ユニット106に提供し、移動ユニット106によって移動ロボットの関連動作、例えば、移動ロボット100の進行経路を制御する。1つの実施形態では、移動ユニット106は、制御ユニット105に接続され、複数のホイール(不図示)及びドライバ(不図示)を有する。移動ユニット106内のドライバは、制御信号SC1に基づいてホイールの回転方向を制御し、移動ロボット100の関連動作を調整する。
1つの実施形態では、制御ユニット105は、少なくとも1つの所定の関連動作を有する。制御ユニット105は、領域の奥行き情報に基づいて少なくとも1つの所定の関連動作の中から1つの移動ロボット100の関連動作となるものを選択する。所定の関連動作は、直線移動、障害物に沿って移動、ランダム方向に移動、点に沿って回転、渦巻き状に回転、進行しながら回転、加速、減速、後進と停止などを少なくとも含む。
もう1つの実施形態では、制御ユニット105は、ランダムに関連動作を生成する。制御ユニット105は、全てのセンサ信号のフィードバックの結果に基づいて、かつ/または各センサの重み(weight)または優先条件に基づいて、単一の関連動作または複数の関連動作の組み合わせを生成する。この例では、制御ユニット105によって生成される関連動作は所定のものではない。
もう1つの実施形態では、制御ユニット105は、制御指令(不図示)に基づいて対応の関連動作を生成する。この例では、制御指令は、ユーザーによって直接または間接の方式で設定されることができる。1つの実施形態では、ユーザーは、直接接触する方式、例えば、移動ロボット100の付属の機能ボタンを押して、移動ロボット100の関連動作を調整するか、または接触しない方式、例えば、リモコン、プログラミングソフトウェア、目視距離を越えた操作などで、移動ロボット100の関連動作を調整する。
1つの実施形態では、制御ユニット105によって生成された関連動作は、移動ロボット100の配置、方向、角度、速度、角速度、加速度と角加速度などを変える。他の実施例では、制御ユニット105によって生成された関連動作は、移動ロボット100と周囲環境中の少なくとも1つの物体間の相対関係を変えるか、または移動ロボット100内部の構成要素の相対状態を変えるか、または移動ロボット100と適合する周辺装置の相対状態などを変える。
本考案は、制御ユニット105の内部回路構造を限定するものではない。1つの実施形態では、制御ユニット105は、マイクロコントローラ、プロセッサ、メモリ、及び論理回路を有する。他の実施形態では、制御ユニット105は、発光ユニット101をオンまたはオフにするもう1つの制御信号SC2を生成する。例えば、第1期間では、制御ユニット105は、発光ユニット101をオフにする。この時、光学部品103は、移動ロボット100の周囲の反射光を受ける。画像検出ユニット104は、光学部品103の受信結果に基づいて、第1検出結果を生成する。制御ユニット105は、第1検出結果を保存する。第2期間では、制御ユニット105は、発光ユニット101をオンにする。この時、処理ユニット102は、サブビームLS1〜LS5を生成する。サブビームLS1〜LS5が物体に照射した時、当該物体はサブビームLS1〜LS5を反射し、環境反射ビームLR1〜LR4を生成する。光学部品103は、環境反射ビームLR1〜LR4を受ける。画像検出ユニット104は、光学部品103の受信結果に基づいて、第2検出結果を生成する。制御ユニット105は、第1及び第2検出結果を比較し、第2検出結果で環境反射ビームLR1〜LR4を区別し、区別した結果に基づいて、移動ロボット100と周囲環境内の物体との間の距離を得る。この例では、制御ユニット105は、発光ユニット101を好適にオンまたはオフにし、時間の近い両画面に基づいて、移動ロボット100と周囲環境内の物体との間の距離を得る。
光学部品103は、全領域の視覚能力を有するため、即ち、360°の検出角度を有するため、移動ロボット100の周囲の全ての反射光を受けることができる。移動ロボット100が狭い空間に入った時、制御ユニット105は、光学部品103の受信結果に基づいてホイールの回転方向を調整し、狭い空間を迅速に離れ、移動ロボット100が狭い空間にはまるのを防ぐ。
図2は、本考案に係る移動ロボットの別の実施形態を示す概略図である。図2は、図1と同様であり、異なる所は、図2の移動ロボット100’は、処理ユニット108がある所である。本実施形態では、処理ユニット108は、メインビームLを処理し、複数の検出ビームを生成する。説明を容易にするために、図2は、検出ビームLS6〜LS10のみを表している。検出ビームLS6〜LS10は、光線120を構成する。即ち、光線120の照射範囲は、検出ビームLS6〜LS10で覆われる範囲である。
複数の検出ビームLS6〜LS10のうち一部の検出ビームが物体を照射した時、当該物体は複数の路面反射ビームLR5〜LR8を生成する。光学部品103は、路面反射ビームLR5〜LR8を受け、収集ビームSDT2を生成する。画像検出ユニット104は、収集ビームSDT2に基づいて検出結果IFMを生成する。制御ユニット105は、検出結果IFMに基づいて制御信号SC1を生成し、ホイールの回転方向を調整する。
1つの実施形態では、処理ユニット102が光線110を生成した時、処理ユニット108は、光線120の生成を停止する。よって、光学部品103は、環境反射ビームLR1〜LR4のみを受ける。もう1つの実施形態では、処理ユニット108が光線120を生成した時、処理ユニット102は、光線110の生成を停止する。よって、光学部品103は、路面反射ビームLR5〜LR8のみを受ける。他の実施形態では、処理ユニット102が光線110を生成すると同時に、処理ユニット108も光線120を生成する。よって、光学部品103は、環境反射ビームLR1〜LR4及び路面反射ビームLR5〜LR8も同時に受けることができる。
本考案は、光線110及び120の照射方向を限定するものではない。1つの実施形態では、処理ユニット102によって生成された光線110は、地面と平行し、周囲環境内の物体の配置を検出し、処理ユニット108は、地面に向けて検出ビームLS6〜LS10を放射し、路面の状況が凹凸平面でないかどうか路面を検出する。光学部品103によって受けた環境反射ビームLR1〜LR4は、移動ロボット100が周囲環境内の物体に衝突するのを防ぐことができる。また、光学部品103によって受けた路面反射ビームLR5〜LR8は、移動ロボット100が高い場所から落ちるのを防ぐことができる。
本考案は、光線110及び120の形状を限定するものではない。1つの実施形態では、光線110及び120は、平面光線または曲線光線である。また、本考案は、処理ユニット102及び108が光線110及び120を生成する方式を限定するものではない。本実施例では、処理ユニット102及び108は、同一の発光ユニット(例えば101)によって発されたメインビームLに基づいて光線110及び120を生成する。例えば、発光ユニット101の配置を調整することによってメインビームLを処理ユニット102及び108に照射し、光線110または120を生成することができる。他の実施形態では、処理ユニット102及び108は、その配置を調整することによって、発光ユニット101が発したメインビームLを受けることができる。もう1つの実施形態では、処理ユニット102及び108は、異なるメインビームに基づいて光線110及び120を生成する。この場合には、移動ロボット100’は、2つの発光ユニットを有する。
図3は、本考案に係る移動ロボットの一実施形態を示す前面図である。図3に示されるように、移動ロボット100が発したサブビームLS1〜LS5は、光線110を構成する。光線110は、境界201及び202を有する。境界201と202の間は角度203を有する。本考案は、角度203の大きさを限定するものではない。1つの実施形態では、境界201と202の間の角度203は、180度より大きい。もう1つの実施形態では、当該角度203は360度に近い。
図4は、本考案に係る移動ロボットの一実施形態を示す側面図である。図4に示されるように、移動ロボット100は、ケース300を含む。発光ユニット101は、ケース300の中に設置され、メインビームLを発する。処理ユニット102は、ケース300の外に設置され、メインビームLを受けて処理する。本実施例では、処理ユニット102は、メインビームLを反射し、サブビームLS1〜LS5を生成する。サブビームLS1〜LS5は、光線110を構成する。1つの実施形態では、光線110は、地面305に平行である。
本考案は、処理ユニット102の内部構造を限定するものではない。メインビームを複数のサブビームに処理できる構造であれば、処理ユニット102となることができる。図4に示されるように、処理ユニット102は、固定ベース301と鏡302を含む。鏡302は、傾斜角度を有し、固定ベース301の中心に結合される。本考案は、鏡302の傾斜角度の大きさを限定するものではない。1つの実施形態では、鏡302の傾斜角度は約45°である。もう1つの実施形態では、図4に示されるように、鏡302の傾斜角度を制御することによって、光線110の照射方向を、例えば地面305に向けたり、または移動ロボット100の前方に向けたりして制御することができる。
本実施例では、制御ユニット105は、固定ベース301を回転させることができる。よって、鏡302は、メインビームLを異なる方向に反射し、その中の異なる方向に延伸する反射光がサブビームと呼ばれる。また、鏡302によって生成された反射光は光線110を構成することができる。この例では、鏡302は、順次に異なる方向の反射光を生成する。即ち、鏡302によって生成された複数のサブビームは同時に生成されない。
光学部品103は、ケースの情報に設置され、反射光を受ける。本考案は、光学部品103及び処理ユニット102の間の距離を限定するものではない。本考案において、光学部品103は、光線110の照射範囲内に配置されなければよい。他の実施形態では、光学部品103と処理ユニット102との間の距離が大きいほどより正確な領域の奥行き情報を得ることができる。
画像検出ユニット104は、ケース300の中に設置され、光学部品103の真下に配置され、光学部品103によって生成された収集ビームを検出する。制御ユニット105は、画像検出ユニット104の検出結果に基づいて、制御信号SC1を生成する。移動ユニット106のドライバ303は、制御信号SC1に基づいてホイール304の回転方向を制御する。説明を容易にするために、図4は、単一のホイールのみを表しているが、本考案を限定するものではない。他の実施形態では、移動ロボット100は、複数のホイールを有する。本実施形態では、ホイール304は、ケース300から露出し、ケース300の下方に配置される。
他の実施形態では、円錐状の鏡(不図示)を用いて図4に示す鏡302に取って代わることができる。円錐鏡は、メインビームLに基づいて複数の反射ビームを生成することができ、且つ異なる反射ビームが異なる方向に延伸するため、制御ユニット105は固定ベースを回転する必要がない。よって、この場合には、固定ベース301を省略できる。ちなみに、円錐状の鏡面は複数の反射ビームを同時に生成することができる。
図5は、本考案の処理ユニットの一実施形態を示す概略図である。図5に示す移動ロボットは、処理ユニット102が屈折方式でメインビームLを処理する点を除き図4と同様の構成である。図5の処理ユニット102以外の構成要素の動作原理は、図4と同じであるため、ここでは詳述しない。本実施例では、処理ユニット102は、円柱状レンズ401を含む。円柱状レンズ401は、メインビームLを屈折させ、複数の分散ビームを生成し、当該分散ビームは異なる方向に延伸し、光線110を構成する。光線110は、発散角度、約120°を有する。1つの実施形態では、円柱状レンズ401は、当該発散ビームを同時に生成することができる。
もう1つの実施形態では、円柱状レンズ401の表面に一層の反射膜を塗布し、円柱状レンズ401の分散角を大きくする。また、発光ユニット101及び円柱状レンズ401の位置を調整することによって、光線110の照射方向を制御することができる。本実施例では、光線110は、移動ロボット100の前方に向けて照射する。
本考案は、反射膜を形成する方式を限定するものではない。1つの実施形態では、蒸着方式(deposition)によって円柱状レンズ401の表面に反射膜を形成することができる。また、反射膜は円柱状レンズ401の表面上に均一または不均一に形成することができる。例えば、円柱状レンズ401の表面は、第1領域及び第2領域を有する。当該第1領域は第1反射膜を有し、当該第2領域は第2反射膜を有する。他の実施形態では、円柱状レンズ401の表面上の反射膜の厚さは、当該円柱状レンズ401のもう1つの表面上の反射膜の厚さと異なるかまたは同じである。
図6は、本考案の処理ユニットの別の実施形態を示す概略図である。図6に示す移動ロボットは、処理ユニット102が回折方式でメインビームLを処理する点を除き図4と同様の構成である。図6の処理ユニット102以外の構成要素と図4は、同じであるため、ここでは詳述しない。本実施例では、処理ユニット102は、格子レンズ501を含む。当該格子レンズ501は、メインビームLを複数のサブビームに回折させる特定のパターン(不図示)を有する。この場合には、格子レンズ501は、当該サブビームを同時に生成する。
図4〜6では、移動ロボット100は、光線110を生成する単一の処理ユニット102のみを有するが本考案はこれらに限定されるものではない。1つの実施形態では、処理ユニット108を図4〜6で示された移動ロボット100の中に加え、光線120を生成することができる。発光ユニット101及び処理ユニット102と108の設置位置を調整することによって、光線110または120の照射方向を、例えば移動ロボット100の前方または下方に向けるように制御することができる。
他の実施形態では、移動ロボット100は、2つの発光ユニット及び2つの処理ユニットを有する。この場合、2つの処理ユニットは、異なる発光ユニットによって生成されたメインビームを処理することができる。もう1つの実施形態では、移動ロボット100は、2つの発光ユニット及び1つの処理ユニットを有することができる。この場合、処理ユニットは、異なる発光ユニットによって生成されたメインビームに基づいて異なる方向の光線を提供する。また、2つの発光ユニットは、メインビームを同時または非同時に発することができる。
特に定義されなければ、本明細書で使用されるすべての用語(技術的及び科学的用語を含む)は、この考案が属する技術分野の当業者によって一般的に理解されるのと同じ意味を有している。さらに理解されることであろうが、一般に使用される辞書で定義されているような用語は、関連した技術分野の文脈におけるその意味と一致した意味を持つものとして解釈されるべきであり、本明細書で明確にそのように定義されない限り、理想化された又は過度に形式的な意味で解釈されない。
この考案は、実施形態の方法及び望ましい実施の形態によって記述されているが、これらを限定するものではない。逆に、種々の変更及び同様の配置をカバーするものである(当業者には明白なように)。よって、添付の実用新案登録請求の範囲は、最も広義な解釈が与えられ、全てのこのような変更及び同様の配置を含むべきである。
本考案に係る移動ロボットを採用することにより、迅速且つ効果的に領域の奥行きを検出することが出来る。従って、本考案に係る移動ロボットは、あらゆる環境で好適に用いることができる。
100、100’ 移動ロボット
101 発光ユニット
102、108 処理ユニット
103 光学部品
104 画像検出ユニット
105 制御ユニット
106 移動ユニット
110、120 光線
201、202 境界
203 角度
300 ケース
301 固定ベース
302 鏡
303 ドライバ
304 ホイール
401 円柱状レンズ
501 格子レンズ
メインビーム
S1〜LS5 サブビーム
R1〜LR4 環境反射ビーム
DT1、SDT2 収集ビーム
IFM、IFM 検出結果
C1〜SC1 制御信号
S6〜LS10 検出ビーム
R5〜LR8 路面反射ビーム

Claims (22)

  1. 領域の奥行きを検出可能な移動ロボットであって、
    メインビームを発する発光ユニットと、
    当該メインビームを処理し、当該領域を覆う光線を構成する複数のサブビームを生成する処理ユニットと、
    当該複数のサブビームの一部が第1物体を照射して当該第1物体が複数の環境反射ビームを生成したときに、当該環境反射ビームを受けて第1収集ビームを生成する光学部品と、
    当該第1収集ビームに基づいて第1検出結果を生成する画像検出ユニットと、
    当該第1検出結果に基づいて当該領域の奥行き情報を生成する制御ユニットと、
    当該奥行き情報に基づき当該移動ロボットの関連動作を制御して当該移動ロボットを動かす移動ユニットとを含むことを特徴とする移動ロボット。
  2. 前記光線は、地面に平行である請求項1に記載の移動ロボット。
  3. 前記処理ユニットは、地面に向けて前記サブビームを発するものである請求項1に記載の移動ロボット。
  4. 前記処理ユニットは、第1処理ユニットと第2処理ユニットとからなり、当該第1処理ユニット及び第2処理ユニットは、前記メインビームに基づいて複数の検出ビームを生成し、当該第1処理ユニットが地面に向けて当該検出ビームを発し、当該第2処理ユニットが地面に平行に当該検出ビームを発するものである請求項1に記載の移動ロボット。
  5. 前記複数の検出ビームの一部が第2物体を照射して当該第2物体が複数の路面反射ビームを生成したときに、前記光学部品が当該路面反射ビームを受けて第2収集ビームを生成し、前記画像検出ユニットが当該第2収集ビームに基づいて第2検出結果を生成し、前記制御ユニットが当該第2検出結果に基づいて前記領域の第2奥行き情報を生成し、前記移動ユニットによって移動ロボットの関連動作を調整するものである請求項4に記載の移動ロボット。
  6. 前記光線は、平面光線または曲線光線である請求項1に記載の移動ロボット。
  7. 前記サブビームは、順次に生成するものである請求項1に記載の移動ロボット。
  8. 前記サブビームは、同時に生成するものである請求項1に記載の移動ロボット。
  9. 前記処理ユニットは、前記メインビームを反射して前記サブビームを生成するものである請求項1に記載の移動ロボット。
  10. 前記処理ユニットは、
    前記制御ユニットにより回転する固定ベースと、
    当該固定ベースに結合して前記メインビームを反射する鏡とを含む請求項9に記載の移動ロボット。
  11. 前記鏡は、円錐鏡である請求項10に記載の移動ロボット。
  12. 前記処理ユニットは、前記メインビームを屈折させて前記サブビームを生成するものである請求項1に記載の移動ロボット。
  13. 前記処理ユニットは、前記メインビームを屈折させる円柱状レンズを含む請求項12に記載の移動ロボット。
  14. 前記円柱状レンズは、第1領域及び第2領域からなる表面を備え、当該第1領域は第1反射膜を有し、当該第2領域は第2反射膜を有し、当該第1反射膜の厚さが当該第2反射膜の厚さと同じである請求項13に記載の移動ロボット。
  15. 前記円柱状レンズは、第1領域及び第2領域からなる表面を備え、当該第1領域は第1反射膜を有し、当該第2領域は第2反射膜を有し、当該第1反射膜の厚さが当該第2反射膜の厚さと同じでない請求項13に記載の移動ロボット。
  16. 前記円柱状レンズは、反射膜を有する表面を備え、当該反射膜を蒸着方式によって形成したものである請求項13に記載の移動ロボット。
  17. 前記処理ユニットは、前記メインビームを回折させて前記サブビームを生成するものである請求項1に記載の移動ロボット。
  18. 前記処理ユニットは、前記メインビームを回折させる格子レンズを含む請求項17に記載の移動ロボット。
  19. 前記発光ユニットは、レーザーエミッタを含む請求項1に記載の移動ロボット。
  20. 前記光線は、線状の光線である請求項1に記載の移動ロボット。
  21. 前記制御ユニットは、前記奥行き情報に基づいて少なくとも1つの所定の関連動作の中から前記移動ロボットの関連動作となるものを選択するか、または前記奥行き情報及びランダムな方式に基づいて前記移動ロボットの関連動作を決めるか、または前記奥行き情報及び制御命令に基づいて前記移動ロボットの関連動作を決め、当該制御命令がユーザーによって直接または間接方式で設定されるものである請求項1に記載の移動ロボット。
  22. 前記移動ロボットは、前記所定の関連動作に基づいて、直線移動、障害物に沿って移動、ランダム方向に移動、点に沿って回転、渦巻き状に回転、進行しながら回転、加速、減速、後進、または停止するものである請求項21に記載の移動ロボット。
JP2013005414U 2013-04-26 2013-09-19 移動ロボット Expired - Lifetime JP3187472U (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310159582.3 2013-04-26
CN201310159582.3A CN104117987B (zh) 2013-04-26 2013-04-26 移动机器人

Publications (1)

Publication Number Publication Date
JP3187472U true JP3187472U (ja) 2013-11-28

Family

ID=50182213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005414U Expired - Lifetime JP3187472U (ja) 2013-04-26 2013-09-19 移動ロボット

Country Status (4)

Country Link
US (1) US9052720B2 (ja)
JP (1) JP3187472U (ja)
CN (1) CN104117987B (ja)
DE (1) DE202014100346U1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531272A (ja) * 2014-09-03 2017-10-19 ダイソン・テクノロジー・リミテッド 移動式ロボット
US11644844B2 (en) 2018-06-19 2023-05-09 Panasonic Intellectual Property Management Co., Ltd. Mobile robot

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202353B1 (en) * 2013-03-14 2015-12-01 Toyota Jidosha Kabushiki Kaisha Vibration modality switching system for providing navigation guidance
GB2529847B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
US9886035B1 (en) * 2015-08-17 2018-02-06 X Development Llc Ground plane detection to verify depth sensor status for robot navigation
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
US11726490B1 (en) 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
DE102017205195A1 (de) * 2016-07-28 2018-02-01 Robert Bosch Gmbh Laserentfernungsmessgerät
JP2020509500A (ja) 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
CN107097122A (zh) * 2017-06-27 2017-08-29 长春工程学院 一种自主研磨大型自由曲面的机器人
CN107726977A (zh) * 2017-09-26 2018-02-23 京东方科技集团股份有限公司 一种位置检测机构及位置检测方法
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
CA3117300C (en) 2018-10-22 2024-04-02 Sharkninja Operating Llc Docking station for robotic cleaner
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
SE544524C2 (en) * 2019-12-06 2022-06-28 Husqvarna Ab Robotic work tool system and method for defining a working area perimeter
SE2051496A1 (en) * 2020-12-18 2022-06-19 Husqvarna Ab Concrete surface processing machines, systems, and methods for processing concrete surfaces
US20240061439A1 (en) * 2020-12-18 2024-02-22 Husqvarna Ab Concrete surface mapping robots, systems, and methods for processing concrete surfaces

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231477A (ja) * 2005-02-25 2006-09-07 Mitsubishi Heavy Ind Ltd 移動体における距離検出手段の校正方法
KR100704485B1 (ko) * 2005-07-22 2007-04-10 엘지전자 주식회사 이동체 인도 시스템
TWM294508U (en) * 2005-12-27 2006-07-21 Supply Internat Co Ltd E Self-moving device with obstacle-detecting function
US8242384B2 (en) * 2009-09-30 2012-08-14 International Business Machines Corporation Through hole-vias in multi-layer printed circuit boards
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
EP2494900B1 (en) * 2011-03-04 2014-04-09 Samsung Electronics Co., Ltd. Debris detecting unit and robot cleaning device having the same
US9239389B2 (en) * 2011-09-28 2016-01-19 Samsung Electronics Co., Ltd. Obstacle sensor and robot cleaner having the same
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
CN102727133B (zh) * 2012-06-28 2014-10-15 柯约瑟 全自动位移清洁装置的移位运作装置
US9483055B2 (en) * 2012-12-28 2016-11-01 Irobot Corporation Autonomous coverage robot
CN203650524U (zh) * 2013-04-26 2014-06-18 恩斯迈电子(深圳)有限公司 移动机器人

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531272A (ja) * 2014-09-03 2017-10-19 ダイソン・テクノロジー・リミテッド 移動式ロボット
US11644844B2 (en) 2018-06-19 2023-05-09 Panasonic Intellectual Property Management Co., Ltd. Mobile robot

Also Published As

Publication number Publication date
US9052720B2 (en) 2015-06-09
CN104117987A (zh) 2014-10-29
US20140324270A1 (en) 2014-10-30
DE202014100346U1 (de) 2014-02-12
CN104117987B (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
JP3187472U (ja) 移動ロボット
CA3012691C (en) Lidar based 3-d imaging with far-field illumination overlap
US10591602B2 (en) Object detector and sensor
US20210311171A1 (en) Improved 3d sensing
JP6866048B2 (ja) 光電センサ及び監視領域内の物体の検出方法
US10061021B2 (en) Clutter filter configuration for safety laser scanner
JP5668207B2 (ja) 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置
US20150253428A1 (en) Determining positional information for an object in space
CN116430401A (zh) 具有目标视场的三维lidar系统
KR101840116B1 (ko) 고속 감지 회전형 라이더 센서 시스템
US11879998B2 (en) Mirror assembly
JP6748984B2 (ja) 距離計測装置及び移動体
JPWO2018143093A1 (ja) 計測装置
JP6246690B2 (ja) 移動体、計測装置及び計測方法
TW202131015A (zh) 距離畫像的作成裝置
US20220404502A1 (en) Laser radar
JP6323731B2 (ja) 偏光マーカーを使った非接触制御方法およびそれを実現するための複合体
US20230008801A1 (en) Increased lidar aperture with refractive optical element
WO2018143092A1 (ja) 計測装置
WO2021079559A1 (ja) 距離画像の作成装置
JP7281671B2 (ja) 複眼式人体検知装置
JP7417661B2 (ja) 光電センサ及び物体検出方法
JP6870456B2 (ja) レーザ走査装置
JP2023128023A (ja) 測距装置
JP2021099255A (ja) 情報処理装置、および、情報処理システム

Legal Events

Date Code Title Description
R150 Certificate of patent or registration of utility model

Ref document number: 3187472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term