JP7326578B2 - ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボット - Google Patents

ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボット Download PDF

Info

Publication number
JP7326578B2
JP7326578B2 JP2022500753A JP2022500753A JP7326578B2 JP 7326578 B2 JP7326578 B2 JP 7326578B2 JP 2022500753 A JP2022500753 A JP 2022500753A JP 2022500753 A JP2022500753 A JP 2022500753A JP 7326578 B2 JP7326578 B2 JP 7326578B2
Authority
JP
Japan
Prior art keywords
robot
virtual wall
point
preliminary determination
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022500753A
Other languages
English (en)
Other versions
JP2022542006A (ja
Inventor
剣鋒 戴
欽偉 頼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Amicro Semiconductor Co Ltd
Original Assignee
Zhuhai Amicro Semiconductor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Amicro Semiconductor Co Ltd filed Critical Zhuhai Amicro Semiconductor Co Ltd
Publication of JP2022542006A publication Critical patent/JP2022542006A/ja
Application granted granted Critical
Publication of JP7326578B2 publication Critical patent/JP7326578B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/225Remote-control arrangements operated by off-board computers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、スマートロボットの分野に関し、具体的には、ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボットに関する。
従来の掃除ロボットが、清掃すべきではない一部の領域に誤って入ることを回避するために、一般的に、赤外信号を生成する仮想壁送信機を該領域の入口に設ける。ロボットは、該赤外信号を検出すると、前進し続けることを停止し、それにより、該領域に入ることを止める。この方法は、さらなる仮想壁送信機を提供する必要があるため、ハードウェアコストが増加してしまう。現在、あるメーカーは、仮想壁を設定する方法を用い、ロボットによって作成された地図における、対応する清掃すべきではない領域の入口に1本の仮想線を書き、ロボットが仮想線に対応する地図における座標位置に基づいて、対応する位置を仮想壁として設定し、ロボットが該仮想壁に対応する座標位置に移動すると、前進を停止したり、又は、Uターンして転舵したりし、それにより、止める効果を実現する。この方法は、仮想壁送信機に比べて、ハードウェアコストを節約したが、走行誤差などの原因により、ロボットが仮想壁を正確に検出できなくなり、仮想壁の止め効果に影響を与えてしまう。
本発明は、ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボットを提供し、ロボットが仮想壁に衝突したか否かを判断する正確度を向上させることができる。本発明の前記具体的な技術案は、以下のとおりである。
ロボットが仮想壁に衝突したか否かを判断する方法であって、ロボットによって作成された地図に基づいて、仮想壁を設定するステップと、仮想壁を中心線として、仮想壁の両側に予備判断領域を設定するステップと、ロボットの現在の位置が前記予備判断領域にあるか否かを判断するステップと、ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断し、且つロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断し、両方ともにYESである場合、ロボットが仮想壁に衝突したと判断し、NOである場合、ロボットが仮想壁に衝突していないと判断するステップとを含み、前記対照点は、ロボットと仮想壁の同一側に位置する、仮想壁の中心点からの垂直距離が所定の長さである座標位置点である。
さらに、ロボットによって作成された地図に基づいて、仮想壁を設定する前記ステップは、具体的には、スマートモバイル端末がロボットによって作成された地図情報を受信し、前記地図情報をスクリーンを介して表示させるステップと、前記スマートモバイル端末が仮想壁を設定した信号を検出し、スクリーン上のタッチ信号を仮想壁に変換して、スクリーンに表示された地図に表示させるステップと、前記スマートモバイル端末が、仮想壁が設定された地図情報をロボットに伝送するステップとを含む。
さらに、仮想壁を中心線として、仮想壁の両側に予備判断領域を設定する前記ステップは、具体的には、仮想壁の傾き角度及び仮想壁の中心点の座標を決定するステップと、仮想壁の中心点を基準点として仮想壁を座標系の原点に平行移動し、前記傾き角度だけ回転させ、仮想壁を座標系のX軸上に置くステップと、X軸上の仮想壁を中間線として、所定の高さで1つの矩形領域を画定して予備判断領域とするステップと、を含む。
さらに、ロボットの現在の位置が前記予備判断領域にあるか否かを判断する前記ステップは、具体的には、ロボットの現在の位置の座標点を決定するステップと、現在の位置の座標点に対して、仮想壁に対応する平行移動及び回転を行うステップと、平行移動及び回転をした座標点のX値が前記予備判断領域の最小X値よりも大きく、かつ前記予備判断領域の最大X値よりも小さいか否かを判断するとともに、平行移動及び回転をした座標点のY値が前記予備判断領域の最小Y値よりも大きく、かつ前記予備判断領域の最大Y値よりも小さいか否かを判断するステップと、両方ともにYESである場合、ロボットの現在の位置が前記予備判断領域にあると判断し、NOである場合、ロボットの現在の位置が前記予備判断領域外にあると判断するステップとを含む。
さらに、ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断する前記ステップは、具体的には、ロボットが、現在、前記予備判断領域にあると判断するステップと、ロボットが、平行移動及び回転をした後の前進方向が平行移動及び回転をした後の仮想壁に交差するか否かを判断し、交差する場合、ロボットの現在の方向が仮想壁に向かっていると判断し、交差していない場合、ロボットの現在の方向が仮想壁に向かっていないと判断するステップとを含む。
さらに、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断するステップは、具体的には、ロボットが位置する仮想壁の一側を基準側として決定するステップと、仮想壁の基準側に位置し、且つ仮想壁の中心点からの垂直距離が所定の長さである座標位置点を対照点として決定するステップと、ロボットと対照点との間の直線距離を第1距離として決定するステップと、対照点と仮想壁の中心点との間の直線距離を第2距離として決定するステップと、前記第1距離が前記第2距離以上であるか否かを判断し、以上である場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であると判断し、以上ではない場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以下であると判断するステップとを含む。
チップは、プログラム命令を記憶するように構成されており、前記プログラム命令は、ロボットを制御して、上記のロボットが仮想壁に衝突したか否かを判断する方法を実行させる。
スマートロボットは、マスターチップを含んでおり、前記マスターチップは、上記チップである。
前記ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボットは、仮想壁の両側に予備判断領域を設定することにより、ロボットが予備判断領域に入った場合、ロボットの現在の方向、及びロボットと対照点との間の直線距離及び対照点と仮想壁の中心点との間の直線距離の関係を組み合わせることで、ロボットが仮想壁に衝突したか否かを正確に判断することができ、外部環境の干渉を受けにくく、エラー判断の状況が発生することがなく、正確度が非常に高い。
本発明の実施例に記載のロボットが仮想壁に衝突したか否かを判断する方法のプロセス模式図である。 本発明の実施例に記載のロボットが仮想壁に衝突した分析模式図である。 本発明の実施例に記載のロボットが仮想壁に衝突していない分析模式図である。 本発明の実施例に記載の仮想壁が平行移動及び回転を行う分析模式図である。
以下、本発明の実施例における図面を組み合わせて、本発明の実施例における技術案について詳細に説明する。以下に説明された具体的な実施例は、本発明を解釈するためのものに過ぎず、本発明を限定するためのものではない。以下の説明では、実施例についての完全な理解を提供するために、具体的な詳細が与えられる。しかし、当業者は、実施例がこれらの具体的な詳細なしで実施され得ることを理解できる。たとえば、回路は、不必要な詳細により、実施例を曖昧にすることを回避するために、ブロック図に示され得る。他の場合には、実施例を曖昧にしないために、周知の回路、構造及び技術が詳細に示されなくてもよい。
図1に示すロボットが仮想壁に衝突したか否かを判断する方法では、該方法の実行主体は、ロボットのプロセッサ又は制御チップであり、説明上の便宜のために、ロボットとして直接説明される。前記ロボットは、掃除ロボット、モップロボット、空気浄化ロボット、物流ロボット、草刈りロボット、商業サービスロボットなどであってもよい。前記方法は、具体的には、以下のステップを含む。先ず、ロボットが走行する際に作成した地図に基づいて、仮想壁を設定する。作成された地図は、格子地図、ドット地図、パッチ地図又は他の種類の地図であってもよく、作成された地図は、ロボットが現在位置する環境状況を反映することができる。本発明の各実施例は、いずれも格子地図を例として説明する。仮想壁の設定は、異なる方法を用いることができ、例えば、制御ロボットは、仮想壁を設定すべき位置を1回走行し、走行する際の座標位置及び方向を記録し、これらの座標位置を仮想障害ユニットとしてマークし、これらの仮想障害ユニットは、前記仮想壁を構成する。前記仮想障害ユニットとは、ロボットが実際に正常に走行して通過できるが、地図に基づいてナビゲーション走行する場合、走行して通過できない格子ユニットを意味する。又は、ユーザーは、地図の表示端末において直接動作し、マウス又はタッチにより、対応する位置に線を書き、線書き位置に対応する格子ユニットは、仮想壁としてマークされた格子ユニットである。前記格子ユニットは、格子地図を構成する最小のセルである。次に、ロボットは、仮想壁を中心線として、仮想壁の両側に予備判断領域を設定し、すなわち、ロボットが仮想壁に衝突する可能性があるか否かを予備判断する領域を仮想壁の周囲に画定し、該予備判断領域に入った場合のみ、ロボットが仮想壁に衝突する可能性があり、該予備判断領域範囲内に位置しない場合、ロボットが仮想壁に衝突することがない。そして、ロボットは、走行中に、現在の位置が前記予備判断領域にあるか否かをリアルタイムに検出して判断する。ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断し、それとともに、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断する。ロボットの現在の方向とは、ロボットの現在の前進方向である。前記対照点は、ロボットと仮想壁の同一側に位置する、仮想壁の中心点からの垂直距離が所定の長さである座標位置点である。前記所定の長さは、具体的な研究要求に基づいて設定され、例えば、10メートル、100メートル又は1000メートルなどに設定され、設定される値が大きいほど、仮想壁に衝突することを検出する正確度が高い。ロボットの現在の前進方向が仮想壁に向かっている場合、ロボットが現在の方向に前進し続けると、仮想壁に衝突する可能性があることが示され、ロボットの現在の前進方向が仮想壁に向かっていない又は仮想壁と反対である場合、ロボットが現在の方向に前進し続けると、仮想壁に衝突することがないことが示される。ロボットが仮想壁に向かって走行する場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であることをさらに検出すると、ロボットが仮想壁の位置まで走行し、仮想壁に衝突したことが示され、ロボットがすぐに前進を停止し、方向を変えて離れる必要があり、仮想壁を通過して、ユーザーにより制限された領域に誤って入ることを回避する必要がある。ロボットが仮想壁に向かって走行する場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離より小さいことをさらに検出すると、ロボットが仮想壁からさらに所定の距離離れ、仮想壁に衝突していないことが示され、ロボットが仮想壁に衝突するまで現在の方向に沿って走行し続けることができる。本実施例に記載の方法は、仮想壁の両側に予備判断領域を設定し、ロボットが予備判断領域に入った場合、ロボットの現在の方向、及びロボットと対照点との間の直線距離と、対照点と仮想壁の中心点との間の直線距離との関係を組み合わせることで、ロボットが仮想壁に衝突したか否かを正確に判断することができ、外部環境により干渉されにくく、エラー判断の状況が発生することがなく、正確度が非常に高い。
具体的には、図2に示すように、最も太い黒色線は、仮想壁20を表し、0点は、仮想壁20の中心点である。ABCDでマークされた矩形領域は、予備判断領域を表す。Pでマークされた位置点は、対照点であり、ロボット10及び対照点Pは、いずれも仮想壁20の右側に位置する。ロボット10は、このとき、予備判断領域ABCD内に位置し、矢印方向に沿って仮想壁に向かって前進し、前進しながら、対照点Pとの距離PRが0点と対照点Pとの距離P0以上であるか否かを判断する。ロボット10は、PR≧P0の場合、仮想壁20に衝突したと判断し、PRがP0よりも小さい場合、仮想壁20に衝突していないと判断する。図3に示すように、このとき、ロボット10は、前進方向を調整し、矢印で指示された、仮想壁20から離れる方向に沿って走行すれば、仮想壁20に衝突することがない。
1つの実施の形態としては、ロボットによって作成された地図に基づいて、仮想壁を設定する前記ステップは、具体的には、以下のステップを含む。先ず、スマートモバイル端末がロボットによって作成された地図情報を受信し、前記地図情報をスクリーンを介して表示させる。前記スマート端末は、スマートフォン又はタブレットPCなどのスマート機器を含む。ロボットは、スマート端末とwifiを介して無線通信を行い、走行中に作成した地図データをスマート端末に送信し、スマート端末は、該データを受信して自体のスクリーンを介して、対応する地図情報を表示させる。ユーザーは、これらの地図情報によって、どこが壁であるか、どこが通路であるか、どこが部屋の入り口であるかなどを直感的に見ることができる。次に、スマート端末は、ユーザーから入力された、仮想壁を設定した信号を検出すると、仮想壁設定モードに入る。該モードで、スマート端末は、ユーザーのスクリーン上のタッチ信号を検出し、スクリーン上のタッチ信号を仮想壁に変換して、スクリーンに表示された地図に表示させる。このようにして、ユーザーは、設定された仮想壁を直感的に見ることができる。前記仮想壁は、地図に表示され、一本の線分で示される。ユーザーが、必要とされた位置に仮想壁を設定すると、前記スマートモバイル端末は、仮想壁が設定された地図情報をロボットに伝送し、このとき、ロボットは、該地図情報を分析することで、現在の環境において、仮想壁が設けられた、通過できない位置を把握することができる。本実施例に記載の方法は、スマート端末を介して仮想壁を設定することで、ユーザーが動作しやすく、直感的かつ迅速であり、ユーザーの製品使用エクスペリエンスを向上させることに有利である。
1つの実施の形態としては、仮想壁を中心線として、仮想壁の両側に予備判断領域を設定する前記ステップは、具体的には、以下のステップを含む。先ず、ロボットは、仮想壁の傾き角度及び仮想壁の中心点の座標を決定する。図4に示すように、XY座標系は、地図の座標系であり、線分a1b1は、地図に設けられた仮想壁を表す。仮想壁a1b1の傾き角度は、θであり、仮想壁とX軸との角度である。仮想壁a1b1の中心点piの座標は(px1,py1)、a1点の座標は(ax1,ay1)、b1点の座標は(bx1,by1)である。次に、図における線分a2b2に示すように、ロボットは、仮想壁の中心点を基準点として仮想壁を座標系の原点に平行移動し、前記傾き角度だけ回転させ、仮想壁を座標系のX軸に置く。仮想壁の各点の座標は変わり、a1点はa2点に変わり、座標が(ax2,ay2)に変わり、b1点はb2点に変わり、座標が(bx2,by2)に変わり、pi点はp2点に変わり、座標が(px2,py2)に変わる。仮想壁座標の平行移動及び回転は、現在の座標の平行移動及び回転の式を参照して演算することができ、ここで繰り返し説明しない。そして、ロボットは、X軸における仮想壁を中間線として、所定の高さで矩形領域を予備判断領域として画定する。前記所定の高さは、研究開発の設計要求に基づいて対応して設定され、一般的に10個の格子ユニットの高さに設定され得る。図4における破線ブロックvlv2v3v4でマークされた領域は、予備判断領域である。本実施例に記載の方法は、仮想壁を座標軸に平行移動して回転することで、ロボットが予備判断領域に入ったか否かを判断する後続の演算を簡略化し、ロボットの演算効率及び判断速度を向上させ、ロボットの反応能力をさらに向上させることができる。
1つの実施の形態としては、前記ロボットの現在の位置が前記予備判断領域にあるか否かを判断するステップは、具体的には、以下のステップを含む。先ず、ロボットは、その現在の位置の座標点を決定する。次に、ロボットは、現在の位置の座標点に対して、仮想壁に対応する平行移動及び回転を行い、すなわち、ロボットの現在の座標点の平行移動量及び回転角度は、前の実施例に記載の仮想壁の平行移動量及び回転角度と同じである。具体的な座標の平行移動及び回転は、現在の座標の平行移動及び回転の式を参照して演算することができ、ここで繰り返し説明しない。次に、ロボットは、平行移動及び回転をした座標点のX値が前記予備判断領域の最小X値よりも大きく、かつ前記予備判断領域の最大X値よりも小さいか否かを判断し、YESである場合、ロボットが、このとき、予備判断領域のX軸座標範囲内に位置することが示され、また、平行移動及び回転をした座標点のY値が前記予備判断領域の最小Y値よりも大きく、かつ前記予備判断領域の最大Y値よりも小さいか否かを判断し、YESである場合、ロボットがこのとき、予備判断領域のY軸座標範囲内に位置することが示される。これによって、ロボットの現在の位置が前記予備判断領域にあると判断することができる。NOである場合、ロボットの現在の位置が前記予備判断領域外にあると判断する。本実施例に記載の方法は、ロボットの現在の座標を仮想壁に対応する座標系に平行移動して回転させることで、この後に、複雑な比較及び分析を行うことなく、X値及びY値が予備判断領域のXY範囲内にあるか否かを判断すれば、ロボットが予備判断領域に位置するか否かの結果を得ることができ、ロボットの演算リソースを大幅に簡略化し、ロボットの演算効率及び判断速度を向上させ、ロボットの反応能力をさらに向上させる。
1つの実施の形態としては、ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断する前記ステップは、具体的には、以下のステップを含む。ロボットは、上記実施例に記載の方法によって、現在、前記予備判断領域にあると判断した場合、まず、平行移動及び回転をした後の前進方向が平行移動及び回転をした後の仮想壁に交差するか否かを判断し、つまり、ロボットの現在の位置から、その前進方向に対応する直線が通った座標点が仮想壁における座標点と同じであるか否かを判断し、同じ座標点がある場合、ロボットの現在の方向が仮想壁に交差することが示され、ロボットの現在の方向が仮想壁に向かっていると判断する。同じ座標点がない場合、ロボットの現在の方向が仮想壁に向かっていないと判断する。本実施例に記載の方法は、ロボットの現在の位置を平行移動して回転して決定された前進方向が、平行移動及び回転をした仮想壁に交差するか否かを判断し、迅速に判断結論を得ることができ、複雑な演算を行うことなく、それにより、ロボットのデータ処理及び反応能力を大幅に向上させる。
1つの実施の形態としては、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断する前記ステップは、具体的には、以下のステップを含む。先ず、ロボット10は、位置する仮想壁20の一側を基準側として決定する。図2に示すように、ロボット10が仮想壁20の右側に位置し、仮想壁20の右側が基準側である。ロボット10が仮想壁20のどの側に位置するかを判断する方法は、地図において、仮想壁を対称線として、その両側の同じ距離の箇所に基準点を設定し、ロボットが2つの基準点との間の距離大きさを判断し、ロボットとの距離が短い、仮想壁の該基準点が位置する一側に位置することである。当然ながら、対照点も基準点とされてもよい。次に、ロボット10は、仮想壁20の基準側に位置した、仮想壁20の中心点からの垂直距離が所定の長さである座標位置点を対照点として決定する。図において、対照点Pと0点との直線距離の長さP0が所定の長さであり、P0の値は、製品の設計要求に基づいて対応して設定され、設定された値が大きいほど、仮想壁に衝突したか否かを判断する正確度が高くなり、一般的に1000個の格子ユニットの長さに設定され得る。そして、ロボット10は、現在の位置と対照点Pとの間の直線距離を第1距離PRとして決定する。ロボットは、対照点Pと仮想壁20の中心点との間の直線距離を第2距離P0として決定する。ロボット10は、前記第1距離PRが前記第2距離P0以上であるか否かを判断する。PR5≧P0の場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であると判断し、PR<P0の場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以下であると判断する。本実施例に記載の方法は、対照点を設定することにより、ロボットが仮想壁境界まで走行したか否かを正確に判断することができ、従来のロボットが仮想壁境界まで正確に走行できないため、ロボットと仮想壁との間の距離が広くなったり、又は、ロボットがそのまま仮想壁を乗り越えたりしてしまうという問題を克服し、ロボットと仮想壁との間の距離を制御する最適な効果を確保する。
チップは、プログラム命令を記憶するように構成されており、前記プログラム命令は、ロボットを制御して、以上のいずれかの実施例に記載のロボットが仮想壁に衝突したか否かを判断する方法を実行させる。前記チップは、ロボットが仮想壁の両側に予備判断領域を設定するように制御することにより、ロボットが予備判断領域に入った場合、ロボットの現在の方向、及びロボットと対照点との間の直線距離と、対照点と仮想壁の中心点との間の直線距離との関係を組み合わせることで、ロボットが仮想壁に衝突したか否かを正確に判断することができ、外部環境の干渉を受けにくく、エラー判断の状況が発生することがなく、正確度が非常に高い。
スマートロボットは、上記のチップのマスターチップを含む。前記スマートロボットは、仮想壁の両側に予備判断領域を設定し、予備判断領域に入った場合、ロボットの現在の方向、及びロボットと対照点との間の直線距離と、対照点と仮想壁の中心点との間の直線距離との関係を組み合わせることで、ロボットが仮想壁に衝突したか否かを正確に判断することができ、外部環境の干渉を受けにくく、エラー判断の状況が発生することがなく、正確度が非常に高い。
上記実施例で言及された「上」、「下」、「左」及び「右」などの方向用語は、特に明記されていない限り、図面における上下左右などの方向を意味する。特に明記される場合は、具体的な説明に基づいて定義される。例えば、ロボットの左側は、ロボットの前進方向の左側を意味し、図面の左側ではない。
当業者は、上記各方法の実施例を実現する全て又は一部のステップが、プログラムによって関連ハードウェアを指示することによって達成することができることを理解することができる。これらのプログラムは、コンピュータ読み取り可能な記憶媒体(例えばROM、RAM、磁気ディスクや光ディスクなど、プログラムコードを記憶できる様々な媒体)に記憶することができる。該プログラムは、実行されると、上記各方法の実施例を含むステップを実行する。なお、以上の各実施例は、本発明の技術案を説明するためのものに過ぎず、限定するためのものではないことに留意されたい。前述した各実施例を参照して、本発明について詳細に説明したが、当業者は、前述した各実施例に記載の技術案を修正したり、又は、一部又は全ての技術的特徴に対して、同等置換を行ったりすることができ、これらの修正や置換は、対応する技術案の本質を本発明の各実施例の技術案の範囲から逸脱させないことを理解すべきである。

Claims (7)

  1. ロボットによって作成された地図に基づいて、仮想壁を設定するステップと、
    仮想壁を中心線として、仮想壁の両側に予備判断領域を設定するステップと、
    ロボットの現在の位置が前記予備判断領域にあるか否かを判断するステップと、
    ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断し、且つロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断し、両方ともにYESである場合、ロボットが仮想壁に衝突したと判断し、少なくとも一方がNOである場合、ロボットが仮想壁に衝突していないと判断するステップとを含み、
    前記対照点は、ロボットと仮想壁の同一側に位置する、仮想壁の中心点からの垂直距離が所定の長さである座標位置点であり、
    仮想壁を中心線として、仮想壁の両側に予備判断領域を設定する前記ステップは、具体的には、
    仮想壁の傾き角度及び仮想壁の中心点の座標を決定するステップと、
    仮想壁の中心点を基準点として仮想壁を座標系の原点に平行移動し、前記傾き角度だけ回転させ、仮想壁を座標系のX軸上に置くステップと、
    X軸上の仮想壁を中間線として、所定の高さで1つの矩形領域を画定して予備判断領域とするステップとを含む、ことを特徴とするロボットが仮想壁に衝突したか否かを判断する方法。
  2. ロボットによって作成された地図に基づいて、仮想壁を設定する前記ステップは、具体的には、
    スマートモバイル端末がロボットによって作成された地図情報を受信し、前記地図情報をスクリーンを介して表示させるステップと、
    前記スマートモバイル端末が仮想壁を設定した信号を検出し、スクリーン上のタッチ信号を仮想壁に変換して、スクリーンに表示された地図に表示させるステップと、
    前記スマートモバイル端末が、仮想壁が設定された地図情報をロボットに伝送するステップと、を含む、ことを特徴とする請求項1に記載の方法。
  3. ロボットの現在の位置が前記予備判断領域にあるか否かを判断する前記ステップは、具体的には、
    ロボットの現在の位置の座標点を決定するステップと、
    現在の位置の座標点に対して、仮想壁に対応する平行移動及び回転を行うステップと、
    平行移動及び回転をした座標点のX値が前記予備判断領域の最小X値よりも大きく、かつ前記予備判断領域の最大X値よりも小さいか否かを判断するとともに、平行移動及び回転をした座標点のY値が前記予備判断領域の最小Y値よりも大きく、かつ前記予備判断領域の最大Y値よりも小さいか否かを判断するステップと、
    両方ともにYESである場合、ロボットの現在の位置が前記予備判断領域にあると判断し、少なくとも一方がNOである場合、ロボットの現在の位置が前記予備判断領域外にあると判断するステップとを含む、ことを特徴とする請求項1又は2に記載の方法。
  4. ロボットが前記予備判断領域にある場合、ロボットの現在の方向が前記仮想壁に向かっているか否かを判断する前記ステップは、具体的には、
    ロボットが、現在、前記予備判断領域にあると判断するステップと、
    ロボットが、平行移動及び回転をした後の前進方向が平行移動及び回転をした後の仮想壁に交差するか否かを判断し、交差する場合、ロボットの現在の方向が仮想壁に向かっていると判断し、交差していない場合、ロボットの現在の方向が仮想壁に向かっていないと判断するステップとを含む、ことを特徴とする請求項に記載の方法。
  5. ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であるか否かを判断する前記ステップは、具体的には、
    ロボットが位置する仮想壁の一側を基準側として決定するステップと、
    仮想壁の基準側に位置し、且つ仮想壁の中心点からの垂直距離が所定の長さである座標位置点を対照点として決定するステップと、
    ロボットと対照点との間の直線距離を第1距離として決定するステップと、
    対照点と仮想壁の中心点との間の直線距離を第2距離として決定するステップと、
    前記第1距離が前記第2距離以上であるか否かを判断し、以上である場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以上であると判断し、以上ではない場合、ロボットと対照点との間の直線距離が対照点と仮想壁の中心点との間の直線距離以下であると判断するステップとを含む、ことを特徴とする請求項に記載の方法。
  6. プログラム命令を記憶するチップであって、
    前記プログラム命令は、ロボットを制御して、請求項1~請求項のいずれか1項に記載のロボットが仮想壁に衝突したか否かを判断する方法を実行させる、ことを特徴とするチップ。
  7. マスターチップを含むスマートロボットであって、
    前記マスターチップは、請求項に記載のチップである、ことを特徴とするスマートロボット。
JP2022500753A 2019-07-23 2019-11-11 ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボット Active JP7326578B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910664399.6 2019-07-23
CN201910664399.6A CN110385719B (zh) 2019-07-23 2019-07-23 机器人判断是否碰撞虚拟墙的方法和芯片以及智能机器人
PCT/CN2019/117255 WO2021012501A1 (zh) 2019-07-23 2019-11-11 机器人判断是否碰撞虚拟墙的方法和芯片以及智能机器人

Publications (2)

Publication Number Publication Date
JP2022542006A JP2022542006A (ja) 2022-09-29
JP7326578B2 true JP7326578B2 (ja) 2023-08-15

Family

ID=68287003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022500753A Active JP7326578B2 (ja) 2019-07-23 2019-11-11 ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボット

Country Status (6)

Country Link
US (1) US12042108B2 (ja)
EP (1) EP3960391A4 (ja)
JP (1) JP7326578B2 (ja)
KR (1) KR102605746B1 (ja)
CN (1) CN110385719B (ja)
WO (1) WO2021012501A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110385719B (zh) * 2019-07-23 2020-08-28 珠海市一微半导体有限公司 机器人判断是否碰撞虚拟墙的方法和芯片以及智能机器人
CN111070212B (zh) * 2020-01-06 2021-06-01 中联恒通机械有限公司 随车机械手控制系统及方法
CN111240322B (zh) * 2020-01-09 2020-12-29 珠海市一微半导体有限公司 机器人移动限制框的工作起点确定方法及运动控制方法
CN113190009B (zh) * 2021-05-08 2024-05-07 珠海一微半导体股份有限公司 基于栅格地图的机器人曲线虚拟墙实现方法
CN113172630B (zh) * 2021-05-08 2022-10-14 珠海一微半导体股份有限公司 基于虚拟墙的机器人控制方法
KR20230011698A (ko) * 2021-07-14 2023-01-25 엘지전자 주식회사 이동 로봇
CN115033005A (zh) * 2022-08-10 2022-09-09 湖南朗国视觉识别研究院有限公司 一种地面清扫方法、扫地机器人以及存储介质
CN116473678B (zh) * 2023-06-21 2023-09-29 杭州键嘉医疗科技股份有限公司 一种虚拟墙引导末端执行器移动的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061293A (ja) 2008-09-02 2010-03-18 Toyota Motor Corp 経路探索装置、経路探索方法、及び経路探索プログラム
JP2015001450A (ja) 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
JP2016004471A (ja) 2014-06-18 2016-01-12 シャープ株式会社 自走式電子機器
JP2019071046A (ja) 2017-08-31 2019-05-09 ネイト ロボティクス,インコーポレイテッド ロボット仮想境界線
WO2019106714A1 (ja) 2017-11-28 2019-06-06 株式会社自律制御システム研究所 無人航空機、無人航空機の飛行制御装置、無人航空機の飛行制御方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021267B1 (ko) * 2010-09-20 2011-03-11 주식회사 모뉴엘 청소로봇 시스템 및 그 제어 방법
KR20140045025A (ko) 2012-10-08 2014-04-16 송세경 가상벽을 이용하는 이동형 로봇 및 이동형 로봇의 이동 방법
TWI533101B (zh) * 2015-01-23 2016-05-11 cheng-xiang Yan System and Method of Restricting Robot Action
CN106774294A (zh) * 2015-11-20 2017-05-31 沈阳新松机器人自动化股份有限公司 一种移动机器人虚拟墙设计方法
KR20170077756A (ko) * 2015-12-28 2017-07-06 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
CN106272420B (zh) 2016-08-30 2019-07-02 北京小米移动软件有限公司 机器人及机器人控制方法
US9797247B1 (en) * 2016-11-21 2017-10-24 Caterpillar Inc. Command for underground
KR102235270B1 (ko) * 2017-01-18 2021-04-01 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
CN106997202A (zh) 2017-03-24 2017-08-01 上海思岚科技有限公司 通过移动应用程序设置虚拟墙的实现方法
CN106843230B (zh) * 2017-03-24 2019-11-19 上海思岚科技有限公司 应用于移动设备的虚拟墙系统及其实现方法
CN108803589A (zh) 2017-04-28 2018-11-13 深圳乐动机器人有限公司 机器人虚拟墙系统
KR102024092B1 (ko) * 2017-07-12 2019-09-23 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
KR102021834B1 (ko) * 2017-07-12 2019-09-17 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
KR102070068B1 (ko) * 2017-11-30 2020-03-23 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR101998397B1 (ko) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 작업 공간 모델링에서 뎁스 이미지를 이용한 버텍스 최적화 방법 및 시스템
CN109602341B (zh) * 2019-01-23 2020-09-15 珠海市一微半导体有限公司 一种基于虚拟边界的清洁机器人跌落控制方法及芯片
CN109947094B (zh) * 2019-01-31 2020-06-09 科沃斯机器人股份有限公司 行进方法、自移动设备及存储介质
CN110385719B (zh) 2019-07-23 2020-08-28 珠海市一微半导体有限公司 机器人判断是否碰撞虚拟墙的方法和芯片以及智能机器人

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061293A (ja) 2008-09-02 2010-03-18 Toyota Motor Corp 経路探索装置、経路探索方法、及び経路探索プログラム
JP2015001450A (ja) 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
JP2016004471A (ja) 2014-06-18 2016-01-12 シャープ株式会社 自走式電子機器
JP2019071046A (ja) 2017-08-31 2019-05-09 ネイト ロボティクス,インコーポレイテッド ロボット仮想境界線
WO2019106714A1 (ja) 2017-11-28 2019-06-06 株式会社自律制御システム研究所 無人航空機、無人航空機の飛行制御装置、無人航空機の飛行制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2021012501A1 (zh) 2021-01-28
US12042108B2 (en) 2024-07-23
EP3960391A4 (en) 2022-06-22
CN110385719A (zh) 2019-10-29
KR102605746B1 (ko) 2023-11-23
KR20210119512A (ko) 2021-10-05
EP3960391A1 (en) 2022-03-02
US20220211240A1 (en) 2022-07-07
JP2022542006A (ja) 2022-09-29
CN110385719B (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
JP7326578B2 (ja) ロボットが仮想壁に衝突したか否かを判断する方法及びチップ、並びにスマートロボット
US10866587B2 (en) System, method, and computer program for mobile body management
CN111693050A (zh) 基于建筑信息模型的室内中大型机器人导航方法
CN112558607A (zh) 单舵轮agv车自动校准的方法、装置及设备
JP2017502369A (ja) 移動体の制御方法、装置及び移動デバイス
CN205121338U (zh) 基于图像识别与无线网络的agv导航系统
CN109213363B (zh) 预测指示器触摸位置或确定3d空间中指向的系统和方法
WO2020215711A1 (zh) 一种基站位置坐标的确定方法、装置、设备及存储介质
US9262069B2 (en) Control device having an input display for detecting two touch points
CN109910008B (zh) 用于数据型激光雷达机器人的避障预警系统和预警方法
US20230095552A1 (en) Map construction method, robot and medium
CN111891922A (zh) 一种起重机作业实时导航系统及方法
CN105653177A (zh) 终端设备界面的可点击元素的选择方法和终端设备
CN113218384B (zh) 一种基于激光slam的室内agv自适应定位方法
EP4033325B1 (en) Method for determining a working start point in a robot movement limiting frame and robot movement control method
CN116974291A (zh) 主从协同导航农业机械的控制误差确定方法及装置
CN105468208A (zh) 一种电子白板轨迹跟踪方法和装置
CN113172630B (zh) 基于虚拟墙的机器人控制方法
CN111984004A (zh) 一种基于机器视觉的机器人巡线导航系统
KR20130047278A (ko) 로봇의 이동 방법 및 장치
CN113190009B (zh) 基于栅格地图的机器人曲线虚拟墙实现方法
Wang et al. Agv navigation based on apriltags2 auxiliary positioning
CN105333871B (zh) 基于单轴陀螺仪的平面定位方法
CN103513880A (zh) 电子设备、电子设备中控制目标对象旋转的方法及装置
CN114928813B (zh) 行人目标跟随方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150