JP2021516512A - ロボットによるインテリジェントなペット監視方法 - Google Patents

ロボットによるインテリジェントなペット監視方法 Download PDF

Info

Publication number
JP2021516512A
JP2021516512A JP2020551338A JP2020551338A JP2021516512A JP 2021516512 A JP2021516512 A JP 2021516512A JP 2020551338 A JP2020551338 A JP 2020551338A JP 2020551338 A JP2020551338 A JP 2020551338A JP 2021516512 A JP2021516512 A JP 2021516512A
Authority
JP
Japan
Prior art keywords
cell
pet
robot
uwb positioning
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551338A
Other languages
English (en)
Other versions
JP7074873B2 (ja
Inventor
剛軍 肖
剛軍 肖
泰明 黄
泰明 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Amicro Semiconductor Co Ltd
Original Assignee
Zhuhai Amicro Semiconductor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Amicro Semiconductor Co Ltd filed Critical Zhuhai Amicro Semiconductor Co Ltd
Publication of JP2021516512A publication Critical patent/JP2021516512A/ja
Application granted granted Critical
Publication of JP7074873B2 publication Critical patent/JP7074873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K11/00Marking of animals
    • A01K11/006Automatic identification systems for animals, e.g. electronic devices, transponders for animals
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/021Electronic training devices specially adapted for dogs or cats
    • A01K15/023Anti-evasion devices
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/69Spread spectrum techniques
    • H04B1/707Spread spectrum techniques using direct sequence modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Zoology (AREA)
  • Biophysics (AREA)
  • Birds (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Manipulator (AREA)

Abstract

ロボットによるインテリジェントなペット監視方法であって、ペット身体上の無線信号装置とロボットとが無線通信を行ってペットとロボットとの相互位置関係を特定し、さらに相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定する。ペット自体の体内時計の影響により、ペットの日常の行為や動作にも一定のリズムがある。従って、最終的に異なる時点でのペットの位置する格子位置を記録することで発生されるビッグデータによって、1つのペット日常動作モデルを構築して、該モデルに応じてペットの日常動作軌跡を予測でき、これにより、より優れた監視位置や監視角度をインテリジェントに選択して、既存のロボットがペットを追いかけることで監視効率や効果が悪い課題を解決し、ロボットがペットを監視する効率や効果を向上させることができる。【選択図】図1

Description

本発明は、ロボット分野に関し、特に、ロボットによるインテリジェントなペット監視方法に関する。
現在のペットロボットは、ペットの身体に着用された測位装置と通信することで、ペットの位置を特定することが可能である。これにより、ペットを追跡し、カメラでペットの状態を監視することができる。しかしながら、既存のペットはほとんどが猫や犬であり、これらのペットはより活発であり、走り速度が速いため、ロボットが測位と追跡して撮像するような方式のみでは、ほとんどの時間をペットを追跡するのに消耗してしまい、得られるペット監視効果が悪く、効率が低くなる。
上記課題を解決するために、本発明は、ペットの動作軌跡に応じて良好なインテリジェント監視効果を実現できるロボットによるインテリジェントなペット監視方法を提供する。本発明の具体的な技術案は以下のとおりである。
ロボットとペット身体上の無線信号装置との無線通信に基づいて、ペットとロボットとの相互位置関係を特定するステップと、前記相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定するステップと、異なる時点でのペットの位置する格子位置を記録し、記録した時間情報及びその対応する格子位置情報を統計して、ペットの動作軌跡を予測するための1つのペット日常動作モデルを構築するステップと、前記ペット日常動作モデルに応じてペットを監視するステップと、を含むロボットによるインテリジェントなペット監視方法を提供する。
本発明によると以下の有益な効果を実現できる。すなわち、ペット身体上の無線信号装置とロボットとが無線通信を行ってペットとロボットとの相互位置関係を特定し、さらに相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定する。ペット自体の体内時計の影響により、ペットの日常の行為や動作にも一定のリズムがある。従って、最終的に異なる時点でのペットの位置する格子位置を記録することで発生されるビッグデータによって、1つのペット日常動作モデルを構築して、該モデルに応じてペットの日常動作軌跡を予測でき、これにより、より優れた監視位置や監視角度をインテリジェントに選択して、既存のロボットがペットを追いかけることで監視効率や効果が悪い課題を解決し、ロボットがペットを監視する効率や効果を向上させることができる。
本発明に係わるロボットによるインテリジェントなペット監視方法のフローチャートである。 本発明に係わる2つのUWB測位基地局とUWB測位ラベルとの相互位置の概略分析図である。 本発明に係わるロボットの中心点の座標から2つのUWB測位基地局の座標を算出する概略分析図である。 UWB測位ラベルから第1UWB測位基地局までの距離を特定する概略分析図である。 本発明に係わる位置点の座標を格子セルの座標へ変換する概略分析図である。 本発明に係わるペット日常動作モデルの概略分析図である。 本発明に係わるペットの現在位置と前記予測滞在位置に基づいて監視位置点を特定する概略分析図1である。 本発明に係わるペットの現在位置と前記予測滞在位置に基づいて監視位置点を特定する概略分析図2である。 本発明に係わるペットの現在位置と前記予測滞在位置に基づいて監視位置点を特定する概略分析図3である。 ロボットが撮像した格子領域を特定する概略分析図である。 監視セルを特定する概略分析図である。 ロボットの現在位置点から監視位置点までの案内経路を特定する概略分析図である。
以下、図面を参照して本発明の具体的な実施形態をさらに説明する。
本発明に係わるロボットは、スマート家電の1つとして、ある程度の人工知能に基づいていくつかの場所で自動に走行することが可能である。ロボットの本体上には各種のセンサーが設けられて、走行距離、走行角度、本体状態、及び障害物等を検出することができ、壁または他の障害物に衝突すると、自発的に方向変換し、設定によって異なる路線で走行し、規則的に走行するとともに、走行中に検出された各種のデータに基づいて格子地図を構築する。本発明に係わる移動ロボットの構造は、駆動輪付きの自律走行可能なロボット本体であって、本体上にマンマシンインタフェースが設けられ、本体上に障害検出ユニットが設けられている。本体の中央の上端面にカメラが設けられているが、カメラは本体の前部の上端面または他の位置に設けられてもよく、本体の前部または他の位置に設けられている場合、関連するパラメータを算出する際、中央に設けられているカメラに対して関連する数値を調節すればよい。本体の内部には、加速度計とジャイロスコープ等を含む慣性センサーが設けられ、駆動輪には駆動輪の走行距離を検出するための走行距離計(通常はコードホイール)が設けられ、さらに、関連するセンサーのパラメータを処理できるとともに実行部品に制御信号を出力することができる制御手段が設けられている。
本発明に係わるロボットによるインテリジェントなペット監視方法は、図1に示すように、ロボットとペット身体上の無線信号装置との無線通信に基づいて、ペットとロボットとの相互位置関係を特定するステップと、前記相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定するステップと、異なる時点でのペットの位置する格子位置を記録し、記録した時間情報及びその対応する格子位置情報を統計して、ペットの動作軌跡を予測するための1つのペット日常動作モデルを構築するステップと、前記ペット日常動作モデルに応じてペットを監視するステップと、を含む。ここで、前記格子地図は、ロボットが走行中に自体の各種のセンサーによるデータに基づいて構築した格子セルを基本単位とするマップである。前記格子セルは、設定された長さと幅を有する仮想格子を有し、正方形にすることができれば長方形にすることもできる。好ましくは、本発明に係わる格子セルは、辺長が0.2メートルの正方形格子である。前記無線信号装置として、zigbee通信手段、超音波手段、無線通信手段、UWB(超広帯域)手段またはwifi手段等を用いることができ、具体的には製品の必要に応じて選択することができる。ロボットは走行中に走行したことのある格子セルを走行済セルと標記し、障害物が検出された時に対応する格子セルを障害セルと標記し、崖が検出された時に対応する格子セルを崖セルと標記することなどをし、標記された情報に基づいて、格子地図を更新する。本発明に係わる方法によると、ペット身体上の無線信号装置とロボットとの無線通信によってペットとロボットとの相互位置関係を特定してから、相互位置関係に基づいてロボットが構築した格子地図でのペットに対応する格子位置を特定する。ペット自体の体内時計の影響により、ペットの日常の行為や動作にも一定のリズムがあるため、最終的に異なる時点でのペットの位置する格子位置を記録することで発生されるビッグデータによって、1つのペット日常動作モデルを構築して、該モデルに応じてペットの日常動作軌跡を予測でき、これにより、より優れた監視位置や監視角度をインテリジェントに選択して、既存のロボットがペットを追いかけることで監視効率や効果が悪い課題を解決し、ロボットがペットを監視する効率や効果を向上させることができる。
好ましくは、前記ロボットとペット身体上の無線信号装置との無線通信に基づいて、ペットとロボットとの相互位置関係を特定することは、ロボット本体上の第1UWB測位基地局と第2UWB測位基地局との間の距離をWとするステップと、前記第1UWB測位基地局の座標を(X11,Y11)とし、前記第2UWB測位基地局の座標を(X12,Y12)とするステップと、前記第1UWB測位基地局及び前記第2UWB測位基地局とペット身体上のUWB測位ラベルとの無線通信に基づいて、前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とするステップと、前記第1UWB測位基地局を角頂点としてそれぞれ前記第2UWB測位基地局と前記UWB測位ラベルに向かう線のなす角度を第1角度とし、且つ第1角度α1がα1=arccos((W2+R22−R12)/(2*W*R2))であるステップと、前記第2UWB測位基地局を角頂点としてそれぞれ前記第1UWB測位基地局と前記UWB測位ラベルに向かう線のなす角度を第2角度とし、且つ第2角度α2はα2=arccos((W2+R12−R22)/(2*W*R1))であるステップと、前記UWB測位ラベルの現在位置点の座標を(Xc,Yc)とし、且つXc=X12+R2*cos(180°−α1−arccos((X12−X11)/W))、Yc=Y11+R1*cos(180°−α2−arcsin((X12−X11)/W))であるステップと、を含む。ここで、UWB(Ultra Wideband)は超広帯域でのキャリアフリーの通信技術であり、UWB測位ラベルとUWB測位基地局はUWB通信技術を用いる通信装置である。図2に示すように、Aが第1UWB測位基地局で、Bが第2UWB測位基地局で、CがUWB測位ラベルである。第1UWB測位基地局と第2UWB測位基地局はいずれもロボットの本体上に配置され、UWB測位ラベルはペット身体上に着用されている。第1UWB測位基地局と第2UWB測位基地局との間の距離はロボットを設計して生産する際にすでに決められたものであるので、両者間の距離は既知であり、すなわち、AB=Wであり、関連するデータはすでにシステムに記録されている。ここで、Wの数値の大きさは具体的な製品デザインに応じて設定されることができるが、Wの数値はロボット本体の直径未満であるべきである。また、第1UWB測位基地局とUWB測位ラベルとの距離AC=R1、及び、第2UWB測位基地局とUWB測位ラベルとの距離BC=R2を測定して、三角形の3つの辺の長さから第1角度(∠ABC)の大きさを求めることができ、すなわち、α1=arccos((W2+R22−R12)/(2*W*R2))であり、同様に、第2角度(∠CAB)の大きさを求めることができ、すなわち、α2=arccos((W2+R12−R22)/(2*W*R1))である。ロボットが走行距離計とジャイロスコープ等のセンサーの検出データによって自体の座標位置(すなわち、ロボットの中心点の座標)を特定することができるので、ロボット本体上の中心点の位置に対して固定された2つのUWB測位基地局の座標値も特定でき、すなわち、第1UWB測位基地局の座標が(X11,Y11)で、第2UWB測位基地局の座標が(X12,Y12)であり、後続の実施例において具体的な算出方式を説明する。図に示すように、C点のX軸座標を特定しようとする場合、c11またはc21の長さを知る必要があるが、c11=R1*sina2で、c21=R2*cosb2で、∠a2=180°−α2−∠a1、∠b2=180°−α1−∠b1、∠a1=arcsin((X12−X11)/W)、∠b1=arccos((X12−X11)/W)であり、また、上述のようにα1とα2の角度を既に求めたので、c11=R1*sin(180°−α2−arcsin((X12−X11)/W))、c21=R2*cos(180°−α1−arcsin((Y11−Y12)/W))を求めると、ペットC点のX軸座標のXc=X12+c21=X12+R2*cos(180°−α1−arccos((X12−X11)/W))、またはXc=X11+c11=X11+R1*sin(180°−α2−arcsin((X12−X11)/W))である。同様に、C点のY軸座標を特定しようとする場合、c12またはc22の長さを知る必要があるが、c12=R1*cosa2で、c22=R2*sinb2であり、∠a2=180°−α2−∠a1、∠b2=180°−α1−∠b1、∠a1=arcsin((X12−X11)/W)、∠b1=arccos((X12−X11)/W)であり、また、上述のようにα1とα2の角度を既に求めたので、c12=R1*cos(180°−α2−arcsin((X12−X11)/W))、c22=R2*sin(180°−α1−arccos((X12−X11)/W))を求める。この場合、ペットC点のY軸座標のYc=Y11+c12=Y11+R1*cos(180°−α2−arcsin((X12−X11)/W))、またはYc=Y12+c22=Y12+R2*sin(180°−α1−arccos((X12−X11)/W))である。本実施例に係わる方法は、ペットに着用されたUWB測位ラベルの高さがロボットのUWB測位基地局の高さに一致する(すなわち、3つの通信装置が同一の水平面に位置する)か、または差がわずかである場合に適用する。ロボットとペットの位置が変化すると、検出された変化パラメータを代入すればペットの座標位置をすぐ得ることができ、データ処理速度が速く、出力結果が正確になる。また、UWB測位ラベルの高さとUWB測位基地局の高さとの差が大きい場合、ロボットの本体に第3UWB測位基地局を設置して、高さパラメータを導入することで、UWB測位ラベルの三次元座標を特定して対応する格子座標を特定する必要があり、その具体的な実施形態が本実施例と同じ原理であるので、ここでは詳細な説明を省略する。
好ましくは、前記第1UWB測位基地局の座標を(X11,Y11)とし、前記第2UWB測位基地局の座標を(X12,Y12)とすることは、ロボット本体の中心点の座標をロボットの現在位置点の座標とし、且つ座標を(X1,Y1)とするステップと、ロボット本体の中心点が、前記第1UWB測位基地局と前記第2UWB測位基地局との連結線の中点であると特定するステップと、前記第1UWB測位基地局と前記第2UWB測位基地局との間の距離をWとすると、ロボット本体の中心点から前記第1UWB測位基地局までの距離がW/2となり、ロボット本体の中心点から前記第2UWB測位基地局までの距離がW/2となるステップと、ロボットのジャイロスコープによって検出されたロボットの現在方向をαとするステップと、ロボット本体上の第1UWB測位基地局の座標を(X11,Y11)とし、且つX11=X1−((W*cosα)/2)、Y11=Y1+((W*sinα)/2)であるステップと、ロボット本体上の第2UWB測位基地局の座標を(X12,Y12)とし、且つX12=X1+((W*cosα)/2)、Y12=Y1−((W*sinα)/2)であるステップと、を含む。図3に示すように、第1UWB測位基地局Aと第2UWB測位基地局Bはそれぞれロボットの本体の両端に設けられ、ABの間の連結線がちょうどロボットの中心点Gを通過し、且つAG=BG=W/2である。G点の座標が(X1,Y1)であり、ロボットの現在方向の角度がαであり、図において、G点を通過し且つ矢印付きの直線がロボットの現在方向を示し、当該直線がAB線に直交するので、∠a=∠b=∠αであることが分かる。第1UWB測位基地局のX軸座標X11を求めようとする場合、まず、X11とX1との間の距離、すなわちX1−X11=AG*cosa=(W*cosα)/2を求める必要があり、X11=X1−((W*cosα)/2)となる。第1UWB測位基地局のY軸座標Y11を求めようとする場合、まず、Y11とY1との間の距離、すなわち、Y11−Y1=AG*sina=(W*sinα)/2を求める必要があり、Y11=Y1+((W*sinα)/2)となる。同様に、第2UWB測位基地局のX軸座標X12を求めようとする場合、まず、X12とX1との間の距離、すなわち、X12−X1=BG*cosb=W*cosα/2を求める必要があり、X12=X1+((W*cosα)/2)となる。Y1とY12との間の距離がY1−Y12=GB*sinb=W*sinα/2であり、Y12=Y1−((W*sinα)/2)である。本実施例に係わる第1UWB測位基地局と第2UWB測位基地局の座標を特定する方法によると、基地局がロボット本体上の中心点に対して相互対称の位置関係を持つように限定することで、2つの基地局の座標を特定するアルゴリズムを簡略化して、システムのデータ処理速度を高め、2つの基地局の座標値を迅速且つ正確に得て、後続する他のデータ処理のためにより速く参照根拠を提供することができる。同様に、3つの基地局が設けられる場合、三番目の基地局をABの垂直二等分線上に設けると、アルゴリズムを簡略化して、システムのデータ処理速度を高めることができ、その具体的な実施形態は本実施例と同じ原理であるので、ここでは詳細な説明を省略する。
好ましくは、前記第1UWB測位基地局及び前記第2UWB測位基地局とペット身体上のUWB測位ラベルとの無線通信に基づいて、前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とすることは、電波の伝播速度をcとするステップと、前記第1UWB測位基地局が前記UWB測位ラベルへ距離測定データを送信してから前記UWB測位ラベルからの確認信号を受信するまでの時間をT11とするステップと、前記UWB測位ラベルが前記第1UWB測位基地局から送信された距離測定データを受信してから確認信号を送信するまでの時間をT12とするステップと、前記UWB測位ラベルが前記第1UWB測位基地局へ距離測定データを送信してから前記第1UWB測位基地局からの確認信号を受信するまでの時間をT13とするステップと、前記第1UWB測位基地局が前記UWB測位ラベルから送信された距離測定データを受信してから確認信号を送信するまでの時間をT14とするステップと、前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、且つR1=c*(T11−T12+T13−T14)/4であるステップと、前記第2UWB測位基地局が前記UWB測位ラベルへ距離測定データを送信してから前記UWB測位ラベルからの確認信号を受信するまでの時間をT21とするステップと、前記UWB測位ラベルが前記第2UWB測位基地局から送信された距離測定データを受信してから確認信号を送信するまでの時間をT22とするステップと、前記UWB測位ラベルが前記第2UWB測位基地局へ距離測定データを送信してから前記第2UWB測位基地局からの確認信号を受信するまでの時間をT23とするステップと、前記第2UWB測位基地局が前記UWB測位ラベルから送信された距離測定データを受信してから確認信号を送信するまでの時間をT24とするステップと、前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とし、且つR2=c*(T21−T22+T23−T24)/4であるステップと、を含む。図4に示すように、第1UWB測位基地局Aは時刻t1でUWB測位ラベルCへ距離測定データを送信し、UWB測位ラベルCは時刻t2で距離測定データを受信して時刻t3で確認信号を送信し、第1UWB測位基地局Aは時刻t4で当該確認信号を受信する。この際、第1UWB測位基地局Aが距離測定データを送信してから確認信号を受信するまでに必要な時間はT1=t4−t1となり、UWB測位ラベルCが距離測定データを受信してから確認信号を送信するまでに必要な時間はT2=t3−t2となる。これから、第1UWB測位基地局AとUWB測位ラベルCとの間で1回の往復通信を行う場合、信号伝送の時間がT1−T2=t4−t1−t3+t2であることが分かる。同様に、UWB測位ラベルCは時刻t5で第1UWB測位基地局Aへ距離測定データを送信し、第1UWB測位基地局Aは時刻t6で距離測定データを受信して時刻t7で確認信号を送信し、UWB測位ラベルCは時刻t8で当該確認信号を受信する。この際、UWB測位ラベルCが距離測定データを送信してから確認信号を受信するまでに必要な時間はT3=t8−t5となり、第1UWB測位基地局Aが距離測定データを受信してから確認信号を送信するまでに必要な時間はT4=t7−t6となる。これから、UWB測位ラベルCと第1UWB測位基地局Aとの間で1回の往復通信を行う場合、信号伝送の時間がT3−T4=t8−t5−t7+t6であることが分かる。データの正確度を確保するために、信号がUWB測位ラベルCと第1UWB測位基地局Aとの間で1回伝送されるのに用いられる時間を(T1−T2+T3−T4)の四分の一とする。データ信号の伝送速度が電波の伝送速度cに等しいため、距離=速度*時間によって、UWB測位ラベルから第1UWB測位基地局までの第1距離R1=c*(T11−T12+T13−T14)/4を得ることができる。同様に、UWB測位ラベルから第2UWB測位基地局までの第2距離をR2とし、且つR2=c*(T21−T22+T23−T24)/4であり、その具体的な実施形態は本実施例に類似するため、ここでは詳細な説明を省略する。本実施例に係わる基地局から測位ラベルまでの距離を測定する方法によると、データ信号の伝送時間の平均値を取ることで、より正確な伝送時間を得て、より正確な距離測定結果を得ることができ、後続するペットの位置特定のためにより信頼性のある参照根拠を提供して、より良好なペット監視効果を確保することができる。
好ましくは、前記相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定することは、走行中のロボットによって検出されたデータに基づいて、(X0,Y0)を原点とするXY軸座標系に基づく格子地図を構築するステップと、前記格子地図における格子セルの辺長をLとするステップと、ロボット自体の測位データに基づいて、ロボットの現在位置点の座標を(X1,Y1)とすると、現在位置点に対応する格子セルの格子座標を(S11,S12)とし、S11=(X1−X0)/L、S12=(Y1−Y0)/L(S11とS12はいずれも整数部分を取る)であると特定するステップと、ロボットの座標(X1,Y1)に基づいて、ペットの位置する位置点に対応する格子座標を(S21,S22)とし、且つS21=(X1+((W*cosα)/2)+R2*cos(180°−α1−arccos(cosα))−X0)/L、S22=(Y1+((W*sinα)/2)+R1*cos(180°−α2−arcsin(cosα))−Y0)/L(S21とS22はいずれも整数部分を取る)であると特定するステップと、を含む。ロボットが走行中に自体の走行距離計及びジャイロスコープ等のセンサーにより検出されたデータに基づいて、走行済みの経路を記録し、自体が位置する位置と方向(すなわち、測位データ)をリアルタイムに特定する。また、格子地図は、格子セルを基本単位として構成されたもので、各格子セルのいずれにも複数の位置点が含まれ、ロボットの走行は位置点の形態で行われ、すなわち、現在位置点から隣接する次の位置点へ移動するものである。よって、ロボットの現在位置する格子セルの座標を特定する際、現在位置点の座標を格子セルの座標に変換しなければならず、図5に示すように、各小さい格子は1つの格子セルを示し、辺長はL=0.2メートルであり、座標原点Pの座標は(X0=0,Y0=0)であり、P点の右上隅の格子セルの格子座標を(0,0)に設定する。ロボットが位置点Dに位置する時、座標が(0.5,0.3)であると検出されると、算出されるロボットの位置する格子セルの格子座標は(S11=((0.5−0)/0.2)、S12=((0.3−0)/0.2))、すなわち(S11=2.5,S12=1.5)であり、整数部分を取ると、(S11=2,S12=1)となるので、ロボットが位置点Dに位置する時の対応する格子セルの格子座標は(2,1)である。同様に、UWB測位ラベルの現在位置点の座標が(Xc,Yc)であると特定した後、UWB測位ラベルの現在位置点に対応する格子セルの格子座標(S21,S22)、すなわち、S21=(Xc−X0)/L、S22=(Yc−Y0)/Lを算出し、該方法が上述したロボットの格子座標を特定する方法と同じであるため、ここでは詳細な説明を省略する。本実施例に係わる方法によると、同一の座標系において、現在位置点と座標原点との位置関係及び格子セルの辺長に基づいて、現在位置点に対応する格子セルの格子座標を正確に算出して、後続のデータ処理のために信頼性のあるデータを提供し、データ分析の正確性を向上させることができる。
好ましくは、異なる時点でのペットの位置する格子位置を記録し、記録した時間情報及びその対応する格子位置情報を統計して、ペットの動作軌跡を予測するための1つのペット日常動作モデルを構築することは、予め設定された期間をX軸とし、格子の座標点をY軸としてXY軸座標系を構築するステップと、前記予め設定された期間を1つの時間周期として、一番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して一本目の動作軌跡線を形成するステップと、二番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して二本目の動作軌跡線を形成するステップと、三番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して三本目の動作軌跡線を形成するステップと、このように、各時間周期内に形成される動作軌跡線を引き続き記録するステップと、を含む。ここで、前記予め設定された期間は設定可能な値であり、ユーザがペットを監視しようとする期間に応じて設定することができる。例えば、ユーザが出勤時にペットを監視しようとする場合、当該期間を朝8時から午後6時までに設定して、毎日の朝8時から午後6時までを1つの時間周期とすることができる。その後、X軸の正の延在方向に沿って、8時00分01秒から、1秒ずつ間隔をあけて1つの時点を設定し、すなわち8時00分02秒を次の時点とし、8時00分03秒をさらに次の時点とし、このように、18時59分59秒までに1つの時間周期の記録を完成する。続いて、翌日の8時00分01秒から18時59分59秒までに二番目の時間周期の記録を完成する。その後、さらに翌日の8時00分01秒から18時59分59秒までに三番目の時間周期の記録を完成する。このように、関連する格子座標データの記録を繰り返して、後続のビッグデータ分析にデータを提供する。ここで、1秒を間隔として時点を設定したことは例示にすぎず、実際の需要に応じて5秒、10秒または20秒を間隔に時点を設定することもでき、設定される間隔が短いほど対応するモデルが正確になり、得られる予測結果もさらに正確になる。前記格子座標点をY軸とするとは、格子地図における格子セルに対応する格子座標をY軸の値とすることであり、すなわち座標原点からY軸の正の方向に沿って、1つの格子座標を1つのY軸点として延長させて配列し、隣り合うY軸点に対応する格子セルは互いに隣り合う格子セルである。ここで、前記格子座標点をY軸とするとは、格子地図における1セットの格子セルに対応する格子座標をY軸の値とすることであってもよく、すなわち座標原点からY軸の正の方向に沿って、1つの格子座標を1つのY軸点として延長させて配列し、1つの格子座標が1つの格子セルセットに対応し、隣り合うY軸点に対応する格子セルセットは互いに隣り合う格子セルセットである。格子セルセットとは、所定の数の格子セルからなる、形状が規則的で且つ同じである格子セルの組み合わせであり、ペットが格子セルセットにおけるいずれか1つの格子セルに位置すれば、ペットが該格子セルセットに対応する格子座標に位置することを表し、例えば辺長が3つの格子セルの長さからなる正方形の格子セルセットである、(0,0)、(1,0)、(2,0)、(0,1)、(1,1)、(2,1)、(0,2)、(1,2)、(2,2)の格子セルを含む格子セルセットの場合、座標が(SX0,SY0)であり、ペットが当該9つの格子セルにおけるいずれか1つに位置すれば、ペットが該格子セルセットに位置するとし、Y軸における対応する格子座標点は(SX0,SY0)である。格子セル数が多いため、このような格子セルセットの形態で統計することで、演算量を減少し、ロボットのデータ処理速度及び効率を向上させることができる。図6に示すように、該図はペットの小さい範囲での動作を示す図で、図に含まれたデータは極めて少なく、ただ本実施例に記載のペット日常動作モデルを簡単に説明するためのものであり、実際の応用におけるモデルに含まれるデータ量は該図に示すデータ量を大幅に超えることになる。図6において、X軸のt1からt10が1つの時間周期であり、t1、t2、t3、t4、t5、t6、t7、t8、t9、t10の時刻がそれぞれ記録時点である。(0,0)、(1,0)、(1,1)、(0,1)、(0,2)、(1,2)、(2,2)、(2,1)、(2,0)、(3,0)は格子座標がY軸で対応する格子座標点である。L1で表す点線はペットによる一番目の時間周期内の動作軌跡であり、すなわちt1時刻から記録し始めて、ペットが格子セル(0,0)または格子セルセット(0,0)に位置し、t2時刻にペットが格子セル(1,0)または格子セルセット(1,0)へ移動し、t3時刻に格子セル(2,0)または格子セルセット(2,0)へ移動し、t4時刻に格子セル(3,0)または格子セルセット(3,0)へ移動し、t5時刻に格子セル(2,1)または格子セルセット(2,1)へ移動し、t6時刻に格子セル(2,2)または格子セルセット(2,2)へ移動し、t7時刻に格子セル(1,2)または格子セルセット(1,2)へ移動し、t8時刻に格子セル(0,2)または格子セルセット(0,2)へ移動し、t9時刻に格子セル(0,1)または格子セルセット(0,1)へ移動し、t10時刻に格子セル(1,1)または格子セルセット(1,1)へ移動し、その後、これらの格子座標点を順に連結して一本目の動作軌跡線を形成する。同様に、二本目の動作軌跡線L2、三本目の動作軌跡線L3を形成して、このように、各時間周期内に形成される動作軌跡線を引き続き記録し、記録した動作軌跡線が多いほどこれに基づいて出力する予測結果が正確になる。
好ましくは、前記ペット日常動作モデルに応じてペットを監視することは、前記ペット日常動作モデルにおける動作軌跡線の分布状況に応じて、比較的に密度の高い動作軌跡線を特定するステップと、比較的に密度の高い動作軌跡線に対応する時間を予測滞在時間とし、比較的に密度の高い動作軌跡線に対応する格子座標を予測滞在位置とするステップと、ロボットの現在位置とペットの現在位置に基づいて、ペットとロボットとの間の直線距離が予め設定された距離を超えるか否かを判断するステップと、NOであれば、現在の追跡監視状態を継続するステップと、YESであれば、現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間未満であるか否かを判断するステップと、NOであれば、現在の追跡監視状態を継続するステップと、YESであれば、現在時間より後の一番目の予測滞在時間に対応する予測滞在位置を特定し、ペットの現在位置と前記予測滞在位置に基づいて、ロボットが位置する場合にロボットのカメラの撮像角度がペットの現在位置と前記予測滞在位置とをカバーすることのできる監視位置点を特定するステップと、前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、を含む。図6に示すように、図中の三本の動作軌跡線は動作軌跡線の形成を簡単に説明するためのものにすぎず、実際のモデルにおける動作軌跡線の数は極めて多く、且つ形状も非常に複雑である。ペットの体内時計の影響によって、ペットの行為や動作にも一定のリズムがあるため、モデルに形成される大量の動作軌跡線もある程度の変化規則がある。t1時刻において、大量の動作軌跡線がY軸の(0,0)点に位置し、且つ(0,0)点に位置する動作軌跡線の数がt1時刻における動作軌跡線全体の80%を占めると仮定すれば、(0,0)点に対応する動作軌跡線を比較的に密度の高い動作軌跡線と特定することができ、当該比較的に密度の高い動作軌跡線に対応する予測滞在時間はt1であり、対応する予測滞在位置は格子セル(0,0)または格子セルセット(0,0)である。格子セル(0,0)または格子セルセット(0,0)に対応する地理位置がペットの巣であれば、毎日の朝8時にペットが巣内で寝ているかまたは遊んでいる確率が80%に達することを表すため、最初からロボットが巣に向く方向で監視して、初期における大量のデータ演算による監視時間の遅延を回避し、ロボットがペットを監視するインテリジェント化や効率を向上させることができる。さらに、t5〜t8の時間内において、動作軌跡線の総数の70%を超える動作軌跡線がY軸の(2,2)点に位置すると仮定すれば、(2,2)点に対応する動作軌跡線を比較的に密度の高い動作軌跡線とすることができ、当該比較的に密度の高い動作軌跡線に対応する予測滞在時間はt5〜t8時間であり、対応する予測滞在位置は格子セル(2,2)または格子セルセット(2,2)である。格子セル(2,2)または格子セルセット(2,2)に対応する地理位置がペットのおしっこ箇所であれば、ペットが当該時間に該箇所に来ておしっこをする確率が70%であることを表し、この時、t5時刻前のロボットとペットとの位置関係に基づいて、該位置点を事前に監視するか否かを総合的に考慮することができる。また、t2〜t4間の時間において動作軌跡線が比較的に分散し、比較的に密度の高い動作軌跡線を形成できないため、予測滞在時間と予測滞在位置を得ることができない。ここで、上述した80%と70%は他の数値に変更されることが可能であり、具体的には製品デザインに応じて設定されることができる。
ペット日常動作モデルにおける動作軌跡線の分布状況に応じて、ペットの予測滞在時間と予測滞在位置を特定した後、ロボットはまず自分の現在の位置とペットの現在位置を特定して、ペットとロボットとの間の直線距離が予め設定された距離を超えるか否かを判断し、NOであれば、ペットが依然としてロボットの追跡監視範囲内にあることを表し、監視形態を調節する必要がなく、現在の追跡監視状態を継続する。ペットとロボットとの間の直線距離が予め設定された距離を超えれば、ペットの走り速度が速い等の原因によって、ロボットがペットの速度に追いつくことができず、ロボットの追跡監視範囲から離脱したことを表す。この時、さらに現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間未満であるか否かを判断する必要があり、これはロボットとペットとの距離関係のみによって監視形態を直ちに変更するのは最適な方案ではなく、現在時間から予測滞在時間に達するまでにかなり長い時間がかかる場合、ペットが当該間隔時間内で自由に動いていることを表し、ロボットによって予測滞在位置を事前監視することが適切ではなく、長時間に渡ってペットを監視できないため監視効果が低下することを回避するように、追跡監視状態を継続する必要があるからである。従って、現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間以上であると特定されると、即時にペットを追跡し、現在の追跡監視状態を継続する必要がある。現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間未満であると特定された場合のみ、ロボットに予測滞在位置に対する事前監視を行わせることが適切である。ここで、前記予め設定された距離は製品デザインに応じて設定されることができ、好ましくは、3〜8メートルの間のいずれか1つの値に設定され、最も好ましくは、本実施例において5メートルに設定されることができ、これは予め設定された距離が大きすぎる値に設定されると、監視の表示効果が悪く、予め設定された距離が小さすぎる値に設定されると、ロボットが監視形態の切り替えを頻繁に判断する必要があるため監視効率を低下させるからである。前記予め設定された時間は製品の設計デザインに応じて設定されることができ、好ましくは、10〜50秒の間のいずれか1つの値に設定され、最も好ましくは、本実施例において20秒に設定されることができ、これは予め設定された時間が小さすぎる値に設定されると、ロボットの事前監視形態による効果を低減し、予め設定された時間が大きすぎる値に設定されると、ロボットがペットを即時に監視できないため監視効果を低下させるおそれがあるからである。
ペットとロボットとの間の直線距離が予め設定された距離を超え、且つ現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間未満であると特定された後、すなわちロボットが予測滞在位置に事前監視を行うに適切であると特定した後、さらに、現在時間より後の一番目の予測滞在時間に対応する予測滞在位置を特定して、ペットの現在位置と前記予測滞在位置に基づいて、ロボットが位置する場合ロボットのカメラの撮像角度がペットの現在位置と前記予測滞在位置とをカバーする1つの監視位置点を特定しなければならない。最後に、前記監視位置点に走行してペットを監視するようにロボットを制御する。
好ましくは、前記ペットの現在位置と前記予測滞在位置に基づいて、1つの監視位置点を特定することは、ペットの現在位置に対応する格子セルを第1セルとし、前記予測滞在位置に対応する格子セルを第2セルとするステップ1と、第1セルと第2セルとの連結線の垂直二等分線上のロボットから最も近い走行済セルを第3セルとするステップ2と、第1セルから第3セルまでの連結線と第2セルから第3セルまでの連結線との間の角度がロボットのカメラの撮像角度未満であるか否かを判断して、NOであれば、ステップ4に移行し、YESであれば、ステップ5に移行するステップ3と、第1セルと第2セルとの連結線の垂直二等分線の第1セルと第2セルから離れる延在方向に沿って、順に前記第3セルからの距離が近い順に配列される走行済セルを新しい第3セルとして、ステップ3に戻るステップ4と、第3セルから第1セルまでの直線格子経路に障害セルが存在するか否かを判断し、且つ第3セルから第2セルまでの直線格子経路に障害セルが存在するか否かを判断して、いずれもNOであれば、ステップ6に移行し、1つまたは両方ともYESであれば、ステップ7に移行するステップ5と、第3セルに対応する格子セルの中心点を監視位置点とするステップ6と、第3セルを通過し且つ第1セルと第2セルとの連結線に平行する平行線の延在方向に沿って、順に前記平行線が通過した走行済セルを新しい第3セルとし、新しい第3セルが格子地図の境界から最も近い走行済セルであるか否かを判断し、NOであれば、ステップ5に戻り、YESであれば、順に第1セルと第2セルとの連結線の垂直二等分線上のロボットから最も近い走行済セルであって近い順に配列される走行済セルを新しい第3セルとして、ステップ5に戻るステップ7と、を含む。図7、8、及び9に示すように、Xが標記されたセルは障害セルを示し、他のセルは走行済セルを示す。ここで、図7に示すように、まず上記実施例に記載の方法に従って、ペットの現在位置に対応する格子セルを第1セル(図面においてCが標記された格子セル)と特定する。上記実施例に記載の方法に従って、前記予測滞在位置に対応する格子セルを第2セル(図面においてPが標記された格子セル)と特定する。その後、第1セルと第2セルとの連結線CPの垂直二等分線r1r2上のロボットから最も近い走行済セルを第3セル(図面においてF1が標記された格子セル)と特定する。続いて、第1セルから第3セルまでの連結線CF1と第2セルから第3セルまでの連結線PFとの間の角度∠CF1Pが、ロボットのカメラの撮像角度未満であるか否かを判断する。∠CF1Pが前記撮像角度未満であれば、ロボットのカメラによるF1位置での撮像領域がペットの現在の位置と予測滞在位置を完全にカバーできることを表す。この時、図7に示すように、第3セルから第1セルまでの直線格子経路(すなわち、CF1直線が通過する格子セルからなる格子経路)に障害セルがなく、且つ第3セルから第2セルまでの直線格子経路(すなわちPF1直線が通過する格子セルからなる格子経路)にも障害セルがなく、これにより、ロボットがF1位置でC位置のペットと後で位置Pに移動するペットを効果的に監視することができるとともに、ペットがC位置からP位置に走る場合、走る経路がF1位置でのカメラの撮像範囲内に出現する確率も高い。よって、当該形態で特定したF1位置に対応する格子セルの中心点を監視位置点とすると、さらにインテリジェントにペットを監視することができ、監視効果が優れる。∠CF1Pが前記撮像角度以上であれば、ロボットのカメラによるF1位置での撮像領域がペットの現在の位置と予測滞在位置を完全にカバーできないことを表す。この時、第3セルの位置を再特定する必要があり、図8に示すように、第1セルと第2セルとの連結線の垂直二等分線の第1セルと第2セルから離れる延在方向(すなわち垂直二等分線r1r2が外方へ延長する方向)に沿って、前記第3セルから最も近い走行済セルを新しい第3セル(図面においてF2が標記された格子セル)とし、その後、∠CF2Pが前記撮像角度未満であるか否かを判断し、やはりNOであれば、引き続き垂直二等分線が外方へ延長する方向に沿って、前記第3セルから最も近い走行済セルを新しい第3セル(図面においてF3が標記された格子セル)とし、∠CF3Pが前記撮像角度未満であるか否かを判断し、やはりNOであれば、特定される新しい第3セルに対応する角度が撮像角度未満になるまで、このように、引き続き次の新しい第3セル(F4、F5等)を分析する。垂直二等分線上の適切な第3セルを特定した後、さらに第3セルから第1セルまでの直線格子経路に障害セルが存在するか否かを判断し、且つ第3セルから第2セルまでの直線格子経路に障害セルが存在するか否かを判断し、いずれも障害セルがないと、直接該第3セルに対応する格子セルの中心点を監視位置点とする。その中の1つがYESであるか、または両方ともYESであれば、ロボットが現在位置でC位置及び/又はP位置を撮像する場合、障害部に遮断されてペットを良好に監視することができない可能性があることを表すため、第3セルの位置を調節する必要がある。図9に示すように、∠PF1Cは撮像角度未満であるものの、第3セルから第2セルまでの直線格子経路(すなわち直線F1Pが通過する格子セルからなる格子経路)に障害セルがあるため、よりよい監視効果を得るために、第3セルを通過し且つ第1セルと第2セルとの連結線に平行する平行線r3r4の延在方向に沿って、第3セルから離れる方向で、前記第3セルから最も近い走行済セルを新しい第3セルとし(最も近く且つ距離が同様な走行済セルが2つあれば、ランダムに1つを選択し、本実施例においては図面においてF2が標記された格子セルを選択する)、この時、F2Pの直線格子経路とF2Cの直線格子経路に障害セルがないと判断され、この時、F2に対応する格子セルの中心点を監視位置点とすることができる。このような線r1r2に平行する平行線r3r4の延在方向に沿って第3セルを再特定する形態によると、新しく特定された第3セルに対応する角度が常に撮像角度未満であるように確保でき、且つ最適な位置を素早く且つ整然と探し出すことができる。F2位置にあると仮定する場合、F2Pの直線格子経路にやはり障害セルがあるため、順にF3、F4、F5等を新しい第3セルとし、このように、F9に対応する格子セルになると、F9が格子地図の境界から最も近い走行済セルであるため、第1セルと第2セルとの連結線の垂直二等分線r1r2上のロボットから最も近い走行済セルであって近い順に配列される走行済セル(すなわち図面においてF10が標記された格子セル)を新しい第3セルとする必要がある。F10PまたはF10Cの直線格子経路にやはり障害セルがあれば、F10を通過し且つ線r1r2に平行する平行線の延在方向に沿って、順にF11、F12等の走行済セルを新しい第3セルとして、上記形態に従って、最終的にそれぞれ第1セル及び第2セルまでの直線格子経路に障害セルがない第3セルが特定されるまで、引き続き関連する分析と判断を行って、その第3セルに対応する格子セルの中心点を監視位置点とする。上記方法に従って、垂直二等分線方向と平行線方向に沿う関連する格子セルを全部分析した後も適切な第3セルを探し出すことができないと、該プロセスを終了し、ロボットは引き続き元の追跡監視状態で監視し、ペットの位置が変化すると、直ちに新たな分析を開始する。このようなペットの現在位置と予測滞在位置とを同時に捜索する方法によると、最適な位置点を素早く且つ正確に特定することができ、特定される最適な位置点がロボットの現在位置に比較的に最も近く、ロボットが一番簡単に到着できる位置点であるため、ロボットがペットを監視する効率や効果を大幅に向上させる。
好ましくは、前記比較的に密度の高い動作軌跡線は、ある1期間内で同一の格子座標範囲内に位置する動作軌跡線であり、その数が同一の期間内の動作軌跡線の全体で占める割合は予め設定された数値を超える。ここで、前記予め設定された数値は、具体的なデザインニーズに応じて設定されることができ、好ましくは、前記予め設定された数値は70%を超え、最も好ましくは、80%または90%に設定され、これにより、モデルに応じて出力される予測結果の正確性を確保し、ロボットがペットを監視する効率や効果を向上させることができる。
好ましくは、前記現在の追跡監視状態を継続することは、ロボットとペットとの間の距離が予め設定された距離以下であるか否かを判断するステップと、NOであれば、監視位置点を再特定して、前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、YESであれば、ロボットの位置する格子セルとペットの位置する格子セルとの間であって、ペットを監視するロボットのカメラの撮像角度によってカバーされた予め設定された範囲内の格子セルに、障害セルが存在するか否かを判断するステップと、NOであれば、ロボットのカメラがペットに向くように撮像方向を維持するステップと、YESであれば、監視位置点を再特定して、前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、を含む。ロボットが追跡監視状態の形態でペットを監視する場合、ペットとある程度の距離を維持する必要があり、距離が遠すぎると、撮像されるペットの画像が不鮮明で、ペットの現在状態を把握できず、追跡監視の効果を失ってしまう。よって、ペットを追跡監視する場合、まずロボットとペットとの間の距離を判断し、その間の距離が予め設定された距離を超えると、監視位置点を再特定してペットを監視する最適な位置を探し出さなければならない。その間の距離が予め設定された距離以下であれば、直接該範囲内でペットを監視することができ、この時、さらにロボットの位置する格子セルとペットの位置する格子セルとの間であって、ペットを監視するロボットのカメラの撮像角度によってカバーされた予め設定された範囲内の格子セルに、障害セルが存在するか否かを判断して、存在しなければ、ロボットのカメラがペットを正常に撮像できることを表すため、現在のカメラがペットに向く撮像方向を維持すればよく、存在すれば、監視位置点を再特定する必要がある。ここで、前記予め設定された距離は実際のデザインニーズに応じて設定されることができ、2〜5メートルの範囲内のいずれか1つの値に設定されることができ、最も好ましくは、3メートルに設定される。前記予め設定された範囲も製品デザインに応じて設定されることができ、好ましくは、カメラの撮像角度によってカバーされる範囲全体の1/3に設定される。このようなロボットとペットとの間の距離変化と障害物による遮断状況に応じて監視位置点を調節していく追跡監視状態によると、ロボットによるペット監視の効果を確保できる。
前記ロボットの位置する格子セルとペットの位置する格子セルとの間であって、ペットを監視するロボットのカメラの撮像角度によってカバーされた予め設定された範囲内の格子セルに、障害セルがあるか否かを判断することは、ロボットのペットを監視するカメラがペットに向く方向を撮像方向とするステップと、前記撮像方向に基づいて、カメラの撮像角度が前記格子地図においてカバーする撮像領域を特定するステップと、カメラを角頂点として外側へ延長する第1辺と第2辺がなす角度範囲の、前記格子地図でのカバー領域に対応する格子セルを特定して、前記カバー領域に対応する格子セルに障害セルが存在するか否かを分析する。ここで、前記カバー領域は前記撮像領域より小さく且つ前記撮像領域内に位置する。図10に示すように、図における1つの小さい格子が1つの格子セルを示し、Xが標記された格子は該セルが障害セルであることを示し、標記されていないかまたは他の文字が標記された格子はそのセルが走行済セルであることを示す。G点はロボットが位置する位置点、すなわちカメラの位置であり、C点はペットが位置する位置点である。GZは撮像方向で、GB1とGB2との2本の線からなる角度が撮像角度であり、GZは前記撮像角度の二等分線である。GU1は第1辺で、GU2は第2辺であり、GU1とGU2との2本の線からなる角度内の格子セルに障害セルがあるか否かを分析し、すなわち∠U1GU2範囲内の格子にXが標記された格子があるか否かを判断し、あれば、障害セルが存在することを表し、なければ、障害セルがないことを表す。図において、前記∠U1GU2範囲内に障害セルがなく、ロボットはペットを正常に撮像することが可能である。∠U1GU2範囲内にXセルがあれば、ロボットのカメラが障害物に遮断されているかまたはペットが障害物のすぐ近くに位置して撮像効果に影響を及ぼすことを示すため、他の角度に変換してペットを撮像する必要がある。本実施例に記載の方法によると、格子地図を組合せて、2つの位置点の間に障害セルがあるか否かを判断し、これに基づいてロボットとペットとの間が障害物によって遮断されているか否かを特定し、このような形態はロボットに保持されたデータを十分に利用し、判断フローが簡単で実用であり、且つ効果が顕著である。
好ましくは、前記監視位置点を再特定することは、ペットの位置する格子セルを中心点とする予め設定された領域を特定し、前記予め設定された領域における走行済セルのロボットからの近い順の距離関係に応じて、走行済セルを1つずつ監視候補セルとして、前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルが存在するか否かを判断するステップと、NOであれば、前記監視候補セルを監視セルとし、前記監視セルの中心点を監視位置点とし、YESであれば、次の走行済セルがロボットからの距離が最も遠い走行済セルであるか否かを判断するステップと、YESであれば、直接次の走行済セルを監視セルとし、前記監視セルの中心点を監視位置点とし、NOであれば、次の走行済セルを監視候補セルとして、引き続き前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルが存在するか否かを判断するステップと、を含む。ここで、前記障害セルはロボットが障害物を検出した時に対応する格子セルであり、前記走行済セルはロボットが走行したことのある格子セルである。前記予め設定された領域も製品デザインに応じて設定されることができ、好ましくは、円形領域、四角形領域または規則的な多角形領域等に設定され、面積の大きさは通常2〜6平方メートル範囲内に設定される。
ペット周囲の予め設定された領域内において、ロボットからの距離の近い順の関係を選択して、走行済セルを1つずつ監視候補セルとし、その後、前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルが存在するか否かを判断し、すなわち監視候補セルの位置にてペットを効果的に監視することが可能であるか否かを分析し、障害物によって遮断されていなければ、その監視候補セルを監視セルとし、遮断されていれば、次の走行済セルを分析する。このようなペットの周囲の予め設定された領域内においてロボットからの距離の近い順で走行済セルを1つずつ分析する形態によると、ロボットが最も速く到達でき且つペットを効果的に監視可能な位置点を探し出して、ロボットがペットを監視する効率を向上させることができる。また、予め設定された領域内におけるロボットからの距離が最も遠い走行済セル以外の他の走行済セルとペットとの間がいずれも障害物によって遮断されていれば、ロボットからの距離が最も遠い走行済セルとペットとの間に障害物があるか否かに関わらず、それを監視セルとし、これは、通常障害物の分布に特徴があるからであり、すなわち、障害物は通常ある1つまたは複数の領域に集中して現れ、1つの領域で障害セルが検出されると、当該領域に他の障害セルがさらに存在することになり、ロボットが現在位置で障害物を検出した場合、一定の範囲内において、現在位置から遠い領域ほど、障害セルが現れる確率が低くなるからである。このため、予め設定された領域内におけるロボットからの距離が最も遠い走行済セルを監視セルとすることで、ロボットを比較的に空いている領域に位置させて、ペットの位置が変化した場合、隣接する障害物の干渉を受けずに監視位置または監視角度をさらに簡単に調節することができ、監視効率を向上させる。上述のように、本発明に係わる方法によると、このような格子地図を組合せてペットを監視する方式によって、より良い監視位置を探し出すようにロボットを制御することができ、障害物に遮断されて監視効果に影響を及ぼす問題を回避し、ペットを監視する効果を向上させる。
また、ペットの位置する格子セルを中心点とする予め設定された領域を特定し、前記予め設定された領域における走行済セルのロボットからの近い順の距離関係に応じて、走行済セルを1つずつ監視候補セルとすることは、ペットの位置する格子セルの中心を円心とし、予め設定された長さを半径とする円形領域を特定するステップと、前記円形領域におけるロボットからの距離が最も近い走行済セルを監視候補セルと特定するステップと、前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルがあり、且つ前記円形領域におけるロボットからの距離が二番目に近い走行済セルがロボットからの距離が最も遠いセルではなければ、前記円形領域におけるロボットからの距離が二番目に近い走行済セルを監視候補セルと特定するステップと、前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルがあり、且つ前記円形領域におけるロボットからの距離が三番目に近い走行済セルがロボットからの距離が最も遠いセルではなれば、前記円形領域におけるロボットからの距離が三番目に近い走行済セルを監視候補セルと特定するステップと、このように類推するステップと、を含む。図11に示すように、図における1つの小さい格子が1つの格子セルを示し、Xが標記された格子は当該格子が障害セルであることを示し、標記されていないかまたは他の文字が標記された格子は当該格子が走行済セルであることを示す。G点はロボットが位置する位置点、すなわち、カメラの位置であり、C点はペットが位置する位置点である。GZは撮像方向であり、GU1が第1辺で、GU2が第2辺である。∠U1GU2範囲内に障害セル(すなわち、Xが標記された格子)があるため、ロボットによる撮像が障害物に遮断されるおそれがあり、このため、ロボットは撮像位置を調節しなければならない。まず、C点が位置する格子セルの中心を円心とし、予め設定された長さを半径とする円を描くと、当該円内の範囲が前記予め設定された領域となる。ここで、前記予め設定された長さは、具体的なデザインニーズに応じて設定されることができ、好ましくは、1〜2メートルの範囲内のいずれか1つの値に設定されることができ、本実施例においては1.5メートルとした。なお、図7に示す円形領域は模式図に過ぎず、図における格子セルの長さによって円形の半径または直径を測定してはならず、また、円形領域が1つの格子セルの一部のみを囲んでいれば、当該格子セルも円形領域の範囲内に入ることとなる。図において、格子セルS1が円形領域内におけるロボットからの距離が最も近い走行済セルであるため、まずそれを監視候補セルとし、S1とCとの間の直線格子経路(すなわち、S1とCとを結ぶ直線が通過する格子セルからなる経路)にXが標記された障害セルがあるため、S1を監視セルとして特定することができない。続いて、ロボットからの距離が二番目に近い走行済セルS2を分析し、S2が円形領域におけるロボットからの距離が最も遠い走行済セルではないため、ロボットからの距離が二番目に近い走行済セルS2を監視候補セルとし、S2とCとの間の直線格子経路にXが標記された障害セルがないため、すなわち、ロボットによるペットの撮像を遮断する障害物がないため、S2を監視セルと特定し、ロボットを走行済セルS2へ案内してペットの監視を行わせる。S2とCとの直線格子経路にも障害セルがあると仮定すれば、継続してロボットからの距離が三番目に近い走行済セルS3を分析し、その方法は上記と同じであるため詳細な説明を省略する。円形領域におけるS10以外の全ての走行済セルとロボットとの間の直線格子経路のいずれにも障害セルがあれば、ペットが障害物に囲まれた位置(例えば、ソファー上、センターテーブル上またはベッド上)に位置することを示し、この時、予め設定された領域においては走行済セルとペットとの間の障害セルを考慮する必要がなく、ペットの位置から遠く且つロボットの現在位置から遠く離れた位置点を考慮しなければならないため、直接ロボットからの距離が最も遠い走行済セルS10を監視セルとし、ロボットを当該監視セルに案内してペットの監視を行わせる。このようなペット周囲の予め設定された領域内においてロボットからの距離が近い順で走行済セルを1つずつ分析する形態によると、ロボットが最も速く到達でき且つペットを効果的に監視可能な位置点を探し出して、ロボットがペットを監視する効率を向上させることができる。
好ましくは、前記監視位置点に走行してペットを監視するようにロボットを制御することは、ロボットの現在位置点を起点とし、前記監視セルの位置する方向に向かって格子地図の捜索を行うステップと、ロボットの現在位置点と前記監視セルの中心点との間であって、走行済セルによって直接連通された格子経路のうち、経路長さが最も短い格子経路を案内格子経路と特定するステップと、案内格子経路における格子セルの中心点を案内位置点とし、前記案内位置点を連結して案内経路を構成するステップと、現在位置点から前記案内経路に沿って前記監視位置点まで走行するようにロボットを制御するステップと、前記ロボットのカメラの撮像方向がペットの位置する方向に合せるように、ロボットの方向を調節するステップと、を含む。図12に示すように、ロボットがG点から監視セルS2まで走行しようとする場合、まず、走行経路を捜索しなければならず、図において、Xが標記された格子は当該格子が障害セルであることを示し、標記されていないかまたは他の文字が標記された格子は当該格子が走行済セルであることを示す。まず、ロボットの現在位置点G点を起点として、前記監視セルの位置する方向に向かって格子地図の捜索を行う。ここで、監視セルの位置する方向に向かって捜索を行うことは、監視セルに向かう直線方向での捜索に限定されず、当該方向を全体的な捜索傾向として、G点から、格子セルごとにG点から離れる周囲へ捜索し、また、周囲から監視セルへ収まる方向で格子セルごとに捜索を行う。そして、二本の格子経路が捜索され、1本目は監視セルの左下方から監視セルまでに連結されたものであり、2本目は監視セルの右上方から監視セルまでに連結されたものであり、二本の格子経路は障害セルによって区切られている。1本目の格子経路の長さが2本目の格子経路よりも小さいため、1本目の格子経路を案内格子経路とする。1本目の格子経路における格子セルの中心点を案内位置点とし、前記案内位置点を連結して、案内経路、すなわちL1で示す点線(L2で示す点線は2本目の格子経路の路線である)を構成する。続いて、G点から、L1路線に沿って監視セルS2の中心点(すなわち、監視位置点)まで走行するようにロボットを制御する。最後に、ロボットのカメラの撮像方向がC点の方向(すなわち、ペットが位置する方向)に向かうように、その場所でロボットの本体を回動させる。本実施例に係わる方法によると、監視セルの位置する方向に向かって格子地図の捜索を行うことで、監視セルに到達可能な格子経路にはどのようなものがあるかを速やかに特定することができる。そして、各経路の長さを分析して、最も短い経路を案内経路とすることで、ロボットが監視セルに到達する時間を短縮し、最後に、格子セルの中心点を案内位置点とし、各案内位置点を連結してなる案内経路が監視位置点に到達する最適な案内経路となり、ロボットが当該案内経路に沿って走行することで、目的地に到達する時間を短縮できるだけではなく、走行中に障害物に当たるリスクも低減し、ロボットが監視位置点に到達する効率を向上させることができる。好ましくは、本実施例における図示する格子セルの辺の長さがロボットの本体の直径に等しい。
また、本発明は、プログラムを記憶するためのチップをさらに提供し、前記プログラムは、上述したロボットによるインテリジェントなペット監視方法を実行するようにロボットを制御するためのものである。ロボットの本体に前記チップを装着することで、ロボットとペット身体上の無線信号装置との無線通信によって、ロボットがペットとロボットとの相互位置関係を特定し、さらに相互位置関係に基づいて、ロボットが構築した格子地図でのペットに対応する格子位置を特定する。ペット自体の体内時計の影響により、ペットの日常の行為や動作にも一定のリズムがある。従って、最終的に異なる時点でのペットの位置する格子位置を記録することで発生されるビッグデータによって、1つのペット日常動作モデルを構築して、該モデルに応じてペットの日常動作軌跡を予測でき、これにより、より優れた監視位置や監視角度をインテリジェントに選択して、既存のロボットがペットを追いかけることで監視効率や効果が悪い課題を解決し、ロボットがペットを監視する効率や効果を向上させることができる。
以上の実施例は本発明を限定するためのものではなく、本発明を十分に開示するためのものであり、本発明の創造趣旨に基づいて創造性のある行為を経ずに得られる等価技術特徴の入れ替えは本願の開示範囲に含まれる。

Claims (12)

  1. ロボットとペット身体上の無線信号装置との無線通信に基づいて、ペットとロボットとの相互位置関係を特定するステップと、
    前記相互位置関係に基づいて、ロボットが構築した格子地図での、ペットに対応する格子位置を特定するステップと、
    異なる時点でのペットの位置する格子位置を記録し、記録した時間情報及びその対応する格子位置情報を統計して、ペットの動作軌跡を予測するための1つのペット日常動作モデルを構築するステップと、
    前記ペット日常動作モデルに応じてペットを監視するステップと、を含むことを特徴とするロボットによるインテリジェントなペット監視方法。
  2. ロボットとペット身体上の無線信号装置との無線通信に基づいて、ペットとロボットとの相互位置関係を特定する前記ステップは、
    ロボット本体上の第1UWB測位基地局と第2UWB測位基地局との間の距離をWとするステップと、
    前記第1UWB測位基地局の座標を(X11,Y11)とし、前記第2UWB測位基地局の座標を(X12,Y12)とするステップと、
    前記第1UWB測位基地局及び前記第2UWB測位基地局とペット身体上のUWB測位ラベルとの無線通信に基づいて、前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とするステップと、
    前記第1UWB測位基地局を角頂点としてそれぞれ前記第2UWB測位基地局と前記UWB測位ラベルに向かう線のなす角度を第1角度とし、且つ第1角度α1が、α1=arccos((W2+R22−R12)/(2*W*R2))であると特定するステップと、
    前記第2UWB測位基地局を角頂点としてそれぞれ前記第1UWB測位基地局と前記UWB測位ラベルに向かう線のなす角度を第2角度とし、且つ第2角度α2が、α2=arccos((W2+R12−R22)/(2*W*R1))であると特定するステップと、
    前記UWB測位ラベルの現在位置点の座標を(Xc,Yc)とし、且つXc=X12+R2*cos(180°−α1−arccos((X12−X11)/W))、Yc=Y11+R1*cos(180°−α2−arcsin((X12−X11)/W))であると特定するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記第1UWB測位基地局の座標を(X11,Y11)とし、前記第2UWB測位基地局の座標を(X12,Y12)とする前記ステップは、
    ロボット本体の中心点の座標をロボットの現在位置点の座標とし、且つ当該座標を(X1,Y1)とするステップと、
    ロボット本体の中心点が、前記第1UWB測位基地局と前記第2UWB測位基地局との連結線の中点であると特定するステップと、
    前記第1UWB測位基地局と前記第2UWB測位基地局との間の距離をWとすると、ロボット本体の中心点から前記第1UWB測位基地局までの距離がW/2であり、ロボット本体の中心点から前記第2UWB測位基地局までの距離がW/2であると特定するステップと、
    ロボットのジャイロスコープによって検出されたロボットの現在方向をαとするステップと、
    ロボット本体上の第1UWB測位基地局の座標を(X11,Y11)とし、且つX11=X1−((W*cosα)/2)、Y11=Y1+((W*sinα)/2)であると特定するステップと、
    ロボット本体上の第2UWB測位基地局の座標を(X12,Y12)とし、且つX12=X1+((W*cosα)/2)、Y12=Y1−((W*sinα)/2)であると特定するステップと、を含むことを特徴とする請求項2に記載の方法。
  4. 前記第1UWB測位基地局及び前記第2UWB測位基地局とペット身体上のUWB測位ラベルとの無線通信に基づいて、前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とする前記ステップは、
    電波の伝播速度をcとするステップと、
    前記第1UWB測位基地局が前記UWB測位ラベルへ距離測定データを送信してから前記UWB測位ラベルからの確認信号を受信するまでの時間をT11とするステップと、
    前記UWB測位ラベルが前記第1UWB測位基地局から送信された距離測定データを受信してから確認信号を送信するまでの時間をT12とするステップと、
    前記UWB測位ラベルが前記第1UWB測位基地局へ距離測定データを送信してから前記第1UWB測位基地局からの確認信号を受信するまでの時間をT13とするステップと、
    前記第1UWB測位基地局が前記UWB測位ラベルから送信された距離測定データを受信してから確認信号を送信するまでの時間をT14とするステップと、
    前記UWB測位ラベルから前記第1UWB測位基地局までの第1距離をR1とし、且つR1=c*(T11−T12+T13−T14)/4であると特定するステップと、
    前記第2UWB測位基地局が前記UWB測位ラベルへ距離測定データを送信してから前記UWB測位ラベルからの確認信号を受信するまでの時間をT21とするステップと、
    前記UWB測位ラベルが前記第2UWB測位基地局から送信された距離測定データを受信してから確認信号を送信するまでの時間をT22とするステップと、
    前記UWB測位ラベルが前記第2UWB測位基地局へ距離測定データを送信してから前記第2UWB測位基地局からの確認信号を受信するまでの時間をT23とするステップと、
    前記第2UWB測位基地局が前記UWB測位ラベルから送信された距離測定データを受信してから確認信号を送信するまでの時間をT24とするステップと、
    前記UWB測位ラベルから前記第2UWB測位基地局までの第2距離をR2とし、且つR2=c*(T21−T22+T23−T24)/4であると特定するステップと、を含むことを特徴とする請求項2に記載の方法。
  5. 前記相互位置関係に基づいて、ロボットが構築した格子地図での、ペットに対応する格子位置を特定する前記ステップは、
    走行中のロボットによって検出されたデータに基づいて、(X0,Y0)を原点とするXY軸座標系に基づく格子地図を構築するステップと、
    前記格子地図における格子セルの辺長をLとするステップと、
    ロボット自体の測位データに基づいて、ロボットの現在位置点の座標を(X1,Y1)とすると、現在位置点に対応する格子セルの格子座標を(S11,S12)とし、S11=(X1−X0)/L、S12=(Y1−Y0)/L(S11とS12はいずれも整数部分を取る)とするステップと、
    ロボットの座標(X1,Y1)に基づいて、ペットの位置する位置点に対応する格子座標を(S21,S22)とし、且つS21=(X1+((W*cosα)/2)+R2*cos(180°−α1−arccos(cosα))−X0)/L、S22=(Y1+((W*sinα)/2)+R1*cos(180°−α2−arcsin(cosα))−Y0)/L(S21とS22はいずれも整数部分を取る)とするステップと、を含むことを特徴とする請求項3に記載の方法。
  6. 異なる時点でのペットの位置する格子位置を記録し、記録した時間情報及びその対応する格子位置情報を統計して、ペットの動作軌跡を予測するための1つのペット日常動作モデルを構築する前記ステップは、
    予め設定された期間をX軸とし、格子の座標点をY軸としてXY軸座標系を構築するステップと、
    前記予め設定された期間を1つの時間周期として、一番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して一本目の動作軌跡線を形成するステップと、
    二番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して二本目の動作軌跡線を形成するステップと、
    三番目の時間周期内において、原点からX軸の時間延在方向に沿って、各時点でのペットの位置する位置点に対応するY軸の格子座標点を特定し、特定した格子座標点を順に連結して三本目の動作軌跡線を形成するステップと、
    このように、各時間周期内に形成される動作軌跡線を引き続き記録するステップと、を含むことを特徴とする請求項1に記載の方法。
  7. 前記ペット日常動作モデルに応じてペットを監視する前記ステップは、
    前記ペット日常動作モデルにおける動作軌跡線の分布状況に応じて、比較的に密度の高い動作軌跡線を特定するステップと、
    比較的に密度の高い動作軌跡線に対応する時間を予測滞在時間とし、比較的に密度の高い動作軌跡線に対応する格子座標を予測滞在位置とするステップと、
    ロボットの現在位置とペットの現在位置に基づいて、ペットとロボットとの間の直線距離が予め設定された距離を超えるか否かを判断するステップと、
    NOであれば、現在の追跡監視状態を継続するステップと、
    YESであれば、現在時間と現在時間より後の一番目の予測滞在時間との時間差が予め設定された時間未満であるか否かを判断するステップと、
    NOであれば、現在の追跡監視状態を継続するステップと、
    YESであれば、現在時間より後の一番目の予測滞在時間に対応する予測滞在位置を特定し、ペットの現在位置と前記予測滞在位置に基づいて、ロボットが位置する場合ロボットのカメラの撮像角度がペットの現在位置と前記予測滞在位置とをカバーする1つの監視位置点を特定するステップと、
    前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記比較的に密度の高い動作軌跡線は、ある1期間内で同一の格子座標範囲内に位置する動作軌跡線であり、その数が同一の期間内の動作軌跡線の全体で占める割合は予め設定された数値を超えることを特徴とする請求項7に記載の方法。
  9. 現在の追跡監視状態を継続する前記ステップは、
    ロボットとペットとの間の距離が予め設定された距離以下であるか否かを判断するステップと、
    NOであれば、監視位置点を再特定して、前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、
    YESであれば、ロボットの位置する格子セルとペットの位置する格子セルとの間であって、ペットを監視するロボットのカメラの撮像角度によってカバーされた予め設定された範囲内の格子セルに、障害セルが存在するか否かを判断するステップと、
    NOであれば、ロボットのカメラがペットに向くように撮像方向を維持するステップと、
    YESであれば、監視位置点を再特定して、前記監視位置点に走行してペットを監視するようにロボットを制御するステップと、含むことを特徴とする請求項8に記載の方法。
  10. 前記監視位置点を再特定することは、
    ペットの位置する格子セルを中心点とする予め設定された領域を特定し、前記予め設定された領域における走行済セルのロボットからの近い順の距離関係に応じて、走行済セルを1つずつ監視候補セルとして、前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルが存在するか否かを判断するステップと、
    NOであれば、前記監視候補セルを監視セルとし、前記監視セルの中心点を監視位置点とするステップと、
    YESであれば、次の走行済セルがロボットからの距離が最も遠い走行済セルであるか否かを判断するステップと、
    YESであれば、直接次の走行済セルを監視セルとし、前記監視セルの中心点を監視位置点とするステップと、
    NOであれば、次の走行済セルを監視候補セルとして、引き続き前記監視候補セルとペットの位置する格子セルとの間の直線格子経路に障害セルが存在するか否かを判断するステップと、を含み、
    前記障害セルはロボットによって障害物が検出された時の対応する格子セルであり、前記走行済セルはロボットが走行したことのある格子セルであることを特徴とする請求項9に記載の方法。
  11. 前記ペットの現在位置と前記予測滞在位置に基づいて、1つの監視位置点を特定することは、
    ペットの現在位置に対応する格子セルを第1セルとし、前記予測滞在位置に対応する格子セルを第2セルとするステップ1と、
    第1セルと第2セルとの連結線の垂直二等分線上のロボットから最も近い走行済セルを第3セルとするステップ2と、
    第1セルから第3セルまでの連結線と第2セルから第3セルまでの連結線との間の角度がロボットのカメラの撮像角度未満であるか否かを判断して、
    NOであれば、ステップ4に移行し、YESであれば、ステップ5に移行するステップ3と、
    第1セルと第2セルとの連結線の垂直二等分線の、第1セルと第2セルから離れる延在方向に沿って、順に前記第3セルからの距離が近い順に配列される走行済セルを新しい第3セルとして、ステップ3に戻るステップ4と、
    第3セルから第1セルまでの直線格子経路に障害セルが存在するか否かを判断し、且つ第3セルから第2セルまでの直線格子経路に障害セルが存在するか否かを判断して、
    いずれもNOであれば、ステップ6に移行し、1つまたは両方ともYESであれば、ステップ7に移行するステップ5と、
    第3セルに対応する格子セルの中心点を監視位置点とするステップ6と、
    第3セルを通過し且つ第1セルと第2セルとの連結線に平行する平行線の延在方向に沿って、順に前記平行線が通過した走行済セルを新しい第3セルとし、新しい第3セルが格子地図の境界から最も近い走行済セルであるか否かを判断し、
    NOであれば、ステップ5に戻り、
    YESであれば、順に第1セルと第2セルとの連結線の垂直二等分線上のロボットから最も近い走行済セルであって近い順に配列される走行済セルを新しい第3セルとして、ステップ5に戻るステップ7と、を含むことを特徴とする請求項7に記載の方法。
  12. 前記監視位置点に走行してペットを監視するようにロボットを制御する前記ステップは、
    ロボットの現在位置点を起点とし、前記監視セルの位置する方向に向かって格子地図の捜索を行うステップと、
    ロボットの現在位置点と前記監視セルの中心点との間であって、走行済セルによって直接連通された格子経路のうち、経路長さが最も短い格子経路を案内格子経路と特定するステップと、
    案内格子経路における格子セルの中心点を案内位置点とし、前記案内位置点を連結して案内経路を構成するステップと、
    現在位置点から前記案内経路に沿って前記監視位置点まで走行するように、ロボットを制御するステップと、
    前記ロボットのカメラの撮像方向がペットの位置する方向に合せるように、ロボットの方向を調節するステップと、を含むことを特徴とする請求項7〜請求項10のうちのいずれか1項に記載の方法。
JP2020551338A 2018-03-20 2018-08-06 ロボットによるインテリジェントなペット監視方法 Active JP7074873B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810227201.3A CN108366343B (zh) 2018-03-20 2018-03-20 机器人智能监视宠物的方法
CN201810227201.3 2018-03-20
PCT/CN2018/098911 WO2019179001A1 (zh) 2018-03-20 2018-08-06 机器人智能监视宠物的方法

Publications (2)

Publication Number Publication Date
JP2021516512A true JP2021516512A (ja) 2021-07-01
JP7074873B2 JP7074873B2 (ja) 2022-05-24

Family

ID=63001025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551338A Active JP7074873B2 (ja) 2018-03-20 2018-08-06 ロボットによるインテリジェントなペット監視方法

Country Status (6)

Country Link
US (1) US11259502B2 (ja)
EP (1) EP3771228B1 (ja)
JP (1) JP7074873B2 (ja)
KR (1) KR102412685B1 (ja)
CN (1) CN108366343B (ja)
WO (1) WO2019179001A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
CN108366343B (zh) 2018-03-20 2019-08-09 珠海市一微半导体有限公司 机器人智能监视宠物的方法
CN109587637B (zh) * 2018-12-15 2022-08-05 深圳壹账通智能科技有限公司 信息提示方法、装置、电子设备及存储介质
CN109514582B (zh) 2018-12-20 2020-06-05 珠海市一微半导体有限公司 一种机器人逗宠控制装置及移动机器人
CN109479746B (zh) * 2018-12-20 2021-02-23 珠海市一微半导体有限公司 一种机器人逗宠控制方法及芯片
CN111367271A (zh) * 2018-12-26 2020-07-03 珠海市一微半导体有限公司 机器人清扫路径的规划方法、系统及芯片
CN110037860A (zh) * 2019-03-26 2019-07-23 北京理工大学 一种家用智能移动急救箱
CN111240341B (zh) * 2020-02-14 2022-09-06 南京理工大学 一种基于uwb和激光雷达传感器的车辆全方位跟随方法
CN113537548B (zh) * 2020-04-21 2024-04-23 杭州海康威视数字技术股份有限公司 一种行驶路线的推荐方法、装置及设备
CN111954150A (zh) * 2020-07-16 2020-11-17 深圳市微能信息科技有限公司 基于双超宽带模组的定位方法、装置、终端及存储介质
CN114513846B (zh) * 2020-11-16 2023-03-21 Oppo广东移动通信有限公司 一种定位通信方法、终端、通信设备和存储介质
CN113341407B (zh) * 2021-06-02 2024-02-06 中国水产科学研究院南海水产研究所 一种基于雷达探测的渔业捕捞追踪系统及方法
KR20230062170A (ko) * 2021-10-29 2023-05-09 삼성전자주식회사 반려 동물을 모니터링하는 로봇 청소기 및 그 제어 방법
CN114167861A (zh) * 2021-11-29 2022-03-11 珠海一微半导体股份有限公司 一种宠物机器人控制方法、系统及芯片
CN114190295B (zh) * 2021-12-20 2023-06-09 珠海一微半导体股份有限公司 一种多宠物机器人控制方法、系统及芯片
CN115063751B (zh) * 2022-07-27 2023-01-06 深圳市海清视讯科技有限公司 宠物牵绳检测方法、设备及存储介质
CN116321193B (zh) * 2023-03-07 2023-08-01 长沙迪迈数码科技股份有限公司 信号覆盖定量评估方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149088A (ja) * 2005-11-23 2007-06-14 Samsung Electronics Co Ltd 移動ロボットの自己位置認識方法及び装置
JP2007317112A (ja) * 2006-05-29 2007-12-06 Funai Electric Co Ltd 自走式装置及び自走式掃除機
JP2008151533A (ja) * 2006-12-14 2008-07-03 Samsung Yokohama Research Institute Co Ltd 側位システムおよび無線通信装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040042242A (ko) * 2002-11-13 2004-05-20 삼성전자주식회사 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템
CN101278654B (zh) 2007-09-26 2010-12-01 深圳先进技术研究院 一种宠物看护机器人系统
US7978085B1 (en) * 2008-02-29 2011-07-12 University Of South Florida Human and physical asset movement pattern analyzer
US20120130796A1 (en) * 2010-11-20 2012-05-24 James David Busch Systems and Methods to Advertise a Physical Business Location with Digital Location-Based Coupons
KR101511567B1 (ko) * 2012-08-14 2015-04-13 삼성테크윈 주식회사 영상 감시 시스템 및 그의 동작 방법
KR101446099B1 (ko) * 2013-03-04 2014-10-07 서울대학교산학협력단 스마트 단말을 이용한 안정적인 사용자의 이동 경로 실시간 예측 방법 및 그 시스템
CN103813446B (zh) * 2014-02-17 2017-06-23 百度在线网络技术(北京)有限公司 一种估算停留区域范围的方法及装置
CN105744223B (zh) * 2016-02-04 2019-01-29 北京旷视科技有限公司 视频数据处理方法和装置
US9654925B1 (en) * 2016-06-23 2017-05-16 OnPoint Systems, LLC Device and method for containing and tracking a subject using satellite positioning data
CN106304332A (zh) * 2016-08-18 2017-01-04 广州市迪士普音响科技有限公司 智慧平台的人员定位方法和系统
CN206150147U (zh) * 2016-10-27 2017-05-10 重庆掌中花园科技有限公司 智能宠物互动系统
CN106780620B (zh) * 2016-11-28 2020-01-24 长安大学 一种乒乓球运动轨迹识别定位与跟踪系统及方法
CN106584472A (zh) * 2016-11-30 2017-04-26 北京贝虎机器人技术有限公司 用于控制自主移动式设备的方法及装置
CN106982741A (zh) * 2017-04-06 2017-07-28 南京三宝弘正视觉科技有限公司 一种宠物监控机器人和系统
CN107671859B (zh) * 2017-10-20 2018-11-02 山东大学 基于s曲线加减速的运动目标动态跟踪方法、系统及装置
CN107566743B (zh) * 2017-10-30 2019-10-11 珠海市一微半导体有限公司 移动机器人的视频监控方法
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
CN108366343B (zh) * 2018-03-20 2019-08-09 珠海市一微半导体有限公司 机器人智能监视宠物的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149088A (ja) * 2005-11-23 2007-06-14 Samsung Electronics Co Ltd 移動ロボットの自己位置認識方法及び装置
JP2007317112A (ja) * 2006-05-29 2007-12-06 Funai Electric Co Ltd 自走式装置及び自走式掃除機
JP2008151533A (ja) * 2006-12-14 2008-07-03 Samsung Yokohama Research Institute Co Ltd 側位システムおよび無線通信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"FF2015 IoT活用事例(ペット事業者向けモデル)", 富士通フォーラム2015, JPN6021044446, 14 May 2015 (2015-05-14), ISSN: 0004637993 *

Also Published As

Publication number Publication date
EP3771228C0 (en) 2023-12-27
EP3771228A1 (en) 2021-01-27
JP7074873B2 (ja) 2022-05-24
CN108366343A (zh) 2018-08-03
CN108366343B (zh) 2019-08-09
US20210037793A1 (en) 2021-02-11
WO2019179001A1 (zh) 2019-09-26
KR20200133776A (ko) 2020-11-30
KR102412685B1 (ko) 2022-06-23
EP3771228B1 (en) 2023-12-27
US11259502B2 (en) 2022-03-01
EP3771228A4 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
JP7074873B2 (ja) ロボットによるインテリジェントなペット監視方法
JP7136898B2 (ja) 格子地図に基づくロボットのペット監視方法及びチップ
CN110009761B (zh) 智能设备自动巡检路径规划方法及系统
US11275163B2 (en) Slam method and apparatus robust to wireless environment change
US10278333B2 (en) Pruning robot system
WO2019136918A1 (zh) 一种室内定位的方法、服务器及定位系统
KR102110813B1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
TWI557421B (zh) 定位輔助方法及其電子移動裝置
CN109946715A (zh) 探测方法、装置、移动机器人及存储介质
CN105446350A (zh) 自移动机器人移动界限划定方法
CN106332280B (zh) WSNs中基于能量高效的单移动信标节点辅助定位方法
EP4180895A1 (en) Autonomous mobile robots for coverage path planning
US20240080796A1 (en) Methods, Systems and Computer Program Products for Determining Location of Tags in an Environment Using Mobile Antennas
CN112033423B (zh) 一种基于道路共识的机器人路径规划方法、装置和机器人
CN104076329A (zh) 节点定位方法和装置
Bai et al. Research on key technologies of meal delivery robot based on the fusion of lidar and machine vision
JP2006174185A (ja) トポロジー推定システムならびにトポロジー推定方法、そのプログラムおよび記録媒体
Lin et al. Sensor-deployment strategies for indoor robot navigation
US20110205012A1 (en) System And Method For Determining Characteristics Of A Physical Environment With Simple Motion Patterns
WO2024051733A1 (zh) 自移动机器人的控制系统、建图方法、进停靠站方法和出停靠站方法
Huang et al. Indoor Positioning Systems of Mobile Robots: A Review. Robotics 2023, 12, 47
CN115844258A (zh) 一种基于多源信息的室内定位机器人及其定位方法
Qiu et al. Modeliranje i stimulacija lociranja i praćenja mete u mreži bežičnog senzora
CN107561529A (zh) 一种非接触式提供动力的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150