JP2020500385A - 人間追跡ロボット - Google Patents
人間追跡ロボット Download PDFInfo
- Publication number
- JP2020500385A JP2020500385A JP2019542826A JP2019542826A JP2020500385A JP 2020500385 A JP2020500385 A JP 2020500385A JP 2019542826 A JP2019542826 A JP 2019542826A JP 2019542826 A JP2019542826 A JP 2019542826A JP 2020500385 A JP2020500385 A JP 2020500385A
- Authority
- JP
- Japan
- Prior art keywords
- program instructions
- person
- determining
- points
- exceed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 7
- 230000011218 segmentation Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
ロボット、方法、およびコンピュータプログラム製品、方法は、少なくとも2次元の点の集まりを受信することと、少なくとも1つの物体を決定するために距離によって点をセグメント化することと、少なくとも1つの物体を追跡することと、少なくとも2つの物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、少なくとも2つの物体をマージすることと、少なくとも1つの物体と関連付けられる人間の姿勢を分類することとを含む。【選択図】図1A
Description
本開示は、ロボット工学の分野に関する。
環境の中でデバイスを用いて人間を自動的に追跡する、または案内することは、複雑なタスクである。人間を継続的に識別して、その人間を追跡または案内する妨げとなり得る多様な静的物体または動的物体が存在する屋内または別の環境では、タスクが特に複雑になる。
「識別する」という用語は、特に記述がない限り、本明細書では、画像、深度情報、サーマルイメージなどを含むがこれらに限定されず、獲得された情報を基に一定期間にわたって人間などの特定の物体を検出することに関して使用される。識別という用語は、必ずしも、物体を具体的な正体に関連付けるものではなく、むしろ、時間内に連続点で検出された物体が、同じ物体であると決定することに関わるものである。
「追跡する」という用語は、特に記述がない限り、本明細書では、追尾すること、案内すること、追跡すること、指示すること、その他、人間などの物体が取る経路に関連して使用される。
関連技術の前述の例、およびそれと関連する制限は、例証的であり、排他的ではないことが意図される。関連技術の他の制限は、本明細書を読んで、図面を検討することで当業者には明らかになろう。
本開示の主題の1つの例示的実施形態は、2次元またはそれより高次元の点の集まりを条件として、ロボットの環境において物体を示す点をキャプチャするためのセンサと、少なくとも2次元の点の集まりを受信するステップ、少なくとも1つの物体を決定するために距離によって点をセグメント化するステップ、少なくとも1つの物体を追跡するステップ、2つまたはそれ以上の物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、少なくとも2つの物体をマージするステップ、および少なくとも1つの物体と関連付けられる人間の姿勢を分類するステップを行うように適合されたプロセッサと、ステアリング機構、または人間の姿勢によってロボットの位置を変更する機構と、ステアリング機構を作動させるためのモータとを備えるロボットである。
本開示の主題の別の例示的実施形態は、2次元またはそれより高次元の点の集まりを受信することと、1つまたは複数の物体を決定するために距離によって点をセグメント化することと、物体を追跡することと、物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、複数の物体を単一の物体にマージすることと、単一の物体と関連付けられる人間の姿勢を分類することとを含む、屋内環境において人間を検出するための方法である。方法は、一連の範囲および角度対を受信することと、各範囲および角度対を2次元空間の点に変換することとをさらに含む場合もある。方法の中で、点をセグメント化することは、2つの連続点間の距離が、閾値を超えていないことを条件として、2つの連続点が1つの物体に属していると決定することと、物体毎に最小外接長方形を決定することと、物体毎に調整された外接長方形を獲得するために最小外接長方形を調整することとを任意選択で含む。方法の中で、物体を追跡することは、新たな物体、静的物体、または動的物体を決定するために、調整された外接長方形を、以前に決定されて調整された外接長方形と比較することを任意選択で含み、動的物体は、少なくとも1つの物体および以前の物体が、実質的に同じサイズであるが、異なる方位または異なる場所に存在することを条件として、決定される。方法の中で、人間の姿勢を分類することは、人間の場所を受信することと、その場所から始めて、隣接する画素まで及ぶ深度画像を処理することであって、多くても第3の所定の閾値内の深度情報差を有する画素が、1つのセグメントと関連付けられる、深度画像を処理することと、1つのセグメントの多重的な区域用の垂直軸上の勾配を決定することと、物体の下部と上部との間での勾配差が、少なくとも第4の所定の閾値内であること、または物体が、実質的に垂直ではないことを条件として、人間が座っていると決定することと、物体の高さが第5の所定の閾値を超えていないこと、および物体の幅が、第6の所定の閾値を超えていることを条件として、人間が横になっていると決定することと、物体の高さが、第5の所定の閾値を超えていないこと、および勾配が、実質的に均一であることを条件として、人間が立っていると決定することとを任意選択で含む。方法は、垂直軸上の勾配によって各セグメントをサブセグメント化することをさらに含む可能性がある。方法は、最新の所定の決定回数の中で最も頻繁に起こる姿勢を決定することによって人の姿勢を平滑化することをさらに含む可能性がある。方法は、人間の場所および姿勢によってデバイスの位置を調整することをさらに含む可能性がある。方法の中で、デバイスの位置を調整することは、デバイスの場所を変更することと、そのデバイスまたはその一部の高さを変更することと、そのデバイスまたはその一部の方位を変更することとで構成される群から選択された行動を行うことを任意選択で含む。方法の中で、デバイスの位置を調整することは、人間を追尾することと、人間を案内することと、前にいて人間を進ませることとで構成される群から選択された行動を起こすために任意選択で行われる。
本開示の主題のさらに別の例示的実施形態は、非一時的コンピュータ可読媒体と、少なくとも2次元の点の集まりを受信するための第1のプログラム命令と、少なくとも1つの物体を決定するために距離によって点をセグメント化するための第2のプログラム命令と、少なくとも1つの物体を追跡するための第3のプログラム命令と、少なくとも2つの物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、少なくとも2つの物体をマージするための第4のプログラム命令と、少なくとも1つの物体と関連付けられる人間の姿勢を分類するための第5のプログラム命令とを備え、前記第1、第2、第3、第4、および第5のプログラム命令が、前記非一時的コンピュータ可読媒体上に記憶されるコンピュータプログラム製品である。コンピュータプログラム製品は、前記非一時的コンピュータ可読媒体上に記憶されたプログラム命令をさらに含む場合があり、プログラム命令は、一連の範囲および角度対を受信するためのプログラム命令と、各範囲および角度対を2次元空間の点に変換するためのプログラム命令とを含む。コンピュータプログラム製品の中で、第2のプログラム命令は、2つの連続点間の距離が、閾値を超えていないことを条件として、2つの連続点が、1つの物体に属していると決定するためのプログラム命令と、物体毎に最小外接長方形を決定するためのプログラム命令と、物体毎に調整された外接長方形を獲得するために、最小外接長方形を調整するためのプログラム命令とを任意選択で備える。コンピュータプログラム製品の中で、第3のプログラム命令は、新たな物体、静的物体、または動的物体を決定するために、調整された外接長方形を以前に決定された調整された外接長方形と比較するためのプログラム命令を任意選択で備え、動的物体は、少なくとも1つの物体および以前の物体が、実質的に同じサイズであるが、異なる方位または異なる場所に存在することを条件として、決定される。コンピュータプログラム製品の中で、第5のプログラム命令は、人間の場所を受信するためのプログラム命令と、その場所から始めて、隣接する画素まで及ぶ深度画像を処理するためのプログラム命令であって、多くても第3の所定の閾値内の深度情報差を有する画素が、1つのセグメントと関連付けられる、深度画像を処理するためのプログラム命令と、1つのセグメントの多重的な区域用の垂直軸上の勾配を決定するためのプログラム命令と、物体の下部と上部との間での勾配差が、少なくとも第4の所定の閾値内であること、または物体が、実質的に垂直ではないことを条件として、人間が座っていると決定するためのプログラム命令と、物体の高さが、第5の所定の閾値を超えていないこと、および物体の幅が、第6の所定の閾値を超えていることを条件として、人間が横になっていると決定するためのプログラム命令と、物体の高さが、第5の所定の閾値を超えていないこと、および勾配が実質的に均一であることを条件として、人間が立っていると決定するためのプログラム命令とを任意選択で備える。コンピュータプログラム製品は、垂直軸上の勾配によって各セグメントをサブセグメント化するための、前記非一時的コンピュータ可読媒体上に記憶されるプログラム命令をさらに備える場合がある。コンピュータプログラム製品は、最新の所定の決定回数の中で最も頻繁に起きる姿勢を決定することによって、人の姿勢を平滑化するための、前記非一時的コンピュータ可読媒体上に記憶されるプログラム命令をさらに備える場合がある。コンピュータプログラム製品は、人間の場所および姿勢によってデバイスの位置を調整するための、前記非一時的コンピュータ可読媒体上に記憶されるプログラム命令をさらに備える場合がある。コンピュータプログラム製品の中で、デバイスの位置を調整するためのプログラム命令は、デバイスの場所を変更することと、デバイスまたはその一部の高さを変更することと、デバイスまたはその一部の方位を変更することとで構成される群から選択された行動を行うためのさらなるプログラム命令を備える場合がある。コンピュータプログラム製品の中で、デバイスの位置を調整するためのプログラム命令は、人間を追尾することと、人間を案内することと、前にいて人間を進ませることとで構成される群から選択された行動を起こすために任意選択で実行される。
本開示の主題は、対応するまたは類似の数字または文字が、対応するまたは類似の構成要素を表している図面に関連させながら下記の詳細な説明を読むことでより十分に理解されて認識されるであろう。特に明記しない限り、図面は、本開示の例示的実施形態または態様を提供しており、本開示の範囲を限定するものではない。
本開示の主題によって扱われる1つの技術的問題は、人間などの物体を識別して、追跡するための方法およびデバイスの必要性に関する。そのような方法およびデバイスは、歩行器として機能する、人を追尾する、モバイルトレイまたはモバイルコンピュータ化ディスプレイデバイスを提供する、人を目的地に案内する、前にいて目的地まで人間を進ませるまたは後ろにいて目的地まで人を追尾するなどの、多様な目的に使用することができる。上述の目的は、排他的ではなく、デバイスは、人を案内することも行う、歩行器およびモバイルトレイなどの複数の目的で同時に使用され得ることを理解されたい。そのようなデバイスは、他の目的で使用され得ることを理解されたい。環境、特に、他にも動く人がいる環境を含む、複数の物体が存在する環境の中で一人の人を識別して追跡することは、困難なタスクであることが知られている。
本開示の主題によって扱われる別の技術的問題は、人をキャプチャする、または他の方法で感知するための、モバイルキャプチャデバイスまたはセンサ、およびモバイルコンピューティングプラットフォームを使用することで、リアルタイムまたはほぼリアルタイムに人を識別して追跡する必要性に関する。デバイスに要求される可動性および他の要件は、処理能力または他の制限を課す。例えば、高リソース消費の画像処理タスクは、このような条件下では行うことができず、大出力を必要とするプロセッサは、モバイルデバイス上などで、長時間にわたって動作することができない。
1つの技術的解決策は、検出された物体の座標を描写する2次元または3次元の点の集まりから、人を識別して追跡するための方法に関する。追跡は、追跡デバイスが人に近接して前進することによって行われる場合もある。点は、例えば、追跡デバイス上に位置する回転レーザ送信器/受信器から一連の角度および距離対を受信し、この情報を2次元点または3次元点に変換することによって、獲得され得る。それぞれのそのような対は、物体が、特定の角度で見つかる距離を示す。情報は、1度毎に、0.5度毎などに、レーザ送信器/受信器から受信され、レーザ送信器/受信器は、0.1秒毎に、またはさらに短い時間毎に360度回転を完了させることができる。
次いで、変換された点は、任意の2つの連続点、すなわち、レーザ送信器/受信器から受信された2つの連続的な読み取り値から獲得された点の間の差によって、セグメント化され得る。
次いで、外接長方形は、そのようなセグメント毎に画定されることができ、レーザ送信器/受信器の以前のサイクルの間に決定された外接長方形と比較され得る。以前に決定された物体に対応するように識別された物体は、経時的に識別され得る。
比較に基づき、物体は、マージおよび分割され得る。さらに、2つのセグメントが、比較的小さく、比較的互いに近くにある場合、それらは、例えば人の脚の場合など、単一の物体として考えられ得る。
別の技術的解決策は、場所が分かったら、人間の姿勢、例えば、人が座っている、立っている、それとも横になっているかどうかを決定することに関する。位置を決定することは、例えば深度カメラから獲得された深度情報を基に算出されるように、垂直軸に沿って物体を作り出す画素の深度の勾配に基づいて行われ得る。
人の場所と位置が決定されると、デバイスは、追尾する、案内する、または前にいて人間を進ませるなどの、人に対して要求される機能を提供するように、人の場所および姿勢よって、場所、高さ、または方位を変更するなどの行動を起こすことができる。
本開示の主題の1つの技術的効果は、人を追尾するまたは人を案内することができる自律的デバイスを提供することである。デバイスは、人にとって役立つように、例えば、人が自律的デバイスのトレイに容易に届くこと、自律的デバイスのディスプレイデバイス上に表示された内容を見ることなどができるように、高さまたは方位をさらに調整することができる。
次に、人を識別、追跡、または案内するための自律的デバイスの概略図を示す図1Aおよび図1Bと、同デバイスの機能ブロック図を示す図2とを参照する。
図1Aは、人が、デバイスと物理的に接触せずに、人を識別、追跡、案内する、一般的な参照番号100のデバイスを示す。図1Bは、人を識別、追跡、および案内するデバイス100を示し、人が、デバイス100のハンドル116を保持している。
ハンドル116は、例えば、デバイス100が人を案内している目的地まで、物品を運ぶために、人が使用できるトレイと置き換えること、またはトレイと連結することができることを理解されたい。
デバイス100は、底部104に位置付けられ、1つまたは複数の車輪、または1つまたは複数のベアリング、チェーン、または移動するための任意の他の機構を含む場合があるステアリング機構200を備える。デバイス100は、ステアリング機構200を作動させるためのモータ204、および必要とされる動きに従ってモータ204にコマンドを提供するためのモータ制御装置208をさらに備える場合がある。
デバイス100は、レーザ受信器/送信器、RGBデータまたは深度データを提供することができるカメラ、またはマイクロホンなどの付加的なデバイスなどの1つまたは複数のセンサまたはキャプチャデバイス108をさらに含む場合がある。
レーザ受信器/送信器は、回転し、物体に命中する距離で、角度毎に、またはデバイス100の周囲のほとんどの角度でレーザ光線を提供することができる。レーザ受信器/送信器は、1度毎に、0.5度毎などに読み取り値を提供することができる。
デバイス100は、トレイ116、ディスプレイデバイス112などの有用な部材212をさらに含む場合もある。
ディスプレイデバイス112は、他の人をユーザに表示することができ、それにより、人間のインストラクタが、ユーザを案内しているまたは追尾しているという感覚、警告、娯楽情報、運ぶ品物などの必要な情報、または任意の他の情報を与える。有用な部材212は、音声を再生するまたはストリーミングするためのスピーカ、バスケットなどをさらに備えることができる。
デバイス100は、データ、または以下に詳述される方法のステップのいずれかに関連付けられる動作をデバイス100に行わせるように作動するプログラムコードを記憶するための1つまたは複数のコンピュータ記憶デバイス216をさらに含むことができる。記憶デバイス216は、永続的または揮発性であり得る。例えば、記憶デバイス216は、フラッシュディスク、ランダムアクセスメモリ(RAM:Random Access Memory)、メモリチップ、CD、DVD、またはレーザディスクなどの光学的記憶デバイス;テープ、ハードディスク、ストレージエリアネットワーク(SAN:storage area network)、ネットワークアタッチストレージ(NAS:network attached storage)他などの磁気記憶デバイス;フラッシュデバイス、メモリスティック等の半導体記憶デバイスであり得る。
本開示の主題のいくつかの例示的実施形態では、デバイス100は、コマンドを受信する、命令を表示するなどの、デバイス100から入力を受信し、デバイス100へ出力を提供するのに利用され得る、1つまたは複数の入力/出力(I/O:Input/Output)デバイス220を備える場合がある。I/Oデバイス220は、ディスプレイ112、スピーカ、マイクロホン、タッチスクリーン他などの、以前に述べた部材を含む場合がある。
いくつかの例示的実施形態では、デバイス100は、1つまたは複数のプロセッサ224を備えることができる。プロセッサ224のそれぞれは、中央処理装置(CPU:Central Processing Unit)、マイクロプロセッサ、電子回路、集積回路(IC:Integrated Circuit)などであり得る。あるいは、プロセッサ224は、デジタル信号プロセッサ(DSP:digital signal processor)またはマイクロコントローラなどの特定のプロセッサ用にプログラムされた、またはそこへ移植されたファームウェアとして実施されることができる、またはフィールドプログラマブルゲートアレイ(FPGA:field programmable gate array)または特定用途向け集積回路(ASIC:application specific integrated circuit)などのハードウェアもしくは構成可能なハードウェアとして実施されることができる。
いくつかの実施形態では、1つまたは複数のプロセッサ224が、デバイス100から遠隔に位置付けられる場合があり、演算のいくつかまたは全てが、デバイスから遠隔のプラットホームによって行われて、結果が、通信チャネルを介してデバイス100に伝送される。
プロセッサ224は、限定的ではないが記憶デバイス216などの、非一時的コンピュータ可読記憶媒体上で実施されるコンピュータ可読命令によっていくつかの機能モジュールを実行するように構成され得ることを理解されたい。そのような機能モジュールは、プロセッサの中に備えられるものとして下文で言及される。
以下に詳述される構成要素は、例えばプロセッサ224によって、または別のプロセッサによって実行される相関したコンピュータ命令の1つまたは複数のセットとして実装することができる。構成要素は、任意のプログラミング言語でプログラムされた、そして任意のコンピューティング環境の下で、1つまたは複数の実行可能ファイル、動的ライブラリ、静的ライブラリ、方法、機能、サービスなどとして配置されることができる。
プロセッサ224は、例えば、レーザ送信器/受信器から獲得された一連の角度および距離対に基づいて決定された、連続点の集まりを受信して、それらを物体にセグメント化するための点セグメント化モジュール228を備えることができる。
プロセッサ224は、経時的に点セグメント化モジュール228によって獲得された物体を追跡して、例えば、以前には一方が他方の後方に存在した、2人の人物を区別すること、または1人の人と1つの家具とを区別すること、2本の脚が1人の人間のものであると識別することなど、物体がマージされたのか、それとも分割されたのかを決定するための、物体追跡およびマージ/分割モジュール232を備えることができる。
プロセッサ224は、点セグメント化モジュール228によって決定された物体および特に人間の姿勢を決定するための姿勢分類モジュール236を備えることができる。
プロセッサ224は、デバイス100によって起こされる行動、例えば、人間のユーザの場所に応じて別の場所に移動する、トレイ116またはディスプレイ112などのデバイスまたはその一部の高さを変更する、ビデオまたはオーディオストリームを再生するなどを決定するための、行動決定モジュール240を備えることができる。
次に、環境の中で物体を検出して追跡するために実行される動作の流れ図を示す図3を参照する。
段階300では、1つまたは複数の物体が、検出されて、追跡される。段階300は、例えば2次元の点座標を受信するための段階312を含む場合がある。点は、レーザ送信器/受信器から得られた角度および距離の連続的な対を受信し、それらを平面に投射することによって、獲得され得る。通常、連続点は、連続した角度で獲得されるが、これは、必須でないことを理解されたい。
段階300は、物体を決定するために、連続点間の距離によって、点をセグメント化するための点セグメント化段階316をさらに含む場合がある。
次に、点をセグメント化するために実行される動作の流れ図を示し、したがって、点セグメント化段階316を詳述する図4Aを参照する。
点セグメント化段階316は、2つの連続点間の距離を決定するための距離決定段階404を備える場合がある。距離は、平面上のユークリッド距離として決定されることができる。
点セグメント化段階316では、段階404上で決定される2つの連続点間の距離が、閾値を下回る場合には、点は同じ物体に属していると決定され得る。距離が、閾値を超える場合には、点は異なる物体と関連付けられる。
非限定的な例では、閾値は、後続の数式によって設定され得る:
tan(2つの連続点間の角度差)*Range(m)+C、上式において、角度差は、例えば、1度であってもよく、range(範囲)(m)は、ロボットと物体との間の距離で、例えば1メートルであってもよく、Cは、丸め誤差などの誤りを平滑化するために意図された、例えば、0.1などの、0.01と1との間の小定数である。したがって、1メートルの範囲、1メートルの角度差、0.05の定数では、計算は、tan(1)*1+0.05=0.067となる。したがって、XY空間の中の2つの点の間の距離が、0.067mを下回る場合、点は、同じ物体の部分として考えられ、そうでない場合、それらは2つの別個の物体に分割される。
tan(2つの連続点間の角度差)*Range(m)+C、上式において、角度差は、例えば、1度であってもよく、range(範囲)(m)は、ロボットと物体との間の距離で、例えば1メートルであってもよく、Cは、丸め誤差などの誤りを平滑化するために意図された、例えば、0.1などの、0.01と1との間の小定数である。したがって、1メートルの範囲、1メートルの角度差、0.05の定数では、計算は、tan(1)*1+0.05=0.067となる。したがって、XY空間の中の2つの点の間の距離が、0.067mを下回る場合、点は、同じ物体の部分として考えられ、そうでない場合、それらは2つの別個の物体に分割される。
外接長方形決定段階412では、物体毎にその物体と関連付けられる全ての点を含む、外接長方形が決定されることができる。外接長方形は、例えば全ての点を含む最小長方形のように、できるだけ小さくなければならない。
外接長方形調整段階416では、段階412で決定された外接長方形は、長方形をレーザ送信器/受信器座標系から地球地図座標系に変換するために、レーザ送信器/受信器の位置および方位についての位置確認情報によって調整されることができる。
次に図5Aおよび図5Bを参照すると、図5Aは、立っている人の深度画像500および深度カメラを向いて座っている人の深度画像502を示す。図5Bの物体504および506は、画像500および502の外接長方形をそれぞれ表示している。
上で詳述された図4Aの段階は、上で開示された点セグメント化モジュール228によって行われてもよい。段階は、360°の全サイクル(またはレーザ送信器/受信器が360°回転しない場合には、それより少ない)毎に繰り返され得ることを理解されたい。
ここで再び図3を参照すると、物体検出および追跡段階300は、物体追跡段階320をさらに含む場合がある。
次に物体追跡段階320を詳述する図4Bを参照する。物体追跡段階320は、現在のサイクルで決定された長方形のそれぞれは、以前のサイクルで決定された全ての長方形に対して比較される、比較段階420を含む場合がある。
現在のサイクルでの長方形および以前のサイクルでの長方形が、同じ、または実質的に同じである場合、関連付けられる物体は、静的物体と考えられ得る。2つの長方形が、実質的に同じサイズであるが、方位が異なる場合、または場所または方位は変化しているが、サイズは同じままである場合には、それらは、動的な同じ物体と考えられ得る。長方形が、これらの判定基準のいずれも満たさない場合、それらは別のものである。以前のサイクルの長方形と適合しない長方形は、新たな物体と考えられる。
上述された図4Bの段階は、上で開示された物体追跡およびマージ/分割構成要素232によって、行われてもよい。
ここで再び図3を参照すると、物体検出および追跡段階300は、物体マージ段階324をさらに含む場合がある。物体マージ段階324では、比較的に小さく、互いに近い物体、例えば最大約20cmおよび最大約40cm離れている物体は、同じ物体と考えられ得る。この状況は、例えば、あるサイクルでは離れていて、他のサイクルでは互いに隣接しており、したがって、1つの物体と考えられ得る、人間の2本の脚に関する場合がある。他の物体から分割する物体は、新たな物体として認識されることを理解されたい。
段階328では、物体特徴は、物体識別子を最新のサイズ、場所、方位などと関連付けるなどして、更新され得る。
以下に詳説されるように実行された複数の実験では、驚くべき結果が、達成された。実験は、速度が1.3m/秒のロボットを用いて実行された。レーザ送信器/受信器は、6Hzで作動して、1度毎にサンプルを提供し、したがって、毎秒6*360=2160サンプルを提供する。動的物体は、失敗なく、検出されて追跡された。
物体が識別されて、追跡された後、1つまたは複数の物体の姿勢は、段階304で分類されることができる。姿勢分類段階304は、少なくとも所定のサイズの物体、動的物体だけ、場面毎に1つまたは2つなどの、多くても所定数の物体などの、特定の物体で行われる可能性があることを理解されたい。
次に、姿勢分類段階304を詳述する図4Cを参照する。
姿勢分類段階304は、人間であると推定される物体の場所が受信される、場所受信段階424を含む場合がある。場所は、絶対座標などの、デバイス100と相対的な座標で受信され得る。
姿勢分類段階304は、深度画像受信および処理段階428を含む場合があり、画像は、例えば、デバイス100上に、または任意の他の場所に載置された深度カメラから受信され得る。深度画像は、画像内の画素毎の深度表示を備える場合がある。処理は、深度に基づいて画像をセグメント化することを含む場合がある。例えば、2つの隣接する画素が、所定の閾値を超えた深度差を有する場合、画素は、異なる物体に属していると考えられることができ、一方で、深度が、同じまたは十分に近い、例えば、差が所定の値を下回る場合、点は、同じ物体に属していると考えられることができる。画像の範囲内の画素は、下から上または任意の他の順序でセグメント化され得る。
姿勢分類段階304は、それぞれの見つかった物体の点毎に、垂直軸に沿って深度情報の勾配を計算し、決定された勾配によって物体をサブセグメント化するための段階432を含む場合がある。
次に、立っている人の深度画像500および座っている人の深度画像502と、外接長方形504、506、508、および512の例とを示す、図5Aおよび図5Bを再び参照すると、物体504は、深度画像500の外接長方形を表しており、物体506は、深度画像502の外接長方形を表している。深度情報に基づいてセグメント化された物体は、必ずしも長方形であるわけではなく、図5Bの物体は、単なる便宜上の理由で長方形として示されていることを理解されたい。
姿勢分類段階304は、物体の下部および上部での勾配が、大幅に異なっているかどうかが決定され得る段階436を含む場合がある。勾配が異なっている、例えば、差が所定の閾値を超えている、または物体が、一般的には直線に沿っていないと決定される場合には、人間は、座っていると推論され得る。したがって、物体504として示される外接長方形の中では、全ての区域が、深度カメラに対して実質的に均一な距離にあるので、物体504には、大きな勾配変化がなく、人は、座っていないと決定される。
しかしながら、画像502の人の外接長方形506は、印が付けられているように、かなりの垂直勾配を示しているので、これは、下部が、上部よりもカメラに近いことを示しており、したがって、人が、カメラを向いて座っている可能性があると決定される。
段階440では、物体の高さが、決定されることができ、それが、例えば約1mまたは別の所定の高さ未満であるなど、低い場合、そして、物体の幅が、例えば50cmより広い場合には、人間が、横たわっていると推論され得る。
段階444では、物体の高さが、例えば1mを上回るなど、高い場合、そして、深度勾配が、実質的に物体上でゼロである場合には、人間が、立っていると推論され得る。
上で詳述されたような図4Cの段階は、上で開示された姿勢分類モジュール236によって行われてもよい。
次に再び図3を参照すると、物体が追跡されて、位置が分類されると、デバイスの位置は、段階308で変更され得る。位置変更により、デバイス100の場所、デバイスまたはその一部の高さまたは方位が調整される場合があり、特定の適用または使用によって決まり得る。
例えば、場所変更段階332では、デバイス100は、場所を変更する場合がある。配備モードによる。例えば、デバイスは、人間の前進方向と反対方向に、人間から所定の距離だけ離れた場所から、人間を追尾する場合がある。あるいは、デバイス100は、例えば、所定の場所に到達するために、人間が進むべき方向に人間から所定の距離だけ離れた場所から、人間を案内する場合がある。さらには、デバイス100は、例えば人間の前進方向に人間から所定の距離だけ離れた場所から、前にいて人間を案内する場合もある。
高さ変更段階336では、デバイス100、またはトレイ116もしくはディスプレイ112などのその一部の高さは、それが、例えば立っている、座っている、または横になっているなどの姿勢によって決まり得る人間の高さに適合するように、調整されることができる。
方位変更段階336では、デバイス100、またはトレイ116もしくはディスプレイ112などのその一部の方位は、例えば、人間が、トレイ116に触れる、ディスプレイ112を見るなどができるように回転することによって、調整されることができる。正しい方位を決定するために、人間の顔は、人間が前進している方向に向いていると推定され得る。
実験は、上で詳述されたように行われた。実験は、カメラから50cmから2.5mまでのさまざまな距離の、さまざまな位置で立っている、または5つの異なる椅子のどれかに座っている、160cmから195cmまでの範囲の身長の人々について行われた。姿勢分類は、事例の約95%で成功した。
本明細書に使用される用語は、特定の実施形態を描写するためのものにすぎず、本開示を限定するものとは意図されない。本明細書で使用される場合には、単数形の「a」、「an」、および「the」は、文脈上、明確にそうでないと指示していない限り、複数形も含むことが意図される。用語「備える」および/または「備えている」は、本明細書で使用されるとき、明示された特徴、整数、ステップ、動作、要素、および/または構成要素が存在することを明記するものであるが、1つまたは複数の他の特徴、整数、ステップ、動作、要素、構成要素、および/またはその群の存在または追加を除外するものではないことをさらに理解されたい。
当業者には認識されるように、本開示の主題の部分は、システム、方法、またはコンピュータプログラム製品として具現化され得る。したがって、本開示の主題は、完全なるハードウェア実施形態、完全なるソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または本明細書において、「回路」、「モジュール」、または「システム」と全て一般的に称される場合があるソフトウェアおよびハードウェア態様を結合した実施形態の形態をとることができる。そのうえ、本開示は、媒体の中に具現化されたコンピュータ使用可能プログラムコードを有する表現の任意の有形媒体の中に具現化されたコンピュータプログラム製品の形態をとる場合もある。
1つまたは複数のコンピュータ使用可能媒体またはコンピュータ可読媒体の任意の組合せを利用することができる。コンピュータ使用可能媒体またはコンピュータ可読媒体は、以下に限定するわけではないが、例えば、電子的、磁気的、光学的、電磁気的、赤外線の、または半導体のシステム、装置、デバイス、または伝搬媒体であってもよい。コンピュータ可読媒体のより具体的な例(網羅的ではない一覧)は、以下の通りである:1つまたは複数のワイヤを有する電気的接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM:read−only memory)、消去可能プログラマブル読取専用メモリ(EPROM:erasable programmable read−only memoryまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読取専用メモリ(CDROM:compact disc read−only memory)、光学的記憶デバイス、インターネットまたはイントラネットを支援しているものなどの伝送媒体、または磁気的記憶デバイス。コンピュータ使用可能媒体またはコンピュータ可読媒体は、プログラムが、例えば、紙または他の媒体の光学的スキャンによって、電子的にキャプチャされて、次いで、コンパイルされ、解釈され、または、必要に応じて適切な様式で処理され、次いで、コンピュータメモリの中に記憶され得るように、その上にプログラムが印刷される紙または別の適切な媒体であってもよいことに留意されたい。本文書の文脈では、コンピュータ使用可能媒体またはコンピュータ可読媒体は、命令実行システム、装置、またはデバイスを用いた、またはそれらと接続したプログラムを含有する、記憶する、通信する、伝搬する、また移送することができる任意の媒体であってよい。コンピュータ使用可能媒体は、ベースバンド内の、または搬送波の一部として、それとともに具現化されたコンピュータ使用可能プログラムコードと共に伝搬されたデータ信号を含み得る。コンピュータ使用可能プログラムコードは、無線、有線、光ファイバケーブル、RFなどを含むが、これらに限定されない任意の適切な媒体を使用して伝送され得る。
本開示のオペレーションを実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または類似のプログラミング言語などの従来の手続き型プログラミング言語を含む、1つまたは複数のプログラミング言語の任意の組み合せで書かれてもよい。プログラムコードは、全体をユーザのコンピュータ上で、独立型ソフトウェアパッケージとして一部をユーザのコンピュータ上で、一部をユーザのコンピュータ上で、一部を遠隔コンピュータ上で、または全体を遠隔コンピュータもしくはサーバ上で、実行してもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN:local area network)または広域ネットワーク(WAN:wide area network)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続されてもよく、または接続は、外部コンピュータに(例えば、インターネットサービスプロバイダーを使用してインターネットを通して)つながれてもよい。
対応する構造、材料、動作、および下記の特許請求の範囲の中の全ての手段またはステッププラスファンクション要素の同等物は、明確に請求されるように他の請求された要素と組み合わせて機能を果たすための、任意の構造、材料、または動作を含むことが意図される。本開示の説明は、図解および説明のために提示されてきたが、開示の形態の本開示を網羅的にまたは限定されるようには意図されていない。当業者には、本開示の範囲および精神を逸脱しない範囲で、多くの修正および変更が明らかであろう。実施形態は、本開示の原理および実際の適用を最良に説明するために、そして別の当業者が、想定される特定の用途に適するようにさまざまな変更を有するさまざまな実施形態に関して本開示を理解することを可能にするために、選択されて記載された。
Claims (21)
- 少なくとも2次元の点の集まりを条件として、ロボットの環境において物体を示す前記点をキャプチャするためのセンサと、
少なくとも2次元の点の集まりを受信するステップ、
少なくとも1つの物体を決定するために距離によって前記点をセグメント化するステップ、
前記少なくとも1つの物体を追跡するステップ、
少なくとも2つの物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、前記少なくとも2つの物体を単一の物体にマージするステップ、および
前記単一の物体と関連付けられる人間の姿勢を分類するステップ
を行うように適合されたプロセッサと、
ステアリング機構、または前記人間の前記姿勢によって前記ロボットの位置を変更する機構と、
前記ステアリング機構を作動させるためのモータと
を備える、ロボット。 - 少なくとも2次元の点の集まりを受信することと、
少なくとも1つの物体を決定するために距離によって前記点をセグメント化することと、
前記少なくとも1つの物体を追跡することと、
少なくとも2つの物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、前記少なくとも2つの物体を単一の物体にマージすることと、
前記単一の物体と関連付けられる人間の姿勢を分類することと
を含む、屋内環境において人間を検出するための方法。 - 一連の範囲および角度対を受信することと、
各範囲および角度対を2次元空間の点に変換することと
をさらに含む、請求項2に記載の方法。 - 前記点をセグメント化することが、
2つの連続点間の距離が、閾値を超えていないことを条件として、前記2つの連続点が1つの物体に属していると決定することと、
物体毎に最小外接長方形を決定することと、
物体毎に調整された外接長方形を獲得するために前記最小外接長方形を調整することと
を含む、請求項2に記載の方法。 - 前記少なくとも1つの物体を追跡することが、
新たな物体、静的物体、または動的物体を決定するために、前記調整された外接長方形を、以前に決定されて調整された外接長方形と比較することを含み、動的物体は、少なくとも1つの物体および以前の物体が、実質的に同じサイズであるが、異なる方位または異なる場所に存在することを条件として、決定される、請求項4に記載の方法。 - 前記人間の前記姿勢を分類することが、
人間の場所を受信することと、
前記場所から始めて、隣接する画素まで及ぶ深度画像を処理することであって、多くても第3の所定の閾値内の深度情報差を有する画素が、1つのセグメントと関連付けられる、深度画像を処理することと、
前記1つのセグメントの多重的な区域用の垂直軸上の勾配を決定することと、
物体の下部と上部との間での前記勾配差が、少なくとも第4の所定の閾値内であること、または前記物体が、実質的に垂直ではないことを条件として、前記人間が座っていると決定することと、
前記物体の高さが第5の所定の閾値を超えていないこと、および前記物体の幅が、第6の所定の閾値を超えていることを条件として、前記人間が横になっていると決定することと、
前記物体の高さが、前記第5の所定の閾値を超えていないこと、および前記勾配が、実質的に均一であることを条件として、前記人間が立っていると決定することと
を含む請求項2に記載の方法。 - 前記垂直軸上の前記勾配によって各セグメントをサブセグメント化することをさらに含む、請求項6に記載の方法。
- 最新の所定の決定回数の中で最も頻繁に起こる前記姿勢を決定することによって前記人の前記姿勢を平滑化することをさらに含む、請求項6に記載の方法。
- 前記人間の場所および姿勢によってデバイスの位置を調整することをさらに含む、請求項2に記載の方法。
- 前記デバイスの前記位置を調整することが、前記デバイスの場所を変更することと、前記デバイスまたはその一部の高さを変更することと、前記デバイスまたはその一部の方位を変更することとで構成される群から選択された行動を行うことを含む、請求項9に記載の方法。
- 前記デバイスの前記位置を調整することが、前記人間を追尾することと、前記人間を案内することと、前にいて前記人間を進ませることとで構成される群から選択された行動を起こすために行われる、請求項9に記載の方法。
- 非一時的コンピュータ可読媒体と、
少なくとも2次元の点の集まりを受信するための第1のプログラム命令と、
少なくとも1つの物体を決定するために距離によって前記点をセグメント化するための第2のプログラム命令と、
前記少なくとも1つの物体を追跡するための第3のプログラム命令と、
少なくとも2つの物体が、第1の閾値を超えていないサイズであること、および第2の閾値を超えていない距離に存在することを条件として、前記少なくとも2つの物体をマージするための第4のプログラム命令と、
前記少なくとも1つの物体と関連付けられる人間の姿勢を分類するための第5のプログラム命令とを備え、
前記第1、第2、第3、第4、および第5のプログラム命令が、前記非一時的コンピュータ可読媒体上に記憶される、コンピュータプログラム製品。 - 前記非一時的コンピュータ可読媒体上に記憶されたプログラム命令をさらに備え、前記プログラム命令が、
一連の範囲および角度対を受信するためのプログラム命令と、
各範囲および角度対を2次元空間の点に変換するためのプログラム命令と
を含む、請求項12に記載のコンピュータプログラム製品。 - 前記第2のプログラム命令が、
2つの連続点間の距離が、閾値を超えていないことを条件として、前記2つの連続点が、1つの物体に属していると決定するためのプログラム命令と、
物体毎に最小外接長方形を決定するためのプログラム命令と、
物体毎に調整された外接長方形を獲得するために、前記最小外接長方形を調整するためのプログラム命令と
を備える、請求項12に記載のコンピュータプログラム製品。 - 前記第3のプログラム命令が、
新たな物体、静的物体、または動的物体を決定するために、前記調整された外接長方形を以前に決定されて調整された外接長方形と比較するためのプログラム命令を備え、動的物体は、少なくとも1つの物体および以前の物体が、実質的に同じサイズであるが、異なる方位または異なる場所に存在することを条件として、決定される、請求項14に記載のコンピュータプログラム製品。 - 前記第5のプログラム命令が、
人間の場所を受信するためのプログラム命令と、
前記場所から始めて、隣接する画素まで及ぶ深度画像を処理するためのプログラム命令であって、多くても第3の所定の閾値内の深度情報差を有する画素が、1つのセグメントと関連付けられる、深度画像を処理するためのプログラム命令と、
前記1つのセグメントの多重的な区域用の垂直軸上の勾配を決定するためのプログラム命令と、
物体の下部と上部との間での前記勾配差が、少なくとも第4の所定の閾値内であること、または前記物体が、実質的に垂直ではないことを条件として、前記人間が座っていると決定するためのプログラム命令と、
前記物体の高さが、第5の所定の閾値を超えていないこと、および前記物体の幅が、第6の所定の閾値を超えていることを条件として、前記人間が横になっていると決定するためのプログラム命令と、
前記物体の高さが、前記第5の所定の閾値を超えていないこと、および前記勾配が実質的に均一であることを条件として、前記人間が立っていると決定するためのプログラム命令と
を備える、請求項12に記載のコンピュータプログラム製品。 - 前記垂直軸上の前記勾配によって各セグメントをサブセグメント化するための、前記非一時的コンピュータ可読媒体上に記憶されるプログラム命令をさらに備える、請求項16に記載のコンピュータプログラム製品。
- 最新の所定の決定回数の中で最も頻繁に起きる前記姿勢を決定することによって、前記人の前記姿勢を平滑化するためのプログラム命令をさらに備える、請求項16に記載のコンピュータプログラム製品。
- 前記人間の場所および姿勢によってデバイスの位置を調整するためのプログラム命令をさらに備える、請求項12に記載のコンピュータプログラム製品。
- 前記デバイスの前記位置を調整するための前記プログラム命令が、前記デバイスの場所を変更することと、前記デバイスまたはその一部の高さを変更することと、前記デバイスまたはその一部の方位を変更することとで構成される群から選択された行動を行うためのさらなるプログラム命令を備える、請求項19に記載のコンピュータプログラム製品。
- 前記デバイスの前記位置を調整するための前記プログラム命令が、前記人間を追尾することと、前記人間を案内することと、前にいて前記人間を進ませることとで構成される群から選択された行動を起こすために実行される、請求項19に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662410630P | 2016-10-20 | 2016-10-20 | |
US62/410,630 | 2016-10-20 | ||
PCT/IL2017/051156 WO2018073829A1 (en) | 2016-10-20 | 2017-10-19 | Human-tracking robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020500385A true JP2020500385A (ja) | 2020-01-09 |
Family
ID=62018304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019542826A Pending JP2020500385A (ja) | 2016-10-20 | 2017-10-19 | 人間追跡ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US20200050839A1 (ja) |
EP (1) | EP3529009A4 (ja) |
JP (1) | JP2020500385A (ja) |
KR (1) | KR20190103146A (ja) |
CN (1) | CN110072673B (ja) |
WO (1) | WO2018073829A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11450148B2 (en) | 2017-07-06 | 2022-09-20 | Wisconsin Alumni Research Foundation | Movement monitoring system |
US10810414B2 (en) * | 2017-07-06 | 2020-10-20 | Wisconsin Alumni Research Foundation | Movement monitoring system |
EP3437804A1 (en) * | 2017-08-02 | 2019-02-06 | ABB Schweiz AG | Robot control method |
EP3467782A1 (en) * | 2017-10-06 | 2019-04-10 | Thomson Licensing | Method and device for generating points of a 3d scene |
SG11202101916SA (en) * | 2018-08-27 | 2021-03-30 | Agency Science Tech & Res | Device and method for tracking human subjects |
DE112019004442T5 (de) * | 2018-09-05 | 2021-05-20 | Sony Corporation | Mobile vorrichtung, mobilvorrichtungssteuersystem und -verfahren, und programm |
US11587361B2 (en) | 2019-11-08 | 2023-02-21 | Wisconsin Alumni Research Foundation | Movement monitoring system |
USD920410S1 (en) * | 2020-04-30 | 2021-05-25 | Ubtech Robotics Corp Ltd | Robot |
USD921080S1 (en) * | 2020-04-30 | 2021-06-01 | Ubtech Robotics Corp Ltd | Robot |
USD921081S1 (en) * | 2020-04-30 | 2021-06-01 | Ubtech Robotics Corp Ltd | Robot |
KR20230057867A (ko) * | 2021-10-22 | 2023-05-02 | 삼성전자주식회사 | 실시간 사람 감지 및 추적 시스템을 위한 전자 장치 및 그 제어 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4531897B2 (ja) * | 1999-12-27 | 2010-08-25 | パナソニック株式会社 | 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体 |
SE526119C2 (sv) * | 2003-11-24 | 2005-07-05 | Abb Research Ltd | Metod och system för programmering av en industrirobot |
KR20080073933A (ko) * | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치 |
JP6162955B2 (ja) * | 2009-11-06 | 2017-07-12 | アイロボット コーポレイション | 自律ロボットにより表面を完全にカバーする方法およびシステム |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
WO2011146259A2 (en) * | 2010-05-20 | 2011-11-24 | Irobot Corporation | Mobile human interface robot |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
WO2013175777A1 (ja) * | 2012-05-23 | 2013-11-28 | パナソニック株式会社 | ロボット、ロボットの制御装置、制御方法、及び制御プログラム |
US9311550B2 (en) * | 2013-03-06 | 2016-04-12 | Samsung Electronics Co., Ltd. | Device and method for image processing |
US9619039B2 (en) * | 2014-09-05 | 2017-04-11 | The Boeing Company | Obtaining metrics for a position using frames classified by an associative memory |
-
2017
- 2017-10-19 JP JP2019542826A patent/JP2020500385A/ja active Pending
- 2017-10-19 KR KR1020197014261A patent/KR20190103146A/ko unknown
- 2017-10-19 EP EP17861540.7A patent/EP3529009A4/en active Pending
- 2017-10-19 WO PCT/IL2017/051156 patent/WO2018073829A1/en unknown
- 2017-10-19 US US16/343,046 patent/US20200050839A1/en not_active Abandoned
- 2017-10-19 CN CN201780077048.4A patent/CN110072673B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018073829A1 (en) | 2018-04-26 |
CN110072673A (zh) | 2019-07-30 |
CN110072673B (zh) | 2022-11-25 |
EP3529009A1 (en) | 2019-08-28 |
KR20190103146A (ko) | 2019-09-04 |
EP3529009A4 (en) | 2020-06-24 |
US20200050839A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110072673B (zh) | 跟踪人类的机器人及其方法 | |
US8644552B2 (en) | Markerless motion capturing apparatus and method | |
US10265858B2 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
Leigh et al. | Person tracking and following with 2d laser scanners | |
KR102024092B1 (ko) | 이동 로봇 시스템 및 그 제어방법 | |
Mastorakis et al. | Fall detection system using Kinect’s infrared sensor | |
CN105830093B (zh) | 用于产生与非均匀大小的空间区相关的元数据的系统、方法及设备 | |
Munoz et al. | Depth-aware indoor staircase detection and recognition for the visually impaired | |
US9177229B2 (en) | Kalman filter approach to augment object tracking | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
EP3037917B1 (en) | Monitoring | |
JP6471387B2 (ja) | 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード | |
US20130142392A1 (en) | Information processing device and method, program, and recording medium | |
JP2016035775A (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
KR20180098891A (ko) | 이동 로봇 및 그 제어방법 | |
KR102203810B1 (ko) | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 | |
US9047504B1 (en) | Combined cues for face detection in computing devices | |
KR20150130483A (ko) | 평면의 자연스러운 특성 타겟들의 인시츄 생성 | |
TW201933177A (zh) | 用以產生定位用參考地圖的行動機器人 | |
US20240104744A1 (en) | Real-time multi-view detection of objects in multi-camera environments | |
US20130069939A1 (en) | Character image processing apparatus and method for footskate cleanup in real time animation | |
JP2011209794A (ja) | 対象物認識システム及び該システムを利用する監視システム、見守りシステム | |
Coşkun et al. | People counting system by using kinect sensor | |
US20120201417A1 (en) | Apparatus and method for processing sensory effect of image data | |
JP4559375B2 (ja) | 対象物位置追跡方法、装置、およびプログラム |