JP2019522853A - 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 - Google Patents
画像収集部及び距離測定部を有する装置を制御する方法、及び装置 Download PDFInfo
- Publication number
- JP2019522853A JP2019522853A JP2018567118A JP2018567118A JP2019522853A JP 2019522853 A JP2019522853 A JP 2019522853A JP 2018567118 A JP2018567118 A JP 2018567118A JP 2018567118 A JP2018567118 A JP 2018567118A JP 2019522853 A JP2019522853 A JP 2019522853A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- gesture
- distance
- distance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 142
- 238000005259 measurement Methods 0.000 title claims description 15
- 238000004458 analytical method Methods 0.000 claims description 34
- 230000004044 response Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 14
- 238000007637 random forest analysis Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 46
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 210000000323 shoulder joint Anatomy 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 230000004297 night vision Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000033458 reproduction Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本技術は、人間のジェスチャーから導かれる一連の所定の命令に基づいて無人機の(UAV)のような移動装置と通信するか又はそれを制御する(又はそれらの両方の)ための方法及び関連システムに一般的に関する。特定の実施形態においては、UAVは、操作者に対応するカラー画像を収集するように構成された画像収集部及びUAVと操作者との間の距離を測定するように構成された距離測定部を含む。収集されたカラー画像中において、操作者のジェスチャーを示す体の一部分を識別することができる。次に本技術は、測定された距離情報に基づいてジェスチャーを識別し、且つ、確認することができる。本技術は、次に、UAVを制御するための命令を導くことができる。特定の実施形態において、この命令は機械学習プロセス又は学習クラシファイアにより形成することができる。
図1は、本技術の実施形態に従って構成された代表的UAV 100の部分概略等角図である。UAV 100は機体110を含み得る。この機体は中心部分及び1つ又は複数の外側部分を含み得る。特定の実施形態において、機体110は4つ外側部分(たとえばアーム)を含み得る。これらの外側部分は中心部分から広がるようにお互いに離間配置される。別の実施形態においては、機体110は、上記と異なる個数の外側部分を含み得る。これらの実施形態のいずれにおいても、個々の外側部分は、UAV 100を駆動する推進システムの部を支持することができる。たとえば、個々のアームは、対応するプロペラ106を駆動する個々の対応動力装置を支持することができる。
Dmin=max(0,Dbody−0.4) 等式(3)
Dmax=min(5,Dbody+0.4) 等式(4)
[項目1]
画像収集部及び距離測定部を有する装置を制御する方法であって、
上記画像収集部により操作者に対応する画像を生成するステップと、
上記距離測定部により上記操作者に対応する第1の一組の距離情報を生成するステップと、
上記操作者に対応する上記画像の一部分を識別するステップと、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出すステップと、
上記第2の一組の距離情報に少なくとも部分的に基づいて、上記操作者に関連するジェスチャーを識別するステップと、
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成するステップと
を含む方法。
[項目2]
上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定するステップをさらに含む項目1に記載の方法。
[項目3]
所定の閾値より大きい上記距離に応じて上記操作者に関連する腕ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目4]
上記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記身体の枠の距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目5]
上記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記腕関節距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目6]
上記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記肩距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目7]
上記操作者に関連する手距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記手距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目8]
所定の閾値より短い上記距離に応じて、上記操作者に関連する手ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目9]
上記操作者に関連する指距離画像部分に少なくとも部分的に基づいて上記手ジェスチャーを識別するステップをさらに含む方法であって、上記指距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目8に記載の方法。
[項目10]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されるバウンディングボックスに少なくとも部分的に基づいて識別される項目1から項目9のいずれか一項に記載の方法。
[項目11]
上記バウンディングボックスが矩形状である項目10に記載の方法。
[項目12]
上記バウンディングボックスが楕円形状である項目10に記載の方法。
[項目13]
上記操作者に関連する上記ジェスチャーが肢ジェスチャーであり、且つ、上記方法が上記バウンディングボックスに少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目10に記載の方法。
[項目14]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目13に記載の方法。
[項目15]
上記操作者に対応する上記画像の上記部分の上記境界線が上記操作者に関連する身体の輪郭を含む項目14に記載の方法。
[項目16]
肢ジェスチャーが腕ジェスチャーを含む項目14に記載の方法。
[項目17]
上記操作者について、上記生成される画像の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目18]
上記操作者について、上記生成される第1の一組の距離情報の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記画像を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目19]
上記画像収集部の第1分解能を決定するステップと、
上記距離測定部の第2分解能を決定するステップと、
上記第1分解能及び上記第2分解能に少なくとも部分的に基づいて、分解能分析結果を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目20]
上記分解能分析結果に少なくとも部分的に基づいて、上記操作者の上記画像と上記第1の一組の距離情報との間の関係を生成するステップをさらに含む項目19に記載の方法。
[項目21]
上記操作者の上記画像が2次元カラー画像を含み、且つ、上記第1の一組の距離情報が2次元深度画像を含み、且つ、上記方法が上記分解能分析結果に少なくとも部分的に基づいて上記2次元カラー画像のカラーピクセルと上記2次元深度画像の深度ピクセルとの間の関係を決定するステップをさらに含む項目20に記載の方法。
[項目22]
上記装置が無人機を含む項目1から項目9のいずれか一項に記載の方法。
[項目23]
上記画像収集部がカラー感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目24]
上記距離測定部が飛行時間(ToF)センサーを含む項目1から項目9のいずれか一項に記載の方法。
[項目25]
上記距離測定部が深度感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目26]
上記操作者に関する上記ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップが上記第2の一組の距離情報を所定のデータセットと比較することを含む項目1から項目9のいずれか一項に記載の方法。
[項目27]
上記画像収集部に関連するクレードル角度に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を調整するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目28]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目29]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記画像の上記識別された部分に関連する複数の画像フレームを記憶するステップと、
上記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目30]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記第2の一組の距離情報に関連する複数の距離画像フレームを記憶するステップと、
上記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目31]
装置であって、
処理装置と、
上記処理装置と結合される画像収集部と、
上記処理装置と結合される距離測定部と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記画像収集部により上記操作者に対応する画像を生成し、
上記要求に応じて、上記距離測定部により、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーの種類を決定し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目32]
上記ジェスチャーの上記種類が手ジェスチャー、肢ジェスチャー、又は身体ジェスチャーのいずれか1つを含む項目31に記載の装置。
[項目33]
実行されたときに、その命令が上記第2の一組の距離情報を分析して学習クラシファイアによる分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目34]
実行されたときに、その命令が上記第2の一組の距離情報を分析して有限状態機械による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目35]
実行されたときに、その命令が上記第2の一組の距離情報を分析してランダムフォレスト学習部による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目36]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定し、且つ、上記距離に少なくとも部分的に基づいて上記操作者に関連する上記ジェスチャーを識別する項目31及び32のいずれか一項に記載の装置。
[項目37]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて識別される項目31及び32のいずれか一項に記載の装置。
[項目38]
ユーザー入力に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目39]
上記操作者の上記画像の対象分析に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目40]
上記対象分析が上記操作者の上記画像中の上記操作者の輪郭を決定することを含む項目39に記載の装置。
[項目41]
実行されたときに、その命令が上記ジェスチャーの上記種類を記憶部に格納し、且つ、上記ジェスチャーの上記種類を遠隔装置に送る項目31及び32のいずれか一項に記載の装置。
[項目42]
無人機(UAV)制御装置を構成する方法であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりコンピュータ読み取り可能媒体をプログラムするステップを含む方法。
[項目43]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記UAVとの間の距離を決定し、上記距離に少なくとも部分的に基づいて上記ジェスチャーを識別し、且つ、バウンディングボックスに少なくとも部分的に基づいて上記操作者に対応する上記画像の上記部分を識別する項目42に記載の方法。
[項目44]
上記UAVがカメラ及び深度センサーを搭載し、且つ、実行されたときにその命令が上記操作者に対応する上記画像を上記カメラにより生成し、且つ、上記操作者に対応する上記第1の一組の距離情報を上記深度センサーにより生成する項目42及び43のいずれか一項に記載の方法。
[項目45]
上記UAVが命令生成部を搭載し、且つ、実行されたときにその命令が上記命令生成部により上記ジェスチャーを上記ジェスチャーに関連する一連の所定基準データと比較する項目42及び43のいずれか一項に記載の方法。
[項目46]
無人機(UAV)を制御する装置であって、
処理装置と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目47]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて、上記操作者と上記UAVとの間の距離を決定する項目46に記載の装置。
[項目48]
上記距離に少なくとも部分的に基づいて、上記ジェスチャーが識別される項目47に記載の装置。
[項目49]
上記操作者に対応する上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて、上記操作者に対応する上記画像の上記部分が識別される項目46から48のいずれか一項に記載の装置。
[項目50]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて、上記ジェスチャーを識別するステップをさらに含む項目49に記載の装置。
Claims (50)
- 画像収集部及び距離測定部を有する装置を制御する方法であって、
前記画像収集部により操作者に対応する画像を生成するステップと、
前記距離測定部により前記操作者に対応する第1の一組の距離情報を生成するステップと、
前記操作者に対応する前記画像の一部分を識別するステップと、
前記操作者に対応する前記画像の前記識別された部分に少なくとも部分的に基づいて、
前記第1の一組の距離情報から第2の一組の距離情報を取り出すステップと、
前記第2の一組の距離情報に少なくとも部分的に基づいて、前記操作者に関連するジェスチャーを識別するステップと、
前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成するステップと
を含む方法。 - 前記第1の一組の距離情報に少なくとも部分的に基づいて前記操作者と前記装置との間の距離を決定するステップをさらに含む請求項1に記載の方法。
- 所定の閾値より大きい前記距離に応じて前記操作者に関連する腕ジェスチャーを識別するために前記第2の一組の距離情報を分析するステップをさらに含む請求項2に記載の方法。
- 前記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記身体の枠の距離画像部分が前記第2の一組の距離情報に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記腕関節距離画像部分が前記第2の一組の距離情報に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記肩距離画像部分が前記第2の一組の距離情報に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する手距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記手距離画像部分が前記第2の一組の距離情報に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 所定の閾値より短い前記距離に応じて、前記操作者に関連する手ジェスチャーを識別するために前記第2の一組の距離情報を分析するステップをさらに含む請求項2に記載の方法。
- 前記操作者に関連する指距離画像部分に少なくとも部分的に基づいて前記手ジェスチャーを識別するステップをさらに含む方法であって、前記指距離画像部分が前記第2の一組の距離情報に少なくとも部分的に基づいて決定される請求項8に記載の方法。
- 前記操作者に対応する前記画像の前記部分が前記操作者の前記画像に対して配置されるバウンディングボックスに少なくとも部分的に基づいて識別される請求項1から請求項9のいずれか一項に記載の方法。
- 前記バウンディングボックスが矩形状である請求項10に記載の方法。
- 前記バウンディングボックスが楕円形状である請求項10に記載の方法。
- 前記操作者に関連する前記ジェスチャーが肢ジェスチャーであり、且つ、前記方法が前記バウンディングボックスに少なくとも部分的に基づいて前記肢ジェスチャーを識別するステップをさらに含む請求項10に記載の方法。
- 前記操作者に対応する前記画像の前記部分の境界線と前記バウンディングボックスとの間の交差に少なくとも部分的に基づいて前記肢ジェスチャーを識別するステップをさらに含む請求項13に記載の方法。
- 前記操作者に対応する前記画像の前記部分の前記境界線が前記操作者に関連する身体の輪郭を含む請求項14に記載の方法。
- 肢ジェスチャーが腕ジェスチャーを含む請求項14に記載の方法。
- 前記操作者について、前記生成される画像の視野角を決定するステップと、
前記視野角に少なくとも部分的に基づいて前記操作者の前記第1の一組の距離情報を生成するステップと
をさらに含む請求項1から請求項9のいずれか一項に記載の方法。 - 前記操作者について、前記生成される第1の一組の距離情報の視野角を決定するステップと、
前記視野角に少なくとも部分的に基づいて前記操作者の前記画像を生成するステップと
をさらに含む請求項1から請求項9のいずれか一項に記載の方法。 - 前記画像収集部の第1分解能を決定するステップと、
前記距離測定部の第2分解能を決定するステップと、
前記第1分解能及び前記第2分解能に少なくとも部分的に基づいて、分解能分析結果を生成するステップと
をさらに含む請求項1から請求項9のいずれか一項に記載の方法。 - 前記分解能分析結果に少なくとも部分的に基づいて、前記操作者の前記画像と前記第1の一組の距離情報との間の関係を生成するステップをさらに含む請求項19に記載の方法。
- 前記操作者の前記画像が2次元カラー画像を含み、且つ、前記第1の一組の距離情報が2次元深度画像を含み、且つ、前記方法が前記分解能分析結果に少なくとも部分的に基づいて前記2次元カラー画像のカラーピクセルと前記2次元深度画像の深度ピクセルとの間の関係を決定するステップをさらに含む請求項20に記載の方法。
- 前記装置が無人機を含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記画像収集部がカラー感知カメラを含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記距離測定部が飛行時間(ToF)センサーを含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記距離測定部が深度感知カメラを含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記操作者に関する前記ジェスチャーを識別するために前記第2の一組の距離情報を分析するステップが前記第2の一組の距離情報を所定のデータセットと比較することを含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記画像収集部に関連するクレードル角度に少なくとも部分的に基づいて前記操作者の前記第1の一組の距離情報を調整するステップをさらに含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップをさらに含む請求項1から請求項9のいずれか一項に記載の方法。
- 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが
前記画像の前記識別された部分に関連する複数の画像フレームを記憶するステップと、
前記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
を含む請求項28に記載の方法。 - 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが
前記第2の一組の距離情報に関連する複数の距離画像フレームを記憶するステップと、
前記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
を含む請求項28に記載の方法。 - 装置であって、
処理装置と、
前記処理装置と結合される画像収集部と、
前記処理装置と結合される距離測定部と、
前記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、前記画像収集部により前記操作者に対応する画像を生成し、
前記要求に応じて、前記距離測定部により、前記操作者に対応する第1の一組の距離情報を生成し、
前記操作者に対応する前記画像の一部分を識別し、
前記操作者に対応する前記画像の前記識別された部分に少なくとも部分的に基づいて、前記第1の一組の距離情報から第2の一組の距離情報を取り出し、
前記第2の一組の距離情報に少なくとも部分的に基づいて前記操作者に関連するジェスチャーの種類を決定し、且つ
前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。 - 前記ジェスチャーの前記種類が手ジェスチャー、肢ジェスチャー、又は身体ジェスチャーのいずれか1つを含む請求項31に記載の装置。
- 実行されたときに、その命令が前記第2の一組の距離情報を分析して学習クラシファイアによる分析結果を生成する請求項31及び32のいずれか一項に記載の装置。
- 実行されたときに、その命令が前記第2の一組の距離情報を分析して有限状態機械による分析結果を生成する請求項31及び32のいずれか一項に記載の装置。
- 実行されたときに、その命令が前記第2の一組の距離情報を分析してランダムフォレスト学習部による分析結果を生成する請求項31及び32のいずれか一項に記載の装置。
- 実行されたときに、その命令が前記第1の一組の距離情報に少なくとも部分的に基づいて前記操作者と前記装置との間の距離を決定し、且つ、前記距離に少なくとも部分的に基づいて前記操作者に関連する前記ジェスチャーを識別する請求項31及び32のいずれか一項に記載の装置。
- 前記操作者に対応する前記画像の前記部分が前記操作者の前記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて識別される請求項31及び32のいずれか一項に記載の装置。
- ユーザー入力に少なくとも部分的に基づいて前記バウンディングボックスの形状が決定される請求項37に記載の装置。
- 前記操作者の前記画像の対象分析に少なくとも部分的に基づいて前記バウンディングボックスの形状が決定される請求項37に記載の装置。
- 前記対象分析が前記操作者の前記画像中の前記操作者の輪郭を決定することを含む請求項39に記載の装置。
- 実行されたときに、その命令が前記ジェスチャーの前記種類を記憶部に格納し、且つ、前記ジェスチャーの前記種類を遠隔装置に送る請求項31及び32のいずれか一項に記載の装置。
- 無人機(UAV)制御装置を構成する方法であって、
実行されたときに、
操作者からの要求に応じて、前記操作者に対応する画像を生成し、
前記要求に応じて、前記操作者に対応する第1の一組の距離情報を生成し、
前記操作者に対応する前記画像の一部分を識別し、
前記操作者に対応する前記画像の前記識別された部分に少なくとも部分的に基づいて、前記第1の一組の距離情報から第2の一組の距離情報を取り出し、
前記第2の一組の距離情報に少なくとも部分的に基づいて前記操作者に関連するジェスチャーを識別し、且つ
前記ジェスチャーに少なくとも部分的に基づいて前記UAVを制御する命令を生成する
命令によりコンピュータ読み取り可能媒体をプログラムするステップを含む方法。 - 実行されたときに、その命令が前記第1の一組の距離情報に少なくとも部分的に基づいて前記操作者と前記UAVとの間の距離を決定し、前記距離に少なくとも部分的に基づいて前記ジェスチャーを識別し、且つ、バウンディングボックスに少なくとも部分的に基づいて前記操作者に対応する前記画像の前記部分を識別する請求項42に記載の方法。
- 前記UAVがカメラ及び深度センサーを搭載し、且つ、実行されたときにその命令が前記操作者に対応する前記画像を前記カメラにより生成し、且つ、前記操作者に対応する前記第1の一組の距離情報を前記深度センサーにより生成する請求項42及び43のいずれか一項に記載の方法。
- 前記UAVが命令生成部を搭載し、且つ、実行されたときにその命令が前記命令生成部により前記ジェスチャーを前記ジェスチャーに関連する一連の所定基準データと比較する請求項42及び43のいずれか一項に記載の方法。
- 無人機(UAV)を制御する装置であって、
処理装置と、
前記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、前記操作者に対応する画像を生成し、
前記要求に応じて、前記操作者に対応する第1の一組の距離情報を生成し、
前記操作者に対応する前記画像の一部分を識別し、
前記操作者に対応する前記画像の前記識別された部分に少なくとも部分的に基づいて、前記第1の一組の距離情報から第2の一組の距離情報を取り出し、
前記第2の一組の距離情報に少なくとも部分的に基づいて前記操作者に関連するジェスチャーを識別し、且つ
前記ジェスチャーに少なくとも部分的に基づいて前記UAVを制御する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。 - 実行されたときに、その命令が前記第1の一組の距離情報に少なくとも部分的に基づいて、前記操作者と前記UAVとの間の距離を決定する請求項46に記載の装置。
- 前記距離に少なくとも部分的に基づいて、前記ジェスチャーが識別される請求項47に記載の装置。
- 前記操作者に対応する前記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて、前記操作者に対応する前記画像の前記部分が識別される請求項46から48のいずれか一項に記載の装置。
- 前記操作者に対応する前記画像の前記部分の境界線と前記バウンディングボックスとの間の交差に少なくとも部分的に基づいて、前記ジェスチャーを識別するステップをさらに含む請求項49に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/093580 WO2018023727A1 (en) | 2016-08-05 | 2016-08-05 | Methods and associated systems for communicating with/controlling moveable devices by gestures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019522853A true JP2019522853A (ja) | 2019-08-15 |
JP6786762B2 JP6786762B2 (ja) | 2020-11-18 |
Family
ID=61073230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018567118A Expired - Fee Related JP6786762B2 (ja) | 2016-08-05 | 2016-08-05 | 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11042167B2 (ja) |
EP (1) | EP3494449A4 (ja) |
JP (1) | JP6786762B2 (ja) |
CN (1) | CN109564432B (ja) |
WO (1) | WO2018023727A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021175175A (ja) * | 2020-04-28 | 2021-11-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd | 人間の身体表示に基づいて可動物体を操作するための方法、プログラムおよび装置 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2014204252B2 (en) | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
CN107239728B (zh) * | 2017-01-04 | 2021-02-02 | 赛灵思电子科技(北京)有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
EP3807815A4 (en) | 2018-06-14 | 2021-07-21 | Magic Leap, Inc. | DEEP NETWORK OF EXTENDED REALITY |
CN111344644B (zh) * | 2018-08-01 | 2024-02-20 | 深圳市大疆创新科技有限公司 | 用于基于运动的自动图像捕获的技术 |
EP3882730B1 (en) * | 2019-01-22 | 2023-04-19 | Honda Motor Co., Ltd. | Accompanying mobile body |
US11106223B2 (en) * | 2019-05-09 | 2021-08-31 | GEOSAT Aerospace & Technology | Apparatus and methods for landing unmanned aerial vehicle |
CN111158489B (zh) * | 2019-12-31 | 2023-08-08 | 上海佑久健康科技有限公司 | 一种基于摄像头的手势交互方法及手势交互系统 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN111973410A (zh) * | 2020-06-30 | 2020-11-24 | 北京迈格威科技有限公司 | 障碍物检测方法、装置、避障设备及计算机可读存储介质 |
WO2022141187A1 (en) * | 2020-12-30 | 2022-07-07 | SZ DJI Technology Co., Ltd. | Systems and methods for controlling an unmanned aerial vehicle using a body-attached remote control |
JP2022132905A (ja) * | 2021-03-01 | 2022-09-13 | 本田技研工業株式会社 | ジェスチャ認識装置、移動体、ジェスチャ認識方法、およびプログラム |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078316A (ja) * | 2002-08-09 | 2004-03-11 | Honda Motor Co Ltd | 姿勢認識装置及び自律ロボット |
US20080085048A1 (en) * | 2006-10-05 | 2008-04-10 | Department Of The Navy | Robotic gesture recognition system |
JP2010239992A (ja) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | 人物同定装置、人物同定方法、及び人物同定プログラム |
US20130253733A1 (en) * | 2012-03-26 | 2013-09-26 | Hon Hai Precision Industry Co., Ltd. | Computing device and method for controlling unmanned aerial vehicle in flight space |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101640039B1 (ko) * | 2009-09-22 | 2016-07-18 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8994718B2 (en) * | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US8488888B2 (en) * | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
WO2014106862A2 (en) * | 2013-01-03 | 2014-07-10 | Suman Saurav | A method and system enabling control of different digital devices using gesture or motion control |
EP2849150A1 (en) * | 2013-09-17 | 2015-03-18 | Thomson Licensing | Method for capturing the 3D motion of an object, unmanned aerial vehicle and motion capture system |
CN105096259B (zh) * | 2014-05-09 | 2018-01-09 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
KR101865655B1 (ko) * | 2014-06-26 | 2018-06-11 | 한국과학기술원 | 증강현실 상호 작용 서비스 제공 장치 및 방법 |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105607740A (zh) * | 2015-12-29 | 2016-05-25 | 清华大学深圳研究生院 | 一种基于计算机视觉的无人飞行器控制方法及装置 |
CN105589466A (zh) * | 2016-02-24 | 2016-05-18 | 谭圆圆 | 无人飞行器的飞行控制装置及其飞行控制方法 |
CN105786016B (zh) * | 2016-03-31 | 2019-11-05 | 深圳奥比中光科技有限公司 | 无人机以及rgbd图像的处理方法 |
-
2016
- 2016-08-05 CN CN201680088017.4A patent/CN109564432B/zh active Active
- 2016-08-05 WO PCT/CN2016/093580 patent/WO2018023727A1/en unknown
- 2016-08-05 JP JP2018567118A patent/JP6786762B2/ja not_active Expired - Fee Related
- 2016-08-05 EP EP16911322.2A patent/EP3494449A4/en not_active Withdrawn
-
2019
- 2019-01-17 US US16/251,025 patent/US11042167B2/en active Active
-
2021
- 2021-06-14 US US17/346,318 patent/US11691729B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078316A (ja) * | 2002-08-09 | 2004-03-11 | Honda Motor Co Ltd | 姿勢認識装置及び自律ロボット |
US20080085048A1 (en) * | 2006-10-05 | 2008-04-10 | Department Of The Navy | Robotic gesture recognition system |
JP2010239992A (ja) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | 人物同定装置、人物同定方法、及び人物同定プログラム |
US20130253733A1 (en) * | 2012-03-26 | 2013-09-26 | Hon Hai Precision Industry Co., Ltd. | Computing device and method for controlling unmanned aerial vehicle in flight space |
Non-Patent Citations (2)
Title |
---|
NASEER, TAYYAB, ET AL.: "FollowMe: Person Following and Gesture Recognition with a Quadrocopter", 2013 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS(IROS), JPN6020007281, 7 November 2013 (2013-11-07), pages 624 - 630, XP032537580, ISSN: 0004222028, DOI: 10.1109/IROS.2013.6696416 * |
吉田 成朗 ほか: "ジェスチャ操作型飛行ロボットによる身体性の拡張", インタラクション2012, JPN6020007282, 15 March 2012 (2012-03-15), pages 403 - 408, ISSN: 0004222029 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021175175A (ja) * | 2020-04-28 | 2021-11-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd | 人間の身体表示に基づいて可動物体を操作するための方法、プログラムおよび装置 |
Also Published As
Publication number | Publication date |
---|---|
US11691729B2 (en) | 2023-07-04 |
JP6786762B2 (ja) | 2020-11-18 |
EP3494449A4 (en) | 2020-03-11 |
WO2018023727A1 (en) | 2018-02-08 |
US20210303005A1 (en) | 2021-09-30 |
CN109564432B (zh) | 2022-02-15 |
CN109564432A (zh) | 2019-04-02 |
US11042167B2 (en) | 2021-06-22 |
US20190155313A1 (en) | 2019-05-23 |
EP3494449A1 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6786762B2 (ja) | 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 | |
US10684116B2 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
US10681269B2 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
US10529141B2 (en) | Capturing and aligning three-dimensional scenes | |
KR102236904B1 (ko) | 이미지 합성 방법 및 장치 | |
WO2017143745A1 (zh) | 一种确定待测对象的运动信息的方法及装置 | |
CN109176512A (zh) | 一种体感控制机器人的方法、机器人及控制装置 | |
US20130245828A1 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
WO2020252969A1 (zh) | 眼部关键点的标注及其检测模型的训练方法和装置 | |
US11961407B2 (en) | Methods and associated systems for managing 3D flight paths | |
KR20180130869A (ko) | 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템 | |
CN106462738B (zh) | 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备 | |
CN110956067B (zh) | 一种人眼眼睑曲线的构建方法及装置 | |
WO2019100846A1 (zh) | 无人机控制方法、无人机控制装置及计算机可读存储介质 | |
CN105892633A (zh) | 手势识别方法及虚拟现实显示输出设备 | |
KR102362470B1 (ko) | 족부 정보 처리 방법 및 장치 | |
JP4379459B2 (ja) | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 | |
US11250592B2 (en) | Information processing apparatus | |
KR102300500B1 (ko) | 제품 입체컷 이미지 처리 방법, 장치 및 시스템 | |
US20230091536A1 (en) | Camera Placement Guidance | |
CN112585672A (zh) | 自动检查和零件登记 | |
KR102506684B1 (ko) | 방문자 정보 획득 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6786762 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |