JP6786762B2 - 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 - Google Patents
画像収集部及び距離測定部を有する装置を制御する方法、及び装置 Download PDFInfo
- Publication number
- JP6786762B2 JP6786762B2 JP2018567118A JP2018567118A JP6786762B2 JP 6786762 B2 JP6786762 B2 JP 6786762B2 JP 2018567118 A JP2018567118 A JP 2018567118A JP 2018567118 A JP2018567118 A JP 2018567118A JP 6786762 B2 JP6786762 B2 JP 6786762B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- gesture
- distance
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 115
- 238000012545 processing Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 description 42
- 238000004458 analytical method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 10
- 210000003414 extremity Anatomy 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 210000000323 shoulder joint Anatomy 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004297 night vision Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本技術は、人間のジェスチャーから導かれる一連の所定の命令に基づいて無人機の(UAV)のような移動装置と通信するか又はそれを制御する(又はそれらの両方の)ための方法及び関連システムに一般的に関する。特定の実施形態においては、UAVは、操作者に対応するカラー画像を収集するように構成された画像収集部及びUAVと操作者との間の距離を測定するように構成された距離測定部を含む。収集されたカラー画像中において、操作者のジェスチャーを示す体の一部分を識別することができる。次に本技術は、測定された距離情報に基づいてジェスチャーを識別し、且つ、確認することができる。本技術は、次に、UAVを制御するための命令を導くことができる。特定の実施形態において、この命令は機械学習プロセス又は学習クラシファイアにより形成することができる。
図1は、本技術の実施形態に従って構成された代表的UAV 100の部分概略等角図である。UAV 100は機体110を含み得る。この機体は中心部分及び1つ又は複数の外側部分を含み得る。特定の実施形態において、機体110は4つ外側部分(たとえばアーム)を含み得る。これらの外側部分は中心部分から広がるようにお互いに離間配置される。別の実施形態においては、機体110は、上記と異なる個数の外側部分を含み得る。これらの実施形態のいずれにおいても、個々の外側部分は、UAV 100を駆動する推進システムの部を支持することができる。たとえば、個々のアームは、対応するプロペラ106を駆動する個々の対応動力装置を支持することができる。
Dmin=max(0,Dbody−0.4) 等式(3)
Dmax=min(5,Dbody+0.4) 等式(4)
[項目1]
画像収集部及び距離測定部を有する装置を制御する方法であって、
上記画像収集部により操作者に対応する画像を生成するステップと、
上記距離測定部により上記操作者に対応する第1の一組の距離情報を生成するステップと、
上記操作者に対応する上記画像の一部分を識別するステップと、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出すステップと、
上記第2の一組の距離情報に少なくとも部分的に基づいて、上記操作者に関連するジェスチャーを識別するステップと、
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成するステップと
を含む方法。
[項目2]
上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定するステップをさらに含む項目1に記載の方法。
[項目3]
所定の閾値より大きい上記距離に応じて上記操作者に関連する腕ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目4]
上記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記身体の枠の距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目5]
上記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記腕関節距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目6]
上記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記肩距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目7]
上記操作者に関連する手距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記手距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目8]
所定の閾値より短い上記距離に応じて、上記操作者に関連する手ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目9]
上記操作者に関連する指距離画像部分に少なくとも部分的に基づいて上記手ジェスチャーを識別するステップをさらに含む方法であって、上記指距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目8に記載の方法。
[項目10]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されるバウンディングボックスに少なくとも部分的に基づいて識別される項目1から項目9のいずれか一項に記載の方法。
[項目11]
上記バウンディングボックスが矩形状である項目10に記載の方法。
[項目12]
上記バウンディングボックスが楕円形状である項目10に記載の方法。
[項目13]
上記操作者に関連する上記ジェスチャーが肢ジェスチャーであり、且つ、上記方法が上記バウンディングボックスに少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目10に記載の方法。
[項目14]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目13に記載の方法。
[項目15]
上記操作者に対応する上記画像の上記部分の上記境界線が上記操作者に関連する身体の輪郭を含む項目14に記載の方法。
[項目16]
肢ジェスチャーが腕ジェスチャーを含む項目14に記載の方法。
[項目17]
上記操作者について、上記生成される画像の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目18]
上記操作者について、上記生成される第1の一組の距離情報の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記画像を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目19]
上記画像収集部の第1分解能を決定するステップと、
上記距離測定部の第2分解能を決定するステップと、
上記第1分解能及び上記第2分解能に少なくとも部分的に基づいて、分解能分析結果を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目20]
上記分解能分析結果に少なくとも部分的に基づいて、上記操作者の上記画像と上記第1の一組の距離情報との間の関係を生成するステップをさらに含む項目19に記載の方法。
[項目21]
上記操作者の上記画像が2次元カラー画像を含み、且つ、上記第1の一組の距離情報が2次元深度画像を含み、且つ、上記方法が上記分解能分析結果に少なくとも部分的に基づいて上記2次元カラー画像のカラーピクセルと上記2次元深度画像の深度ピクセルとの間の関係を決定するステップをさらに含む項目20に記載の方法。
[項目22]
上記装置が無人機を含む項目1から項目9のいずれか一項に記載の方法。
[項目23]
上記画像収集部がカラー感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目24]
上記距離測定部が飛行時間(ToF)センサーを含む項目1から項目9のいずれか一項に記載の方法。
[項目25]
上記距離測定部が深度感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目26]
上記操作者に関する上記ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップが上記第2の一組の距離情報を所定のデータセットと比較することを含む項目1から項目9のいずれか一項に記載の方法。
[項目27]
上記画像収集部に関連するクレードル角度に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を調整するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目28]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目29]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記画像の上記識別された部分に関連する複数の画像フレームを記憶するステップと、
上記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目30]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記第2の一組の距離情報に関連する複数の距離画像フレームを記憶するステップと、
上記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目31]
装置であって、
処理装置と、
上記処理装置と結合される画像収集部と、
上記処理装置と結合される距離測定部と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記画像収集部により上記操作者に対応する画像を生成し、
上記要求に応じて、上記距離測定部により、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーの種類を決定し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目32]
上記ジェスチャーの上記種類が手ジェスチャー、肢ジェスチャー、又は身体ジェスチャーのいずれか1つを含む項目31に記載の装置。
[項目33]
実行されたときに、その命令が上記第2の一組の距離情報を分析して学習クラシファイアによる分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目34]
実行されたときに、その命令が上記第2の一組の距離情報を分析して有限状態機械による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目35]
実行されたときに、その命令が上記第2の一組の距離情報を分析してランダムフォレスト学習部による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目36]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定し、且つ、上記距離に少なくとも部分的に基づいて上記操作者に関連する上記ジェスチャーを識別する項目31及び32のいずれか一項に記載の装置。
[項目37]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて識別される項目31及び32のいずれか一項に記載の装置。
[項目38]
ユーザー入力に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目39]
上記操作者の上記画像の対象分析に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目40]
上記対象分析が上記操作者の上記画像中の上記操作者の輪郭を決定することを含む項目39に記載の装置。
[項目41]
実行されたときに、その命令が上記ジェスチャーの上記種類を記憶部に格納し、且つ、上記ジェスチャーの上記種類を遠隔装置に送る項目31及び32のいずれか一項に記載の装置。
[項目42]
無人機(UAV)制御装置を構成する方法であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりコンピュータ読み取り可能媒体をプログラムするステップを含む方法。
[項目43]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記UAVとの間の距離を決定し、上記距離に少なくとも部分的に基づいて上記ジェスチャーを識別し、且つ、バウンディングボックスに少なくとも部分的に基づいて上記操作者に対応する上記画像の上記部分を識別する項目42に記載の方法。
[項目44]
上記UAVがカメラ及び深度センサーを搭載し、且つ、実行されたときにその命令が上記操作者に対応する上記画像を上記カメラにより生成し、且つ、上記操作者に対応する上記第1の一組の距離情報を上記深度センサーにより生成する項目42及び43のいずれか一項に記載の方法。
[項目45]
上記UAVが命令生成部を搭載し、且つ、実行されたときにその命令が上記命令生成部により上記ジェスチャーを上記ジェスチャーに関連する一連の所定基準データと比較する項目42及び43のいずれか一項に記載の方法。
[項目46]
無人機(UAV)を制御する装置であって、
処理装置と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目47]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて、上記操作者と上記UAVとの間の距離を決定する項目46に記載の装置。
[項目48]
上記距離に少なくとも部分的に基づいて、上記ジェスチャーが識別される項目47に記載の装置。
[項目49]
上記操作者に対応する上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて、上記操作者に対応する上記画像の上記部分が識別される項目46から48のいずれか一項に記載の装置。
[項目50]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて、上記ジェスチャーを識別するステップをさらに含む項目49に記載の装置。
Claims (22)
- 画像収集部及び距離測定部を有する装置を制御する方法であって、
前記画像収集部により操作者に対応する画像を生成するステップと、
前記距離測定部により前記操作者に対応する深度マップを生成するステップと、
前記操作者の前記画像に対して配置されるバウンディングボックスにより、前記操作者に対応する前記画像の一部分を識別するステップと、
前記画像の一部分と前記バウンディングボックスとの間の交差を識別することにより、前記画像中の前記操作者の体の一部を識別するステップと、
前記深度マップから、識別された前記操作者の体の一部に対応する深度画像部分を取り出すステップと、
前記深度画像部分に基づいて、前記操作者に関連するジェスチャーを識別するステップと、
前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成するステップと
を含む方法。 - 前記深度マップに少なくとも部分的に基づいて前記操作者と前記装置との間の距離を決定するステップをさらに含む請求項1に記載の方法。
- 所定の閾値より大きい前記距離に応じて前記操作者に関連する腕ジェスチャーを識別するために前記深度画像部分を分析するステップをさらに含む請求項2に記載の方法。
- 前記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記身体の枠の距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記腕関節距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記肩距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 前記操作者に関連する手距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記手距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
- 所定の閾値より短い前記距離に応じて、前記操作者に関連する手ジェスチャーを識別するために前記深度画像部分を分析するステップをさらに含む請求項2に記載の方法。
- 前記操作者に関連する指距離画像部分に少なくとも部分的に基づいて前記手ジェスチャーを識別するステップをさらに含む方法であって、前記指距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項8に記載の方法。
- 前記操作者に関連する前記ジェスチャーが肢ジェスチャーである、請求項1から9の何れか1つに記載の方法。
- 前記操作者に対応する前記画像の一部分の境界線と前記バウンディングボックスとの間の交差に少なくとも部分的に基づいて前記肢ジェスチャーを識別するステップをさらに含む請求項10に記載の方法。
- 前記操作者に対応する前記画像の一部分の前記境界線が前記操作者に関連する身体の輪郭を含む請求項11に記載の方法。
- 前記深度画像部分を取り出すステップは、前記画像収集部の第1視野角及び前記距離測定部の第2視野角に少なくとも部分的に基づいて、識別された前記操作者の体の一部に対応する深度画像部分を取り出すステップを含む請求項1から請求項12のいずれか一項に記載の方法。
- 前記装置が無人機を含む請求項1から請求項13のいずれか一項に記載の方法。
- 前記画像収集部がカラー感知カメラを含む請求項1から請求項14のいずれか一項に記載の方法。
- 前記距離測定部が飛行時間(ToF)センサーを含む請求項1から請求項15のいずれか一項に記載の方法。
- 前記距離測定部が深度感知カメラを含む請求項1から請求項16のいずれか一項に記載の方法。
- 前記操作者に関する前記ジェスチャーを識別するために前記深度画像部分を分析するステップが前記深度画像部分を所定のデータセットと比較することを含む請求項1から請求項17のいずれか一項に記載の方法。
- 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップをさらに含む請求項1から請求項18のいずれか一項に記載の方法。
- 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが、
識別された前記操作者の体の一部に関連する複数の画像フレームを記憶するステップと、
前記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
を含む請求項19に記載の方法。 - 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが、
前記深度画像部分に関連する複数の距離画像フレームを記憶するステップと、
前記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
を含む請求項19に記載の方法。 - 装置であって、
処理装置と、
前記処理装置と結合される画像収集部と、
前記処理装置と結合される距離測定部と、
前記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、前記画像収集部により前記操作者に対応する画像を生成し、
前記要求に応じて、前記距離測定部により、前記操作者に対応する深度マップを生成し、
前記操作者の前記画像に対して配置されるバウンディングボックスにより、前記操作者に対応する前記画像の一部分を識別し、
前記画像の一部分と前記バウンディングボックスとの間の交差を識別することにより、前記画像中の前記操作者の体の一部を識別し、
前記深度マップから、識別された前記操作者の体の一部に対応する深度画像部分を取り出し、
前記深度画像部分に基づいて前記操作者に関連するジェスチャーの種類を決定し、且つ、
前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成する命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/093580 WO2018023727A1 (en) | 2016-08-05 | 2016-08-05 | Methods and associated systems for communicating with/controlling moveable devices by gestures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019522853A JP2019522853A (ja) | 2019-08-15 |
JP6786762B2 true JP6786762B2 (ja) | 2020-11-18 |
Family
ID=61073230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018567118A Active JP6786762B2 (ja) | 2016-08-05 | 2016-08-05 | 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11042167B2 (ja) |
EP (1) | EP3494449A4 (ja) |
JP (1) | JP6786762B2 (ja) |
CN (1) | CN109564432B (ja) |
WO (1) | WO2018023727A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014106823A2 (en) * | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
CN107239728B (zh) * | 2017-01-04 | 2021-02-02 | 赛灵思电子科技(北京)有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
JP7482040B2 (ja) * | 2018-06-14 | 2024-05-13 | マジック リープ, インコーポレイテッド | 拡張現実深層ジェスチャネットワーク |
WO2020024185A1 (en) * | 2018-08-01 | 2020-02-06 | SZ DJI Technology Co., Ltd. | Techniques for motion-based automatic image capture |
EP3882730B1 (en) * | 2019-01-22 | 2023-04-19 | Honda Motor Co., Ltd. | Accompanying mobile body |
US11106223B2 (en) * | 2019-05-09 | 2021-08-31 | GEOSAT Aerospace & Technology | Apparatus and methods for landing unmanned aerial vehicle |
CN111158489B (zh) * | 2019-12-31 | 2023-08-08 | 上海佑久健康科技有限公司 | 一种基于摄像头的手势交互方法及手势交互系统 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
WO2021217430A1 (en) * | 2020-04-28 | 2021-11-04 | SZ DJI Technology Co., Ltd. | System and method for operating a movable object based on human body indications |
CN111973410A (zh) * | 2020-06-30 | 2020-11-24 | 北京迈格威科技有限公司 | 障碍物检测方法、装置、避障设备及计算机可读存储介质 |
WO2022141187A1 (en) * | 2020-12-30 | 2022-07-07 | SZ DJI Technology Co., Ltd. | Systems and methods for controlling an unmanned aerial vehicle using a body-attached remote control |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3996015B2 (ja) * | 2002-08-09 | 2007-10-24 | 本田技研工業株式会社 | 姿勢認識装置及び自律ロボット |
US7606411B2 (en) * | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
JP5478928B2 (ja) * | 2009-03-31 | 2014-04-23 | 綜合警備保障株式会社 | 人物同定装置、人物同定方法、及び人物同定プログラム |
KR101640039B1 (ko) * | 2009-09-22 | 2016-07-18 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8994718B2 (en) * | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US8488888B2 (en) * | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
TW201339903A (zh) * | 2012-03-26 | 2013-10-01 | Hon Hai Prec Ind Co Ltd | 無人飛行載具控制系統及方法 |
WO2014106862A2 (en) * | 2013-01-03 | 2014-07-10 | Suman Saurav | A method and system enabling control of different digital devices using gesture or motion control |
EP2849150A1 (en) * | 2013-09-17 | 2015-03-18 | Thomson Licensing | Method for capturing the 3D motion of an object, unmanned aerial vehicle and motion capture system |
CN105096259B (zh) * | 2014-05-09 | 2018-01-09 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
US10304248B2 (en) | 2014-06-26 | 2019-05-28 | Korea Advanced Institute Of Science And Technology | Apparatus and method for providing augmented reality interaction service |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105607740A (zh) * | 2015-12-29 | 2016-05-25 | 清华大学深圳研究生院 | 一种基于计算机视觉的无人飞行器控制方法及装置 |
CN105589466A (zh) * | 2016-02-24 | 2016-05-18 | 谭圆圆 | 无人飞行器的飞行控制装置及其飞行控制方法 |
CN105786016B (zh) * | 2016-03-31 | 2019-11-05 | 深圳奥比中光科技有限公司 | 无人机以及rgbd图像的处理方法 |
-
2016
- 2016-08-05 EP EP16911322.2A patent/EP3494449A4/en not_active Withdrawn
- 2016-08-05 JP JP2018567118A patent/JP6786762B2/ja active Active
- 2016-08-05 WO PCT/CN2016/093580 patent/WO2018023727A1/en unknown
- 2016-08-05 CN CN201680088017.4A patent/CN109564432B/zh active Active
-
2019
- 2019-01-17 US US16/251,025 patent/US11042167B2/en active Active
-
2021
- 2021-06-14 US US17/346,318 patent/US11691729B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210303005A1 (en) | 2021-09-30 |
US11691729B2 (en) | 2023-07-04 |
US11042167B2 (en) | 2021-06-22 |
EP3494449A4 (en) | 2020-03-11 |
CN109564432A (zh) | 2019-04-02 |
US20190155313A1 (en) | 2019-05-23 |
EP3494449A1 (en) | 2019-06-12 |
JP2019522853A (ja) | 2019-08-15 |
WO2018023727A1 (en) | 2018-02-08 |
CN109564432B (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6786762B2 (ja) | 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 | |
US12014468B2 (en) | Capturing and aligning three-dimensional scenes | |
US20200284573A1 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
US10681269B2 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2017010327A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2017143745A1 (zh) | 一种确定待测对象的运动信息的方法及装置 | |
KR101181967B1 (ko) | 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템 | |
JP2008275341A (ja) | 情報処理装置、情報処理方法 | |
Marcin et al. | Hierarchical, three‐dimensional measurement system for crime scene scanning | |
WO2019100219A1 (zh) | 输出影像生成方法、设备及无人机 | |
US20220198942A1 (en) | Methods and associated systems for managing 3d flight paths | |
CN106462738B (zh) | 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备 | |
US20230091536A1 (en) | Camera Placement Guidance | |
CN112585672A (zh) | 自动检查和零件登记 | |
KR102506684B1 (ko) | 방문자 정보 획득 방법 및 그 장치 | |
KR20170045631A (ko) | 벡터 모델링 기반 제품 검수 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6786762 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |