JP6786762B2 - 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 - Google Patents

画像収集部及び距離測定部を有する装置を制御する方法、及び装置 Download PDF

Info

Publication number
JP6786762B2
JP6786762B2 JP2018567118A JP2018567118A JP6786762B2 JP 6786762 B2 JP6786762 B2 JP 6786762B2 JP 2018567118 A JP2018567118 A JP 2018567118A JP 2018567118 A JP2018567118 A JP 2018567118A JP 6786762 B2 JP6786762 B2 JP 6786762B2
Authority
JP
Japan
Prior art keywords
operator
image
gesture
distance
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567118A
Other languages
English (en)
Other versions
JP2019522853A (ja
Inventor
タン、ケタン
ゾウ、グユエ
グオ、ズオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2019522853A publication Critical patent/JP2019522853A/ja
Application granted granted Critical
Publication of JP6786762B2 publication Critical patent/JP6786762B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本技術は、人間のジェスチャーから導かれる一連の指示に少なくとも部分的に基づいて無人機(UAV)などの移動装置と通信するため又はそれを制御するための方法及び関連システムに一般的に関する。
従来、移動装置(UAVなど)は、一定のソフトウェアアプリケーションをインストールしたリモコン、コントロールスティック、又はモバイル機器などの遠隔装置により制御可能である。これらの制御方法は、すべて、付加制御装置を必要とする。このような制御装置を携行することは、ユーザーにとって不便な場合がある。たとえば、制御装置がかなりのかさを占めることがある。また一般的に、ユーザーは、移動装置を実際に制御できるようになる前に、ある程度の時間をかけてそれを制御する方法を学習しなければならない。言い換えると、移動装置を制御する付加制御装置の使用は、人間の直感にとって分かりにくく、ときにはユーザーによっては学習又は習熟が非常に困難である。したがって、直感的且つ簡単なユーザーコマンド又は命令により移動装置を制御するように方法及びシステムを改善する必要がある。
以下の概要は読者の便宜のためであり、開示する技術の代表的実施形態をいくつか紹介する。一般的に言えば、本技術は、操作者が簡単であり、習いやすく、直感的な方法により移動装置と通信すること及びそれを制御することを可能にするように改善された方法及び関連システムを提供する。より具体的には、本技術は、操作者がジェスチャー又は体の動きにより移動装置を制御すること及びそれと通信することを可能にする。付加制御装置は必要としない。関連システムは、先ず操作者に関連する情報を収集し、収集された情報に基づいてジェスチャーを識別し、次に、それに対応して移動装置を制御する命令を生成することができる。
本技術の代表的実施形態は、画像収集部及び距離測定部を有する移動装置を制御するための方法を含む。この方法は、操作者からの要求に応じて、画像収集部により操作者に対応する画像を生成するステップ及び距離測定部により操作者に対応する第1の一組の距離情報(たとえば、深度画像)を生成するステップを含む。この方法は、操作者に対応する画像の一部分(操作者の体の一部分の画像、操作者の画像、操作者又は操作者の体の一部分の輪郭、操作者又は操作者の体の一部分の境界線又は枠等)をさらに識別し、且つ、操作者に対応する画像の識別された部分に少なくとも部分的に基づいて第1の一組の距離情報から第2の一組の距離情報(たとえば、操作者の体の一部分に関連する深度画像の一部分)を取り出す。この方法は、次に、第2の一組の距離情報に少なくとも部分的に基づいて操作者に関連するジェスチャーを識別し、且つ、このジェスチャーに少なくとも部分的に基づいて装置に関する命令を生成する。
特定の実施形態において、移動装置はUAVとすることができる。一部の実施形態では、画像収集部は、カラー画像を収集するために使用できるカラー感知カメラ(たとえば、赤、緑、青(RGB)のピクセルを有するもの)とすることができる。他の実施形態においては、画像収集部は、様々な種類の画像を収集するカメラ(たとえば、温度/赤外線カメラ、暗視カメラ等)とすることができる。一部の実施形態では、距離測定部は、距離センサー(たとえば、飛行時間(ToF)センサー)に基づいて距離を測定するために使用できる距離感知カメラ又は深度感知カメラとすることができる。特定の実施形態では、収集される画像は2次元カラー画像とすることができる。一部の実施形態では、第1の一組の距離情報は2次元深度画像とすることができる。たとえば、深度画像は、被測定物体(操作者など)と距離センサーとの間の種々の距離を示す様々な種類の濃淡を有することができる。カラーカメラ及び距離カメラの分解能に関する制約のために、それらの1つのみを使用してジェスチャーを識別することは、ときとして困難である。特定の実施形態では、関連システムは、2次元カラー画像及び深度画像を分析又は比較し、そして操作者のジェスチャーを効果的に識別することができる。
特定の実施形態では、識別されるジェスチャーは、肢ジェスチャー、腕ジェスチャー、手ジェスチャー、指ジェスチャー等を含むことができる。関連システムは、これらの識別されたジェスチャーを分析し、且つ、それらと移動装置を制御するために使用し得る対応命令を関連付けることができる。たとえば、操作者は、自分の腕を一定方向に置くことにより移動装置に同一方向に動くよう指示することができる。そうすることにより、移動装置の制御及びそれとの通信が便利且つ直感的となり、且つ、付加制御装置を必要としない。
本技術の一部の実施形態は、UAV制御装置を構成する方法として実現することができる。これらの方法は、実行されたときに操作者に対応する画像及び操作者に対応する第1の一組の距離情報を生成し得る命令群によりコンピュータ可読媒体をプログラムするステップを含むことができる。これらの命令は、操作者に対応する画像の一部分を識別し、且つ、操作者に対応する画像の識別された部分に少なくとも部分的に基づいて第1の一組の距離情報から第2の一組の距離情報を取り出すことができる。これらの命令は、第2の一組の距離情報に基づいて操作者に関連するジェスチャーを識別し、且つ、このジェスチャーに基づいてUAVを制御するための命令を生成することができる。かかる方法は、上述した前記の部のいずれか1つ又はそれらの組み合わせを含むことができる。
図1は、本技術の代表的実施形態に従って操作者がジェスチャーによりUAVを制御することを可能にする制御システムを備えるUAVの部分概略等角図である。 図2は、本技術の代表的実施形態によるシステムを示す部分概略ブロック図である。 図3Aは、本技術の代表的実施形態による画像カメラ及び距離カメラの視野角を示す部分概略図である。 図3Bは、本技術の代表的実施形態によるクレードル角に基づく深度画像調整を示す部分概略図である。 図3Cは、本技術の代表的実施形態によるクレードル角に基づく深度画像調整を示す部分概略図である。 図3Dは、クレードル角に基づく深度画像調整ありの深度画像となしの深度画像との間の差違を示すスクリーンショット図である。 図3Eは、クレードル角に基づく深度画像調整ありの深度画像となしの深度画像との間の差違を示すスクリーンショット図である。 図4Aは、本技術の代表的実施形態による画像収集部により収集された画像を示す部分概略図である。 図4Bは、本技術の代表的実施形態による距離測定部により作成された画像を示す部分概略図である。 図5は、本技術の代表的実施形態による操作者に関連するジェスチャーを示す部分概略図である。 図6は、本技術の代表的実施形態に従って移動装置を制御する方法の実施形態を示すフローチャートである。 図7は、本技術の代表的実施形態に従って移動装置を制御する別の方法の実施形態を示すフローチャートである。
1.概要
本技術は、人間のジェスチャーから導かれる一連の所定の命令に基づいて無人機の(UAV)のような移動装置と通信するか又はそれを制御する(又はそれらの両方の)ための方法及び関連システムに一般的に関する。特定の実施形態においては、UAVは、操作者に対応するカラー画像を収集するように構成された画像収集部及びUAVと操作者との間の距離を測定するように構成された距離測定部を含む。収集されたカラー画像中において、操作者のジェスチャーを示す体の一部分を識別することができる。次に本技術は、測定された距離情報に基づいてジェスチャーを識別し、且つ、確認することができる。本技術は、次に、UAVを制御するための命令を導くことができる。特定の実施形態において、この命令は機械学習プロセス又は学習クラシファイアにより形成することができる。
一部の実施形態においては、バウンディングボックスを使用して体の一部分を識別することができる。たとえば、バウンディングボックスは、長方形の画像枠とすることができる。操作者に関連する画像部分の近くにバウンディングボックスを置くことにより、本技術は、UAVを制御する操作者のジェスチャーを示すことになっている体の一部分を容易且つ迅速に識別することができる。
収集されたカラー画像情報及び測定された距離情報を一定の方法により関連付けること又は結びつけることができる。たとえば、収集されるカラー画像は、水平軸X及び垂直軸Yにより定義される2次元画像とすることができる。2次元画像中の各点(たとえば、ピクセル)は2つの軸により識別され、且つ、一組のカラー情報(たとえば、RGB構成)に関連付けることができる。同様に、測定される距離情報は、同じ水平軸X及び垂直軸Yにより定義される2次元深度マップとすることができる(たとえば、画像収集部及び距離測定部を起動するときに一定の位置合わせを行うことができる)。2次元深度マップ中の各点(たとえば、ピクセル)は2本の軸により識別され、且つ、一組の距離情報に関連付けられ得る(たとえば、UAVと操作者との間の距離を示すために種々の濃淡又はカラーを使用する)。次に本技術は、識別された体の一部分に関連付けられた一組の対応距離情報を識別することができる。体の一部分のカラー画像情報と深度情報の両方を分析することにより、本技術は操作者のジェスチャーを識別することができる。
一部の実施形態では、ジェスチャーが識別された後、本技術は操作者のジェスチャーの種類を分析し、且つ、決定することができる。たとえば、関連システムは、ジェスチャーに関連する収集された画像情報及び測定された距離情報を分析し、続いて識別されたジェスチャーの種類を決定することができる。たとえば、関連システムは、収集された画像及び測定された距離情報を既存データベース中に格納されている基準情報又は所定のデータセット(たとえば、リモートデータベース又はシステム中のデータ格納装置とすることができる)と比較することができる。基準情報は、様々な種類のジェスチャー(たとえば、肢ジェスチャー、腕ジェスチャー、手ジェスチャー、指ジェスチャー等)に対応する種々の特徴を含み得る。たとえば、腕のジェスチャーは、手のジェスチャーの特徴とは異なる特徴を含むことができる(たとえば、腕ジェスチャーは、より広い範囲の距離変化を有し得る)。
一部の実施形態では、関連システムは、特定の種類のジェスチャーを優先ジェスチャーとして識別するように構成され得る。ある種類の優先ジェスチャーを決定するときに考慮する1つの要因は、移動装置と操作者との間の距離である。たとえば、移動装置と操作者との間の距離が所定の範囲(たとえば、0.5〜1メートル)内にあるか又は閾値(たとえば、2メートル)未満である場合、システムは、「手ジェスチャー」を優先ジェスチャーとして選択することができる(すなわち短距離モードにおいて)。これは、システムが操作者の腕全体の画像を収集する可能性より操作者の手全体の画像を収集する可能性が高いからである。たとえば、短距離の場合、画像収集部が腕ジェスチャーの一部分のみ捕捉することがあり得る。同様に、移動装置と操作者との間の距離が所定の距離より長い場合、システムは、「腕ジェスチャー」を優先ジェスチャーとして選択することができる(すなわち長距離モードにおいて)。これは、システムが操作者の手に対応する高品質(たとえば、高分解能)画像を収集することができないかもしれないからである。そうすることにより、本技術は、操作者が種々の距離範囲において識別されたジェスチャーに基づいて効果的に移動装置を制御し、且つ、それと通信することを可能にする。
特定の実施形態においては、操作者が移動装置の制御又はそれとの通信を実際に開始する前に、操作者は自分のジェスチャーに基づいて関連システムに要求を送ることができる。たとえば、操作者は、自分の腕を上げて振ることにより関連システムに対する要求を形成することができる。操作者のジェスチャー要求を識別した後に(たとえば、操作者に対応する収集された画像及び測定された距離情報を分析することにより)、関連システムは、操作者が移動装置を制御することを可能にすることができる。一部の実施形態は、関連システムは、一定のジェスチャーを認識することにより操作者の正体を検証することができる。たとえば、操作者は、関連システムを「解錠する」ために所定のジェスチャー(又はジェスチャーの組み合わせ)を演ずる必要があるかもしれない。この機能は、関連システム及び移動装置のセキュリティを強化することができる。別の実施形態では、関連システムは、システムに関連付けられているセキュリティ機器(たとえば、顔認識装置、指紋読み取り装置、音声認識装置等)に基づいてユーザーの正体を検証することができる。
一部の実施形態では、本技術の関連システムは、付加制御装置(移動装置を制御するように設計された特定のアプリケーションをインストールしたスマートフォン、移動装置のためのリモコンスティック等)と共同動作することができる。一部の実施形態では、操作者は、付加制御装置経由で選択又は確認され得る(たとえば、スマートフォンにインストールされたアプリケーションにより与えられるユーザーインターフェース経由)。一部の実施形態では、操作者の正体は付加制御装置(たとえば、付加制御装置に関連付けられたセキュリティ機器)により検証され得る。
本技術は、関連システムが操作者のジェスチャーに関連付けられた一組の基準情報及び対応する命令又はコマンドを機械学習プロセス(又は学習クラシファイア)により生成することを可能にすることもできる。機械学習プロセスの例は、畳み込みニューラルネットワーク(CNN)シミュレーション、ランダムフォレスト(RF)計算、有限状態機械(FSM)オートマトン等に関連付けられた方法/アルゴリズムを含む。学習プロセスは、一連の命令を含むプログラムチップ、コンピュータアプリケーション、スマートフォンアプリケーション、ソフトウェア、ファームウェア等を含むがそれらのみに限られない特定学習コンポーネントにより遂行され得る。
特定の実施形態では、本技術は、移動装置に関する命令を生成する前に識別されたジェスチャーを検証することができる。たとえば、このシステムは、識別されたジェスチャーに関連付けられた画像(たとえば、それはカラー画像又は距離画像のいずれでもよい)を一定期間にわたり追跡し、且つ、記憶することができる。一部の実施形態では、これらの画像は関連システムのデータ記憶装置(たとえば、メモリ、ディスクドライブ、フラッシュドライブ、論理区画、バッファ等)に格納され得る。本技術は、これらの記憶された画像を分析し、且つ、これらの画像から導かれるジェスチャー群の整合性をチェックすることができる。たとえば、操作者が不注意にあるジェスチャーを行ったが、当人は移動装置を制御するジェスチャーを演ずることは意図していなかったということがあり得る。この整合性分析は、関連システムによる制御の正確性を向上させ、したがってユーザーにより良い使用経験を与えることができる。
在来のシステムと異なり、本技術の特徴は、付加制御装置を必要とせずに操作者が移動装置を制御し、それと相互作用し、且つ、通信できるようにすることを狙いとしている(しかし、関連システムは、上述したように、付加制御装置と共同動作することができる)。したがって、この方法は、移動装置の操作性を改善することができ、よって在来の方法に比べてより快適な使用体験をユーザーに与える。より具体的には、本技術は、操作者が自己のジェスチャーにより移動装置を制御することを可能にする。ジェスチャーは、操作者に関連付けられる収集された画像及び距離情報に基づいて識別され、且つ、分析され得る。収集された画像と距離情報を相互参照することにより、本技術は移動装置を制御するための命令群を効果的に生成することができる。
UAV及びそれに対応するシステムとサブシステムにしばしば関連する構造又はプロセスに関する種々の詳細記述がよく知られているが、それはここで開示される技術の重要な特徴を不必要に曖昧にする恐れがあるので、以下の記述においては取り上げないこととする。さらに、以下の開示は本技術の種々の側面に関わる数件の実施形態を明示するが、他の数件の実施形態はこの節において記述される要素とは異なる構造又は異なる部を有し得る。したがって、本技術は、付加要素を伴う他の実施形態をとるか、又は図1〜7を参照して以下において記述される数点の要素を伴わない他の実施形態をとることがあり得る。
図1〜7は、開示される技術の代表的実施形態を示すものである。別段の指定のない限り、これらの図は本出願における請求の範囲の制限を意図するものではない。
以下において記述される技術の多くの実施形態は、プログラム可能なコンピュータ又は制御装置により実行されるルーチンを含むコンピュータ又は制御装置により実行可能な命令の形態を取り得る。関連技術における当業者は、以下において示され、且つ、説明されるシステム以外のコンピュータシステム又は制御装置システムにより本技術が実施可能であることを認識することとなる。本技術は、以下において記述されるコンピュータ実行可能命令群の1つ又は複数を実行するように特別にプログラムされるか、構成されるか又は構築される専用コンピュータ又はデータプロセッサにおいて具体化され得る。したがって、本出願において広く使用される用語、「コンピュータ」及び「制御装置」は、どのようなデータプロセッサも指し、且つ、インターネットアプライアンス及び携帯機器(パームトップコンピュータ、ウェアラブルコンピュータ、セルラー電話機又は携帯電話機、マルチプロセッサシステム、プロセッサ応用又はプログラム可能消費者家電製品、ネットワークコンピュータ、ミニコン、プログラム組込コンピュータチップ等を含む)を含み得る。これらのコンピュータ及び制御装置により取り扱われる情報は、CRTディスプレイ又はLCDを含む任意の適切な表示媒体により表示され得る。コンピュータ又は制御装置により実行可能なタスクを実行するための命令は、ハードウェア、ファームウェア又はハードウェアとファームウェアの組み合わせを含む任意の適切なコンピュータ読み取り可能な媒体に記憶され得る。命令は、たとえば、フラッシュドライブ、USB機器又はその他の適切な媒体を含む任意の適切な記憶装置に格納され得る。特定の実施形態において、用語、「部」は、ハードウェア、ファームウェア、又はコンピュータ読み取り可能な媒体に格納された一連の命令を指し得る。
2.代表的実施形態
図1は、本技術の実施形態に従って構成された代表的UAV 100の部分概略等角図である。UAV 100は機体110を含み得る。この機体は中心部分及び1つ又は複数の外側部分を含み得る。特定の実施形態において、機体110は4つ外側部分(たとえばアーム)を含み得る。これらの外側部分は中心部分から広がるようにお互いに離間配置される。別の実施形態においては、機体110は、上記と異なる個数の外側部分を含み得る。これらの実施形態のいずれにおいても、個々の外側部分は、UAV 100を駆動する推進システムの部を支持することができる。たとえば、個々のアームは、対応するプロペラ106を駆動する個々の対応動力装置を支持することができる。
機体110は、搭載物104、たとえば、撮像装置を搭載することができる。特定の実施形態では、撮像装置は、画像カメラ(たとえば、ビデオデータ、静止画データ、又は両方を捕捉するように構成されたカメラ)及び距離カメラ(たとえば、2つの物体間の距離を測定できる飛行時間(ToF)センサーなどの距離センサーを有するカメラ)を含み得る。画像カメラは、可視光線、紫外線、赤外線又はそれらの組み合わせを含む種々の適切な波長帯のいずれにおける波長にも感応し得る。さらに別の実施形態では、搭載物104は、他の種類のセンサー、他の種類の積み荷(たとえば、小包又はその他の配送品)、又は両方を含み得る。多数のこれらの実施形態において、搭載物104は、ジンバル102により機体110に対して相対的に支持される。このジンバルは、搭載物が機体110に対して独立して位置付けられることを可能にする。したがって、たとえば搭載物104が撮像装置131を含む場合、撮像装置は標的を追跡するために機体110に対して相対的に移動され得る。より具体的には、たとえば、撮像装置は機体110に対して相対的に(又は水平面のような他の基準平面に対して相対的に)ある角度だけ(「クレードル角度」と呼ばれる)回転され得る。一部の実施形態では、画像装置により収集された画像はクレードル角度に基づいて調整され得る。関連画像調整については、以下において図3B及び3Cを参照してより詳しく説明する。UAV 100が飛行していないときには、着陸装置がUAV 100を搭載物104を保護する位置に支持することができる。
代表的な実施形態において、UAV 100は、UAV 100に搭載される制御装置108を含む。制御装置108は、推進システム及び撮像装置の動作を含むがそれらのみに限られない動作を含むUAV 100の作動を指示する命令を実行する搭載コンピュータの読み取り可能な媒体103を含み得る。特定の実施形態では、操作者は、画像装置により識別される自分のジェスチャーによりUAV 100を遠隔制御することができる。ジェスチャー識別に関する実施形態については、以下においてより詳細に説明する。搭載コンピュータの読み取り可能な媒体103は、UAV 100から取り外すことができる。
図2は、本技術の代表的実施形態に従って構成されたシステム200を示す部分概略ブロック図である。一部の実施形態においては、システム200は、システム200の部に関連付けられる情報/命令を格納するコンピュータ読み取り可能な媒体を有する装置とすることができる。特定の実施形態では、システム200は、操作者20から画像情報及び距離情報を収集するように構成される。収集された画像及び距離情報は、システムに関連付けられている移動装置(UAVなど)を制御するために使用される。一部の実施形態では、システム200は移動装置による実装又は搭載が可能である。別の実施形態では、システム200(又はシステム200の一部)は移動装置から離れた場所、たとえば、遠隔プロセッサ位置に設置し得る。図2に示すように、システム200は、プロセッサ201、記憶部202、画像部203、距離測定部205、分析部207、検証部209、及び命令生成部211を含んでいる。図示されているように、プロセッサ201は、システム200の他の部と結合され、且つ、それらを制御するように構成されている。記憶部202は、システム200により収集又は生成された情報を永久的又は一時的に記憶するように構成されている。特定の実施形態では、記憶部202は、ディスクドライブ、ハードディスク、フラッシュドライブ、メモリ等を含み得る。
画像部203は、システム200の外部の画像を収集するように構成されている。特定の実施形態では、画像部203は、操作者20に対応する画像を収集するように構成されている。一部の実施形態では、画像部203は、赤、緑、及び青(RGB)のピクセルを有する2次元画像を収集できるカメラとすることができる(2次元画像の例については、さらに以下において図4Aを参照して説明する)。収集された画像は、その後の処理/分析のために記憶部202に格納され得る。別の実施形態では、画像部203は、サーマル画像カメラ、暗視カメラ、又は操作者に対応する画像を収集できるその他の適切な装置とすることができる。
特定の実施形態では、距離測定部205は、操作者20とシステム200との間の距離を測定するように構成される。一部の実施形態では、距離測定部205は、適切な信号(光、レーザー等)を発射/受信することにより物体間の距離を測定する飛行時間(ToF)センサーを含み得る。一部の実施形態では、距離測定部205は、距離カメラとするか、又はそれを含むことができる。別の実施形態では、距離測定部205は、操作者20に関連する2次元距離/深度画像を生成することができる適切な装置とするか、又はそれを含むことができる。2次元距離/深度画像の例については、さらに以下において図4Bを参照して説明する。収集された距離情報は、その後の処理/分析のために記憶装置202に格納され得る。
収集された画像情報及び測定された距離情報を結合するか又は関連付けることにより、システム200が両方を利用して操作者のジェスチャーを識別すること(及びオプションとして検証すること)ができるようにする。たとえば、一部の実施形態では、収集された2次元画像の座標軸を2次元距離/深度画像の座標軸と関連付けることができる。それにより、システムは、収集された画像中に位置する任意のピクセルの距離情報を得ること、及びその逆の情報を得ることができる(すなわち、システムは、距離/深度画像中の任意のピクセルのカラー情報を得ることができる)。関連実施形態については、以下において図4A及び4Bを参照して詳しく説明する。
特定の実施形態では、分析部207は、操作者20に対応する収集された画像情報及び測定された距離情報を分析するように構成される。システム200は、収集された画像中の操作者を先ず識別する。一部の実施形態では、収集された画像中の操作者はピクセル分析により識別され得る(たとえば、操作者に対応するピクセルを画像背景に対応するピクセルから区別する)。一部の実施形態では、収集された画像中の操作者は、体の輪郭に基づいて識別され得る(たとえば、サーマル画像におけるユーザーに対応する体の輪郭)。一部の実施形態では、収集された画像中の操作者は、バウンディングボックスを収集された画像上に位置付けること(又は重ねること)により識別され得る(たとえば、図4A及び4Bに示すバウンディングボックス、以下においてより詳しく説明する)。このような実施形態では、バウンディングボックスを使用することによりシステム200は、さらに、収集された画像中の操作者のジェスチャーを識別することができる。たとえば、分析部207は、識別される操作者画像部分の境界線とバウンディングボックスとの間の交差(たとえば、図4Aにおける交差409)に基づいてジェスチャーを識別することができる(詳細は以下において図4A及び4Bを参照して説明する)。
収集された画像中の操作者が識別された後、一部の実施形態では、分析部207は、操作者に対応する測定された距離情報(たとえば、2次元深度画像全体の一部分)を分析して操作者のジェスチャーを識別することができる。たとえば、分析部207は、2次元深度画像中の操作者の体のいくつかの部分(たとえば、頭、肩、腕、関節、脚、手、足、指等)を先ず識別することができる。分析部207は、次にジェスチャーを識別することができる。一部の実施形態では、分析部207は、特定の種類のジェスチャーを予期することができる。たとえば、分析部207は、システム200が長距離モードにあるときに、腕のジェスチャーの識別に集中することができる。別の例として、分析部207は、システム200が短距離モードにあるときに、手のジェスチャーの識別に集中することができる。一部の実施形態では、分析部207は、CNNシミュレーション、RF計算、FSMオートマトン等を含む機械学習プロセスに基づいて操作者のジェスチャーを識別することができる。
ジェスチャーが識別された後、識別されたジェスチャーに関連する距離/深度情報は、命令生成部211によりさらに処理される。一部の実施形態では、命令生成部211は、CNNシミュレーション、RF計算、FSMオートマトン等を含む学習プロセスに基づいて又は学習クラシファイアに基づいて命令を生成することができる。
特定の実施形態では、検証部209は、識別されたジェスチャーの整合性を検証するように構成される。検証部209は、識別されたジェスチャーに関する画像(たとえば、カラー画像と深度画像の両方を含む)を一定期間にわたり(たとえば、1〜5秒)先ず追跡し、且つ、これらの画像を記憶する(たとえば、多数の関連画像フレーム及び距離画像フレームを記憶する)ことができる。検証部209は、記憶された画像を分析してこれらの画像中の識別されたジェスチャーが1つのフレームから別のフレームへ一貫しているか否か判定することができる。一貫している場合、システム200は、識別されたジェスチャーに基づいて対応する命令を形成する命令生成部211の動作を進めることができる。一貫していない場合、システム200は、操作者に通知するか(たとえば、「ジェスチャーが識別され得ない」ことを示す可視又は可聴信号により)又は別のジェスチャーの識別に進むことができる。一部の実施形態では、検証部209は、識別されたジェスチャーを(リモート又はローカル)データベースに格納されている基準情報(たとえば、多数の操作者の手ジェスチャー深度情報の基準群)と比較することによりそれを検証することができる。検証部209は、システム200により行われるジェスチャー識別プロセス及びその結果の命令生成プロセスの正確性を確保するために利用制限タスクを行う。
図3Aは、本技術の代表的実施形態による画像カメラ301及び距離カメラ303の視野角を示す概略図である。特定の実施形態では、画像カメラ301は、操作者30の画像302(たとえば、RGBピクセルによるカラー画像)又は操作者30に対応する画像302を収集するように構成される。収集される画像302は、水平角(たとえば、図3Aにおける角A)、垂直角(たとえば、図3Aにおける角A)、又は対角(たとえば図3Aにおける角A)に基づいて測定され得る第1視野角において画像カメラ301により生成される。より具体的には、画像302を収集する画像カメラ301の第1視野角は、画像302がどのように見えるか、及び操作者30が画像302のどこに位置を占めるかを決定する(たとえば、操作者30は画像の中心に位置し、且つ、画像302の合計画像面積の1/2又は1/4を占め得る)。
距離カメラ303(たとえば、ToFセンサーなどの距離センサーを有する装置)は、距離カメラ303と操作者30との間の距離を測定するように構成される。測定された距離情報は、深度マップ304として表現され得る(たとえば、濃淡又はカラーを使用して距離カメラ303と被測定物体との間の距離を示す)。深度マップ304は、水平角(たとえば、図3Aにおける角B)、垂直角(たとえば、図3Aにおける角B)、又は対角(たとえば図3Aにおける角B)に基づいて測定され得る第2視野角において距離カメラ301により生成される。より具体的には、距離を測定するために使用される距離カメラ303の第2視野角は、深度マップ304の大きさ(たとえば、深度マップの分解能に依存するピクセルの個数)及び操作者30が深度マップ304のどこに位置を占めるか決定する。
図3Aに示した特定の実施形態において、画像カメラ301及び距離カメラ303は一般的に同じ位置に置かれ(たとえば、お互いに隣接するか、又は図1を参照して上述した画像カメラ131のように同一装置内に併置される)、また、第1視野角と第2視野角は少なくとも近似的に同じである。したがって収集された画像302と深度マップ304は、一般的に同一座標軸(たとえば図3Aに示されているX軸及びY軸)を有し得る。これらは、収集された画像302及び深度マップ304のピクセルを識別するために使用される。たとえば、収集された画像302内の任意の位置に基づいて(たとえば、ジェスチャーに対応するピクセル)、対応する深度情報(たとえば、ジェスチャーに対応する深度情報)を迅速に取り出すことができる。同様に深度マップ304内の任意の位置に基づいて、収集された画像302内の対応する画像部分を容易に求めることができる。
一部の実施形態では、第1視野角と第2視野角をほぼ同一とする必要はない。かかる実施形態では、収集された画像302及び深度マップ304の座標軸を相互参照できるように、これらを結合するか又は関連付ける(たとえば、変換により)ことができる。一部の実施形態では、収集された画像302及び深度マップ304の座標軸は、以下の等式に基づいて結合するか又は関連付けることができる。
上記の等式(1)において、(u,v)は収集された画像302の座標であり、且つ、(u,v)は深度画像304の座標である。パラメータK及びKは内部基準行列である。パラメータR及びTは、画像カメラ301との関係における距離カメラ303の回転及び並進を表す係数である。パラメータαは比率パラメータである。上の等式において、パラメータK、K及びTは一定であり、且つ、実証的研究に基づいて計算され得る(たとえば、この等式における一連の既知の座標に基づいて未知パラメータを計算することにより)。クレードル角度(水平面からの回転を示す角度であり、たとえば図3Cにおける角度θ)がゼロである場合、パラメータRは単位行列である。上の等式(1)に基づいて、収集された画像302及び深度画像304の座標軸を結合するか又は関連付けることができる。
特定の実施形態において、本技術は、収集された画像302及び深度マップ304の分解能を分析すること(「分解能分析」と呼ばれる)により、収集された画像302及び深度マップ304の分析方法を決定することができる。たとえば、収集された画像302が比較的高い分解能を有しており、そのためにシステムが操作者30のジェスチャーを当初に識別できる実施形態の場合、システムは、収集された画像302のみに基づいて当該ジェスチャーを先ず識別し、次に識別されたジェスチャーを検証するために深度マップ304を使用することができる。同様に、深度マップ304が比較的高い分解能を有しており、そのためにシステムが操作者30のジェスチャーを当初に識別できる実施形態の場合、システムは、深度マップ304のみに基づいて当該ジェスチャーを先ず識別し、次に識別されたジェスチャーを検証するために収集された画像302を使用することができる。この構成により、本技術は、種々の分解能を有する様々な種類の(画像又は距離)カメラにより実現され得る。
図3B及び3Cは、本技術の代表的な実施形態によるクレードル角度θに基づく深度画像調整を示す部分概略図である。図3Bにおいて、クレードル角度θはゼロであり、これは距離カメラ305の光軸が水平面に平行であることを意味する。かかる実施形態では、操作者30の基本深度画像は、操作者の画像全体にわたりほぼ同じであり、したがって操作者30のジェスチャーにより引き起こされた深度変化は容易に識別され得る。よって、かかる実施形態の場合には、クレードル角度θに基づく深度画像調整を行う必要はない。しかし、3Cに示した実施形態においては、距離カメラ305の光軸は水平面と一定の角度(すなわち、クレードル角度θ)を形成している。その結果、操作者30の深度画像を撮るとき、操作者30の基本深度画像は操作者の画像全体にわたって同じではなく(たとえば、それは操作者の頭からつま先にかけて増大する)、したがって操作者30のジェスチャーにより引き起こされる深度変化は容易に識別できない。
この深度画像は以下の等式(2)により調整され得る。当初の深度画像中の点は、P=(u,v,z)として表すことができる。パラメータuは深度画像のX軸(たとえば、図3Aにおいて示したX軸)の値を表し、また、パラメータvは深度画像のY軸(たとえば、図3Aにおいて示したY軸)の値を表す。パラメータzは深度マップにおける深度値を表す。パラメータSはSin θを表し、パラメータCはCos θを表し、そしてパラメータfは回転行列の係数である。調整された点
は、(u,v,z')として表すことができる。言い換えると、深度値zは、深度画像調整後にz'により置き換えることができる。理論にとらわれずに、深度画像調整は、深度画像調整なしの場合より、深度画像によるジェスチャーの識別において良い結果を与えると考えることができる。
図3D及び図3Eは、深度画像調整の実施前及び後の画像を示す。図3Dは深度画像調整なしの当初の深度マップであり、また、図3Eは調整された深度値(たとえば、(z')を有する調整後の深度マップである。図3D/図3Eは、閾深度値に基づく深度マップにおいて決定されている。たとえば、図3D/図3Eは低深度閾値(Dmin)から高閾深度値(Dmax)までのピクセルから構成されている。図示されているように、図3Eにおける操作者の腕のジェスチャーは、図3Dにおけるジェスチャーより明瞭である。
図4A及び4Bは、本技術の代表的実施形態による画像収集部及び距離測定部により収集された画像を示す部分概略図である。図4Aは、操作者(たとえば、前出した操作者20又は30)に対応する画像部分403及び背景画像部分405を有するカラー画像402を示している。図4Bは、操作者に対応する深度画像部分406及び背景画像部分408を有する深度マップ404を示している。深度マップ404における種々の濃淡が距離カメラと被測定物体(たとえば、操作者、背景構造物等)間の種々の距離を反映していることに注意されたい。カラー画像402及び深度マップ404の座標は結合されるか又は関連付けられ(前述したように)、その結果、これらは容易に相互参照可能である。
図4A及び4Bに示したように、画像部分403は、カラー画像402においてバウンディングボックス407により識別され得る。一部の実施形態では、関連システム(たとえば、システム200)は、バウンディングボックス407をカラー画像402の上に置く(又は重ねる)ことにより、操作者に対応する画像部分403の少なくとも一部がバウンディングボックス407により囲まれるようにすることができる。このシステムは、次に、画像部分403とバウンディングボックス407との間の交差409を識別することによりカラー画像402中の操作者の体の一部分(たとえば、肩関節又は腕)を識別することができる。このシステムは、交差409に基づいてジェスチャーを識別することができる。
特定の実施形態では、バウンディングボックス407は矩形状である。一部の実施形態では、バウンディングボックス407は楕円形とすることができる。別の実施形態では、バウンディングボックス407は、正方形、円等の種々の形状とすることができる。一部の実施形態では、バウンディングボックス407は、ユーザー入力に基づいて生成され得る(たとえば、ユーザーがユーザーインターフェース経由で多数の候補から1人の操作者を識別する)。一部の実施形態では、バウンディングボックス407は、カラー画像402の分析に基づいてシステムにより生成され得る(たとえば、特定の種類の衣服を着用している人間操作者に関連する画像部分を自動的に認識するために)。一部の実施形態では、システムは対象分析を行うことができ(たとえば、分析される対象にとって望ましい形状の概略を把握するために)、それに従ってバウンディングボックス407の形状を決定することができる(たとえば、直立人間作業者の場合に垂直矩形のバウンディングボックスを選択する)。
交差409が識別された後、システムは深度マップ404に取りかかり、操作者に対応する深度情報を得ることができる(たとえば、腕の深度画像部分410)。システムは、さらに、操作者の体の他の部分(たとえば、頭、肩、手、関節等)の相対的位置及び対応する深度分析に基づいて操作者の体のこれらの部分を識別し得る。したがって、カラー画像402及び深度マップ404を相互参照することにより、システムは操作者の体による様々な種類のジェスチャーを効果的に識別することができる。別の実施形態では、システムは先ずバウンディングボックス407を深度マップ404の上に置き、次に上述と同様な方法によりカラー画像402においてジェスチャーの画像を得ることができる。
一部の実施形態では、たとえば、システムは先ずカラー画像202を使用してバウンディングボックス407を識別することができる(たとえば、カラー画像202における交差409を識別することなく)。システムは、識別したバウンディングボックス407を深度マップ404に「マップし」、次に深度画像部分406とバウンディングボックス407との間の交差409dを識別することができる。システムは、次に交差409dに基づいてジェスチャーを識別することができる。特定の実施形態では、交差409は操作者の肩関節を表すことができる。システムが操作者の肩関節の位置を特定した後、システムは、さらに、少なくとも部分的に深度画像部分406の分析に基づいて体の他の部分の位置を特定することができる。特定の実施形態では、システムは、深度画像部分406又はバウンディングボックス407に対応する深度情報に基づいて操作者の中心点を決定することができる。たとえば、システムは、バウンディングボックス407の上側2/3の部分における深度画像部分406に対応する深度ピクセルの座標を平均することにより操作者の中心点を決定することができる。操作者の中心点を決定した後、システムは次に中心点との関係における操作者の体の他の部分(たとえば、頭、腕、手等)の相対的位置に基づいてそれらを決定することができる。体のこれらの部分の位置を特定した後、システムは次に関連する画像情報及び距離情報に基づいて対応するジェスチャーを識別することができる。
一部の実施形態では、このシステムは、閾深度値に基づいて深度マップ404において操作者に対応する深度画像部分406を決定することができる。たとえば、システムは、低深度閾値(Dmin)から高閾深度値(Dmax)までのピクセルを操作者に対応する深度画像部分406と見做すことができる。一部の実施形態では、低深度閾値及び高閾深度値は、ToFセンサーの特性、背景深度情報、測定環境等を含む種々の要因に基づいて決定され得る。
一部の実施形態では、Dmin及びDmaxは、下の等式(3)及び等式(4)に基づいて決定することができる。Dbodyは操作者の代表的深度を示す。一部の実施形態では、Dbodyは、深度マップにおいて操作者の決定された中心点に基づいて求めることができる(たとえば、システムは、決定された中心点に対応する深度情報を深度マップにおいて検索することによりDbodyを得ることができる)。一部の実施形態では、Dbodyは、深度画像部分406又はバウンディングボックス407(又はその一部)に対応する深度情報を平均することにより得ることができる。等式(3)及び(4)において使用される長さの単位はメートルである。パラメータ"0.4"は、人体の平均深度に関する実証的研究に基づいて決定されている。パラメータ"0.5"は、システムにおける距離センサーの種類に応じて変わり得る。
min=max(0,Dbody−0.4) 等式(3)
max=min(5,Dbody+0.4) 等式(4)
図5は、本技術の代表的実施形態による操作者50に関連するジェスチャーを示す部分概略図である。図5に示されているように、操作者に関連するジェスチャーは、腕ジェスチャー501、頭ジェスチャー503、肩ジェスチャー505、関節ジェスチャー507、手ジェスチャー509、指ジェスチャー510、脚ジェスチャー511、足ジェスチャー513、又は上記のジェスチャーのいずれかの2つ又は複数の組み合わせを含み得る。たとえば、操作者50は、自分の右腕と左脚の両方を使用して組み合わせジェスチャーを現示することができる。
図6は、本技術の代表的実施形態において移動装置を制御する方法600を示すフローチャートである。方法600は、操作者からの要求により開始され得る。ブロック601において、この方法は、(たとえば、描写)操作者に対応する画像を生成する。ブロック603は、操作者に対応する第1の一組の距離情報を生成するステップを含む。一部の実施形態では、第1の一組の距離情報は深度マップ画像とすることができる。ブロック605において、方法600は続いて操作者に対応する画像の一部を識別する。一部の実施形態では、操作者に対応する画像の一部分は、操作者の体の一部分の画像、操作者の画像、操作者又は操作者の体の一部分の輪郭、操作者又は操作者の体の一部分の境界線又は枠等とすることができる。
方法600は、次にブロック607において、操作者に対応する画像の識別された部分に少なくとも部分的に基づいて第1の一組の距離情報から第2の一組の距離情報を取り出す。一部の実施形態では、第2の一組の距離情報は、操作者に関連する深度マップ画像の一部分とすることができる。たとえば、第2の一組の距離情報は、身体の枠の距離画像部分、腕の距離画像部分、腕関節の距離画像部分、肩の距離画像部分、手の距離画像部分、身体のその他の適切な部分の距離画像部分、又はそれらの組み合わせとすることができる。
ブロック609において、方法600は、少なくとも部分的に第2の一組の距離情報に基づいて操作者に関連するジェスチャーを識別する。一部の実施形態では、ジェスチャーは、肢、腕ジェスチャー、手ジェスチャー、指ジェスチャー、又はそれらの組み合わせとすることができる。ブロック611において、方法600は、ジェスチャーに基づいて装置に関する命令を生成する。方法600はここで戻る。
図7は、本技術の代表的実施形態において移動装置を制御する別の方法700の実施形態を示すフローチャートである。ブロック701において、関連システム(たとえば、システム200)は、操作者からの要求に応じて、操作者に対応する画像を生成する。ブロック703において、システムは、要求に応じて、(たとえば、描写)操作者に対応する第1の一組の距離情報を生成する。方法700は、次にブロック705において操作者に対応する画像の一部分を識別することにより継続する。ブロック707においてシステムは、操作者に対応する画像の識別された部分に少なくとも部分的に基づいて第1の一組の距離情報から第2の一組の距離情報を取り出す。
ブロック709において、システムは、第2の一組の距離情報に少なくとも部分的に基づいて操作者に関連するジェスチャーの種類を決定する。一部の実施形態では、ジェスチャーの種類は、既存データセットとの比較に少なくとも部分的に基づいて決定され得る。さらにブロック711において、システムは、ジェスチャーに基づいて装置に関する命令を生成する。一部の実施形態では、命令は、機械学習プロセスに基づいて生成され得る。方法700はここで戻る。
上記から、本技術の特定の実施形態が本出願において説明のために記述されたが、本技術から逸脱することなく種々の改変が可能であることが理解されるであろう。たとえば、特定の実施形態が上記において移動装置との関連において説明された。別の実施形態においては、これらの移動装置はUAVを含む種々の適切な装置とすることができる。
さらに、本技術の一定の実施形態に関する長所がそれらの実施形態に関して記述されたが、他の実施形態もかかる長所を有し得るものであり、また、本技術の範疇に属するために必ずしもすべての実施形態がかかる長所を呈する必要があるわけではない。したがって、この開示及び関連技術は、本出願において明確に示されていないか又は説明されていない他の実施形態も包含し得る。
この特許文書の開示の少なくとも一部は、著作権保護を受ける内容を含んでいる。その著作権所有者は、この特許文書又は特許開示が特許商標局の特許ファイル又は記録に見られるように、何人によるそれらのいずれのファクシミリ複製にも反対しないが、その他の一切の場合については、すべての著作権を留保する。
[項目1]
画像収集部及び距離測定部を有する装置を制御する方法であって、
上記画像収集部により操作者に対応する画像を生成するステップと、
上記距離測定部により上記操作者に対応する第1の一組の距離情報を生成するステップと、
上記操作者に対応する上記画像の一部分を識別するステップと、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出すステップと、
上記第2の一組の距離情報に少なくとも部分的に基づいて、上記操作者に関連するジェスチャーを識別するステップと、
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成するステップと
を含む方法。
[項目2]
上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定するステップをさらに含む項目1に記載の方法。
[項目3]
所定の閾値より大きい上記距離に応じて上記操作者に関連する腕ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目4]
上記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記身体の枠の距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目5]
上記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記腕関節距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目6]
上記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記肩距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目7]
上記操作者に関連する手距離画像部分に少なくとも部分的に基づいて上記腕ジェスチャーを識別するステップをさらに含む方法であって、上記手距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目3に記載の方法。
[項目8]
所定の閾値より短い上記距離に応じて、上記操作者に関連する手ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップをさらに含む項目2に記載の方法。
[項目9]
上記操作者に関連する指距離画像部分に少なくとも部分的に基づいて上記手ジェスチャーを識別するステップをさらに含む方法であって、上記指距離画像部分が上記第2の一組の距離情報に少なくとも部分的に基づいて決定される項目8に記載の方法。
[項目10]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されるバウンディングボックスに少なくとも部分的に基づいて識別される項目1から項目9のいずれか一項に記載の方法。
[項目11]
上記バウンディングボックスが矩形状である項目10に記載の方法。
[項目12]
上記バウンディングボックスが楕円形状である項目10に記載の方法。
[項目13]
上記操作者に関連する上記ジェスチャーが肢ジェスチャーであり、且つ、上記方法が上記バウンディングボックスに少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目10に記載の方法。
[項目14]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて上記肢ジェスチャーを識別するステップをさらに含む項目13に記載の方法。
[項目15]
上記操作者に対応する上記画像の上記部分の上記境界線が上記操作者に関連する身体の輪郭を含む項目14に記載の方法。
[項目16]
肢ジェスチャーが腕ジェスチャーを含む項目14に記載の方法。
[項目17]
上記操作者について、上記生成される画像の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目18]
上記操作者について、上記生成される第1の一組の距離情報の視野角を決定するステップと、
上記視野角に少なくとも部分的に基づいて上記操作者の上記画像を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目19]
上記画像収集部の第1分解能を決定するステップと、
上記距離測定部の第2分解能を決定するステップと、
上記第1分解能及び上記第2分解能に少なくとも部分的に基づいて、分解能分析結果を生成するステップと
をさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目20]
上記分解能分析結果に少なくとも部分的に基づいて、上記操作者の上記画像と上記第1の一組の距離情報との間の関係を生成するステップをさらに含む項目19に記載の方法。
[項目21]
上記操作者の上記画像が2次元カラー画像を含み、且つ、上記第1の一組の距離情報が2次元深度画像を含み、且つ、上記方法が上記分解能分析結果に少なくとも部分的に基づいて上記2次元カラー画像のカラーピクセルと上記2次元深度画像の深度ピクセルとの間の関係を決定するステップをさらに含む項目20に記載の方法。
[項目22]
上記装置が無人機を含む項目1から項目9のいずれか一項に記載の方法。
[項目23]
上記画像収集部がカラー感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目24]
上記距離測定部が飛行時間(ToF)センサーを含む項目1から項目9のいずれか一項に記載の方法。
[項目25]
上記距離測定部が深度感知カメラを含む項目1から項目9のいずれか一項に記載の方法。
[項目26]
上記操作者に関する上記ジェスチャーを識別するために上記第2の一組の距離情報を分析するステップが上記第2の一組の距離情報を所定のデータセットと比較することを含む項目1から項目9のいずれか一項に記載の方法。
[項目27]
上記画像収集部に関連するクレードル角度に少なくとも部分的に基づいて上記操作者の上記第1の一組の距離情報を調整するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目28]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップをさらに含む項目1から項目9のいずれか一項に記載の方法。
[項目29]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記画像の上記識別された部分に関連する複数の画像フレームを記憶するステップと、
上記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目30]
上記装置に関する上記命令を生成する前に上記識別されたジェスチャーを検証するステップが
上記第2の一組の距離情報に関連する複数の距離画像フレームを記憶するステップと、
上記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
を含む項目28に記載の方法。
[項目31]
装置であって、
処理装置と、
上記処理装置と結合される画像収集部と、
上記処理装置と結合される距離測定部と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記画像収集部により上記操作者に対応する画像を生成し、
上記要求に応じて、上記距離測定部により、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、
上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーの種類を決定し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記装置に関する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目32]
上記ジェスチャーの上記種類が手ジェスチャー、肢ジェスチャー、又は身体ジェスチャーのいずれか1つを含む項目31に記載の装置。
[項目33]
実行されたときに、その命令が上記第2の一組の距離情報を分析して学習クラシファイアによる分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目34]
実行されたときに、その命令が上記第2の一組の距離情報を分析して有限状態機械による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目35]
実行されたときに、その命令が上記第2の一組の距離情報を分析してランダムフォレスト学習部による分析結果を生成する項目31及び32のいずれか一項に記載の装置。
[項目36]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記装置との間の距離を決定し、且つ、上記距離に少なくとも部分的に基づいて上記操作者に関連する上記ジェスチャーを識別する項目31及び32のいずれか一項に記載の装置。
[項目37]
上記操作者に対応する上記画像の上記部分が上記操作者の上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて識別される項目31及び32のいずれか一項に記載の装置。
[項目38]
ユーザー入力に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目39]
上記操作者の上記画像の対象分析に少なくとも部分的に基づいて上記バウンディングボックスの形状が決定される項目37に記載の装置。
[項目40]
上記対象分析が上記操作者の上記画像中の上記操作者の輪郭を決定することを含む項目39に記載の装置。
[項目41]
実行されたときに、その命令が上記ジェスチャーの上記種類を記憶部に格納し、且つ、上記ジェスチャーの上記種類を遠隔装置に送る項目31及び32のいずれか一項に記載の装置。
[項目42]
無人機(UAV)制御装置を構成する方法であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりコンピュータ読み取り可能媒体をプログラムするステップを含む方法。
[項目43]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて上記操作者と上記UAVとの間の距離を決定し、上記距離に少なくとも部分的に基づいて上記ジェスチャーを識別し、且つ、バウンディングボックスに少なくとも部分的に基づいて上記操作者に対応する上記画像の上記部分を識別する項目42に記載の方法。
[項目44]
上記UAVがカメラ及び深度センサーを搭載し、且つ、実行されたときにその命令が上記操作者に対応する上記画像を上記カメラにより生成し、且つ、上記操作者に対応する上記第1の一組の距離情報を上記深度センサーにより生成する項目42及び43のいずれか一項に記載の方法。
[項目45]
上記UAVが命令生成部を搭載し、且つ、実行されたときにその命令が上記命令生成部により上記ジェスチャーを上記ジェスチャーに関連する一連の所定基準データと比較する項目42及び43のいずれか一項に記載の方法。
[項目46]
無人機(UAV)を制御する装置であって、
処理装置と、
上記処理装置と結合されるコンピュータ読み取り可能媒体であって、
実行されたときに、
操作者からの要求に応じて、上記操作者に対応する画像を生成し、
上記要求に応じて、上記操作者に対応する第1の一組の距離情報を生成し、
上記操作者に対応する上記画像の一部分を識別し、
上記操作者に対応する上記画像の上記識別された部分に少なくとも部分的に基づいて、上記第1の一組の距離情報から第2の一組の距離情報を取り出し、
上記第2の一組の距離情報に少なくとも部分的に基づいて上記操作者に関連するジェスチャーを識別し、且つ
上記ジェスチャーに少なくとも部分的に基づいて上記UAVを制御する命令を生成する
命令によりプログラムされるコンピュータ読み取り可能媒体と
を含む装置。
[項目47]
実行されたときに、その命令が上記第1の一組の距離情報に少なくとも部分的に基づいて、上記操作者と上記UAVとの間の距離を決定する項目46に記載の装置。
[項目48]
上記距離に少なくとも部分的に基づいて、上記ジェスチャーが識別される項目47に記載の装置。
[項目49]
上記操作者に対応する上記画像に対して配置されたバウンディングボックスに少なくとも部分的に基づいて、上記操作者に対応する上記画像の上記部分が識別される項目46から48のいずれか一項に記載の装置。
[項目50]
上記操作者に対応する上記画像の上記部分の境界線と上記バウンディングボックスとの間の交差に少なくとも部分的に基づいて、上記ジェスチャーを識別するステップをさらに含む項目49に記載の装置。

Claims (22)

  1. 画像収集部及び距離測定部を有する装置を制御する方法であって、
    前記画像収集部により操作者に対応する画像を生成するステップと、
    前記距離測定部により前記操作者に対応する深度マップを生成するステップと、
    前記操作者の前記画像に対して配置されるバウンディングボックスにより、前記操作者に対応する前記画像の一部分を識別するステップと、
    前記画像の一部分と前記バウンディングボックスとの間の交差を識別することにより、前記画像中の前記操作者の体の一部を識別するステップと、
    前記深度マップから、識別された前記操作者の体の一部に対応する深度画像部分を取り出すステップと、
    前記深度画像部分に基づいて、前記操作者に関連するジェスチャーを識別するステップと、
    前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成するステップと
    を含む方法。
  2. 前記深度マップに少なくとも部分的に基づいて前記操作者と前記装置との間の距離を決定するステップをさらに含む請求項1に記載の方法。
  3. 所定の閾値より大きい前記距離に応じて前記操作者に関連する腕ジェスチャーを識別するために前記深度画像部分を分析するステップをさらに含む請求項2に記載の方法。
  4. 前記操作者に関連する身体の枠の距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記身体の枠の距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
  5. 前記操作者に関連する腕関節距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記腕関節距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
  6. 前記操作者に関連する肩距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記肩距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
  7. 前記操作者に関連する手距離画像部分に少なくとも部分的に基づいて前記腕ジェスチャーを識別するステップをさらに含む方法であって、前記手距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項3に記載の方法。
  8. 所定の閾値より短い前記距離に応じて、前記操作者に関連する手ジェスチャーを識別するために前記深度画像部分を分析するステップをさらに含む請求項2に記載の方法。
  9. 前記操作者に関連する指距離画像部分に少なくとも部分的に基づいて前記手ジェスチャーを識別するステップをさらに含む方法であって、前記指距離画像部分が前記深度画像部分に少なくとも部分的に基づいて決定される請求項8に記載の方法。
  10. 前記操作者に関連する前記ジェスチャーが肢ジェスチャーであ、請求項1から9の何れか1つに記載の方法。
  11. 前記操作者に対応する前記画像の部分の境界線と前記バウンディングボックスとの間の交差に少なくとも部分的に基づいて前記肢ジェスチャーを識別するステップをさらに含む請求項10に記載の方法。
  12. 前記操作者に対応する前記画像の部分の前記境界線が前記操作者に関連する身体の輪郭を含む請求項11に記載の方法。
  13. 前記深度画像部分を取り出すステップは、前記画像収集部の第1視野角及び前記距離測定部の第2視野角に少なくとも部分的に基づいて、識別された前記操作者の体の一部に対応する深度画像部分を取り出すステップ含む請求項1から請求項12のいずれか一項に記載の方法。
  14. 前記装置が無人機を含む請求項1から請求項13のいずれか一項に記載の方法。
  15. 前記画像収集部がカラー感知カメラを含む請求項1から請求項14のいずれか一項に記載の方法。
  16. 前記距離測定部が飛行時間(ToF)センサーを含む請求項1から請求項15のいずれか一項に記載の方法。
  17. 前記距離測定部が深度感知カメラを含む請求項1から請求項16のいずれか一項に記載の方法。
  18. 前記操作者に関する前記ジェスチャーを識別するために前記深度画像部分を分析するステップが前記深度画像部分を所定のデータセットと比較することを含む請求項1から請求項17のいずれか一項に記載の方法。
  19. 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップをさらに含む請求項1から請求項18のいずれか一項に記載の方法。
  20. 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが、
    識別された前記操作者の体の一部に関連する複数の画像フレームを記憶するステップと、
    前記複数の画像フレームのそれぞれを相互の整合性について分析するステップと
    を含む請求項19に記載の方法。
  21. 前記装置に関する前記命令を生成する前に前記識別されたジェスチャーを検証するステップが、
    前記深度画像部分に関連する複数の距離画像フレームを記憶するステップと、
    前記複数の距離画像フレームのそれぞれを相互の整合性について分析するステップと
    を含む請求項19に記載の方法。
  22. 装置であって、
    処理装置と、
    前記処理装置と結合される画像収集部と、
    前記処理装置と結合される距離測定部と、
    前記処理装置と結合されるコンピュータ読み取り可能媒体であって、
    実行されたときに、
    操作者からの要求に応じて、前記画像収集部により前記操作者に対応する画像を生成し、
    前記要求に応じて、前記距離測定部により、前記操作者に対応する深度マップを生成し、
    前記操作者の前記画像に対して配置されるバウンディングボックスにより、前記操作者に対応する前記画像の一部分を識別し、
    前記画像の一部分と前記バウンディングボックスとの間の交差を識別することにより、前記画像中の前記操作者の体の一部を識別し、
    前記深度マップから、識別された前記操作者の体の一部に対応する深度画像部分を取り出し、
    前記深度画像部分に基づいて前記操作者に関連するジェスチャーの種類を決定し、且つ、
    前記ジェスチャーに少なくとも部分的に基づいて前記装置に関する命令を生成する命令によりプログラムされるコンピュータ読み取り可能媒体と
    を含む装置。
JP2018567118A 2016-08-05 2016-08-05 画像収集部及び距離測定部を有する装置を制御する方法、及び装置 Active JP6786762B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/093580 WO2018023727A1 (en) 2016-08-05 2016-08-05 Methods and associated systems for communicating with/controlling moveable devices by gestures

Publications (2)

Publication Number Publication Date
JP2019522853A JP2019522853A (ja) 2019-08-15
JP6786762B2 true JP6786762B2 (ja) 2020-11-18

Family

ID=61073230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567118A Active JP6786762B2 (ja) 2016-08-05 2016-08-05 画像収集部及び距離測定部を有する装置を制御する方法、及び装置

Country Status (5)

Country Link
US (2) US11042167B2 (ja)
EP (1) EP3494449A4 (ja)
JP (1) JP6786762B2 (ja)
CN (1) CN109564432B (ja)
WO (1) WO2018023727A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014106823A2 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
CN107239728B (zh) * 2017-01-04 2021-02-02 赛灵思电子科技(北京)有限公司 基于深度学习姿态估计的无人机交互装置与方法
JP7482040B2 (ja) * 2018-06-14 2024-05-13 マジック リープ, インコーポレイテッド 拡張現実深層ジェスチャネットワーク
WO2020024185A1 (en) * 2018-08-01 2020-02-06 SZ DJI Technology Co., Ltd. Techniques for motion-based automatic image capture
EP3882730B1 (en) * 2019-01-22 2023-04-19 Honda Motor Co., Ltd. Accompanying mobile body
US11106223B2 (en) * 2019-05-09 2021-08-31 GEOSAT Aerospace & Technology Apparatus and methods for landing unmanned aerial vehicle
CN111158489B (zh) * 2019-12-31 2023-08-08 上海佑久健康科技有限公司 一种基于摄像头的手势交互方法及手势交互系统
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
WO2021217430A1 (en) * 2020-04-28 2021-11-04 SZ DJI Technology Co., Ltd. System and method for operating a movable object based on human body indications
CN111973410A (zh) * 2020-06-30 2020-11-24 北京迈格威科技有限公司 障碍物检测方法、装置、避障设备及计算机可读存储介质
WO2022141187A1 (en) * 2020-12-30 2022-07-07 SZ DJI Technology Co., Ltd. Systems and methods for controlling an unmanned aerial vehicle using a body-attached remote control
US11983327B2 (en) * 2021-10-06 2024-05-14 Fotonation Limited Method for identifying a gesture

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3996015B2 (ja) * 2002-08-09 2007-10-24 本田技研工業株式会社 姿勢認識装置及び自律ロボット
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
JP5478928B2 (ja) * 2009-03-31 2014-04-23 綜合警備保障株式会社 人物同定装置、人物同定方法、及び人物同定プログラム
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US8994718B2 (en) * 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
TW201339903A (zh) * 2012-03-26 2013-10-01 Hon Hai Prec Ind Co Ltd 無人飛行載具控制系統及方法
WO2014106862A2 (en) * 2013-01-03 2014-07-10 Suman Saurav A method and system enabling control of different digital devices using gesture or motion control
EP2849150A1 (en) * 2013-09-17 2015-03-18 Thomson Licensing Method for capturing the 3D motion of an object, unmanned aerial vehicle and motion capture system
CN105096259B (zh) * 2014-05-09 2018-01-09 株式会社理光 深度图像的深度值恢复方法和系统
US10304248B2 (en) 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
CN104808799A (zh) * 2015-05-20 2015-07-29 成都通甲优博科技有限责任公司 一种能够识别手势的无人机及其识别方法
CN105607740A (zh) * 2015-12-29 2016-05-25 清华大学深圳研究生院 一种基于计算机视觉的无人飞行器控制方法及装置
CN105589466A (zh) * 2016-02-24 2016-05-18 谭圆圆 无人飞行器的飞行控制装置及其飞行控制方法
CN105786016B (zh) * 2016-03-31 2019-11-05 深圳奥比中光科技有限公司 无人机以及rgbd图像的处理方法

Also Published As

Publication number Publication date
US20210303005A1 (en) 2021-09-30
US11691729B2 (en) 2023-07-04
US11042167B2 (en) 2021-06-22
EP3494449A4 (en) 2020-03-11
CN109564432A (zh) 2019-04-02
US20190155313A1 (en) 2019-05-23
EP3494449A1 (en) 2019-06-12
JP2019522853A (ja) 2019-08-15
WO2018023727A1 (en) 2018-02-08
CN109564432B (zh) 2022-02-15

Similar Documents

Publication Publication Date Title
JP6786762B2 (ja) 画像収集部及び距離測定部を有する装置を制御する方法、及び装置
US12014468B2 (en) Capturing and aligning three-dimensional scenes
US20200284573A1 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2017010327A (ja) 情報処理装置、情報処理方法及びプログラム
WO2017143745A1 (zh) 一种确定待测对象的运动信息的方法及装置
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
JP2008275341A (ja) 情報処理装置、情報処理方法
Marcin et al. Hierarchical, three‐dimensional measurement system for crime scene scanning
WO2019100219A1 (zh) 输出影像生成方法、设备及无人机
US20220198942A1 (en) Methods and associated systems for managing 3d flight paths
CN106462738B (zh) 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备
US20230091536A1 (en) Camera Placement Guidance
CN112585672A (zh) 自动检查和零件登记
KR102506684B1 (ko) 방문자 정보 획득 방법 및 그 장치
KR20170045631A (ko) 벡터 모델링 기반 제품 검수 방법 및 그 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6786762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150