JP2024045273A - 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 - Google Patents
非制約環境において人間の視線及びジェスチャを検出するシステムと方法 Download PDFInfo
- Publication number
- JP2024045273A JP2024045273A JP2024007020A JP2024007020A JP2024045273A JP 2024045273 A JP2024045273 A JP 2024045273A JP 2024007020 A JP2024007020 A JP 2024007020A JP 2024007020 A JP2024007020 A JP 2024007020A JP 2024045273 A JP2024045273 A JP 2024045273A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- environment
- interest
- map
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 81
- 239000013598 vector Substances 0.000 claims abstract description 60
- 230000008569 process Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 230000007613 environmental effect Effects 0.000 claims description 14
- 230000004807 localization Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 22
- 230000015654 memory Effects 0.000 description 31
- 238000004891 communication Methods 0.000 description 19
- 210000001508 eye Anatomy 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 238000010422 painting Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】非制約環境における視線及びジェスチャ検出を行うためのシステムを提供すること。【解決手段】非制約環境における視線及びジェスチャ検出を行うための本システムは、360度(全方向)カメラシステム、一つ以上の奥行センサ、及び関連メモリ、プロセッサ及び非制約環境における人間のユーザの注目の対象を判断するためのプログラム命令を含む。例示したシステムは視線、ジェスチャ検出、及び/又は音声認識を使用して物体を識別してもよい。システムは、顕著性マップを生成し、関心対象エリアを識別してもよい。関心対象エリアが交差する場所を発見するため、顕著性マップ上に方向性ベクトルが投影されてもよい。一旦注目対象物が位置特定されれば、システムは注目対象物を識別してもよい。【選択図】図1
Description
本開示は概して人間の動作の検出に関するものであり、より具体的には、知能機械による、非制約環境における人間の視線又はジェスチャ動作に関するものである。
人間の動きの機械検出は、インタラクティブなコンピュータや、機械学習や、人工知能の発展により普及してきた。組み込みや周辺機器としてのカメラを備えたデスクトップコンピュータ、スマートフォン、タブレット、ビデオゲームシステム、及びその他の装置は、人間の動きや、更にはユーザの視線(例えばユーザの目が見ている方向)をも検出できる能力を含むことがある。
既知のジェスチャコントロールや視線追跡システムは狭視野カメラに依存し、ユーザの動きが何らかの方法で制約されている環境(例えば運転者又はコンピュータ画面の前にいる人の視線の推定)に向けて設計されている。これらのシステムはユーザの自由な動きを許さず、またほとんどの場合において、ユーザが観測しているのと同じ環境を観測することもできない。より一般的な環境では、ユーザは空間中の他の物体が、ある物体と係合(例えば、移動又は配送)するようロボットに教示してもよいが、これらのシステムは有益ではなく、注目対象物をカメラが捉えていないため、ユーザが見ているものや指さしているものを理解することができない。
本開示の実施形態は、非制約環境における視線及びジェスチャの検出システムを含む。システムは個人と関心対象物を含む、非制約環境の360度画像を生成するよう構成された画像キャプチャ装置を含んでもよい。システムは更に、非制約環境の三次元奥行マップと知識ベースを生成するように構成された奥行センサを含んでもよい。360度画像と奥行マップから環境マップを生成し、360度画像中の個人の注目方向を判断するように構成されたプロセッサを含んでもよい。プロセッサは更に、注目方向を表す方向性ベクトルを生成し、環境マップ上に個人からの方向性ベクトルを投影するように構成されてもよい。プロセッサは方向性ベクトルと関心対象物の交点を検出し、関心対象物に関するデータを使用して、関心対象物のアイデンティティを知識ベースで検索するように構成されてもよい。
システムの追加の機能は、画像キャプチャ装置として単眼パノラマカメラを含んでもよい。あるいは、360度画像は、複数の画像をつなぎ合わせたものであってもよい。プロセッサは、視線、個人のジェスチャ方向、又はそれらの組み合わせのうちの少なくとも一つから、注目方向を判断するよう構成されてもよい。奥行センサは赤外線センサ、奥行推定を訓練したニューラルネットワーク、又は自己位置推定(localization)とマッピングの同時実行センサのいずれか一つであってもよい。
本開示のさらなる実施形態では、物体の位置を特定し識別する方法を開示する。方法は個人と関心対象物を含む、非制約環境の360度画像をキャプチャし、環境マップを生成することを含んでもよい。キャプチャされた360度画像中の個人から注目方向が判断されてもよく、注目方向を示す方向性ベクトルが生成されてもよい。方向性ベクトルは環境マップ中の個人から投影され、方向性ベクトルと関心対象物の交差が検出されてもよい。
システム及び方法の追加の機能は、関心対象物のアイデンティティを知識ベースで検索し、関心対象物のアイデンティティが知識ベース中に見つからない時は学習プロセスを開始することを含んでもよい。学習プロセスはニューラルネットワークであってもよい。環境マップは、環境の奥行情報を取得し、奥行情報を360度画像と組み合わせることにより生成してもよい。奥行情報は赤外線センサ、自己位置推定とマッピングの同時実行プロセス、又はニューラルネットワークから取得してもよい。環境マップは顕著性マップ(saliency map)であってもよく、そして/又は環境のセマンティックパーシング(semantic parsing)を含んでもよい。システムと方法は更に、視線及び/又は個人のジェスチャ方向を推定してもよく、注目方向は、視線及び/又はジェスチャから判断されてもよい。視線は赤外線センサから取得してもよい。
本開示の別の実施形態では、物体を位置特定し(locating)識別するためのシステムを含んでもよい。システムは個人と関心対象物を含む、非制約環境の360度画像をキャプチャするよう構成された単眼カメラを含んでもよい。赤外線奥行センサは、非制約環境の3D奥行マップを生成するよう構成してもよい。システムは更に知識ベースとプロセッサを含んでもよい。プロセッサは360度画像と奥行マップとから顕著性マップを生成し、個人の注目方向を判断するように構成してもよい。プロセッサは更に、注目方向を表す三次元方向性ベクトルを生成し、環境マップ上に個人からの三次元方向性ベクトルを投影するように構成してもよい。プロセッサは更に三次元方向性ベクトルと関心対象物の交点を検出し、キャプチャした関心対象物に関する画像データを使用して、関心対象物のアイデンティティを知識ベースで検索するように構成されてもよい。
装置、システム、及び方法の実施形態が添付図面中の図画に示されるが、これらは例示的及び非限定的であることを意図し、同様の参照は同様の又は対応する部分を参照するよう意図される。
本開示は、非制約環境において物体を予測し、位置特定し、識別するために、人間による視線及びジェスチャを推定し追跡するシステム及び方法を記載する。システムは、人間のジェスチャ、視線、認識音声、及びそれらの任意の組み合わせの解釈に基づいて、物体とその位置を識別するために、高度な撮像技術、機械学習、及び人工知能に依存してもよい。本開示の実施形態は、以下に、添付図面を参照してより詳細に説明される。しかしながら、上記は、多くの異なる形態で実施されてもよく、本明細書内で示す実施形態に限定するものと解釈されるべきではない。
本開示は、物体を位置特定し識別するために、人間による視線又はジェスチャに加えて、個人の周囲の環境をキャプチャするシステム及び方法を提供する。一実施形態によれば、360度単眼カメラは、非制約環境の2次元(「2D」)360度画像を提供してもよい。非制約環境の個人や物体の奥行推定パラメータを提供するために、キャプチャされたシーンを強化するための奥行マップを作成するために、一つ以上の赤外線奥行センサが使用されてもよい。
システムは、個人の指さし方向等の、視線及び/又はジェスチャを示す三次元(「3D」)ベクトルを判断するために2D画像と奥行マップを処理してもよい。システムは、シーンの中で注目された可能性の高いエリアを定義するための顕著性マップを生成してもよい。顕著性マップは、個人が見ている又はジェスチャで示している物体又は位置をより高精細に予測することにおいて、技術的な利点を提供し得る。3Dベクトルが個人の周囲の環境中に識別された任意の物体及び位置と交差するかを判断するために、観測された環境画像上に3Dベクトルが投影されてもよい。システムが一度充分な確からしさで物体を位置特定し識別したなら、システムは更に物体と相互作用してもよい。もしも物体が位置特定されたがシステムにとって未知であれば、システムを更に教育し知識ベースを拡張するための機械学習プロセスが開始されてもよい。
図1は本開示の実施形態による、非制約環境100、又は知的機械によって人間の視線及び/又はジェスチャ動作を検出するシステム及び方法を実施する状況を示す概念図である。視線及びジェスチャ検出システムは、画像キャプチャ装置110を備えたロボット105のような計算機内に実施されてもよい。環境100は一人以上の個人112、113、114、及び複数の物体115を含んでもよい。一人の方向指示を行っている個人114は、特に、複数の物体115のうち一つの方を見て、又はジェスチャしていてもよい。画像キャプチャ装置110は、個人114の視線方向121をキャプチャしてもよい。画像キャプチャ装置はまた、方向指示を行っている個人114によるジェスチャ122を、キャプチャ、又は検出してもよい。ジェスチャ検出情報は、指をさしている個人114の注目の方向を補う、又は確認するために使用されてもよい。例えば、図1に示すように、非制約環境100中の複数の物体115は、第1の窓117、第2の窓119、及び、二つの窓117と119の間の絵画118を含んでもよい。絵画118は、非制約環境100中の壁に掛けられても、又はスタンド又はイーゼル上に設置されてもよい。
本明細書中で使用されるように、「非制約環境」の用語は、個人の動作又は行動が、カメラ又は画像キャプチャ装置110の空間的視野に制約されない任意の空間を含んでもよい。自動車の座席に拘束された運転者、又はコンピュータのカメラの視野のすぐ前に拘束されたコンピュータのユーザとは対照的に、例示する非制約環境100中の個人は、領域中を自由に移動してもよく、それでいて画像キャプチャ装置110の視野の内部にいることができる。
計算機、又はロボット105は、画像キャプチャ装置110として、又はその構成要素として、360度単眼カメラ111を含んでもよい。360度単眼カメラ111を使用することにより、非制約環境100の、実質的に完全な視野が提供される。したがって、個人112、113、114、又は複数の物体115の位置に関わらず、個人112、113、114又は複数の物体115はカメラ111によりキャプチャされてもよい。したがって、個人112、113、114及びロボット105は環境100内を移動してもよく、その時なおカメラ111は、非制約環境100内の個人112、113、114及び複数の物体115をキャプチャし得る。
システムは更に、非制約環境100の奥行情報を収集する、追加の環境データ収集能力を含んでもよい。システムは、複数の物体115、個人112、113、114、及び、壁、柱、及びその他の構造のような環境の輪郭に関連する環境情報をキャプチャすることにより、奥行マップを生成してもよい。ロボット105及び画像キャプチャ装置110は、環境100をスキャン又は撮像する一つ以上の赤外線(「IR」)センサ120を含んでもよい。更に、ロボット105及び画像キャプチャ装置110は、IR信号の変位を使用して、システムによって画像キャプチャ装置110からの環境中の物体又は個人の奥行の推定に使用され得る奥行画像を生成してもよい。
ロボット105、又は他の計算機が移動ロボットであれば、環境の奥行情報は自己位置推定とマッピングの同時実行(「SLAM」)技術を使用して取得してもよい。SLAM技術は、移動ロボットにより、未知の環境のマップを、環境中を移動しながら構築し得るプロセスを提供する。ある構成では、非制約環境中におけるロボットの位置を推定するためにSLAM技術は撮像装置から抽出された特徴を使用してもよい。上記は、ロボット105が環境をマップし、そのためにロボット105が環境中の物体の3D相対位置を認識している、という状況で行われてもよい。上記は、ロボット105が過去に観測したが現在は他の物体やシーンの構造により塞がれている物体を含んでもよい。
本開示の一実施形態によれば、環境の奥行情報は、図1の非制約環境のような非制約環境中における奥行推定を訓練した人工ニューラルネットワークを使用して生成されてもよい。人工ニューラルネットワークは環境の奥行情報を、前述した方法とシステムから、又は上記にて議論した方法とシステムに加えて、生成してもよい。ある構成では、人工ニューラルネットワークは物体情報を使用して訓練を行ってもよい。物体やその環境に関する先験がないシステムに基づいた時、人工ニューラルネットワークは、環境中の各物体又は個人に関する独自の定義的な特徴量を個別に獲得していってもよい。
人工ニューラルネットワークは一つ以上の特定のタスクに関して訓練されてもよい。タスクは、人の検出、人体姿勢の推定、顔検出、物体のインスタンス分割、認識と姿勢推定、シーンの奥行の計量推定、及び、材料特性及び形容的説明のようなシーンのさらなる属性への分割を、限定せず含んでもよい。システムは、システムが自信をもって認識又は分割できない新しい物体又は構造を観測してもよい。このような場合は、システムは、抽出した属性と奥行を使用して、各物体に関する独自の定義的な特徴量を個別に獲得可能であってもよい。
輪郭、及び非制約環境100中の輪郭、物体、及び個人をマッピングすることに加えて、システムは、方向指示を行っている個人114の視線情報をキャプチャ、又は検出する能力を更に含んでもよい。視線情報はIRセンサ、RGBカメラ、及び/又はロボット105と通信中の一つ以上の光学追跡装置を使用して取得してもよい。例えば、IR光線がIRセンサ120により伝送され、ジェスチャを行っている個人114の目から反射される。反射されたIR光線はカメラ又は光学センサにより検出されてもよい。後述するように、更なる精緻化においては、視野中の視線方向又は関心対象物を更に獲得するために、複数の画像やスキャン又は同種のものを使用して視線データを一定期間観測してもよい。
次に、画像情報は、反射の変化から目の回転を抽出するためにプロセッサにより解析される。プロセッサは角膜反射及び瞳孔の中心を、経時的な特徴として使用してもよい。あるいは、角膜前部及びレンズ後部からの反射を、特徴として追跡してもよい。奥行マップの一部として、又は独立して撮像し処理されたものとして、システムは、ジェスチャを行っている個人114の目のIR画像を使用して個人の視線方向を判断してもよい。後述するように、システムは、投影された視線及び関心対象物の交差点を探す中で、環境画像マップに渡る個人からの視線を外挿法により推定してもよい。
個人の位置と目の位置を観測しキャプチャすることに加えて、システムは更に、方向指示を行っている個人114のジェスチャ122(例えば指をさす姿勢)を検出してもよい。ジェスチャ122は、方向指示を行っている個人114の注目の方向性の識別、識別の補助、又は確認のために使用されてもよい。後述するように、システムは拡張された腕又は手を検出してもよい。方向指示を行っている個人114のジェスチャを行っている腕と体との間の角度に基づいて、システムは、非制約環境100中の方向性の線又はベクトルを、外挿法により推定してもよい。
図2Aは方向指示を行っている個人114の視線130を観測する画像キャプチャ装置110の概念図200の例を示す。視線130を検出することに加えて、画像キャプチャ装置110は、方向指示を行っている個人114の位置又は関心対象物を三角推量により求めるために、方向指示を行っている個人114の指さし方向124又はその他の方向を示すジェスチャを識別してもよい。システムはIRセンサ120又は360度単眼カメラ111からの画像マップを解析してもよい。解析に基づき、システムは、方向指示を行っている個人114及び指さし方向124を識別するためにパターン又は形状認識プロセスを適用してもよい。
ジェスチャを行っている個人114からの注目方向126を外挿法により推定するために、方向指示を行っている個人114、視線130及びジェスチャ122を使用してもよい。システムは、方向指示を行っている個人114の視線130及びジェスチャ122の両方を検出してもよい。システムは方向指示を行っている個人114の体128のような大きなかたまりから拡張された、拡張された腕又は付属物を識別してもよい。視線方向及びジェスチャ方向からのデータは組み合わされてもよい。システムは、方向性ベクトル132を判断するために、画像キャプチャ装置110からの、方向指示を行っている個人114及び指さし方向124の端部への距離136及び137を使用してもよい。図2Aの例に示すように、方向性ベクトル132は、個人114の目からジェスチャ122の方向へ、外挿法により推定されてもよい。システムは、画像マップを使用し、方向性ベクトル132が絵画118のような注目対象物と交差することを判断してもよい。注目対象物は方向性ベクトル132と注目対象物の交差点に基づいて識別されてもよい。
図2Bは、システムにより解釈され得る図2Aを示す。図2Bに示すように、システムはIRセンサ120’又は360度単眼カメラ111’からの画像マップを解析してもよい。方向性ベクトル132’は、例えば、方向指示を行っている個人114’の体128’、視線130’、及びジェスチャ122’を三角測量することにより推定してもよい。システムは画像キャプチャ装置110’からの、ジェスチャを行っている個人114’の目への距離136’と、視線130’とジェスチャ122’との交差点への距離137’を使用して、方向性ベクトル132’を推定してもよい。方向性ベクトル132’は視線130’に沿って、関心対象物118’(例えば絵画118)との交差点へ延長してもよい。図2A及び図2Bに示された例は視線及びジェスチャ認識の双方を使用し得るが、システムは視線のみを使用して関心対象物を位置特定及び識別してもよく、又は、視線検出の正確性を補うためにジェスチャ情報を使用してもよい。ジェスチャ情報のみが使用されてもよい。例えば、ジェスチャ122’のみを使用して、また個人114’からのジェスチャ方向122’のみにけるジェスチャベクトル134’を外挿法により推定してもなお、ジェスチャベクトル134’は関心対象物118’と交差する。
システムは、シーンの中で注目された可能性の高いエリアを定義するための顕著性マップを生成してもよい。システムは、個人による視線及び/又はジェスチャ方向を示す3Dベクトルを顕著性マップに生成し投影するために、画像と奥行マップを解析してもよい。図3Aは、360度パノラマ画像300、及び2D画像及び奥行センシングデータに基づいてシステムにより生成された、顕著性マップ300’の概念図である。パノラマ画像300は2D画像であってもよい。この例では、パノラマ画像300は、画像キャプチャ装置が環境をスキャンするように、個人112、113、114、窓117、119及び絵画118を直線的に描写している。
顕著性マップ300’は360度パノラマ画像300及びIR奥行マップに基づいていてもよい。前述のように、IR奥行マップは画像キャプチャ装置及びIRセンサにより取得されてもよい。顕著性マップ300’は、非制約環境の360度画像のような、関連する視覚的なシーンの顕著性を示す、地形的に配置されたマップであってもよい。画像データ及び奥行センシングデータは顕著性マップ300’を形成するために組み合わされてもよい。顕著性マップ300’は環境中の関心対象エリアを識別してもよい。システムは個人112’、113’、114’、物体117’、119’(例えば窓117と119)及び関心対象物118’(例えば絵画118)を関心対象エリアとして識別してもよい。説明目的により、顕著性マップ300’中の関心対象物又はエリアはパノラマ画像300中にて反対のコントラストで描かれている。システムはこれらの物体及び個人を、周囲のエリアと非関心対象の既知のエリアとの差分から、関心対象と判断してもよい。
例えば、システムは、壁、床、及び/又はその他の、画像データ中に連続した大きなエリアとして見える場所に比較して、環境中の識別可能な物体により関心があってもよい。壁及び/又は床のような低関心のエリアは環境中の大きなエリアに広がる、連続した、そして均質なピクセルデータであることから識別されてもよい。個人及び物体は、周囲のエリアのピクセルデータと比較して、異なっていてコントラストのあるピクセルデータであるため、関心対象物として識別されてもよい。システムは、個人の注目対象の物体又は位置を識別するために、顕著性マップ300’を視線及び/又はジェスチャ情報と共に解析してもよい。
3D方向性ベクトル138’はシステムにより生成され顕著性マップ300’上に投影されてもよい。方向性ベクトル138’は、任意の不確実性境界を含む、観測されたシーンの残りの部分へ投影されてもよい。データが3Dモデルへ可視化された時、ノイズ及びその他の要因による不確実性がデータ中に存在し得る。不確実性のデータは、不確実性のレベル(例えば忠実度)を示すために、他のデータと共に提供されてもよい。不確実性境界は、視線検出システムにより、視野又は人の相対的姿勢から推定されてもよい。例えば、人がカメラの方向を見ていない時、カメラと個人の目の間の直接的な視線が欠如することにより、不確実性境界は大きくなり得る。一方、もしも人がカメラに近く、正面に平行に位置していれば、不確実性境界はより小さくなり得る。不確実性境界は推定3Dベクトルを、眼球を頂点とした円錐へと、効果的に変更し得る。
ジェスチャ検出及び関連情報は不確実性境界を狭めるために使用されてもよい。例えば、方向指示を行っている個人がカメラの方を向いていなく、そのため個人の目がシステムにより検出できない時、ジェスチャ検出及び情報を使用して、関心対象物を位置特定し識別する解析を補ってもよい。システムは、カメラの方向を向いていない個人の頭の方向に基づいて、広い注目の円錐を生成可能であってもよい。ジェスチャが検出された場合、システムは、検出されたジェスチャの方向性に基づいて、ジェスチャによる注目の円錐を生成してもよい。そしてシステムは視線による注目の円錐とジェスチャによる注目の円錐の交差又は重複を判断してもよい。二つの注目の円錐の交差はより狭い3Dベクトルの円錐を提供してもよく、システムはその中で注目対象物の可能性がある物体の位置特定と識別を行える。
前述のように、システムは、奥行マップデータを使用して、画像キャプチャ装置から方向指示を行っている個人114’への距離を判断してもよい。判断した距離に基づいて、システムは、関心対象物118’との交差を識別するために、ジェスチャを行っている個人114’の場所からの、検出された視線又はジェスチャの方向の方向性ベクトル138’を投影してもよい。図3の例では、システムは、方向性ベクトル138’の経路上に関心対象物118’を識別してもよい。したがって、システムは方向性ベクトル138’との交差に基づいて、関心対象物118’を、ジェスチャを行っている個人114’の注目対象物として識別してもよい。
前述のように、ジェスチャ情報はシステムによって観測されてもよく、システムが関心対象物118’を位置特定し識別するために使用されてもよい。ジェスチャベクトル140’は、顕著性マップ300’からの情報を使用して生成されてもよい。ジェスチャベクトル140’は、個人114’の体に対するジェスチャを行っている腕の角度に基づいてもよく、顕著性マップ300’中の方向に外挿法により推定されてもよい。図3に示すように、ジェスチャベクトル140’はなお同じ関心対象物118’と交差してもよい。正確性と確実性を向上するために、システムは視線とジェスチャベクトルを使用して、三角推量するか、もしくは、関心対象物との交差を検出してもよい。
不確実性を減少させるための更なる取り組みとして、システムは、方向指示を行っている個人の視線の、一定期間の離散的な視線のスナップショットを組み合わせたヒートマップ(heat map)を生成することにより、視線検出を精緻化してもよい。人間の目は常に動いているだけでなく、方向指示を行っている個人の注目は変化し得る。例えば、方向指示を行っている個人は瞬間的にロボットや、別の個人や、又は別の関心対象物の一部へと戻って注視することがあり得る。方向指示を行っている個人の目の一枚の画像キャプチャでは、正しい注目対象物を識別するには充分ではない、又は充分に正確ではないことがあり得る。
図3Bは、本開示の一実施形態による、ヒートマップ301の概念図である。方向指示を行っている個人の、一定時間の視線の一つ以上の画像又はスキャンを組み込んだヒートマップ301を使用することにより、さらなるレベルの精度を提供することができる。ヒートマップ301は、方向指示を行っている個人が最も高い頻度で見ているエリアを識別するために、図3Bに示されるように、期間tに渡って取得された一連の視線画像又はスキャンからのデータを組み合わせて視線の範囲142’’として形成してもよい。図3Bに示されるエリア112’’、113’’、117’’、118’’、119’’は方向指示を行っている個人がその特定のエリアを見ていると判断され得る画像スキャンの密度及び/又は頻度を示す。システムは、スキャン期間tにおいて、方向指示を行っている個人114’’は一つのエリア118’’を、環境中の他のエリアよりも高い頻度で注視したと推定してもよい。例示的なヒートマップ301によれば、スキャンの密度に基づき、最も多い数スキャンされた視線は、関心対象エリア118’’を示してもよい。
より頻度の少ない関心対象エリアが、隣接したエリア117’’、119’’(それぞれ窓117及び119を表す)に検出されてもよい。エリア112’’、113’’は環境中の他の個人112、113を表し、より低い頻度スキャンされたデータとして示されてもよい。ヒートマップ中に特定された、より頻度の低いエリアは、方向指示を行っている個人114’’が、期間tの間に瞬間的に環境中の窓及び他の個人を見つめたことを示してもよい。図3Bにおける方向指示を行っている個人114’’の表現は、追加の文脈及び参照の枠組みを提供するため、説明のみを目的として提供されることが理解されなければならない。方向指示を行っている個人が、システムが視線データを収集した期間tの間に自分自身を注視することは起こりにくい。
ヒートマップ301は、ヒートマップ中の関心対象エリアと顕著性マップ中に識別された物体の交差を判断するために、顕著性マップと組み合わされてもよい。システムは環境中の物体が物理的にどこに位置しているのか(例えば顕著性マップ)を識別し、また方向指示を行っている個人が注視している方向又はジェスチャしている方向(例えばヒートマップ)を判断してもよい。二つのセットのデータを組み合わせることで、関心対象物の位置をあるレベルの確かさで示してもよい。
システムが前述の任意の方法を使用して関心対象物を識別したら、システムは識別した物体のアイデンティティを判断してもよい。システムは、識別された関心対象物118’と知識ベース中の類似物体を関連付けるために、画像キャプチャ装置により取得した画像と奥行データを使用して知識ベース(例えばニューラルネットワークにより提供された特徴表現)を検索してもよい。ある程度以上の確からしさで一致がなされた場合は、システムは識別された関心対象物118’を一致した物体と関連付けてもよい。
しかしながら、もしも関心対象物が一致しなければ、システムは、物体のアイデンティティを識別するため学習プロセスを開始してもよい。例えば、システムは識別された関心対象物が未知であることを示し、方向指示を行っている個人又は他のオペレーターへ情報を要求するよう促してもよい。システムの要求は、音声又は視覚的プロンプト、又は任意の他の入力要求を含んでもよく、これによりシステムは関心対象物のアイデンティティに関する情報を得る。システムは、物体に関する画像データと既知の物体のアイデンティティとを関連付けるために、機械学習技術及びユーザ入力を使用してもよく、それにより関心対象物(例えば絵画)及び類似画像データを持つ観測された物体はシステムにとって既知となり得る。
システムはユーザ入力を使用して知識ベースへ識別情報を提供してもよい。例えば、システムは音声認識及び自然言語理解を使用して、ユーザ入力から物体の名前及び他の情報を取得してもよい。例えば、システムが知識ベース中の物体を識別できない場合は、システムは識別情報のための音声又は視覚的プロンプトを出力してもよい。プロンプトに応答して、個人は音声により物体の識別を行ってもよい。システムは個人による識別音声の音声信号を録音してもよく、自然言語プロセッサを使用して音声信号を処理して機械により理解可能なテキストへ解析及び転換してもよい。次にシステムは相互に関連がある識別情報を画像データと関連付けて、将来の呼び出しのために関連付けを知識ベースへ格納してもよい。更に、システムは、環境に対する物体の位置、他の識別可能な物体に対する物体の近接又は同種のものといった、物体に関する追加情報を記録してもよい。収集された追加データは、将来の問い合わせ又は環境中の物体の処理において、システムを補助してもよい。
システムはまた、コマンド、物体及び各物体のアフォーダンス(affordances)のライブラリを学習していても、又はプログラムされていてもよい。アフォーダンスは個人又は機械、及び他の環境間に起こり得る、様々な相互作用を含んでいてもよい。システムは、物体のアイデンティティを学習する際に、物体を、システムが与えられた物体とどのように位置特定し、識別し、相互作用するかの追加の状況を提供するアフォーダンスのセットと関連付けてもよい。例えば、システムがテーブルを認識するよう訓練されていた場合、将来の相互作用のために、特定のアフォーダンスがその物体と関連付けられていてもよい。テーブルという物体のアイデンティティが与えられれば、システムはその物体と特定の特徴を関連付けてもよい。属性の例としては、アイテムを置くことができる平らな面、床よりも高いところにある表面又は同種のものを限定せず含んでもよい。このように、方向指示を行っている個人との将来の相互作用により、システムへ、「テーブルの上に」物体を位置特定する指示が行われてもよい。システムはテーブルのアイデンティティを認識し、関連属性を抽出し、テーブルが地面よりも高いところにある表面を含んでいることを知覚してもよい。
このようなアフォーダンス及び物体に関連した属性は、システムがまずテーブルを識別し、次にテーブル(とその表面)の周辺の狭い環境中に、要求された物体を位置特定するように、環境情報を更にフィルタするために使用されてもよい。物体と属性及び特徴の関連付けは、本明細書中で説明する訓練中、セマンティックシーンパーシング中、又は他の機械学習ステージ中に成し遂げられてもよい。
図4は本開示の実施形態によるシステム400を示す。システム400は専用の計算機405を含んでもよい。前に詳述したように、計算機405は移動ロボットとして実装されてもよく、又は関心対象物を人間の視線とジェスチャ検出を利用して位置特定し識別するために設計され実装された特別目的のコンピュータのような、別個の、統合又は分散計算機であってもよい。計算機405は本明細書中に説明されるシステムのために特別に設計されたデータソース、サーバ、及び/又はクライアント装置を含んでもよい。
計算機405は人間と相互作用可能な相互作用ロボットを含んでいてもよい。計算機405はまた、ネットワーク402を介して他の装置又はセンサと相互作用できるが、本明細書中に前述したように、非制約環境に配置されている、ラップトップコンピュータ、デスクトップコンピュータ、パーソナルデジタルアシスタント、タブレット、携帯電話、テレビ、セットトップボックス、エアラブルコンピュータ及び同種のもののような装置であってもよい。特定の態様において、計算機405はハードウエア又はハードウエアとソフトウエアの組み合わせを使用して実装されていてもよい。計算機405はスタンドアローン装置、他の実体又は装置に統合された装置、複数の実体に分散されたプラットフォーム、又は仮想環境を実行する仮想装置であってもよい。
ネットワーク402は、システム400の構成要素間のデータ及び制御情報通信を行うのに適した、(一つ以上の)データネットワーク又は(一つ以上の)インターネットワークを含んでもよい。これはインターネット、プライベートネットワーク、公衆交換電話網又は第三世代携帯電話技術(例えば3G又はIMT-2000)を使用した携帯電話ネットワーク、第四世代携帯電話技術(例えば4G、LTE、MT-Advanced、E-UTRA等)、WiMAX-Advanced(IEEE 802.16m)、及び/又はその他の技術のような通信ネットワークのような公衆ネットワークに加えて、コンピュータシステム400内にて、本明細書中に説明されるように、通信する構成要素間でデータを伝送するために使用され得る任意のスイッチ、ルータ、ハブ、ゲートウェイ及び同種のものを伴う任意の様々な企業区域、大都市区域、キャンパス又は他のローカルエリアネットワーク、又は企業ネットワークを含んでもよい。ネットワーク402はデータネットワークの組み合わせを含んでもよく、厳密にパブリック又はプライベートネットワークに限定される必要はない。システムは外部装置404を含んでもよい。外部装置404はネットワーク402を介して計算機405に接続されるコンピュータ又は他の外部リソースであってもよい。
一般的に、計算機405はプロセッサ406、メモリ408、ネットワークインターフェース410、データ記憶部412、及び一つ以上の入出力インターフェース414を含んでもよい。計算機405は更に、入出力インターフェース414と接続し得る、リモートコントローラ、通信装置又は同種のもののような有線又は無線周辺機器416又は他の外部入出力装置を含むか、それらと通信中であってもよい。
プロセッサ406は、計算機405又はシステム400内にて実行する命令を処理可能なプロセッサ又は処理回路であってもよい。プロセッサ406は一つ以上のシングルスレッドプロセッサ、マルチスレッドプロセッサ、マルチコアプロセッサ又は同種のものを含んでもよい。プロセッサ406はメモリ408又はデータ記憶部412に格納された命令を処理可能であり本明細書中に説明される機能を提供可能であってもよい。プロセッサ406は単一のプロセッサであってもよく、又は、命令を並列処理するためにシステム400とその他のプロセッサと協働する多数のプロセッサを含んでもよい。
メモリ408は計算機405の内部に情報を格納してもよい。メモリ408は、ランダムアクセスメモリ(RAM)、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、レジスタ、等を限定せず含む、揮発性又は不揮発性メモリ、又はその他のコンピュータにより読み取り可能な媒体を含んでもよい。メモリ408は、計算機405の動作を制御しユーザのための機能を実行するよう計算機405を構成することに有用な、プログラム命令、プログラムデータ、実行ファイル、及びその他のソフトウエア及びデータを格納してもよい。メモリ408は、計算機405の動作の異なる態様のために、多数の異なる段階及び型のメモリを含んでもよい。例えば、プロセッサは特定のデータ又は命令へ速くアクセスするためのオンボードメモリ及び/又はキャッシュを含んでいてもよく、また必要に応じてメモリ容量を拡張するために別個のメインメモリ又は同種のものを必要に応じて含んでいてもよい。これら全ての型のメモリは、本明細書で企図するように、メモリ408の一部であってもよい。
メモリ408は、一般的に、計算機405により実行された時、当コンピュータプログラムの実行環境(例えばプロセサーファームウエア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの組み合わせを構成するコード)を作成し、フローチャートに説明又は示されたステップの一部又は全体、及び/又は本明細書中で示された他のアルゴリズムを実行するコンピューターコードを含んだ、不揮発性のコンピュータにより読み取り可能な媒体を含んでもよい。
単一のメモリ408が描かれているが、計算機405には多数のメモリが有用に組み込まれてもよいと理解されるであろう。例えば、第一のメモリは、計算機405の電源が切られた時もファイル及びコードを永続的又は長期的に記憶するディスクドライブのような不揮発性記憶装置を提供しても良い。ランダムアクセスメモリのような第二のメモリは、実行プロセスのための命令及びデータを格納するための揮発性(しかしより高速な)メモリを提供してもよい。第三のメモリは、レジスタ、キャッシュ等の用途でプロセッサ406に物理的に隣接した高速メモリを提供することにより、性能を向上させるために使用されてもよい。
ネットワークインターフェース410はネットワーク402を介して他のリソースと通信関係になるよう計算機405を接続するハードウエア及び/又はソフトウエアを含んでもよい。これはインターネットを介してアクセス可能な遠隔リソースや、例えば物理接続(例えばイーサネット(登録商標))、無線周波数通信(例えばWi-Fi)、光通信(例えば光ファイバー、赤外線又は同種のもの)、超音波通信、又は、それら又は計算機405及び他の装置間のデータ運送に使用され得る他のメディアの組み合わせを使用して近距離通信プロトコルを使用して利用可能なローカルリソースを含んでもよい。ネットワークインターフェース410は、例えば、ルータ、モデム、ネットワークカード、赤外線送受信機、無線周波数(RF)送受信機、近接通信インターフェース、無線周波数識別(RFID)タグリーダー、又は任意の他のデータ読み取り又は書き込みリソース又は同種のもの、を含んでもよい。
より一般的には、ネットワークインターフェース410は、計算機405の構成要素を他の計算又は通信リソースへ接続することに適した、ハードウエアとソフトウエアの組み合わせを含んでもよい。これは、非限定例として、IEEE 802.11規格(又はその変種)に準拠して動作する有線又は無線イーサネット(登録商標)接続のための電子装置又は他の近距離又は遠距離ワイヤレスネットワーキングコンポーネント又は同種のものを含んでもよい。これは他のローカルデバイスへの接続、又はインターネットのようなデータネットワーク402へ代わりに接続される、ローカルエリアネットワーク又は同種のものへの接続に使用され得るBluetooth(登録商標)又は赤外線送受信機のような近距離通信用のハードウエアを含んでもよい。これはWiMAX接続又はセルラーネットワーク接続(例えばCDMA、GSM(登録商標)、LTE、又は他の適合したプロトコル又はプロトコルの組み合わせを使用した)のためのハードウエア/ソフトウエアを更に含んでもよい。ネットワークインターフェース410は入出力インターフェース414の一部として含まれていてもよく、又はその逆でもよい。
データ記憶部412は、ディスクドライブ、光学ドライブ、磁気ドライブ、フラッシュドライブ、又は、計算機405に大容量ストレージを提供可能である他の装置等の、コンピュータにより読み取り可能な媒体を提供する内臓メモリ記憶装置であってもよい。データ記憶部412は、計算機405又はシステム400のための、コンピュータにより読み取り可能な命令、データ構造、プログラムモジュール、及びその他のデータを、不揮発性の形態で、比較的長期で永続的に記憶しその後引き出して使用するために格納してもよい。例えば、データ記憶部412はオペレーティングシステム、アプリケーションプログラム、プログラムデータ、データベース、ファイル、及び他のモジュール又は他のソフトウエアオブジェクト及び同種のものを格納してもよい。
入出力インターフェース414は計算機405に接続され得る他の装置への入力と出力を支援してもよい。これは、例えば、シリアルポート(例えばRS-232ポート)、ユニバーサルシリアルバス(USB)ポート、光学ポート、イーサネット(登録商標)ポート、電話ポート、オーディオジャック、コンポーネントオーディオ/ビデオ入力、HDMI(登録商標)ポート等、を含み、どれもが他のローカルデバイスへ有線接続する際に使用されてもよい。他のローカルデバイスと通信関係になるよう無線接続する赤外線インターフェース、RFインターフェース、磁気カードリーダー、又は他の入出力システムも含んでもよい。ネットワーク通信のためのネットワークインターフェース410はローカルデバイス通信のための入出力インターフェース414と別個に説明されたが、これら二つのインターフェースは、同じであってもよく、又は、USBポートがWi-Fiアクセサリへの接続に使用されたり、イーサネット(登録商標)接続がローカルネットワークに接続された記憶装置へ使用されたりというように、機能を共有していてもよいことが理解されよう。
周辺機器(peripheral)416は計算機405へ情報を提供するために使用される装置、又は計算機405から情報を受信する装置を含んでもよい。これは計算機405への入力を提供するために使用され得るリモートコントローラ、キーボード、マウス、マウスパッド、トラックボール、ジョイスティック、マイク、フットペダル、タッチスクリーン、スキャナ、又はその他の装置のような、人間による入出力(I/O)装置を含んでもよい。これは、情報を提示するための、ディスプレイ、スピーカ、プリンタ、プロジェクタ、ヘッドセット、又はその他の任意の視聴覚装置を含んでもよい。周辺機器416は、他の装置又は構成要素の制御又は通信を支援する、デジタル信号処理装置、アクチュエーター、又はその他の装置を含んでもよい。
周辺機器416として使用するのに適した他の入出力装置は、触覚装置、三次元レンダリングシステム、拡張現実ディスプレイ等を含む。ある態様では、周辺機器416は短距離(例えばBluetooth(登録商標)、Wi-Fi、赤外線、RF又は同種のもの)又は長距離(携帯電話データ又はWiMAX)通信プロトコルを介しての通信を提供するように構成されたUSB装置等のネットワークインターフェース410として機能してもよい。別の態様では、周辺機器416は、地球全即位システム(GPS)装置、セキュリティドングル、又は他の装置等の、追加の機能又は機能により、計算機405の動作を増強してもよい。別の態様では、周辺機器416は、フラッシュカード、USBドライブ、又は他のソリッドステート装置、又は光学ドライブ、磁気ドライブ、ディスクドライブ、又は他の大容量記憶に適した装置又は装置の組み合わせ等の、記憶装置を含んでもよい。より一般的には、計算機405と共に使用されるのに適した装置又は装置の組み合わせが、本明細書にて企図されるように、周辺機器416として使用されてもよい。
制御部418は、計算機405の動作又は動作制御の制御の役割を務めてもよい。例えば、計算機405は移動ロボットとして実装されていてもよく、その中で制御部418は計算機405の動き及び動作の機能の全てをモニタし制御することを担当してもよい。制御部418は、計算機の稼働構成要素の動きや動作に関連するモータ、車輪、ギア、アーム又は関節付きの手足又は指の制御を任務としてもよい。制御部は入出力インターフェース414及び周辺機器416に連結されてもよく、ここで周辺機器416は計算機の動作を指示することが可能なリモートコントローラである。
画像キャプチャ装置420は、計算機405の環境に関連する画像データをキャプチャし記録する能力と共に使用する、カメラ、センサ、又は他の画像データ収集装置を含んでもよい。例えば、画像キャプチャ装置420は、非制約環境の2D画像をキャプチャすることに適した360度パノラマカメラ422を含んでもよい。画像キャプチャ装置420は更にステレオカメラ、構造化光式カメラ、飛行時間型カメラ又は同種のもののような奥行センシング装置424を含んでもよく、それらは計算機405に環境の奥行マップを生成する能力を与え、2Dパノラマ画像と共に、環境内の個人、ジェスチャ、及び関心対象エリアを詳しく描く顕著性マップを生成する。画像キャプチャ装置420は更に、光学観測装置又は同種のもののような、追加の視線検出装置を含んでもよい。あるいは、奥行センシング装置424は、前述のように例えばIRカメラ及びセンサを使用して視線を検出可能であってもよい。
知識ベース426は前述のように計算機405の学習の中心として機能してもよい。知識ベース426は人工知能システム、ディープニューラルネットワーク、セマンティックシーンパーシングシステム、自己位置推定とマッピングの同時実行システム、コンピュータビジョンシステム又は同種のものの形であってもよい。知識ベースは、未知の物体の識別と関連付けに関する追加の情報のために、ネットワーク402を介して外部のデータソースと通信するために、入出力インターフェース414に又はネットワークインターフェース410に連結されてもよい。知識ベース426はシステムの近くに位置する関心対象物を、環境の画像データを使用して、識別及び関連付けを行う基礎として機能してもよい。知識ベース426は、既知及び未知の識別された物体のデータ及びそれらの物体に関連する属性を格納し呼び出すために、データ記憶部412又はメモリ408に連結されてもよい。
コプロセッサ、デジタル信号処理システム、数値演算コプロセッサ、グラフィックスエンジン、ビデオドライバ、マイクロフォン、又はスピーカのような、その他のハードウエア428が計算機405に組み込まれてもよい。上記その他のハードウエア428は拡張入出力ポート、追加メモリ、又は追加ドライブ(例えばディスクドライブ又は他のアクセサリ)を含んでもよい。
バス430又はバスの組み合わせは、プロセッサ406、メモリ408、ネットワークインターフェース410、データ記憶部412、入出力インターフェース414、制御部418、画像キャプチャ装置420、知識ベース426、及びその他のハードウエア428等の、計算機405の構成要素を相互に接続する電気的又は電気機械的バックボーンとして機能してもよい。図に示されるように、計算機405の各構成要素は、制御、コマンド、データ、又は電源を共有する通信関係となるように、システムバス430を使用して相互に接続されてもよい。
図5は、本開示の実施形態による、人間の視線とジェスチャの検出を使用して物体を位置特定し識別する方法500を示すフローチャートである。前述のように、本明細書にて説明するシステムは、個人が興味を持っている物体を位置特定し識別するために、環境画像データ、人間の視線情報、及びジェスチャ情報を使用してもよい。ブロック505に示すように、システムは物体を識別する要求を受け取ってもよい。例えば、個人は、システムと通信しているリモートコントローラ又は他のインターフェース上で、音声コマンド又は触覚コマンドを使用して、位置特定と検出の要求を開始してもよい。
システムは、音声又はそれ以外の要求を受け取ると、自然言語処理、学習済みの行動又は同種のものを使用して要求を解析し、位置特定と識別処理を更に精緻化してもよい。前述のように、システムは、顕著性マップ及び物体の位置特定と検出を精緻化する使用可能な、コマンド、オブジェクト、及びアフォーダンスのライブラリを訓練又はプログラムされていてもよい。要求の言語はシステムが検索エリア又は環境を狭めることができる追加の状況の情報を、システムに提供してもよい。例えば、方向指示を行っている個人が「テーブルの上の物体を位置特定せよ」という要求を行い、テーブル上の箱を注視したならば、システムは要求を解析し、システムが物体を探し得る、より狭められた環境としてテーブルを識別してもよい。システムは、テーブルが、物体が置かれ得る、高いところにある平らな平面を持つことを知っていてもよい。システムはテーブルの既知の属性を共有しない壁、床、及び他の物体を環境から排除することができる。既知及び学習されたコマンド、オブジェクト、及びアフォーダンスのライブラリは、システムが位置特定と識別のプロセスを開始できる基礎的な知識ベースを提供してもよい。
ブロック510に示すように、システムは非制約環境に関する画像と奥行情報をキャプチャしてもよい。システムは非制約環境の2D画像をキャプチャしてもよい。2D環境画像は360度パノラマカメラによりキャプチャされてもよく、又は一つ以上のカメラにより撮影された一連の画像をつなぎ合わせて環境の360度の表現を形成してもよい。システムは更に奥行画像をキャプチャしてもよい。奥行画像はIRカメラ、センサ又は同種のものを使用して取得してもよい。環境の奥行情報はまたSLAM(例えば移動ロボットシステム)、又は屋内のシーン等の非制約環境の奥行推定を訓練したディープニューラルネットワークを使用して取得してもよい。奥行情報は、システム、個人、物体、及び/又は他の定義可能な環境の輪郭をシステムが検出したら、それらの間の距離を測定するために使用されてもよい。
ブロック515に示すように、システムは環境マップを構築、又は引き出してもよい。環境マップはシステムが取得した2Dパノラマ画像及び奥行センシングデータに基づいていてもよい。あるいは、環境マップは、環境が以前マッピングされた、又はシステムにアップロードされたなら、システムのメモリから引き出されてもよい。環境マップは、システムが解釈するためにより意味があり簡単な環境の表現として、画像及び奥行データを詳しく示す顕著性マップとして生成されてもよい。あるいは、環境マップは、シーンのセマンティックパーシングにより、物体とそれらのアイデンティティ(既知であれば)として生成されてもよい。システムは、区別される画像データ(例えば、普通の均質なピクセルエリアと比較して、区別されるピクセル又は画像データのエリアを識別する)に基づいて、関心対象エリアを定義してもよい。
ブロック520に示すように、一度環境マップが構築又は引き出されれば、システムは、物体とは対照的な個人、及び個人の視線の位置特及び識別を行ってもよい。識別された個人の頭と目の周囲にバウンディングボックスが生成されてもよい。バウンディングボックス内では、個人の目の動きを位置特定し追従する目的で推定視線ベクトルを形成するために、IRセンサ又は光学/頭部追跡装置を使用して、個人の視線が検出されてもよい。
システムは、ブロック525に示すように、個人による視線を検出してもよい。環境マップを解析し、及び個人を識別した結果、方向指示を行っている個人の視線の方向が検出されてもよい。動きと個人の目の視線方向を判断するために、RGBカメラ、IRセンサ又は同種のものを使用して視線を検出してもよい。
ブロック530に示すように、システムは次に方向性ベクトルを生成してもよい。個人視線とジェスチャの解析により、システムは、環境のシーン上に、個人から環境マップ上に渡る個人による視線とジェスチャの推定方向に、方向性ベクトルを投影することができるようになってもよい。方向性ベクトルは、個人による環境中の視線及びジェスチャから、外挿法により推定されてもよい。
ブロック535に示すように、システムは個人による視線とジェスチャに基づいて注目対象物を検索し位置特定してもよい。システムは、ベクトルが顕著性マップ中に識別された任意の物体又は関心対象エリアと交差するかを判断するために、外挿法により推定された方向性ベクトルを解析してもよい。ベクトルが顕著性マップ中の関心対象エリアと交差するならば、システムは関心対象エリアを個人の注目対象物であると判断してもよい。
ブロック540に示すように、システムは物体が既知であるか判断してもよい。関心対象物が位置特定されたなら、システムはニューラルネットワーク、画像データベース、又は他のデータソースのような知識ベースに問い合わせ、物体の画像データと同様に関連付けられた画像データを有する既知の物体を比較してもよい。
物体が既知であるならば、ブロック550に示されるように、システムは個人からの更なる指示を求めてもよい。例えば、システムは、物体が位置特定され識別されたこと、及び物体のアイデンティティを示す、音声による又は視覚的な指示を出してもよい。システムは個人へ、物体に関する、又は他の物体の位置特定と識別に関する、さらなる指示を要求してもよい。ブロック545に示すように物体がシステムにとって未知である場合は、システムは、個人と相互作用を行って知識ベースに物体の画像データ及び関連するアイデンティティを記録することでシステムが訓練されるような、学習プロセスを開始してもよい。システムが次回類似した画像データを持つ物体を識別するよう求められた時に、画像データ及び関連するアイデンティティが呼び出されてもよい。
図6には、本開示の実施形態により視線判定を精緻化するためのさらなるフローチャートが示されている。ブロック605に示すように、また前述のように、システムは方向指示を行っている個人から、関心対象物を位置特定し識別するよう、要求を受け取ってもよい。要求は音声によるものでもよく、又は、システム上又は遠隔に位置するユーザインターフェース又は他のコントローラにより開始されてもよい。システムは、プログラムにより、又は高度な機械学習技術により、関心対象物の探索と位置特定を開始するための、複雑で状況に基づいた要求を解析してもよい。要求は、関心対象物が識別された後に実行する追加の指示を更に含んでもよい。システムは、追加の指示を解析し実行するために、プログラム又は高度な知識ベースに再び依存してもよい。
ブロック610に示すように、また前述のように、システムは非制約環境に関するセンサ情報をキャプチャしてもよい。環境をキャプチャするために、センサデータをRGBカメラ、IRセンサ又は同種のものにより取得してもよい。ブロック615に示すように、システムは環境マップを構築又は引き出すために、キャプチャしたセンサ情報を使用してもよい。システムは、システムがメモリに格納し得ている他の環境マップと、新規に取得したセンサデータの一部又は全部を比較してもよい。環境がシステムにとって既知である場合は、以前格納した環境マップが引き出されてもよい。しかしながら環境がシステムにとって未知である場合は、システムは、その後の動作で使用するために、環境マップをメモリに登録してもよい。
ブロック620に示すように、また本明細書中に説明するように、システムはキャプチャしたセンサデータに基づいて環境中の個人も位置特定し識別してもよい。環境内の個人の存在を位置特定し識別するためにパターン認識、顔認識又は同種のものが実装されてもよい。環境中に個人が一人以上存在すれば、システムは、方向指示を行っている個人がどの個人であるのかを判断する追加の処理を実装してもよい。方向指示を行っている個人の注目対象物を位置特定し、その個人がどこを見つめているかを特定するために、システムは個人に関するデータを解析して、個人のうち一人がシステムを直接見ているか、ジェスチャを行っているか、又はシステムが位置特定のためにプログラムされ得る特定の特徴を持っているかを判断してもよい。例えば、方向指示を行っている個人が、システムが識別できるリモート又は他のコントローラを持っていてもよく、このことが、持っている人が方向指示を行っている個人であることを示してもよい。システムが方向指示を行っている個人を識別できない時は、システムは、更なる指示を求めるプロンプトを発行してもよい。
ブロック625に示すように、システムは方向指示を行っている個人の活動、視線及び/又はジェスチャを推定してもよい。前述のように、システムは、目の動きをスキャンし、方向指示を行っている個人がどこを見得ているのかを処理することにより、方向指示を行っている個人の視線を検出してもよい。視線の検出及び追跡は、その他の観測可能な情報により補完され、システムに解析を継続するための追加の状況の情報を与えてもよい。例えば、システムは、個人が特定の活動、姿勢、又は位置に関与しているかどうかを判断するために観測を行い、システムが注目対象物を探索している環境を精緻化してもよい。加えて、前述のように、システムは、方向指示を行っている個人のジェスチャを検出することで追加の情報を提供してもよい。これらの観測により、システムは、関心対象物を位置特定するために、より狭い興味の範囲へと環境情報をフィルタするためにシステムが使用するパラメータのセットを形成してもよい。
ブロック630に示すように、画像及び奥行情報を含む環境マップは、顕著性マップを生成するために使用されてもよい。顕著性マップはセマンティックシーンパーシング、又は他の画像処理技術を含む、前述の技術を使用して生成してもよい。システムが取得した追加情報は顕著性マップの生成を補助してもよい。ブロック625に関連する個人の観測は、顕著性マップを更に発展又は制限するために使用されてもよい。方向指示を行っている個人が環境を更に精緻化するように観測された場合は、システムはその制限されたエリアのみに関心を持ってもよい。例えば、方向指示を行っている個人が環境の一部に向かってジェスチャを行っている場合、システムは顕著性マップを、環境のそのエリアへと限定してもよい。
加えて、システムは、環境を更に制限するために、状況の情報及びブロック605にて元の要求から抽出されたアフォーダンスを使用可能であってもよい。例えば、要求が角のような環境のあるエリアの識別を含んでいた場合、又は「窓を開けろ」という文脈上の命令を含んでいた場合、システムは、環境及び顕著性マップを、壁の上の物体のみへと制限してもよい。このようにシステムは、より限定された、可能性のある物体による領域又は関心対象エリアを持つ、焦点の顕著性マップを生成することができる。
ステップ635に示すように、システムは、観測された方向指示を行っている個人の活動と視線に基づいて、注目のヒートマップを生成してもよい。注目のヒートマップは、システムにより、ある期間における、方向指示を行っている個人の多数のスキャンを使用して生成されてもよい。前述のように、目の自然な動き及び要求を行う時に方向指示を行っている個人が複数のエリアを見つめるという性質から、システムは多数のスキャンを行い、方向指示を行っている個人の視線の位置の頻度と密度を詳しく説明するヒートマップを生成してもよい。方向指示を行っている個人による視線が最も集中しているエリアは、方向指示を行っている個人が注目しているエリア又は方向を意味してもよい。いくつかの離散的な視線方向が検出されるかもしれないが、いくつかの視線スキャンの融合により、注目対象物が位置するエリアへ向けられた有意に多数のスキャンが提供され得る。
ブロック640に示すように、注目のヒートマップは、関心対象物がどこにあるかを判断するために、顕著性マップと組み合わせたり、重ね合わせたり、又は重複したりしてもよい。システムは、顕著性マップ上の関心対象エリアと検出された視線の集中領域の交差を判断することにより、関心対象物の位置を判断してもよい。システムがそのような交差を判断できるなら、システムは関心対象物を位置特定したかもしれず、その後、物体の識別へと移ってもよい。前述のように、システムが過程で得た任意の情報を使用して関心対象物が識別できる場合、システムはそのように示してもよい。物体がシステムにとって未知の場合は、学習プロセスを開始してもよい。
本明細書にて説明される実施形態は人間の視線及びジェスチャを検出する移動ロボットを含むが、当業者はシステムがこのようなロボットのみに限定されず、分散型であろうと集中型であろうと、他の型の計算機にて本開示の主題から逸脱することなく実装されることを認めるであろう。
更に、本開示において説明する例示的なシステム及び方法は、非制約環境の2D画像をキャプチャするために360度パノラマカメラを実装するが、当業者はその他の画像キャプチャ装置が使用されてもよいことを認めるであろう。例えば、システムのプロセッサがつなぎ合わせて環境の360度表現を形成してもよい一連の環境画像をキャプチャするために、RGBカメラ、回転カメラ、又は重複した視野を持つ複数のカメラが使用されてもよい。
本開示の実施形態は、奥行マップ情報を生成するためにIRカメラ、センサ及び同種のものの使用を説明するが、当業者は、SLAM又は奥行推定を訓練したディープニューラルネットワークを限定せず含むその他の奥行センシング技術が、本開示の主題から逸脱することなく使用されてもよいことを認めるであろう。
単数形の項目への言及は、別段の明示的な記載がない限り、又は本文から明らかでない限り、複数形の項目を含むものと理解されるべきであり、またその逆も同様である。文法的な接続詞は、別段の明示的な記載がない限り、又は文脈から明らかでない限り、節、文、単語及び同種のものの任意のそして全ての離接及び接続を表現することを意図している。したがって、「又は」という用語は一般的に「及び/又は」等を表すと理解されるべきである。
本明細書では、本明細書中に別段の記載がない限り、値の範囲への言及は、限定を意図せず、代わりにその範囲の任意の及び全ての値を個別に言及しており、そのような範囲内の各個別の値はそれが個別に本明細書で言及されているかのように本明細書に組み込まれている。数値又は方向を伴う「約」、「おおよそ」、「実質的に」又は同種のものは、意図する目的のために満足に動作させるよう行う逸脱を示すと当業者により評価されるものとして、解釈されるべきである。値の範囲及び/又は数値は例としてのみ本明細書中に提供されており、記載された実施形態の範囲の制限を構成するものではない。本明細書中に提供される、任意の、及び全ての例、又は例示的な言葉(「例えば」「のような」又は同種のもの)は、単に実施形態をより明確にすることを意図しており、実施形態の範囲に制限を設けるものではない。本明細書のいかなる言語も、未請求の要素が実施形態の実現に不可欠であることを示すと解釈されるべきではない。
明細書及び以下の請求項にて、「第一の」「第二の」「第三の」「前」「後」及び同種の用語は、便宜上のものであり、特に明記されない限り、限定的な用語として解釈されるべきではない。
前述の方法及びシステムは例示を意図するものであり限定的なものではないことが理解されるべきである。数多くの変形、追加、省略、及びその他の修正は当業者にとって明らかであろう。加えて、前述の説明中の方法のステップ及び図の順序は、特定の順序が明示的に要求されるか、又は文脈から明らかでない限り、言及されたステップを順序通りに実施することを要求するものではない。したがって、特定の実施形態を示し説明したが、本開示の精神及び範囲から逸脱することなく形態及び詳細の様々な変更及び修正が行われ得ることが当業者にとって明らかであり、これは、以下の請求項によって定義する、法律によって許容される最も広い意味で解釈されるべき本開示の一部を形成するよう意図される。
前述の方法及びシステムは例示を意図するものであり限定的なものではないことが理解されるべきである。数多くの変形、追加、省略、及びその他の修正は当業者にとって明らかであろう。加えて、前述の説明中の方法のステップ及び図の順序は、特定の順序が明示的に要求されるか、又は文脈から明らかでない限り、言及されたステップを順序通りに実施することを要求するものではない。したがって、特定の実施形態を示し説明したが、本開示の精神及び範囲から逸脱することなく形態及び詳細の様々な変更及び修正が行われ得ることが当業者にとって明らかであり、これは、以下の請求項によって定義する、法律によって許容される最も広い意味で解釈されるべき本開示の一部を形成するよう意図される。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
物体を位置特定し識別するためのシステムであって、
個人と関心対象物とを含む非制約環境の360度画像を生成するよう構成された画像キャプチャ装置と、
非制約環境の奥行マップを生成するよう構成された奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから環境マップを生成し、
前記360度画像中の前記個人からの注目方向を判断し、
前記注目方向を表す方向性ベクトルを生成し、
前記環境マップ上に前記個人からの前記方向性ベクトルを投影し、
前記方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するデータを使用して前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。
〔態様2〕
前記画像キャプチャ装置はパノラマカメラである、態様1に記載のシステム。
〔態様3〕
前記プロセッサは更に、視線、前記個人のジェスチャ方向、又はそれらの組み合わせのうちの少なくとも一つから、前記注目方向を判断するよう構成された、態様1に記載のシステム。
〔態様4〕
前記奥行センサは赤外線センサ、奥行推定を訓練したニューラルネットワーク、又は自己位置推定とマッピングの同時実行センサの一つである、態様1に記載のシステム。
〔態様5〕
物体を位置特定し識別する方法であって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャすることと、
環境マップを生成することと、
前記キャプチャした360度画像中の前記個人からの注目方向を判断することと、
前記注目方向を表す方向性ベクトルを生成することと、
前記環境マップ上へ前記個人からの前記方向性ベクトルを投影することと、
前記方向性ベクトルと前記関心対象物との交差を検出することと、
を含む、方法。
〔態様6〕
前記関心対象物のアイデンティティを知識ベースで検索することと、
前記関心対象物の前記アイデンティティが前記知識ベース中に発見されない時に学習プロセスを開始することと、を更に含む、態様5に記載の方法。
〔態様7〕
前記学習プロセスはニューラルネットワークを備える、態様6に記載の方法。
〔態様8〕
前記360度画像は単眼パノラマカメラによりキャプチャされる、態様5に記載の方法。
〔態様9〕
複数の画像をキャプチャすることを更に含み、前記360度画像は前記複数の画像をつなぎ合わせたものを含む、態様5に記載の方法。
〔態様10〕
前記環境マップを生成することは
環境の奥行情報を取得することと、
前記環境の奥行情報を前記360度画像と組み合わせることと、
を含む、態様5に記載の方法。
〔態様11〕
前記環境の奥行情報は赤外線センサにより取得される、態様10に記載の方法。
〔態様12〕
前記環境の奥行情報は自己位置推定とマッピングの同時実行プロセスから取得される、態様10に記載の方法。
〔態様13〕
前記環境の奥行情報はニューラルネットワークから取得される、態様10に記載の方法。
〔態様14〕
前記環境マップは顕著性マップを含む、態様5に記載の方法。
〔態様15〕
前記環境マップは前記環境のセマンティックパーシングを備える、態様5に記載の方法。
〔態様16〕
前記個人の視線を推定することを更に含み、前記注目方向は前記視線から判断される、態様5に記載の方法。
〔態様17〕
前記視線は赤外線センサを使用して推定される、態様16に記載の方法。
〔態様18〕
前記個人のジェスチャ方向を推定することを更に含み、前記注目方向は前記ジェスチャ方向から判断される、態様5に記載の方法。
〔態様19〕
前記個人の視線及びジェスチャ方向を推定することを更に含み、前記注目方向は前記視線及び前記ジェスチャ方向から判断される、態様5に記載の方法。
〔態様20〕
物体を位置特定し識別するためのシステムであって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャするよう構成された単眼カメラと、
前記非制約環境の三次元奥行マップを生成するよう構成された赤外線奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから顕著性マップを生成し、
前記個人からの注目方向を判断し、
前記注目方向を表す三次元方向性ベクトルを生成し、
前記顕著性マップ上に前記個人からの前記三次元方向性ベクトルを投影し、
前記三次元方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するキャプチャされた画像データを使用して、前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
物体を位置特定し識別するためのシステムであって、
個人と関心対象物とを含む非制約環境の360度画像を生成するよう構成された画像キャプチャ装置と、
非制約環境の奥行マップを生成するよう構成された奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから環境マップを生成し、
前記360度画像中の前記個人からの注目方向を判断し、
前記注目方向を表す方向性ベクトルを生成し、
前記環境マップ上に前記個人からの前記方向性ベクトルを投影し、
前記方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するデータを使用して前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。
〔態様2〕
前記画像キャプチャ装置はパノラマカメラである、態様1に記載のシステム。
〔態様3〕
前記プロセッサは更に、視線、前記個人のジェスチャ方向、又はそれらの組み合わせのうちの少なくとも一つから、前記注目方向を判断するよう構成された、態様1に記載のシステム。
〔態様4〕
前記奥行センサは赤外線センサ、奥行推定を訓練したニューラルネットワーク、又は自己位置推定とマッピングの同時実行センサの一つである、態様1に記載のシステム。
〔態様5〕
物体を位置特定し識別する方法であって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャすることと、
環境マップを生成することと、
前記キャプチャした360度画像中の前記個人からの注目方向を判断することと、
前記注目方向を表す方向性ベクトルを生成することと、
前記環境マップ上へ前記個人からの前記方向性ベクトルを投影することと、
前記方向性ベクトルと前記関心対象物との交差を検出することと、
を含む、方法。
〔態様6〕
前記関心対象物のアイデンティティを知識ベースで検索することと、
前記関心対象物の前記アイデンティティが前記知識ベース中に発見されない時に学習プロセスを開始することと、を更に含む、態様5に記載の方法。
〔態様7〕
前記学習プロセスはニューラルネットワークを備える、態様6に記載の方法。
〔態様8〕
前記360度画像は単眼パノラマカメラによりキャプチャされる、態様5に記載の方法。
〔態様9〕
複数の画像をキャプチャすることを更に含み、前記360度画像は前記複数の画像をつなぎ合わせたものを含む、態様5に記載の方法。
〔態様10〕
前記環境マップを生成することは
環境の奥行情報を取得することと、
前記環境の奥行情報を前記360度画像と組み合わせることと、
を含む、態様5に記載の方法。
〔態様11〕
前記環境の奥行情報は赤外線センサにより取得される、態様10に記載の方法。
〔態様12〕
前記環境の奥行情報は自己位置推定とマッピングの同時実行プロセスから取得される、態様10に記載の方法。
〔態様13〕
前記環境の奥行情報はニューラルネットワークから取得される、態様10に記載の方法。
〔態様14〕
前記環境マップは顕著性マップを含む、態様5に記載の方法。
〔態様15〕
前記環境マップは前記環境のセマンティックパーシングを備える、態様5に記載の方法。
〔態様16〕
前記個人の視線を推定することを更に含み、前記注目方向は前記視線から判断される、態様5に記載の方法。
〔態様17〕
前記視線は赤外線センサを使用して推定される、態様16に記載の方法。
〔態様18〕
前記個人のジェスチャ方向を推定することを更に含み、前記注目方向は前記ジェスチャ方向から判断される、態様5に記載の方法。
〔態様19〕
前記個人の視線及びジェスチャ方向を推定することを更に含み、前記注目方向は前記視線及び前記ジェスチャ方向から判断される、態様5に記載の方法。
〔態様20〕
物体を位置特定し識別するためのシステムであって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャするよう構成された単眼カメラと、
前記非制約環境の三次元奥行マップを生成するよう構成された赤外線奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから顕著性マップを生成し、
前記個人からの注目方向を判断し、
前記注目方向を表す三次元方向性ベクトルを生成し、
前記顕著性マップ上に前記個人からの前記三次元方向性ベクトルを投影し、
前記三次元方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するキャプチャされた画像データを使用して、前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。
Claims (20)
- 物体を位置特定し識別するためのシステムであって、
個人と関心対象物とを含む非制約環境の360度画像を生成するよう構成された画像キャプチャ装置と、
非制約環境の奥行マップを生成するよう構成された奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから環境マップを生成し、
前記360度画像中の前記個人からの注目方向を判断し、
前記注目方向を表す方向性ベクトルを生成し、
前記環境マップ上に前記個人からの前記方向性ベクトルを投影し、
前記方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するデータを使用して前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。 - 前記画像キャプチャ装置はパノラマカメラである、請求項1に記載のシステム。
- 前記プロセッサは更に、視線、前記個人のジェスチャ方向、又はそれらの組み合わせのうちの少なくとも一つから、前記注目方向を判断するよう構成された、請求項1に記載のシステム。
- 前記奥行センサは赤外線センサ、奥行推定を訓練したニューラルネットワーク、又は自己位置推定とマッピングの同時実行センサの一つである、請求項1に記載のシステム。
- 物体を位置特定し識別する方法であって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャすることと、
環境マップを生成することと、
前記キャプチャした360度画像中の前記個人からの注目方向を判断することと、
前記注目方向を表す方向性ベクトルを生成することと、
前記環境マップ上へ前記個人からの前記方向性ベクトルを投影することと、
前記方向性ベクトルと前記関心対象物との交差を検出することと、
を含む、方法。 - 前記関心対象物のアイデンティティを知識ベースで検索することと、
前記関心対象物の前記アイデンティティが前記知識ベース中に発見されない時に学習プロセスを開始することと、を更に含む、請求項5に記載の方法。 - 前記学習プロセスはニューラルネットワークを備える、請求項6に記載の方法。
- 前記360度画像は単眼パノラマカメラによりキャプチャされる、請求項5に記載の方法。
- 複数の画像をキャプチャすることを更に含み、前記360度画像は前記複数の画像をつなぎ合わせたものを含む、請求項5に記載の方法。
- 前記環境マップを生成することは
環境の奥行情報を取得することと、
前記環境の奥行情報を前記360度画像と組み合わせることと、
を含む、請求項5に記載の方法。 - 前記環境の奥行情報は赤外線センサにより取得される、請求項10に記載の方法。
- 前記環境の奥行情報は自己位置推定とマッピングの同時実行プロセスから取得される、請求項10に記載の方法。
- 前記環境の奥行情報はニューラルネットワークから取得される、請求項10に記載の方法。
- 前記環境マップは顕著性マップを含む、請求項5に記載の方法。
- 前記環境マップは前記環境のセマンティックパーシングを備える、請求項5に記載の方法。
- 前記個人の視線を推定することを更に含み、前記注目方向は前記視線から判断される、請求項5に記載の方法。
- 前記視線は赤外線センサを使用して推定される、請求項16に記載の方法。
- 前記個人のジェスチャ方向を推定することを更に含み、前記注目方向は前記ジェスチャ方向から判断される、請求項5に記載の方法。
- 前記個人の視線及びジェスチャ方向を推定することを更に含み、前記注目方向は前記視線及び前記ジェスチャ方向から判断される、請求項5に記載の方法。
- 物体を位置特定し識別するためのシステムであって、
個人と関心対象物を含む非制約環境の360度画像をキャプチャするよう構成された単眼カメラと、
前記非制約環境の三次元奥行マップを生成するよう構成された赤外線奥行センサと、
知識ベースと、
プロセッサであって、
前記360度画像及び前記奥行マップから顕著性マップを生成し、
前記個人からの注目方向を判断し、
前記注目方向を表す三次元方向性ベクトルを生成し、
前記顕著性マップ上に前記個人からの前記三次元方向性ベクトルを投影し、
前記三次元方向性ベクトルと前記関心対象物との交差を検出し、
前記関心対象物に関するキャプチャされた画像データを使用して、前記関心対象物のアイデンティティを前記知識ベースで検索するよう構成されたプロセッサと、
を備える、システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/955,333 | 2018-04-17 | ||
US15/955,333 US11126257B2 (en) | 2018-04-17 | 2018-04-17 | System and method for detecting human gaze and gesture in unconstrained environments |
JP2020557283A JP2021522564A (ja) | 2018-04-17 | 2019-04-11 | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
PCT/US2019/026999 WO2019204118A1 (en) | 2018-04-17 | 2019-04-11 | System and method for detecting human gaze and gesture in unconstrained environments |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557283A Division JP2021522564A (ja) | 2018-04-17 | 2019-04-11 | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024045273A true JP2024045273A (ja) | 2024-04-02 |
Family
ID=68160332
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557283A Pending JP2021522564A (ja) | 2018-04-17 | 2019-04-11 | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
JP2024007020A Pending JP2024045273A (ja) | 2018-04-17 | 2024-01-19 | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557283A Pending JP2021522564A (ja) | 2018-04-17 | 2019-04-11 | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11126257B2 (ja) |
EP (1) | EP3781896B1 (ja) |
JP (2) | JP2021522564A (ja) |
CN (1) | CN111989537B (ja) |
WO (1) | WO2019204118A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10909374B2 (en) * | 2018-09-07 | 2021-02-02 | Intel Corporation | Technologies for identifying unrecognizable objects in autonomous systems |
JP7222216B2 (ja) * | 2018-10-29 | 2023-02-15 | 株式会社アイシン | 運転支援装置 |
US10833945B2 (en) * | 2018-11-13 | 2020-11-10 | International Business Machines Corporation | Managing downloading of content |
US11221671B2 (en) * | 2019-01-31 | 2022-01-11 | Toyota Research Institute, Inc. | Opengaze: gaze-tracking in the wild |
US10983591B1 (en) * | 2019-02-25 | 2021-04-20 | Facebook Technologies, Llc | Eye rank |
WO2020184733A1 (ko) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | 로봇 |
US11435820B1 (en) * | 2019-05-16 | 2022-09-06 | Facebook Technologies, Llc | Gaze detection pipeline in an artificial reality system |
US11430414B2 (en) * | 2019-10-17 | 2022-08-30 | Microsoft Technology Licensing, Llc | Eye gaze control of magnification user interface |
EP4038477A1 (en) * | 2019-11-08 | 2022-08-10 | Apple Inc. | Machine-learning based gesture recognition using multiple sensors |
CN112783321B (zh) | 2019-11-08 | 2024-07-12 | 苹果公司 | 使用多个传感器的基于机器学习的手势识别 |
CN111105347B (zh) * | 2019-11-19 | 2020-11-13 | 贝壳找房(北京)科技有限公司 | 一种生成带深度信息的全景图的方法、装置及存储介质 |
KR20210067539A (ko) * | 2019-11-29 | 2021-06-08 | 엘지전자 주식회사 | 정보 처리 방법 및 정보 처리 장치 |
KR20220021581A (ko) * | 2020-08-14 | 2022-02-22 | 삼성전자주식회사 | 로봇 및 이의 제어 방법 |
CN112163990B (zh) | 2020-09-08 | 2022-10-25 | 上海交通大学 | 360度图像的显著性预测方法及系统 |
US11999356B2 (en) * | 2020-11-13 | 2024-06-04 | Toyota Research Institute, Inc. | Cognitive heat map: a model for driver situational awareness |
CN112363626B (zh) * | 2020-11-25 | 2021-10-01 | 广东魅视科技股份有限公司 | 基于人体姿态和手势姿态视觉识别的大屏幕交互控制方法 |
KR20220107683A (ko) * | 2021-01-26 | 2022-08-02 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US12093461B2 (en) * | 2021-02-12 | 2024-09-17 | Apple Inc. | Measurement based on point selection |
US11869144B1 (en) * | 2021-03-03 | 2024-01-09 | Apple Inc. | Modeling a physical environment based on saliency |
JP2022143122A (ja) * | 2021-03-17 | 2022-10-03 | 株式会社リコー | 画像処理方法、撮像制御方法、プログラム、画像処理装置および撮像装置 |
US11687155B2 (en) * | 2021-05-13 | 2023-06-27 | Toyota Research Institute, Inc. | Method for vehicle eye tracking system |
US11887405B2 (en) * | 2021-08-10 | 2024-01-30 | Capital One Services, Llc | Determining features based on gestures and scale |
CN114063856A (zh) * | 2021-11-17 | 2022-02-18 | 塔米智能科技(北京)有限公司 | 一种身份注册方法、装置、设备和介质 |
WO2024071006A1 (ja) * | 2022-09-27 | 2024-04-04 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4220595B2 (ja) * | 1998-08-10 | 2009-02-04 | 株式会社日立製作所 | 欠陥の分類方法並びに教示用データ作成方法 |
JP3529049B2 (ja) * | 2002-03-06 | 2004-05-24 | ソニー株式会社 | 学習装置及び学習方法並びにロボット装置 |
EP1665024B1 (en) * | 2003-09-12 | 2011-06-29 | FlatFrog Laboratories AB | A system and method of determining a position of a radiation scattering/reflecting element |
GB2415562B (en) * | 2004-06-23 | 2007-11-21 | Hewlett Packard Development Co | Image processing |
US8340349B2 (en) * | 2006-06-20 | 2012-12-25 | Sri International | Moving target detection in the presence of parallax |
JP2010268158A (ja) * | 2009-05-13 | 2010-11-25 | Fujifilm Corp | 画像処理システム、画像処理方法およびプログラム |
US8803880B2 (en) * | 2009-08-21 | 2014-08-12 | Peking University | Image-based lighting simulation for objects |
WO2012083989A1 (en) * | 2010-12-22 | 2012-06-28 | Sony Ericsson Mobile Communications Ab | Method of controlling audio recording and electronic device |
US9285874B2 (en) | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
US9024844B2 (en) * | 2012-01-25 | 2015-05-05 | Microsoft Technology Licensing, Llc | Recognition of image on external display |
JP2013250882A (ja) * | 2012-06-01 | 2013-12-12 | Sharp Corp | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
US9275460B2 (en) * | 2012-10-17 | 2016-03-01 | Google Inc. | Reference orientations for viewing panoramic images |
JP6171353B2 (ja) * | 2013-01-18 | 2017-08-02 | 株式会社リコー | 情報処理装置、システム、情報処理方法およびプログラム |
US9122916B2 (en) * | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
US9514574B2 (en) * | 2013-08-30 | 2016-12-06 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
WO2015066475A1 (en) * | 2013-10-31 | 2015-05-07 | The University of North Carlina at Chapel Hill | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems |
WO2015072166A1 (ja) * | 2013-11-18 | 2015-05-21 | オリンパスイメージング株式会社 | 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体 |
JP2015116319A (ja) * | 2013-12-18 | 2015-06-25 | パナソニックIpマネジメント株式会社 | 診断支援装置、診断支援方法、および診断支援プログラム |
JP6448767B2 (ja) | 2014-04-24 | 2019-01-09 | ナント・ホールデイングス・アイ・ピー・エル・エル・シー | 画像物体認識におけるロバスト特徴特定 |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
WO2016095057A1 (en) | 2014-12-19 | 2016-06-23 | Sulon Technologies Inc. | Peripheral tracking for an augmented reality head mounted device |
WO2016174659A1 (en) | 2015-04-27 | 2016-11-03 | Snapaid Ltd. | Estimating and using relative head pose and camera field-of-view |
US10291845B2 (en) * | 2015-08-17 | 2019-05-14 | Nokia Technologies Oy | Method, apparatus, and computer program product for personalized depth of field omnidirectional video |
US10027888B1 (en) * | 2015-09-28 | 2018-07-17 | Amazon Technologies, Inc. | Determining area of interest in a panoramic video or photo |
US10242455B2 (en) * | 2015-12-18 | 2019-03-26 | Iris Automation, Inc. | Systems and methods for generating a 3D world model using velocity data of a vehicle |
CN109074369B (zh) | 2016-03-08 | 2022-03-04 | 河谷控股Ip有限责任公司 | 用于基于图像的对象识别的图像特征组合 |
US20170263017A1 (en) | 2016-03-11 | 2017-09-14 | Quan Wang | System and method for tracking gaze position |
JP6629678B2 (ja) * | 2016-06-16 | 2020-01-15 | 株式会社日立製作所 | 機械学習装置 |
US10423914B2 (en) * | 2016-07-08 | 2019-09-24 | International Business Machines Corporation | Industrial setup composition |
US10142686B2 (en) * | 2017-03-30 | 2018-11-27 | Rovi Guides, Inc. | System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user |
-
2018
- 2018-04-17 US US15/955,333 patent/US11126257B2/en active Active
-
2019
- 2019-04-11 CN CN201980026218.5A patent/CN111989537B/zh active Active
- 2019-04-11 JP JP2020557283A patent/JP2021522564A/ja active Pending
- 2019-04-11 EP EP19789014.8A patent/EP3781896B1/en active Active
- 2019-04-11 WO PCT/US2019/026999 patent/WO2019204118A1/en unknown
-
2024
- 2024-01-19 JP JP2024007020A patent/JP2024045273A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111989537A (zh) | 2020-11-24 |
US11126257B2 (en) | 2021-09-21 |
EP3781896B1 (en) | 2024-02-14 |
WO2019204118A1 (en) | 2019-10-24 |
US20190317594A1 (en) | 2019-10-17 |
CN111989537B (zh) | 2023-01-06 |
EP3781896A4 (en) | 2022-01-26 |
EP3781896A1 (en) | 2021-02-24 |
JP2021522564A (ja) | 2021-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111989537B (zh) | 用于在无约束环境中检测人类视线和手势的系统和方法 | |
US10832039B2 (en) | Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
CN107004275B (zh) | 确定实物至少一部分的3d重构件空间坐标的方法和系统 | |
US9696859B1 (en) | Detecting tap-based user input on a mobile device based on motion sensor data | |
US10007336B2 (en) | Apparatus, system, and method for mobile, low-cost headset for 3D point of gaze estimation | |
US9916009B2 (en) | Non-tactile interface systems and methods | |
US10540812B1 (en) | Handling real-world light sources in virtual, augmented, and mixed reality (xR) applications | |
US11047691B2 (en) | Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications | |
US11710350B2 (en) | Sensor fusion eye tracking | |
WO2019214442A1 (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
US11407106B2 (en) | Electronic device capable of moving and operating method thereof | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
US20210256733A1 (en) | Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures | |
WO2019067642A1 (en) | APPLICATION PRESENTATION BASED ON AN ENVIRONMENT | |
JP2023511332A (ja) | 拡張現実マップキュレーション | |
Schütt et al. | Semantic interaction in augmented reality environments for microsoft hololens | |
US20220261085A1 (en) | Measurement based on point selection | |
US20240212201A1 (en) | User location determination based on object interactions | |
CN112711324B (zh) | 基于tof相机的手势交互方法及其系统 | |
CN118244887A (zh) | 基于对象交互的用户位置确定 | |
Odobez et al. | DELIVERABLE D2. 1 AUDIO-VISUAL ALGORITHMS FOR PERSON TRACKING AND CHARACTERIZATION (BASELINE) | |
WO2023200500A1 (en) | Camera calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240216 |