JP6927937B2 - 三次元骨格表現を生成するためのシステム及び方法 - Google Patents
三次元骨格表現を生成するためのシステム及び方法 Download PDFInfo
- Publication number
- JP6927937B2 JP6927937B2 JP2018180654A JP2018180654A JP6927937B2 JP 6927937 B2 JP6927937 B2 JP 6927937B2 JP 2018180654 A JP2018180654 A JP 2018180654A JP 2018180654 A JP2018180654 A JP 2018180654A JP 6927937 B2 JP6927937 B2 JP 6927937B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- dimensional
- links
- representation
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Description
本出願は、その全内容を参照により本明細書に援用される「三次元骨格表現を生成するためのシステム、ロボット及び方法」と題された2017年9月26日出願の米国仮特許出願第62/563427号明細書に対する優先権を主張する。
人物の三次元骨格表現を生成する方法であって、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成することと、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影し、それによって該人物の該三次元骨格表現を生成することとを含む方法。
例2
該二次元骨格表現を三次元空間内に投影することが該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例1に記載の方法。
例3
少なくとも部分的に該三次元骨格表現に基づいてユーザを認証することを更に含む例1に記載の方法。
例4
該ユーザを認証することが、
該三次元骨格表現から該ユーザのポーズ又は歩行を入手することと、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスすることと、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合することとを含む例3に記載の方法。
例5
該三次元骨格表現から入手した歩行情報を記録することを更に含む例1に記載の方法。
例6
1つ又は複数のセンサから該二次元画像を備える画像データを入手することを更に含む例1に記載の方法。
例7
ロボットであって、
プロセッサと、機械可読命令を記憶する非一時的記憶装置とを備え、該機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるロボット。
例8
該二次元骨格表現を三次元空間内に投影することが該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例7に記載のロボット。
例9
該機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例7に記載のロボット。
例10
該プロセッサにユーザを認証させる該機械可読命令が更に該プロセッサに
該三次元骨格表現から該ユーザのポーズ又は歩行を入手させ、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスさせ、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合させる例9に記載のロボット。
例11
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例7に記載のロボット。
例12
アームと、該アームの端部に配置されたエンドエフェクタとを更に備え、該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例7に記載のロボット。
例13
該機械可読命令が更に該アーム及びエンドエフェクタを該人物の該手の方へ移動させ該対象物を把持させる例12に記載のロボット。
例14
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例12に記載のロボット。
例15
システムであって、
プロセッサと、
非一時的プロセッサ可読記憶装置とを備え、該非一時的プロセッサ可読記憶装置が1つ又は複数の機械可読命令を備え、該1つ又は複数の機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるシステム。
例16
該プロセッサに該二次元骨格表現を三次元空間内に投影させる該1つ又は複数の機械可読命令が、更に、該プロセッサに該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均させる例15に記載のシステム。
例17
該1つ又は複数の機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例15に記載のシステム。
例18
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例15に記載のシステム。
例19
該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例15に記載のシステム。
例20
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例15に記載のシステム。
Claims (10)
- 人物の三次元骨格表現を生成する方法であって、
二次元画像から、前記二次元画像内に存在する人物の二次元骨格表現を生成するステップであって、前記二次元骨格表現は複数の関節と前記複数の関節の個々の関節の間の複数のリンクとを備える、ステップと、
1つ以上のリンクが1つ以上のリング構造の中心を通過するように、前記複数のリンクの前記1つ以上のリンクの周囲に前記1つ以上のリング構造を配置するステップと、
前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する深さクラウドのポイントを識別するステップであって、前記深さクラウドのポイントは、深さセンサによって生成され、各ポイントが深さ情報を提供する、ステップと、
前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する前記深さクラウドのポイントの深さ情報を用いて前記二次元骨格表現を三次元空間内に投影し、それによって前記人物の前記三次元骨格表現を生成するステップと、
前記三次元骨格表現から歩行情報を記録するステップと、を含む、方法。 - 前記二次元骨格表現を三次元空間内に投影するステップは、前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する前記深さクラウドの全てのポイントの深さ情報を平均するステップを含む、請求項1に記載の方法。
- 少なくとも部分的に前記三次元骨格表現に基づいてユーザを認証するステップを更に含む、請求項1または2に記載の方法。
- 前記ユーザを認証するステップは、
前記三次元骨格表現から前記ユーザのポーズを入手するステップと、
複数の登録ユーザに対する複数の記憶されたポーズを備える記憶域にアクセスするステップと、
前記ユーザの前記ポーズを前記複数の記憶されたポーズの1つと照合するステップと、を含む、請求項3に記載の方法。 - 前記1つ以上のリング構造は、前記人物の1つ以上の部位に対応するように形成され、サイズとなる、請求項1から4の何れか一項に記載の方法。
- 1つ以上のセンサから画像データを入手するステップを更に含み、前記画像データは前記二次元画像を含む、請求項1から5の何れか一項に記載の方法。
- プロセッサと、前記プロセッサによって実行されたときに、前記プロセッサに、請求項1から6の何れか一項に記載の方法を完了させる機械可読命令を備えた非一時的記憶装置と、を備える、ロボット。
- アームと、前記アームの端部に配置されたエンドエフェクタと、を更に含み、
前記機械可読命令が前記プロセッサに、更に、
前記人物の手に保持された対象物を決定させ、
前記人物の前記三次元骨格表現から三次空間内の前記人物の前記手の場所を決定させる、請求項7に記載のロボット。 - 前記機械可読命令が更にアーム及びエンドエフェクタを前記人物の手の方へ移動させ対象物を把持させる、請求項7または8に記載のロボット。
- 前記プロセッサと通信可能に接続された複数のセンサを更に備え、前記複数のセンサが前記二次元画像を提供する、請求項7から9の何れか一項に記載のロボット。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762563427P | 2017-09-26 | 2017-09-26 | |
US62/563,427 | 2017-09-26 | ||
US15/868,374 | 2018-01-11 | ||
US15/868,374 US10607079B2 (en) | 2017-09-26 | 2018-01-11 | Systems and methods for generating three dimensional skeleton representations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019061679A JP2019061679A (ja) | 2019-04-18 |
JP2019061679A5 JP2019061679A5 (ja) | 2020-08-06 |
JP6927937B2 true JP6927937B2 (ja) | 2021-09-01 |
Family
ID=65807643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018180654A Active JP6927937B2 (ja) | 2017-09-26 | 2018-09-26 | 三次元骨格表現を生成するためのシステム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10607079B2 (ja) |
JP (1) | JP6927937B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
US11113526B2 (en) * | 2019-07-23 | 2021-09-07 | Toyota Research Institute, Inc. | Training methods for deep networks |
CN113510707A (zh) * | 2021-07-23 | 2021-10-19 | 上海擎朗智能科技有限公司 | 一种机器人的控制方法、装置、电子设备及存储介质 |
CN117581278A (zh) * | 2021-08-17 | 2024-02-20 | 创峰科技 | 移动平台上实时手持式无标记人体动作记录和虚拟形象渲染 |
US11553043B1 (en) * | 2022-06-16 | 2023-01-10 | Embark Trucks Inc. | Low bandwidth protocol for streaming sensor data |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10037491A1 (de) * | 2000-08-01 | 2002-02-14 | Stryker Leibinger Gmbh & Co Kg | Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren |
KR101424942B1 (ko) * | 2004-07-30 | 2014-08-01 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 |
US8976160B2 (en) * | 2005-03-01 | 2015-03-10 | Eyesmatch Ltd | User interface and authentication for a virtual mirror |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8542252B2 (en) * | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US20110025689A1 (en) * | 2009-07-29 | 2011-02-03 | Microsoft Corporation | Auto-Generating A Visual Representation |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8922547B2 (en) | 2010-12-22 | 2014-12-30 | Electronics And Telecommunications Research Institute | 3D model shape transformation method and apparatus |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
US9275277B2 (en) | 2013-02-22 | 2016-03-01 | Kaiser Foundation Hospitals | Using a combination of 2D and 3D image data to determine hand features information |
US9340155B2 (en) * | 2013-09-17 | 2016-05-17 | Toyota Motor Sales, U.S.A., Inc. | Interactive vehicle window display system with user identification |
US9911219B2 (en) * | 2015-05-13 | 2018-03-06 | Intel Corporation | Detection, tracking, and pose estimation of an articulated body |
EP3425591B1 (en) * | 2017-07-07 | 2021-01-13 | Tata Consultancy Services Limited | System and method for tracking body joints |
-
2018
- 2018-01-11 US US15/868,374 patent/US10607079B2/en not_active Expired - Fee Related
- 2018-09-26 JP JP2018180654A patent/JP6927937B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20190095711A1 (en) | 2019-03-28 |
US10607079B2 (en) | 2020-03-31 |
JP2019061679A (ja) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6927937B2 (ja) | 三次元骨格表現を生成するためのシステム及び方法 | |
Alatise et al. | A review on challenges of autonomous mobile robot and sensor fusion methods | |
JP6927938B2 (ja) | クラウドサービスシステムを組み込んだロボットシステム | |
Zhang et al. | An indoor wayfinding system based on geometric features aided graph SLAM for the visually impaired | |
DK2952993T3 (en) | PROCEDURE FOR MAKING A CARD OF LIKELIHOOD FOR ONE OF THE ABSENCE OR EXISTENCE OF BARRIERS FOR AN AUTONOMOUS ROBOT | |
US20190053858A1 (en) | Method and Apparatus for Wide Area Multi-Body 6D Pose Tracking System | |
KR102096875B1 (ko) | 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법 | |
Ye et al. | 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features | |
US11847741B2 (en) | System and method of scanning an environment and generating two dimensional images of the environment | |
Kandalan et al. | Techniques for constructing indoor navigation systems for the visually impaired: A review | |
EP2933604A1 (en) | A method for localizing a robot in a localization plane | |
EP3205127B1 (en) | A method of setting up a tracking system | |
CN106708037A (zh) | 自主移动式设备定位的方法、装置及自主移动式设备 | |
JP7428436B2 (ja) | 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ | |
CN105184268A (zh) | 手势识别设备、手势识别方法及虚拟现实系统 | |
Chikhalikar et al. | An object-oriented navigation strategy for service robots leveraging semantic information | |
Fabian et al. | One-point visual odometry using a RGB-depth camera pair | |
Fattah et al. | Dynamic map generating rescuer offering surveillance robotic system with autonomous path feedback capability | |
Li et al. | Development and demonstration of indoor three-dimensional localization using IR CMOS sensors for Mobile manipulators | |
Almer Casino et al. | Autonomous medical robot | |
JP7454677B2 (ja) | 質量中心位置決定方法、装置、足式ロボット及びコンピュータプログラム | |
Li | A new efficient pose estimation and tracking method for personal devices: application to interaction in smart spaces | |
Shafii et al. | Autonomous interactive object manipulation and navigation capabilities for an intelligent wheelchair | |
Patil | Human context-awareness and its application in a service-oriented robotic system | |
Caldeira et al. | Indoor Exploration Using a μ UAV and a Spherical Geometry Based Visual System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927937 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |