JP7280865B2 - 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 - Google Patents
自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 Download PDFInfo
- Publication number
- JP7280865B2 JP7280865B2 JP2020505212A JP2020505212A JP7280865B2 JP 7280865 B2 JP7280865 B2 JP 7280865B2 JP 2020505212 A JP2020505212 A JP 2020505212A JP 2020505212 A JP2020505212 A JP 2020505212A JP 7280865 B2 JP7280865 B2 JP 7280865B2
- Authority
- JP
- Japan
- Prior art keywords
- human
- gesture
- feature vector
- person
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 43
- 239000013598 vector Substances 0.000 claims description 36
- 241000282412 Homo Species 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
こうすることにより、内骨格の関連要素を作成するためのキーポイント(key points)のリストが、作成される。
・車両に指示を与えるジェスチャー制御
例えば、交差点における警察官(右手が、右折を促している)
・自律運転している車両とコミュニケーションするための単純な2Dカメラを採用したジェスチャー制御
・道路交通の参加者の注意度の検証(例えば、スマートフォンに気を取られている歩行者)
a) 単眼カメラの少なくとも一枚の画像内にいる一人のヒトのキーポイントの検出するステップ
b) これらのキーポイントを骨格のようなヒトの部位の描写に連結するステップ、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している
c) ヒトの骨格のような描写からジェスチャーを認識するステップ、及び、
d) 認識したジェスチャーを出力するステップ。
a) 単眼カメラの少なくとも一枚の画像内にいる一人のヒトのキーポイントを検出する、
b) これらのキーポイントを、骨格のようなヒトの部位の描写に連結する、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している、
c) ヒトの骨格のような描写からジェスチャーを認識する、そして、
d) 認識したジェスチャーを司る出力シグナルを作成し、出力する。
先ず、画像内のヒトを認識する。ここでは、ヒト認識手段が、用いられる。ヒトの各々の体の部位を見つけ、これらを骨格に連結する特殊な検出器を採用することが好ましい。
各々のヒトに対して、特徴ベクトルが、骨格連結点(キーポイント、関節)の座標に基づいて作成される。
各ヒトに対しては、従来のように、特徴ベクトルのみが用いられるのではない。その代わりに、様々な部分的ポーズを基にしたN個の特徴ベクトルの群が作成される。これらの部分的ポーズのうちの一つは、例えば、頭と左腕のみを包含しており、他の一つは、頭と右腕のみを包含している。部分的ポーズの数Nは、適宜設定自在な自由なパラメータである。
なお、本発明は、以下の態様も包含し得る:
1.以下のステップを包含していることを特徴とする単眼カメラの少なくとも一枚の画像からあるヒトのジェスチャーを認識するための方法:
a) 単眼カメラの少なくとも一枚の画像内にいる一人のヒトのキーポイントの検出するステップ
b) これらのキーポイントを骨格のようなヒトの部位の描写に連結するステップ、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している
c) ヒトの骨格のような描写からジェスチャーを認識するステップ、及び、
d) 認識したジェスチャーを出力するステップ。
2.一つの乃至複数の互いに関連している体の部位からグループが構成されることを特徴とする上記1.に記載の方法。
3.一つの体の部位が複数のグループに帰属していることを特徴とする上記2.に記載の方法。
4.グループの数Nが設定されることを特徴とする上記2.或いは3.に記載の方法。
5.各グループに、それぞれのグループに統合されたキーポイントの座標を基にした一つの特徴ベクトルが、割り当てられていることを特徴とする上記2.から4.のうち何れか一つに記載の方法。
6.一人のヒトの各グループの各特徴ベクトルが、クラスタ化されたポーズリストを用いて、最終特徴ベクトルに統合されることを特徴とする上記5.に記載の方法。
7.ジェスチャーの認識が、最終特徴ベクトルの分類を用いて実施されることを特徴とする上記6.に記載の方法。
8.骨格のような描写を基に、ヒトの視線方向の推定が実施されることを特徴とする上記1.~7.のうち何れか一つに記載の方法。
9.ヒトの視線方向が、該単眼カメラに向けられているか否かを調べることを特徴とする上記8.に記載の方法。
10.ジェスチャーの認識が、予め訓練されたジェスチャー分類によって実施されることを特徴とする上記1.~9.のうち何れか一つに記載の方法。
11.一人のヒトに割り当てられるキーポイントの数が、最多20個であることを特徴とする上記1.~10.のうち何れか一つに記載の方法。
12.頭を下げ、視線が自分の手の方向に向けられているヒトが、注意散漫な交通参加者に分類されることを特徴とする上記8.から11.のうち何れか一つに記載の方法。
13.単眼カメラの画像からあるヒトのジェスチャーを認識するための装置であって、以下を実施できるように構成されていることを特徴とする装置:
a) 単眼カメラの少なくとも一枚の画像内にいる一人のヒトのキーポイントを検出する、
b) これらのキーポイントを、骨格のようなヒトの部位の描写に連結する、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している、
c) ヒトの骨格のような描写からジェスチャーを認識する、そして、
d) 認識したジェスチャーを司る出力シグナルを作成し、出力する。
14.単眼カメラと上記13.に記載の装置を搭載している車両。
Claims (9)
- 単眼カメラの一枚の画像からあるヒトのジェスチャーを認識するための装置によって、単眼カメラの一枚の画像からあるヒトのジェスチャーを認識するための方法であって、以下のステップ:
a) 単眼カメラの一枚の画像内にいる一人のヒトのキーポイントを検出するステップ
b) これらのキーポイントを骨格のようなヒトの部位の描写に連結するステップ、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している
c) ヒトの骨格のような描写からジェスチャーを認識するステップ、及び、
d) 認識したジェスチャーを出力するステップ
を包含し、一つの乃至複数の互いに関連している体の部位からグループが構成され、一つの体の部位が複数のグループに帰属しており、各グループに、それぞれのグループに統合されたキーポイントの座標を基にした一つの特徴ベクトルが割り当てられ、一人のヒトの各グループの各特徴ベクトルが、クラスタ化されたポーズリストを用いて、最終特徴ベクトルに統合され、ジェスチャーの認識が、最終特徴ベクトルの分類を用いて実施されることを特徴とする方法。 - グループの数Nが設定されることを特徴とする請求項1に記載の方法。
- 骨格のような描写を基に、ヒトの視線方向の推定が実施されることを特徴とする請求項1又は2に記載の方法。
- ヒトの視線方向が、該単眼カメラに向けられているか否かを調べることを特徴とする請求項3に記載の方法。
- ジェスチャーの認識が、予め訓練されたジェスチャー分類によって実施されることを特徴とする請求項1~4のうち何れか一項に記載の方法。
- 一人のヒトに割り当てられるキーポイントの数が、最多20個であることを特徴とする請求項1~5のうち何れか一項に記載の方法。
- 頭を下げ、視線が自分の手の方向に向けられているヒトが、注意散漫な交通参加者に分類されることを特徴とする請求項3から6のうち何れか一項に記載の方法。
- 単眼カメラの一枚の画像からあるヒトのジェスチャーを認識するための装置であって、a) 単眼カメラの一枚の画像内にいる一人のヒトのキーポイントを検出し、
b) これらのキーポイントを、骨格のようなヒトの部位の描写に連結し、但し、該骨格のような描写は、該ヒトの個々の体の部位の相対的位置と向きを反映している、
c) ヒトの骨格のような描写からジェスチャーを認識し、そして、
d) 認識したジェスチャーを司る出力シグナルを作成し、出力する
ように構成されており、
一つの乃至複数の互いに関連している体の部位からグループが構成され、一つの体の部位が複数のグループに帰属しており、各グループに、それぞれのグループに統合されたキーポイントの座標を基にした一つの特徴ベクトルが割り当てられており、一人のヒトの各グループの各特徴ベクトルが、クラスタ化されたポーズリストを用いて、最終特徴ベクトルに統合され、ジェスチャーの認識が、最終特徴ベクトルの分類を用いて実施されることを特徴とする装置。 - 単眼カメラと請求項8に記載の装置を搭載している車両。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017216000.4A DE102017216000A1 (de) | 2017-09-11 | 2017-09-11 | Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera |
DE102017216000.4 | 2017-09-11 | ||
PCT/DE2018/200085 WO2019048011A1 (de) | 2017-09-11 | 2018-09-10 | Gestensteuerung zur kommunikation mit einem autonomen fahrzeug auf basis einer einfachen 2d kamera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020533662A JP2020533662A (ja) | 2020-11-19 |
JP7280865B2 true JP7280865B2 (ja) | 2023-05-24 |
Family
ID=63685530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505212A Active JP7280865B2 (ja) | 2017-09-11 | 2018-09-10 | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11557150B2 (ja) |
EP (1) | EP3682367B1 (ja) |
JP (1) | JP7280865B2 (ja) |
KR (1) | KR20200051529A (ja) |
CN (1) | CN111033512B (ja) |
DE (2) | DE102017216000A1 (ja) |
WO (1) | WO2019048011A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018200814B3 (de) * | 2018-01-18 | 2019-07-18 | Audi Ag | Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug |
CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
US11850514B2 (en) | 2018-09-07 | 2023-12-26 | Vulcan Inc. | Physical games enhanced by augmented reality |
US11670080B2 (en) | 2018-11-26 | 2023-06-06 | Vulcan, Inc. | Techniques for enhancing awareness of personnel |
CN111488773B (zh) * | 2019-01-29 | 2021-06-11 | 广州市百果园信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
US11950577B2 (en) | 2019-02-08 | 2024-04-09 | Vale Group Llc | Devices to assist ecosystem development and preservation |
US11941864B2 (en) * | 2019-03-01 | 2024-03-26 | Nec Corporation | Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program |
US11912382B2 (en) | 2019-03-22 | 2024-02-27 | Vulcan Inc. | Underwater positioning system |
WO2020206672A1 (en) * | 2019-04-12 | 2020-10-15 | Intel Corporation | Technology to automatically identify the frontal body orientation of individuals in real-time multi-camera video feeds |
US11435845B2 (en) * | 2019-04-23 | 2022-09-06 | Amazon Technologies, Inc. | Gesture recognition based on skeletal model vectors |
US11232296B2 (en) | 2019-07-10 | 2022-01-25 | Hrl Laboratories, Llc | Action classification using deep embedded clustering |
US11320830B2 (en) | 2019-10-28 | 2022-05-03 | Deere & Company | Probabilistic decision support for obstacle detection and classification in a working area |
CN114616588A (zh) * | 2019-10-31 | 2022-06-10 | 日本电气株式会社 | 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质 |
US10832699B1 (en) | 2019-12-05 | 2020-11-10 | Toyota Motor North America, Inc. | Impact media sharing |
US11107355B2 (en) | 2019-12-05 | 2021-08-31 | Toyota Motor North America, Inc. | Transport dangerous driving reporting |
US11308800B2 (en) | 2019-12-05 | 2022-04-19 | Toyota Motor North America, Inc. | Transport impact reporting based on sound levels |
DE102020200572A1 (de) * | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern |
US11587329B2 (en) * | 2019-12-27 | 2023-02-21 | Valeo Schalter Und Sensoren Gmbh | Method and apparatus for predicting intent of vulnerable road users |
GB2616114A (en) * | 2020-01-03 | 2023-08-30 | Mobileye Vision Technologies Ltd | Vehicle navigation with pedestrians and determining vehicle free space |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
US20210304595A1 (en) | 2020-03-31 | 2021-09-30 | Toyota Motor North America, Inc. | Traffic manager transports |
US11290856B2 (en) | 2020-03-31 | 2022-03-29 | Toyota Motor North America, Inc. | Establishing connections in transports |
CN113639760A (zh) * | 2020-04-27 | 2021-11-12 | 福特全球技术公司 | 一种导航系统及导航地图的显示方法 |
CN111681283B (zh) * | 2020-05-11 | 2023-04-07 | 哈尔滨工业大学 | 一种基于单目立体视觉的应用于无线充电对位的相对位姿解算方法 |
US20230219597A1 (en) * | 2021-11-22 | 2023-07-13 | Cybernet Systems Corp. | Gesture recognition system for autonomous vehicle traffic control |
DE102022209561A1 (de) * | 2022-09-13 | 2024-03-14 | Zf Friedrichshafen Ag | System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld, Fahrzeug und Verkehrsüberwachungssystem |
US20240221425A1 (en) * | 2023-01-02 | 2024-07-04 | Valeo North America, Inc. | Systems and methods for person classification and gesture recognition |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165422A (ja) | 2003-11-28 | 2005-06-23 | Denso Corp | 衝突可能性判定装置 |
JP2007538318A (ja) | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | サインに基づく人間−機械相互作用 |
WO2012046392A1 (ja) | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP2013535717A (ja) | 2010-06-29 | 2013-09-12 | マイクロソフト コーポレーション | 骨格関節認識および追跡システム |
JP2014048936A (ja) | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
JP2015095164A (ja) | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2015116308A (ja) | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | ジェスチャ登録装置 |
JP2017010560A (ja) | 2015-06-24 | 2017-01-12 | スズキ株式会社 | 車両の運転支援装置 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8660300B2 (en) * | 2008-12-12 | 2014-02-25 | Silicon Laboratories Inc. | Apparatus and method for optical gesture recognition |
US8294767B2 (en) * | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
JP5187280B2 (ja) * | 2009-06-22 | 2013-04-24 | ソニー株式会社 | 操作制御装置および操作制御方法 |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
CN101789125B (zh) * | 2010-01-26 | 2013-10-30 | 北京航空航天大学 | 一种无标记单目视频人体骨架运动跟踪方法 |
WO2011110727A1 (en) * | 2010-03-08 | 2011-09-15 | Nokia Corporation | Gestural messages in social phonebook |
US9274594B2 (en) * | 2010-05-28 | 2016-03-01 | Microsoft Technology Licensing, Llc | Cloud-based personal trait profile data |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
US20120150650A1 (en) * | 2010-12-08 | 2012-06-14 | Microsoft Corporation | Automatic advertisement generation based on user expressed marketing terms |
US8740702B2 (en) * | 2011-05-31 | 2014-06-03 | Microsoft Corporation | Action trigger gesturing |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9557836B2 (en) * | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US9606647B1 (en) * | 2012-07-24 | 2017-03-28 | Palantir Technologies, Inc. | Gesture management system |
US9196164B1 (en) * | 2012-09-27 | 2015-11-24 | Google Inc. | Pedestrian notifications |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
DE102013207223A1 (de) * | 2013-04-22 | 2014-10-23 | Ford Global Technologies, Llc | Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern |
CN103345744B (zh) * | 2013-06-19 | 2016-01-06 | 北京航空航天大学 | 一种基于多图像的人体目标部件自动解析方法 |
US9063578B2 (en) * | 2013-07-31 | 2015-06-23 | Microsoft Technology Licensing, Llc | Ergonomic physical interaction zone cursor mapping |
JP6121302B2 (ja) * | 2013-09-30 | 2017-04-26 | Kddi株式会社 | 姿勢パラメータ推定装置、姿勢パラメータ推定システム、姿勢パラメータ推定方法、およびプログラム |
CN103941866B (zh) * | 2014-04-08 | 2017-02-15 | 河海大学常州校区 | 一种基于Kinect深度图像的三维手势识别方法 |
DE102014207802B3 (de) | 2014-04-25 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers |
US9946354B2 (en) * | 2014-08-29 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gesture processing using a domain-specific gesture language |
US10083233B2 (en) * | 2014-09-09 | 2018-09-25 | Microsoft Technology Licensing, Llc | Video processing for motor task analysis |
CN104899927A (zh) * | 2015-07-07 | 2015-09-09 | 安徽瑞宏信息科技有限公司 | 一种人体姿态重建方法 |
US10317947B2 (en) * | 2015-10-12 | 2019-06-11 | Samsung Electronics Co., Ltd. | Electronic device and method for processing gesture thereof |
US9983591B2 (en) | 2015-11-05 | 2018-05-29 | Ford Global Technologies, Llc | Autonomous driving at intersections based on perception data |
US10838206B2 (en) * | 2016-02-18 | 2020-11-17 | Apple Inc. | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking |
CN106250867B (zh) * | 2016-08-12 | 2017-11-14 | 南京华捷艾米软件科技有限公司 | 一种基于深度数据的人体骨骼跟踪系统的实现方法 |
US10579869B1 (en) * | 2017-07-18 | 2020-03-03 | Snap Inc. | Virtual object machine learning |
US10296102B1 (en) * | 2018-01-31 | 2019-05-21 | Piccolo Labs Inc. | Gesture and motion recognition using skeleton tracking |
-
2017
- 2017-09-11 DE DE102017216000.4A patent/DE102017216000A1/de not_active Withdrawn
-
2018
- 2018-09-10 DE DE112018001957.8T patent/DE112018001957A5/de active Pending
- 2018-09-10 WO PCT/DE2018/200085 patent/WO2019048011A1/de unknown
- 2018-09-10 JP JP2020505212A patent/JP7280865B2/ja active Active
- 2018-09-10 CN CN201880051413.9A patent/CN111033512B/zh active Active
- 2018-09-10 KR KR1020197038411A patent/KR20200051529A/ko not_active Application Discontinuation
- 2018-09-10 US US16/641,828 patent/US11557150B2/en active Active
- 2018-09-10 EP EP18778795.7A patent/EP3682367B1/de active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165422A (ja) | 2003-11-28 | 2005-06-23 | Denso Corp | 衝突可能性判定装置 |
JP2007538318A (ja) | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | サインに基づく人間−機械相互作用 |
JP2013535717A (ja) | 2010-06-29 | 2013-09-12 | マイクロソフト コーポレーション | 骨格関節認識および追跡システム |
WO2012046392A1 (ja) | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP2014048936A (ja) | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
JP2015095164A (ja) | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2015116308A (ja) | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | ジェスチャ登録装置 |
JP2017010560A (ja) | 2015-06-24 | 2017-01-12 | スズキ株式会社 | 車両の運転支援装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20200051529A (ko) | 2020-05-13 |
US20200394393A1 (en) | 2020-12-17 |
DE112018001957A5 (de) | 2020-02-20 |
JP2020533662A (ja) | 2020-11-19 |
CN111033512A (zh) | 2020-04-17 |
EP3682367B1 (de) | 2022-11-09 |
WO2019048011A1 (de) | 2019-03-14 |
US11557150B2 (en) | 2023-01-17 |
DE102017216000A1 (de) | 2019-03-14 |
CN111033512B (zh) | 2024-03-19 |
EP3682367A1 (de) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7280865B2 (ja) | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 | |
Wiederer et al. | Traffic control gesture recognition for autonomous vehicles | |
Trivedi et al. | Looking-in and looking-out of a vehicle: Computer-vision-based enhanced vehicle safety | |
Koehler et al. | Stationary detection of the pedestrian? s intention at intersections | |
CN109074748A (zh) | 图像处理设备、图像处理方法和可移动体 | |
CN110858295A (zh) | 一种交警手势识别方法、装置、整车控制器及存储介质 | |
CN104834887B (zh) | 运动行人表示方法、识别方法及其装置 | |
Luo et al. | Hand gesture recognition for human-robot interaction for service robot | |
EP2629241A1 (en) | Control of a wearable device | |
JP5036611B2 (ja) | 画像認識装置 | |
Suhr et al. | Rearview camera-based backover warning system exploiting a combination of pose-specific pedestrian recognitions | |
KR20180090644A (ko) | 운전자 및 차량 간의 상호 작용을 위한 장치 및 그 방법 | |
Kim et al. | Passengers’ gesture recognition model in self-driving vehicles: Gesture recognition model of the passengers’ obstruction of the vision of the driver | |
Abadi et al. | Detection of Cyclists' Crossing Intentions for Autonomous Vehicles | |
JP2016192146A (ja) | 交通制御システム、交通制御方法、プログラム、および記録媒体 | |
Jakob et al. | Concept for transfer of driver assistance algorithms for blind and visually impaired people | |
CN110232300A (zh) | 一种旁车道车辆换道意图识别方法及系统 | |
KR20140104516A (ko) | 차선 인식 방법 및 장치 | |
CN112241706A (zh) | 弱势交通参与者的手势识别方法、相应的装置和程序载体 | |
JP2020047199A (ja) | 画像処理システムおよび画像処理方法 | |
Nayak | Development of vision-based response of autonomous vehicles towards emergency vehicles using infrastructure enabled autonomy | |
Liu | Development of a vision-based object detection and recognition system for intelligent vehicle | |
US11745647B2 (en) | Method for sending information to an individual located in the environment of a vehicle | |
US20240203099A1 (en) | Artificial intelligence device and 3d agency generating method thereof | |
Zhang et al. | A review on pedestrian crossing detection and behavior analysis: In intelligent transportation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220629 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230331 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230410 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7280865 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |