JP2021507434A - 歩行者の意図を予測するためのシステムおよび方法 - Google Patents
歩行者の意図を予測するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021507434A JP2021507434A JP2020552164A JP2020552164A JP2021507434A JP 2021507434 A JP2021507434 A JP 2021507434A JP 2020552164 A JP2020552164 A JP 2020552164A JP 2020552164 A JP2020552164 A JP 2020552164A JP 2021507434 A JP2021507434 A JP 2021507434A
- Authority
- JP
- Japan
- Prior art keywords
- human
- images
- database
- image
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004044 response Effects 0.000 claims abstract description 27
- 230000004931 aggregating effect Effects 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 241000282412 Homo Species 0.000 claims description 5
- 238000007619 statistical method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 10
- 238000010801 machine learning Methods 0.000 claims 2
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000002776 aggregation Effects 0.000 description 24
- 238000004220 aggregation Methods 0.000 description 24
- 230000009471 action Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Databases & Information Systems (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
開示されたシステム、方法、およびコンピュータ可読記憶媒体の一実施形態は、(例えば、ビデオから)人間の一連の画像をキーポイントの集積へと変換し、人間のポーズを判断することによって、人間の意図を判断することを含む。次に、判断されたポーズは、既知のポーズから意図へのマッピングに基づいて、人間の意図へマッピングされる。これらのポーズから意図へのマッピングは、人間の文化に応じて異なる意図を現示する可能性があるポーズを教えるさまざまなジェスチャー、および癖を説明するためにビデオがキャプチャされる場所の地理に基づいて異なる場合がある。この目的および他の目的のために、本開示のいくつかの実施形態において、プロセッサは、カメラ(例えば、ビデオフィードを提供するカメラ)、遠赤外線センサー、およびLIDARなどの視覚および/または深度センサーによって提供されるフィードから複数の一連の画像を取得する。カメラがビデオフィードを提供する状況において、カメラは自動運転車のダッシュボード上もしくはその近く、または車両上もしくは車両内の任意の場所(例えば、車両の車体構造へと組み込まれる)に取り付けることができる。プロセッサは、一連の画像の画像から画像へと変わるように、人間の頭、腕、および脚に対応するポイント、およびそれらの互いの相対位置など、複数の一連の画像のそれぞれの画像における人間に対応するそれぞれのキーポイントを判断する。
図1は、本開示のいくつかの実施形態によって、意図判断サービスを用いて人間の意図を判断するシステムの一実施形態を図示する。システム100は、車両110を含む。車両110は、自動車として描写されている一方で、車両110は、自動または半自動で人間の近くを通行するよう構成される任意の電動装置であってよい。本明細書で用いられる「自動」という用語、およびその変形例は、完全に自動化された動作、または他の機能ではなく(例えば、「半自動」)、いくつかの機能を動作するよう人間のインプットに依存する半自動動作を参照する。例えば、車両110は、任意の方向、または任意の速さで航行するよう、命令されることなく、(または少なくともいくつかの機能を実行するよう命令されている間に)人間の付近を飛行、または歩くよう構成されるドローン、または二足歩行のロボットであってよい。車両110は、他の物の中の人間の周りで安全に動作するよう構成され、人間114などの近くの人間の意図を判断し(または言われ)、人間114の意図を考慮して、安全に調和した行動をとる。
図2は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械のコンポーネントを図示するブロック図である。具体的には、図2は、本明細書で説明される任意の1つまたは複数の方法を機械に実行させるために、プログラムコード(例えば、ソフトウェア)を中に有するコンピュータシステム200の例示的な形態における機械の図式表現を図示する。プログラムコードは、1つまたは複数のプロセッサ202によって実行可能な命令224から構成されてよい。代替の実施形態において、機械は、スタンドアローンデバイスとして動作するか、または他の機械に接続(例:ネットワーク化)されてよい。ネットワーク化された展開において、機械は、サーバクライアントネットワーク環境の中のサーバマシン、またはクライアントマシンの能力で動作するか、またはピアツーピア(または分散型)ネットワーク環境のピアマシンとして動作することができる。
上述のように、本明細書に説明されるシステム、および方法は、一般に、自動運転車(例えば、車両110のカメラ112)に搭載、または統合されるカメラの画像から判断されるように、人間のポーズに基づく人間の意図(例えば、人間114)を判断することを対象としている。画像は、意図判断サービス130のプロセッサ(例えば、プロセッサ202)によって取り込まれる。図3は、本開示のいくつかの実施形態によって、サービスをサポートするモジュール、およびデータベースを含み、意図判断サービスの一実施形態を図示する。意図判断サービス330は、意図判断サービス130を詳細に見たものであり、本明細書に記載されているものと同じ機能を有する。意図判断サービス330は、そこに描写されているさまざまなモジュール、およびデータベースを含む単一のサーバであってよく、または複数のサーバ、およびデータベース渡って分散されてよい。上述のように、意図判断サービス330は、全体的、または部分的に、車両110内に実装されてよい。分散サーバ、およびデータベースは、ネットワーク120によってアクセス可能なファーストパーティまたはサードパーティのサービス、およびデータベースであってよい。
本明細書を通じて、複数のインスタンスは、単一のインスタンスとして説明されるコンポーネント、オペレーション、または構造を実装することができる。1つまたは複数の方法の個々の動作が別個の動作として図示、および説明されているが、個々の動作の1つまたは複数を同時に実行することができ、動作を図示されている順序で実行する必要はない。同様に、単一のコンポーネントとして提示される構造、および機能は、別個のコンポーネントとして実装されてよい。これら、および他の変形例、修正、追加、および改善は、本明細書の主題の範囲内にある。
Claims (18)
- ビデオフィードから複数の一連の画像を取得するステップと、
前記複数の一連の画像のそれぞれの画像において、人間に対応するそれぞれのキーポイントを判断するステップと、
それぞれの画像に対する前記それぞれのキーポイントを前記人間のポーズへと集約するステップと、
前記ポーズを候補のポーズから意図へ変換する複数のテンプレートポーズと比較するためにクエリをデータベースへ伝送するステップと、
前記人間の意図、またはマッチングするテンプレートを特定することができないことのいずれかを示すデータベースから応答メッセージを受信するステップと、
前記人間の前記意図を示す前記応答メッセージに応答して、前記意図に対応する命令を出力するステップと
を備える方法。 - 前記マッチングするテンプレートを特定することができないことを示す前記応答メッセージに応答して、
前記ビデオフィードをキャプチャしている車両の通常動作を停止させ、安全動作モードに入るようコマンドを出力するステップと、
前記人間が前記ビデオの画像内にもはやいなくなった場合を判断するために前記ビデオフィードを監視するステップと、
前記人間が前記ビデオの前記画像内にもはやいなくなったと判断したことに応答して、前記安全動作モードの動作を停止させ、前記車両の通常動作を再開させるコマンドを出力するステップと
をさらに備える、請求項1に記載の方法。 - 前記安全動作モードは、複数のモードのいずれかであり、前記コマンドは、前記複数のモードの特定の1つの表示を含み、前記複数のモードの前記特定の1つは、前記車両に対する前記人間、および他の障害物の位置に基づいて選択される、請求項2に記載の方法。
- 前記安全動作モードは、入った場合に、前記車両が旋回、加速、移動の停止、オペレータへの制御の提供、視覚的、聴覚的、またはマルチメディアメッセージの出力、およびホーンの鳴動の少なくとも1つを実行するようコマンドすることを含む、請求項2に記載の方法。
- 前記クエリを前記データベースへ伝送するステップは、
前記ビデオフィードをキャプチャしている車両の地理的位置を判断するステップと、
複数の候補データベースのインデックスにアクセスするステップであって、前記インデックスは、それぞれのデータベース位置およびそれぞれのアドレスへの前記複数の候補データベースのそれぞれの候補データベースに対応するエントリを含み、
どの候補データベースをクエリするか判断するよう前記地理的位置を前記エントリに対して比較するステップであって、前記複数の候補データベースのマッチングする候補データベースは、前記地理的位置とマッチングする前記マッチングする候補データベースの前記それぞれのデータベース位置に基づいて選択され、
前記マッチングする候補データベースを、前記クエリが伝送される前記データベースとして割り当てるステップと
をさらに含む、請求項1に記載の方法。 - 前記複数の一連の画像が人間を含むかを判断するステップと、
前記複数の一連の画像が前記人間を含むという判断に応答して、前記複数の一連の画像のそれぞれの画像における前記人間に対応するそれぞれのキーポイントの前記判断を実行するステップと、
前記複数の一連の画像が前記人間を含まないという判断に応答して、前記複数の一連の画像を破棄し、前記ビデオフィードから次の複数の一連の画像を取得するステップと
をさらに含む、請求項1の方法。 - 前記ビデオフィードから前記複数の一連の画像を取得するステップは、
現在の時間より前の時間の長さ、または現在キャプチャされた画像の前の一連の画像の量のいずれかを表す量を判断するステップと、
現在時刻、または現在キャプチャされた画像のいずれかに対する前記ビデオフィードからの前記一連の画像の量を取得するステップと
をさらに含む、請求項1に記載の方法。 - それぞれの画像に対する前記それぞれのキーポイントを前記人間の前記ポーズへと集約するステップは、
キーポイントの複数のセットを判断するステップであって、キーポイントのそれぞれのセットは、前記人間の個別の身体部分に対応し、
キーポイントのそれぞれのセットが他のキーポイントのセットに対してどのように移動するかに基づいて、キーポイントの相対的な移動のベクトルを判断するステップと、
前記ポーズに、前記キーポイントの相対的な移動のベクトルを付け加えるステップと
を含む、請求項1に記載の方法。 - 前記意図は、機械学習、統計分析、および心理的行動モデルの少なくとも1つを前記複数の一連の画像のそれぞれの画像へ適用して用いて判断される、請求項1に記載の方法。
- エンコードされた命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって。クライアントデバイスのプロセッサによって実行されると、前記プロセッサに、
ビデオフィードから複数の一連の画像を取得させ、
前記複数の一連の画像のそれぞれの画像において、人間に対応するそれぞれのキーポイントを判断させ、
それぞれの画像に対する前記それぞれのキーポイントを前記人間のポーズへと集約させ、
前記ポーズとマッチングするテンプレートを特定するようクエリをデータベースへ伝送させ、前記ポーズを候補のポーズから意図へ変換する複数のテンプレートポーズと比較することによって、それぞれのテンプレートが関連する意図に対応させ、
マッチングするテンプレートに基づいて、前記人間の意図、またはマッチングするテンプレートを特定できないことのいずれかを示す前記データベースから応答メッセージを受信させ、および
前記人間の前記意図を示す前記応答メッセージに応答して、前記意図を出力させる、コンピュータプログラム製品。 - 前記命令は、さらに、前記プロセッサに、前記マッチングするテンプレートを特定することができないことを示す前記応答メッセージに応答して、
前記ビデオフィードをキャプチャしている車両の通常動作を停止させ、安全動作モードに入るようコマンドを出力させ、
前記人間が前記ビデオの画像内にもはやいなくなった場合を判断するために前記ビデオフィードを監視させ、および
前記人間が前記ビデオの前記画像内にもはやいなくなったと判断したことに応答して、前記安全動作モードの動作を停止させ、前記車両の通常動作を再開させるコマンドの出力をさせる、請求項10に記載のコンピュータプログラム製品。 - 前記安全動作モードは、複数のモードのいずれかであり、前記コマンドは、前記複数のモードの特定の1つの表示を含み、前記複数のモードの前記特定の1つは、前記車両に対する前記人間、および他の障害物の位置に基づいて選択される、
請求項11に記載のコンピュータプログラム製品。 - 前記安全動作モードは、入った場合に、前記車両が旋回、加速、移動の停止、オペレータへの制御の提供、およびホーンの鳴動の少なくとも1つを実行するようコマンドすることを含む、請求項11に記載のコンピュータプログラム製品。
- 前記命令は、さらに、前記プロセッサに、前記クエリを前記データベースへ伝送する場合に、
前記ビデオフィードをキャプチャしている車両の地理的位置を判断させ、
複数の候補データベースのインデックスにアクセスさせ、前記インデックスは、それぞれのデータベース位置およびそれぞれのアドレスへの前記複数の候補データベースのそれぞれの候補データベースに対応するエントリを含み、
どの候補データベースをクエリするか判断するよう前記地理的位置を前記エントリに対して比較させ、前記複数の候補データベースのマッチングする候補データベースは、前記地理的位置とマッチングする前記マッチングする候補データベースの前記それぞれのデータベース位置に基づいて選択され、および
前記マッチングする候補データベースを、前記クエリが伝送される前記データベースとして割り当てをさせる、請求項10に記載のコンピュータプログラム製品。 - 前記命令は、さらに、前記プロセッサに、
前記複数の一連の画像が人間を含むかを判断させ、
前記複数の一連の画像が前記人間を含むという判断に応答して、前記複数の一連の画像のそれぞれの画像における前記人間に対応するそれぞれのキーポイントの前記判断を実行させ、および
前記複数の一連の画像が前記人間を含まないという判断に応答して、前記複数の一連の画像を破棄させ、前記ビデオフィードから次の複数の一連の画像の取得をさせる、請求項10に記載のコンピュータプログラム製品。 - 前記命令は、さらに、前記プロセッサに、前記ビデオフィードから前記複数の一連の画像を取得した場合に、
現在の時間より前の時間の長さ、または現在キャプチャされた画像の前の一連の画像の量のいずれかを表す量を判断させ、および
現在の時間、または現在キャプチャされた画像のいずれかに対する前記ビデオフィードからの前記一連の画像の量の取得をさせる、請求項15に記載のコンピュータプログラム製品。 - 前記命令は、さらに、前記プロセッサに、それぞれの画像に対する前記それぞれのキーポイントを前記人間の前記ポーズへと集約させた場合に、
キーポイントの複数のセットを判断させ、キーポイントのそれぞれのセットは、前記人間の個別の身体部分に対応し、
キーポイントのそれぞれのセットが他のキーポイントのセットに対してどのように移動するかに基づいて、キーポイントの相対的な移動のベクトルを判断させ、前記ポーズにて、前記キーポイントの相対的な移動のベクトルを付け加えさせる、請求項10に記載のコンピュータプログラム製品。 - 前記意図は、機械学習、統計分析、および心理的行動モデルの少なくとも1つを前記複数の一連の画像のそれぞれの画像へ適用して用いて判断される、請求項10に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762598359P | 2017-12-13 | 2017-12-13 | |
US62/598,359 | 2017-12-13 | ||
PCT/IB2018/001557 WO2019116099A1 (en) | 2017-12-13 | 2018-12-13 | Systems and methods for predicting pedestrian intent |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507434A true JP2021507434A (ja) | 2021-02-22 |
JP2021507434A5 JP2021507434A5 (ja) | 2022-01-11 |
Family
ID=65718044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552164A Pending JP2021507434A (ja) | 2017-12-13 | 2018-12-13 | 歩行者の意図を予測するためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10913454B2 (ja) |
EP (1) | EP3724813A1 (ja) |
JP (1) | JP2021507434A (ja) |
WO (1) | WO2019116099A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017208728B4 (de) * | 2017-05-23 | 2024-10-24 | Audi Ag | Verfahren zur Ermittlung einer Fahranweisung |
DE102018212655A1 (de) * | 2018-07-30 | 2020-01-30 | Conti Temic Microelectronic Gmbh | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern |
US10825450B2 (en) * | 2018-10-25 | 2020-11-03 | Motorola Solutions, Inc. | Methods and systems for providing a response to an audio query where the response is determined to have a public safety impact |
US11087749B2 (en) * | 2018-12-20 | 2021-08-10 | Spotify Ab | Systems and methods for improving fulfillment of media content related requests via utterance-based human-machine interfaces |
US11347225B2 (en) * | 2019-02-05 | 2022-05-31 | Intel Corporation | Mechanism for conflict resolution and avoidance of collisions for highly automated and autonomous vehicles |
US10933867B2 (en) * | 2019-05-10 | 2021-03-02 | Arnouse Digital Devices Corporation | Artificial intelligence based collision avoidance system and method |
EP3792821A1 (en) * | 2019-09-11 | 2021-03-17 | Naver Corporation | Action recognition using implicit pose representations |
CN112149466A (zh) * | 2019-06-28 | 2020-12-29 | 富士通株式会社 | 手臂动作识别方法、装置及图像处理设备 |
CN112241448A (zh) * | 2019-07-18 | 2021-01-19 | 阿里巴巴集团控股有限公司 | 应答信息生成方法、装置、设备及存储介质 |
US11479148B2 (en) * | 2019-08-08 | 2022-10-25 | GM Global Technology Operations LLC | Personalization settings based on body measurements |
CN110570200B (zh) * | 2019-08-16 | 2020-08-25 | 阿里巴巴集团控股有限公司 | 一种支付方法及装置 |
US11816914B2 (en) * | 2019-09-05 | 2023-11-14 | Humanising Autonomy Limited | Modular predictions for complex human behaviors |
US11288498B2 (en) * | 2019-09-19 | 2022-03-29 | Hrl Laboratories, Llc | Learning actions with few labels in the embedded space |
US11803585B2 (en) * | 2019-09-27 | 2023-10-31 | Boe Technology Group Co., Ltd. | Method and apparatus for searching for an image and related storage medium |
US11993291B2 (en) * | 2019-10-17 | 2024-05-28 | Perceptive Automata, Inc. | Neural networks for navigation of autonomous vehicles based upon predicted human intents |
TWI710972B (zh) * | 2019-11-01 | 2020-11-21 | 緯創資通股份有限公司 | 基於原子姿勢的動作辨識方法及其系統與電腦可讀取記錄媒體 |
DE102019220009A1 (de) * | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Verfahren zur Erkennung von Verkehrsteilnehmern |
US11587329B2 (en) * | 2019-12-27 | 2023-02-21 | Valeo Schalter Und Sensoren Gmbh | Method and apparatus for predicting intent of vulnerable road users |
US11157729B2 (en) * | 2020-01-17 | 2021-10-26 | Gm Cruise Holdings Llc | Gesture based authentication for autonomous vehicles |
US11657810B2 (en) * | 2020-07-27 | 2023-05-23 | International Business Machines Corporation | Query routing for bot-based query response |
CN111907520B (zh) * | 2020-07-31 | 2022-03-15 | 东软睿驰汽车技术(沈阳)有限公司 | 行人姿态识别方法、装置及无人驾驶汽车 |
CN112200765B (zh) * | 2020-09-04 | 2024-05-14 | 浙江大华技术股份有限公司 | 车辆中被误检的关键点的确定方法及装置 |
JP7347405B2 (ja) * | 2020-11-30 | 2023-09-20 | トヨタ自動車株式会社 | 運転支援システム |
CN112906646A (zh) * | 2021-03-23 | 2021-06-04 | 中国联合网络通信集团有限公司 | 人体姿态的检测方法及装置 |
CN113255509A (zh) * | 2021-05-20 | 2021-08-13 | 福州大学 | 一种基于Yolov3和OpenPose的工地危险行为监控方法 |
CN116863728B (zh) * | 2023-07-21 | 2024-07-19 | 重庆交通大学 | 一种基于过街行人步速分类的信号配时方法与系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186576A (ja) * | 2010-03-05 | 2011-09-22 | Nec Corp | 動作認識装置 |
JP2012066026A (ja) * | 2010-09-27 | 2012-04-05 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
JP2013020578A (ja) * | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
JP2014522035A (ja) * | 2011-07-27 | 2014-08-28 | サムスン エレクトロニクス カンパニー リミテッド | オブジェクト姿勢検索装置及び方法 |
WO2015186436A1 (ja) * | 2014-06-06 | 2015-12-10 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
CN105740783A (zh) * | 2016-01-25 | 2016-07-06 | 大连楼兰科技股份有限公司 | 基于姿态检测与衣帽特征的交警检测方法和系统 |
WO2016167331A1 (ja) * | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置 |
WO2017056382A1 (ja) * | 2015-09-29 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6940998B2 (en) * | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
TW200525449A (en) * | 2004-01-29 | 2005-08-01 | Lai Jin Ding | Human body image recognition system |
JP4807432B2 (ja) * | 2009-03-31 | 2011-11-02 | カシオ計算機株式会社 | 撮像装置、画像処理方法及びプログラム |
US20110025834A1 (en) * | 2009-07-31 | 2011-02-03 | Samsung Electronics Co., Ltd. | Method and apparatus of identifying human body posture |
EP2859732A4 (en) * | 2012-06-11 | 2016-03-09 | Intel Corp | PROVISION OF SPONTANEOUS CONNECTIONS AND INTERACTIONS BETWEEN LOCAL AND REMOTE INTERACTION DEVICES |
US9604639B2 (en) * | 2015-08-28 | 2017-03-28 | Delphi Technologies, Inc. | Pedestrian-intent-detection for automated vehicles |
JP6613795B2 (ja) * | 2015-10-16 | 2019-12-04 | 株式会社デンソー | 表示制御装置および車両制御装置 |
US9825874B2 (en) | 2016-03-17 | 2017-11-21 | T-Mobile Usa, Inc. | Dynamically optimized queue in data routing |
US10055652B2 (en) * | 2016-03-21 | 2018-08-21 | Ford Global Technologies, Llc | Pedestrian detection and motion prediction with rear-facing camera |
US10757049B2 (en) * | 2017-07-24 | 2020-08-25 | Microsoft Technology Licensing, Llc | Actions in a messaging system |
-
2018
- 2018-12-13 WO PCT/IB2018/001557 patent/WO2019116099A1/en unknown
- 2018-12-13 JP JP2020552164A patent/JP2021507434A/ja active Pending
- 2018-12-13 EP EP18855158.4A patent/EP3724813A1/en active Pending
- 2018-12-13 US US16/219,566 patent/US10913454B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186576A (ja) * | 2010-03-05 | 2011-09-22 | Nec Corp | 動作認識装置 |
JP2012066026A (ja) * | 2010-09-27 | 2012-04-05 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
JP2013020578A (ja) * | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
JP2014522035A (ja) * | 2011-07-27 | 2014-08-28 | サムスン エレクトロニクス カンパニー リミテッド | オブジェクト姿勢検索装置及び方法 |
WO2015186436A1 (ja) * | 2014-06-06 | 2015-12-10 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
WO2016167331A1 (ja) * | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置 |
WO2017056382A1 (ja) * | 2015-09-29 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105740783A (zh) * | 2016-01-25 | 2016-07-06 | 大连楼兰科技股份有限公司 | 基于姿态检测与衣帽特征的交警检测方法和系统 |
Non-Patent Citations (7)
Title |
---|
DIOGO C. LUVIZON ET AL.: ""Human Pose Regression by Combining Indirect Part Detection and Contextual Information"", ARXIV, JPN7022005702, 6 October 2017 (2017-10-06), US, pages 1 - 10, ISSN: 0004937784 * |
八尾 智幸、外4名: ""テレビ視聴行動からの個人的選好獲得のための行動認識"", 電子情報通信学会技術研究報告, vol. 103, no. 585, JPN6022051963, 16 January 2004 (2004-01-16), JP, pages 65 - 70, ISSN: 0005022038 * |
古橋 竜祐、山田 啓一: ""複数フレームの見かけの姿勢に基づく歩行者の横断意図の推定"", 電気学会論文誌C, vol. 133, no. 5, JPN6022051961, 1 May 2013 (2013-05-01), JP, pages 1069 - 1075, ISSN: 0005022036 * |
指田 岳彦、外2名: ""3次元人物姿勢情報を用いた睡眠時行動認識への取り組み"", SSII2014 第20回画像センシングシンポジウム 講演論文集, JPN6022051962, 11 June 2014 (2014-06-11), JP, pages 1 - 5, ISSN: 0005022037 * |
橋本 潔、外7名: ""姿勢変動を考慮した基幹部位追跡と肩位置推定"", 画像の認識・理解シンポジウム(MIRU 2011)論文集, vol. 2011, JPN6022051964, 20 July 2011 (2011-07-20), JP, pages 668 - 674, ISSN: 0004937782 * |
虎間 亮介、外2名: ""姿勢グラフを用いた人体動作生成"", 第73回(平成23年)全国大会講演論文集(4), JPN6022051965, 2 March 2011 (2011-03-02), JP, pages 95 - 96, ISSN: 0004937783 * |
野田 悠介、外3名: ""劇場型プレゼンテーション支援システム〜Jobs〜"", 第75回(平成25年)全国大会講演論文集(4), JPN6023010795, 6 March 2013 (2013-03-06), JP, pages 203 - 204, ISSN: 0005022039 * |
Also Published As
Publication number | Publication date |
---|---|
US10913454B2 (en) | 2021-02-09 |
EP3724813A1 (en) | 2020-10-21 |
WO2019116099A1 (en) | 2019-06-20 |
US20190176820A1 (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021507434A (ja) | 歩行者の意図を予測するためのシステムおよび方法 | |
JP6757406B2 (ja) | 電極を用いた、人間運転者が自律走行車の制御を引き継ぐメカニズム | |
US11557150B2 (en) | Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera | |
KR102043588B1 (ko) | 자율 주행 차량 내에서 미디어 콘텐츠를 표시하기 위한 시스템 및 방법 | |
US10088846B2 (en) | System and method for intended passenger detection | |
JP6615840B2 (ja) | 自律走行車の個人運転好みの認識方法及びシステム | |
CN109643166B (zh) | 用于自主车辆的基于手势的控制的方法和系统 | |
JP6394735B2 (ja) | 階層型コンテキストアウェアによる手足の検出 | |
JP6310531B2 (ja) | 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法 | |
CN113302664B (zh) | 运载工具的多模态用户接口 | |
US10773732B1 (en) | Systems and methods for interfacing with an occupant | |
JP6757442B2 (ja) | 自動運転車における車線後処理 | |
JP2020531943A (ja) | 自律車両に割り当てられた乗客を認識すること | |
US20150362988A1 (en) | Systems and methods for user indication recognition | |
US11276226B2 (en) | Artificial intelligence apparatus and method for synthesizing images | |
US20180005445A1 (en) | Augmenting a Moveable Entity with a Hologram | |
KR102639605B1 (ko) | 인터페이스에서의 공간 객체들의 상대적 표현 및 명확화를 위한 시스템들 및 방법들 | |
US11210567B2 (en) | Artificial intelligence apparatus and method for recognizing object | |
US20190354178A1 (en) | Artificial intelligence device capable of being controlled according to user action and method of operating the same | |
US11790683B2 (en) | Gesture based authentication for autonomous vehicles | |
JP2016053880A (ja) | 車載システム、情報処理方法、およびコンピュータプログラム | |
US20210382560A1 (en) | Methods and System for Determining a Command of an Occupant of a Vehicle | |
JP2022132902A (ja) | 移動体の制御システム、移動体、移動体の制御方法、およびプログラム | |
US11859995B2 (en) | User preview of rideshare service vehicle surroundings | |
JP6946456B2 (ja) | 地図及び測位を必要としない自動運転車両のコーナネゴシエーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230301 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230802 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |