JP2021507434A - 歩行者の意図を予測するためのシステムおよび方法 - Google Patents

歩行者の意図を予測するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021507434A
JP2021507434A JP2020552164A JP2020552164A JP2021507434A JP 2021507434 A JP2021507434 A JP 2021507434A JP 2020552164 A JP2020552164 A JP 2020552164A JP 2020552164 A JP2020552164 A JP 2020552164A JP 2021507434 A JP2021507434 A JP 2021507434A
Authority
JP
Japan
Prior art keywords
human
images
database
image
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020552164A
Other languages
English (en)
Other versions
JP2021507434A5 (ja
Inventor
オードリー ララ ピンデウス マヤ
オードリー ララ ピンデウス マヤ
ボーズ ラウナック
ボーズ ラウナック
セース ノーテボーム レスリー
セース ノーテボーム レスリー
ジョシュア バーンスタイン アダム
ジョシュア バーンスタイン アダム
Original Assignee
ヒューマニシング オートノミー リミテッド
ヒューマニシング オートノミー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒューマニシング オートノミー リミテッド, ヒューマニシング オートノミー リミテッド filed Critical ヒューマニシング オートノミー リミテッド
Publication of JP2021507434A publication Critical patent/JP2021507434A/ja
Publication of JP2021507434A5 publication Critical patent/JP2021507434A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

人間のポーズに基づいて人間の意図を判断するためのシステム、および方法が開示される。いくつかの実施形態において、プロセッサは、ビデオフィードから複数の一連の画像を取得し、複数の一連の画像のそれぞれの画像内の人間に対応するそれぞれのキーポイントを判断する。プロセッサは、それぞれの画像に対するそれぞれのキーポイントを人間のポーズへと集約し、データベースへクエリを伝送し、ポーズを候補ポーズから意図へ変換する複数のテンプレートポーズと比較することによって、ポーズとマッチングするテンプレートを見つけ、各テンプレートは、関連する意図に対応する。プロセッサは、マッチングするテンプレートに基づいて、人間の意図、またはマッチングするテンプレートを特定できないことのいずれかを示すデータベースから応答メッセージを受信し、人間の意図を示す応答メッセージに応答して、意図を出力する。

Description

本開示は、概して、自動化、または自動運転車を誘導するコンピュータビジョンの分野に関するものであり、より具体的には、歩行者の意図を予測するようコンピュータビジョンを適用することに関する。
この出願は、2017年12月13日に提出された米国仮出願第62/598,359号の利益を主張し、その全体が参照により本明細書に組み込まれる。
歩行者の意図を判断する関連する従来のシステムは、歩行者が移動している方向、または速度を分析すること、および道路のエッジからの歩行者の距離を分析したりするなどの意図判断を実行するための粗雑で原始的な手段を用いている。従来技術のシステムは、これらの変数を静的モデルへと取り込み、ユーザの最も起こり得る意図を大まかに判断する。このアプローチは、過度に広範囲であり、明示的、または暗示的なジェスチャーの形態における人間のボディーランゲージ、および本人の周囲に対する人間の認識という他の事物の間で、アクセスに失敗する画一的なアプローチである。技術的な観点から、従来技術のシステムは、人間の一連の画像に基づく人間のポーズを理解する技術的な精巧さに欠けていることで、ジェスチャー、または認識情報をより正確な意図予測に変換することが可能ではない。
開示された実施形態は、詳細な説明、添付の特許請求の範囲、および添付の図(または図面)からより容易に明らかとなる他の利点、および特徴を有する。図の簡単な紹介を以下に示す。
本開示のいくつかの実施形態によって、意図判断サービスを用いて人間の意図が判断されるシステムの一実施形態を図示する。 本開示のいくつかの実施形態によって、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械のコンポーネントを図示するブロック図の一実施形態を図示する。 本開示のいくつかの実施形態によって、サービスをサポートするモジュールと、データベースとを含む意図判断サービスの一実施形態を図示する。 本開示のいくつかの実施形態によって、さまざまな人間活動に関連するポーズの検出のためにキーポイントを描写する。 本開示のいくつかの実施形態によって、カメラに対して人間が対面している方向に関係なく、同じポーズを検出するためにキーポイントを描写する。 本開示のいくつかの実施形態によって、ユーザが注意深いかを検出すること、および注意散漫のタイプを検出することのためにキーポイントを描写する。 本開示のいくつかの実施形態によって、地理別のジェスチャーの差の図を描写する。 本開示のいくつかの実施形態によって、いくつかの例示的なポーズを予測される意図へマッピングするためにフローダイヤグラムを描写する。 本開示のいくつかの実施形態によって、目印を参照して、その目印を参照して人間の方向を判断するために用いられるキーポイントを描写する。 本開示のいくつかの実施形態によって、人間の身体のさまざまな部分を特定するためにキーポイントクラスターを描写する。 本開示のいくつかの実施形態によって、ビデオフィードから受信された画像を意図判断へ変換するためにフローダイヤグラムを描写する。
図面(図)、および以下の説明は、例示のみによる好ましい実施形態に関する。以下の議論から、本明細書に開示される構造、および方法の代替的な実施形態は、主張されるものの原理から逸脱することなく、用いられ得る実行可能な代替として容易に認識されることとなることが留意されたい。
次に、ここでいくつかの実施形態を詳細に参照し、その例は、添付図面に図示される。実施可能な場合はいつでも、同様または類似の参照番号が図で用いられ、同様または類似の機能を示す場合があることに留意されたい。図は、例示のみを目的として、開示されたシステム(または方法)の実施形態を描写する。当業者は、本明細書に図示される構造、および方法の代替的な実施形態が、本明細書に記載される本発明の原理から逸脱することなく用いられ得ることを以下の説明から容易に認識することであろう。
(構成の概説)
開示されたシステム、方法、およびコンピュータ可読記憶媒体の一実施形態は、(例えば、ビデオから)人間の一連の画像をキーポイントの集積へと変換し、人間のポーズを判断することによって、人間の意図を判断することを含む。次に、判断されたポーズは、既知のポーズから意図へのマッピングに基づいて、人間の意図へマッピングされる。これらのポーズから意図へのマッピングは、人間の文化に応じて異なる意図を現示する可能性があるポーズを教えるさまざまなジェスチャー、および癖を説明するためにビデオがキャプチャされる場所の地理に基づいて異なる場合がある。この目的および他の目的のために、本開示のいくつかの実施形態において、プロセッサは、カメラ(例えば、ビデオフィードを提供するカメラ)、遠赤外線センサー、およびLIDARなどの視覚および/または深度センサーによって提供されるフィードから複数の一連の画像を取得する。カメラがビデオフィードを提供する状況において、カメラは自動運転車のダッシュボード上もしくはその近く、または車両上もしくは車両内の任意の場所(例えば、車両の車体構造へと組み込まれる)に取り付けることができる。プロセッサは、一連の画像の画像から画像へと変わるように、人間の頭、腕、および脚に対応するポイント、およびそれらの互いの相対位置など、複数の一連の画像のそれぞれの画像における人間に対応するそれぞれのキーポイントを判断する。
プロセッサは、それぞれの画像に対してそれぞれのキーポイントを人間のポーズへと集約する。例えば、キーポイントの分析から判断されるように、一連の画像にわたる人間の脚の移動に基づいて、プロセッサはキーポイントを画像に渡るキーポイントの移動を示すベクトルへと集約する。次に、プロセッサは、ポーズが通りを横断する意図などの所与の意図へマッピングすることが既知であるかを判断すべく、データベースへクエリを伝送し、意図候補のポーズを意図に変換する複数のテンプレートポーズと比較する。プロセッサは、データベースから、人間の意図、またはマッチングするテンプレートの場所を特定することができないことのいずれかを示す応答メッセージを受信する。人間の意図を示す応答メッセージに応答して、プロセッサは、意図に対応するコマンド(例えば、車両を停止するために、または車両のドライバーに警告するために)を出力する。
(システムの概説)
図1は、本開示のいくつかの実施形態によって、意図判断サービスを用いて人間の意図を判断するシステムの一実施形態を図示する。システム100は、車両110を含む。車両110は、自動車として描写されている一方で、車両110は、自動または半自動で人間の近くを通行するよう構成される任意の電動装置であってよい。本明細書で用いられる「自動」という用語、およびその変形例は、完全に自動化された動作、または他の機能ではなく(例えば、「半自動」)、いくつかの機能を動作するよう人間のインプットに依存する半自動動作を参照する。例えば、車両110は、任意の方向、または任意の速さで航行するよう、命令されることなく、(または少なくともいくつかの機能を実行するよう命令されている間に)人間の付近を飛行、または歩くよう構成されるドローン、または二足歩行のロボットであってよい。車両110は、他の物の中の人間の周りで安全に動作するよう構成され、人間114などの近くの人間の意図を判断し(または言われ)、人間114の意図を考慮して、安全に調和した行動をとる。
カメラ112は、車両110に動作可能に連結され、人間114の意図を判断することに用いられる。マイクロフォンなどの他のセンサー113は、車両110に動作可能に結合することができ、人間114の意図判断(例えば、人間114が「私は今、通りを横断するつもりだ」と話した場合、車両110は、マイクロフォンインプットに基づいて、車両110が衝突を回避するよう車両を減速、または停止させる安全モードを起動させることができる)を補足する。本明細書で用いられるように、「動作可能に結合される」という用語は、直接取り付け(例えば、同じ回路基板へと配線するか、または組み込まれる)、間接装着(例えば、ワイヤ、または無線通信プロトコルを通じて接続される2つのコンポーネント)などを参照する。一連の画像は、カメラ112によってキャプチャされ、ネットワーク120を介して意図判断サービス130に与えられる。ネットワーク120の技術的態様は、図2に関してさらに詳細に説明されることとなる。以下の開示において、図3などの他の図に関してさらに詳細に説明されることとなるように、意図判断サービス130は、人間114の意図を判断する。ネットワーク120、および意図判断サービス130が、車両110から離れているように描写されている一方で、ネットワーク120および/または意図判断サービス130は、全体的、または部分的に、車両110内に実装されることができる。
(コンピュータ機器の構成)
図2は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械のコンポーネントを図示するブロック図である。具体的には、図2は、本明細書で説明される任意の1つまたは複数の方法を機械に実行させるために、プログラムコード(例えば、ソフトウェア)を中に有するコンピュータシステム200の例示的な形態における機械の図式表現を図示する。プログラムコードは、1つまたは複数のプロセッサ202によって実行可能な命令224から構成されてよい。代替の実施形態において、機械は、スタンドアローンデバイスとして動作するか、または他の機械に接続(例:ネットワーク化)されてよい。ネットワーク化された展開において、機械は、サーバクライアントネットワーク環境の中のサーバマシン、またはクライアントマシンの能力で動作するか、またはピアツーピア(または分散型)ネットワーク環境のピアマシンとして動作することができる。
マシンは、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、携帯情報端末(PDA)、携帯電話、スマートフォン、webアプライアンス、ネットワークルータ、スイッチまたはブリッジ、車載用コンピュータ(例えば、車両110が動作するための車両110内に組み込まれたコンピュータ)、インフラストラクチャコンピュータ、またはその機械によって取られるアクションを特定する(一連のまたはその他の)命令224を実行することが可能な任意の機械であってよい。さらに、単一の機械のみが図示されている一方で、「機械」という用語は、また、命令124を個別に、または協働して実行する機械の任意の集合を含むものとされ、本明細書で説明される方法のいずれか1つまたは複数を実行するものである。
例示的なコンピュータシステム200は、プロセッサ202(例えば、中央処理装置(CPU)、グラフィック処理装置(GPU)、デジタル信号プロセッサ(DSP)、1つまたは複数の特定用途向け集積回路(ASICs)、1つまたは複数の無線周波数集積回路(RFICs)、またはこれらの任意の組み合わせ)と、メインメモリ204と、スタティックメモリ206とを含み、バス208を介して互いに通信するよう構成される。コンピュータシステム200は、ビジュアルディスプレイインターフェース210をさらに含んでよい。ビジュアルインターフェースは、ユーザインターフェースをスクリーン(またはディスプレイ)上に表示することを可能とするソフトウェアドライバを含んでよい。ビジュアルインターフェースは、直接的に(例えば、スクリーン上に)、または間接的に表面上またはウィンドウ上などに(例えば、ビジュアルプロジェクションユニットを介して)間接的にユーザインターフェースを表示することができる。説明を容易にするために、ビジュアルインターフェースは、スクリーンとして説明されてよい。ビジュアルインターフェース210は、タッチ可能スクリーンを含んでよく、またはタッチ可能スクリーンとインターフェースで接続してよい。また、コンピュータシステム200は、英数字入力デバイス212(例えば、キーボードまたはタッチスクリーンキーボード)と、カーソル制御デバイス214(例えば、マウス、トラックボール、ジョイスティック、人感センサー、または他のポインティング機器)と、記憶ユニット216と、信号生成デバイス218(例えば、スピーカ)と、ネットワークインターフェースデバイス220とを含み、また、バス208を介して通信するよう構成される。信号生成デバイス218は、ビジュアルインターフェース210へ出力するか、または振動発生器、およびロボットアームなどの他のデバイスへ信号を出力することができ、車両110の人間の運転者に歩行者への危険を警告(例えば、運転席を振動させることによって運転者の注意を引く、警告の表示、およびプロセッサ202は、運転者が眠ってしまったと判断した場合に、ロボットアームを用いて運転者を軽く叩くなど)する。
記憶ユニット 216は、本明細書で説明される任意の1つまたは複数の方法、または機能を具現化する命令224(例えば、ソフトウェア)が記憶される機械可読媒体222を含む。また、命令224(例えば、ソフトウェア)は、コンピュータシステム200によるその実行の間に、メインメモリ204内、またはプロセッサ202内(例えば、プロセッサのキャッシュメモリ内)に完全に、または少なくとも部分的に存在してよく、メインメモリ204、およびプロセッサ202はまた、機械可読媒体を構成する。命令224(例えば、ソフトウェア)は、ネットワークインターフェースデバイス220を介してネットワーク226を超えて伝送、または受信されることができる。
機械可読媒体222が例示的な実施形態において単一の媒体であると示されている一方で、「機械可読媒体」という用語は、命令(例えば、命令224)を記憶することができる単一の媒体、または複数の媒体(例えば、集中もしくは分散データベース、または関連するキャッシュおよびサーバ)を含むことを理解されたい。また、「機械可読媒体」という用語は、機械による実行のために命令(例えば、命令224)を記憶することが可能である任意の媒体を含むことができ、それが機械に本明細書に開示される任意の1つまたは複数の方法を実行させることを理解されたい。「機械可読媒体」という用語は、固体メモリ、光学媒体、および磁気媒体の形態におけるデータリポジトリを含むが、これに限定されない。
(意図判断サービスの構成)
上述のように、本明細書に説明されるシステム、および方法は、一般に、自動運転車(例えば、車両110のカメラ112)に搭載、または統合されるカメラの画像から判断されるように、人間のポーズに基づく人間の意図(例えば、人間114)を判断することを対象としている。画像は、意図判断サービス130のプロセッサ(例えば、プロセッサ202)によって取り込まれる。図3は、本開示のいくつかの実施形態によって、サービスをサポートするモジュール、およびデータベースを含み、意図判断サービスの一実施形態を図示する。意図判断サービス330は、意図判断サービス130を詳細に見たものであり、本明細書に記載されているものと同じ機能を有する。意図判断サービス330は、そこに描写されているさまざまなモジュール、およびデータベースを含む単一のサーバであってよく、または複数のサーバ、およびデータベース渡って分散されてよい。上述のように、意図判断サービス330は、全体的、または部分的に、車両110内に実装されてよい。分散サーバ、およびデータベースは、ネットワーク120によってアクセス可能なファーストパーティまたはサードパーティのサービス、およびデータベースであってよい。
意図判断サービス330は、キーポイント判断モジュール337を含む。カメラ112からの画像を取り込んだ後に、意図判断サービス330のプロセッサ202は、人間検出モジュール333を実行する。人間検出モジュール333は、画像の構成を分析することにおいて、コンピュータビジョンおよび/またはオブジェクト認識技術を用いることによって、人間が画像の中にいるかを判断し、画像内のエッジ、または他の特徴が、人間の既知の形態とマッチングするかを判断する。画像の中に人間がいると判断すると、意図判断サービス330のプロセッサ202は、キーポイント判断モジュール337を実行し、人間のキーポイントを判断する。この判断は、図4について説明されることとなる。図4は、本開示のいくつかの実施形態によって、さまざまな人間活動に関連するポーズの検出のためにキーポイントを描写する。人間410は、ジェスチャーを行わずに中立の位置に立っている。キーポイントは、人間410の上に重ね合わせられた円で示される。線は、ポーズの特徴を図示するために用いられ、以下でさらに詳細に説明されることとなる。
キーポイント判断モジュール337は、キーポイントが人間410のどこにあるかを判断する。キーポイント判断モジュール337は、例えば、最初に人体の輪郭を識別し、キーポイントがどこにあるかを判断し、次に輪郭、またはキーポイント/ポーズ判断の他の方法に基づいて、人体の既定のポイントをキーポイントとしてマッチングする。例えば、キーポイント判断モジュール337は、それぞれの人間の足首、膝、大腿、胴体の中心、手首、肘、肩、首、および額に適用されるキーポイントを指示する人間画像のテンプレートを参照してよい。キーポイント判断モジュール337は、人間画像を人間画像のテンプレートと比較することによって、これらのポイントそれぞれを識別することができ、テンプレートは、キーポイントが存在するそれぞれの領域に対応する特徴を指し示す。あるいは、キーポイント判断モジュール337は、コンピュータビジョンを用いて、キーポイントが適用されるそれぞれの身体部分を区別、および識別するよう構成されることができ、これらの身体部分の位置を特定し、キーポイントを適用することができる。人間420、人間430、人間440、人間450、および人間460によって描写されるように、キーポイント判断モジュール337は、人間の異なるポーズに関係なく、人間のキーポイントを識別するよう構成される。人間のポーズの挙動が検討され、図3の他のモジュールを参照して以下に説明される。
人間(例えば、人間114)が存在するそれぞれの画像に対して、どのキーポイントが用いられるかを判断した後に、意図判断サービス330のプロセッサ202は、キーポイント集約モジュール331を実行する。キーポイント集約モジュール331は、単一の画像、または一連の連続した画像に対するキーポイントを集約することができる。単一の画像に対するキーポイントを集約することが、特定の時点でのポーズの表現を作成する。一連の連続した画像のキーポイントを集約することは、キーポイントの移動のベクトルが経時的に作成され、既知の動き、またはジェスチャーへマッピングすることができる。キーポイント集約モジュール331が単一の画像に対してキーポイントを集約している場合、再び図4を参照すると、キーポイント集約モジュール331は、直線コネクタを用いてキーポイントをマッピングすることによってキーポイントを集約することができる。
キーポイント集約モジュール331は、既定のスキーマに基づいて、どのキーポイントをそのような方法で接続するかを判断する。例えば、上述のように、キーポイントモジュール331は、それぞれのキーポイントが特定の身体部分(例えば、足首、膝、大腿など)に対応することが分かっている。キーポイント集約モジュール331は、既定のスキーマにアクセスし、足首のキーポイントが膝のキーポイントに接続され、大腿のキーポイントに接続されることなどを判断する。これらのキーポイントの直線コネクタは、図4に描写されているそれぞれの人間410、人間420、人間430、人間440、人間450、および人間460について表現されている。記憶すること、または直線コネクタを生成することではなく、またはそれに加えて、キーポイント集約モジュール331は、既定のスキーマのそれぞれのキーポイント間の距離を記憶することができる。後で説明されるように、これらの線の相対的な位置、またはキーポイント間の距離は、ユーザのポーズを判断することに用いられる。例えば、人間450の手と頭との間の距離は、人間410の手と頭との間の距離よりもはるかに短く、これは、人間450に対して、人間450が電話を頭の方へ持っている可能性が高いと判断することに用いられることになる。
キーポイント集約モジュール331が一連の画像のキーポイントを集約している場合、キーポイント集約モジュール331は、個々の画像のそれぞれに対してキーポイントを集約し、次に、それぞれの画像から一連の次のそれぞれの画像へのそれぞれのキーポイントに対する運動ベクトルを計算する。例えば、最初の画像が人間410を含み、次の画像が人間410を含み、人間410と同じ人間であるが異なるポーズである状況において、キーポイント集約モジュール331は、運動ベクトルを計算し、2つの画像間の人間の左足と膝との動きの変換を描写する。この運動ベクトルは、左足のキーポイントが以前あった場所とそれが移動した場所との間の距離を示す、人間430の下部の線で図示されている。
また、キーポイント集約モジュール331は、画像間のキーポイントの移動に基づき、且つ画像の中の他のオブジェクトを参照し、キーポイントの位置に基づいて、ユーザが移動、または対面している方向を示すことができる。図5は、本開示のいくつかの実施形態によって、カメラに対して人間が対面している方向に関係なく、同じポーズを検出するためのキーポイントを描写する。キーポイント集約モジュール331は、二次元空間において画像を見る場合に、キーポイントの近さに基づいて、人間が対面している方向がどこかを判断することができる。例えば、人間114が図5に描写され、位置510、位置520、位置530、位置540、および位置550などのさまざまな回転位置にある。画像540において、画像510と比較すると、肩と首とのキーポイントが互いに近くなっている。キーポイント間のこれらの相対距離、および画像間におけるキーポイント間のこれらの相対距離の変化は、キーポイント集約モジュール331によって分析され、三次元空間において人間114の回転を判断する。キーポイント集約モジュール331は、回転を判断することにおいて、人間114が回転してくる方向を検出することが可能であり、画像の中の他のオブジェクト(例えば、道路、縁石)を理解することと合わせて、この情報とキーポイントの集約を回転に基づいて、意図判断モジュール332へ送り、ユーザの意図を判断することが可能である。
キーポイントを集約した後に、意図判断サービス330のプロセッサ202は、意図判断モジュール332を実行し、集約されたキーポイントを任意に、追加情報と共にフィードする。意図判断モジュール332は、集約されたキーポイントを潜在的な追加の情報と共に用いて、人間114の意図を判断する。いくつかの実施形態において、意図判断モジュール332は、集約されたキーポイントをポーズとして分類する。本明細書で用いられるポーズは、所与の時点での静止した人間、またはジェスチャーなどの人間の動きであってよい。したがって、分類されたポーズは、静止したポーズの集積、または上述のように、画像から画像へのキーポイント間の移動を説明するベクトルであってよい。
意図判断モジュール332は、ポーズテンプレートデータベース334にクエリを行い、人間114の意図を判断する。ポーズテンプレートデータベース334は、さまざまなキーポイントの集約のエントリと、集約間の運動ベクトルとを含む。これらのエントリは、対応するポーズへマッピングされる。例えば、図4に戻って参照すると、テンプレートデータベース334は、人間450に対するキーポイントの集約とマッチングするキーポイントの集約の記録を含んでよく、「電話中」に対応するポーズを指す場合がある。任意の数の対応するポーズは、起立している、座っている、自転車に乗っている、走っている、電話をしている、別の人間と手をつないでいるなど、キーポイントの集約、および運動ベクトルへマッピングすることができる。さらに、キーポイントの集約は、1つよりも多くのレコードとマッチングする場合がある。例えば、キーポイントの集約は、走っていることに対応するテンプレート、および電話をしていることに対応するテンプレートの両方とマッチングする場合がある。
ポーズテンプレートデータベース334は、キーポイントの集約を人間114の動き、または姿勢を凌ぐ人間114の特徴へマッピングし、また、心の状態を含むことができる。図6は、本開示のいくつかの実施形態によって、ユーザが注意深いかを検出すること、および注意散漫のタイプを検出することのためにキーポイントを描写する。ポーズテンプレートデータベース334は、例えば、人間114の顔に対するキーポイントの集約をユーザが注意散漫であるか、または注意を払っているかでマッピングし、人間が注意散漫である場合は、ポーズテンプレートデータベース334が、キーポイントの集約を注意散漫のため追加してマッピングすることができる。例えば、ポーズテンプレートデータベース334は、キーポイントの集約を注意深い人間114へマッピングするレコード610を含んでよい。また、ポーズテンプレート334は、レコード620と、レコード630と、レコード640とを含み、それぞれが注意散漫である人間へマッピングし、横を見ている、電話をしている、下方を向いていることから注意散漫である人間へそれぞれマッピングすることができる。クエリに応答してポーズテンプレート334からマッチングするテンプレートを受け取ると、意図判断モジュール332は、人間114のポーズが1つまたは複数のポーズ、および心の状態とマッチングすると判断することができる。
ポーズが作成された場所に応じて、同じポーズが2つの異なるものを意味し得る状況が存在する。例えば、人間114がヨーロッパにおいて彼の手を挙げた場合、通常の文化的応答は、これを「停止する」合図として理解する。このジェスチャーが通常「継続する」ことを意味する国において、人間114が手を挙げた場合、意図判断モジュール332が、キーポイントとそのような意味との間の対応を示すポーズテンプレートデータベース334のレコードに基づいて、これは、停止するジェスチャーであると判断することは誤りであるということになる。したがって、いくつかの実施形態において、ポーズテンプレートデータベース334は、単にポーズが何であるかを詳細に示すだけであり、例えば、人間の手が振られていること、および別のデータベースである文化的ポーズ意図データベース336が、人間の地理的な場所に応じて、そのポーズを人間の願望、または意図に変換する。この変換は、図7について説明されることとなり、本開示のいくつかの実施形態によって、ジェスチャーの差ベースの地理の図を描写する。
上述のシステム、および方法を用いて、意図判断モジュール332は、ポーズテンプレートデータベース334におけるエントリに基づいて、人間710は、彼の手を挙げていると判断し、人間720は、彼の手を水平に保持していると判断する。この判断を行った後に、意図判断モジュール332は、文化的ポーズ意図データベース336のエントリに対して、判断された人間710、および人間720のポーズを参照する。文化的ポーズ意図データベース336は、ポーズが判断され、取得された画像からの場所に基づいて、ポーズを意図にマッピングする。例えば、人間710の画像は、ヨーロッパにおいて取得されたが、人間720の画像は、日本において取得された。文化的ポーズ意図データベース336のそれぞれのエントリは、ポーズを画像が取得された場所において対応する文化的意味へマッピングする。したがって、人間710のポーズの意味は、ヨーロッパにおける場所に対応するエントリに基づいて判断されることとなるのに対して、人間720のポーズの意味は、日本における場所に対応するエントリに基づいて判断されることとなる。いくつかの実施形態において、文化的ポーズ意図データベース336は、いくつかのデータベース間で分散され、それぞれのデータベースは、異なる場所に対応する。適切なデータベースは、画像が取得された地理的な場所に基づいて参照することができる。車両110内で意図判断サービス330が部分的、または完全にインストールされている状況において、プロセッサ202は、車両110が新しい地理的位置に入ったこと(例えば、車両110が境界を越えて、異なる都市、州、国、公国などへと入った場合)を検出することに応答して、文化的ポーズ意図データベース336から自動的にデータをダウンロードすることができる。これは、外部ネットワーク(例えば、ネットワーク120)を介して文化的ポーズ意図データを要求することにおいて待ち時間を回避することによって、システムの効率を改善する。
人間114のポーズを判断した後に、ポーズの文化的意味、および人間114が上述の方法において注意散漫であるかなどの他の情報を任意に判断し、意図判断モジュール332は、人間114の意図を予測することが可能である。図8は、本開示のいくつかの実施形態によって、いくつかの例示的なポーズを予測される意図へマッピングするためのフローダイヤグラムを描写する。実際面では、図8に示されるデータフローは、人間が人間検出モジュール333によって検出される毎に始める必要はない。例えば、人間が人間検出モジュール333によって検出されたが、人間が車両110から遠いか、または車両110が進行している経路に沿って遠いと判断された場合は、人間の意図は、車両110の進行には重要ではなく、結果として、判断する必要はない。したがって、いくつかの実施形態において、意図判断サービス330のプロセッサ202は、人間検出モジュール333が人間114を検出した場合に、人間114の活動は、人間114の安全性のために、車両110が経路に沿ってその進行を変更する必要が出てくることになるか、影響を与え得るかの初期予測を判断することができる。
意図判断サービス330が、人間114の活動が車両110の進行に重要であり得るという初期予測を判断する場合、上述のように、意図判断モジュール332は、人間114のポーズ、およびいくつかの実施形態においてその対応する意味を判断する。したがって、データフロー810に示されるように、意図判断モジュール332は、人間114が左腕を挙げていると判断する。意図判断モジュール332は、そこから人間114の予測された意図を判断する。いくつかの実施形態において、ポーズテンプレートデータベース334は、上述のように、ポーズとマッチングする意図を示し、したがって、意図判断モジュール332は、そこから、データフロー810において示されるように、人間が横断することを待っているなどの人間114の意図を判断する。
ポーズテンプレートデータベース334におけるポーズ意図マッピングは、追加のソースからの情報によって補足されてよい。例えば、意図判断モジュール332は、ディープラーニングを用いて、ポーズ(および人間114から道路までの距離などの潜在的な追加の情報)を人間114の意図に変換することができる。例えば、ディープラーニングフレームワークをトレーニングする分類された歩行者の意図(横断している、および横断していないなど)のデータセットが与えられた場合、意図判断モジュール332は、人間114が横断するつもりか、または横断しないつもりでいるか、またどんな信頼を持っているかをリアルタイムで取得された一連の画像の次の画像からのデータを予測することが可能である。
さらに、意図判断モジュール332は、人間114の動き、ボディーランゲージ、社会基盤との相互作用、活動、および行動における統計分析を実行し、人間114の以前の行動、人間114の分類をタイプ別(例えば、1人の歩行者、グループ、サイクリスト、身体障害者、子供など)、歩行者の速度、相互作用の背景(例えば、横断歩道、通りの中央、都市、田舎など)などの異なる入力を与えることで、人間114の将来の行動を判断することができる。さらに、意図判断モジュール332は、心理的行動モデルを適用し、意図予測を改善することができる。心理的行動モデルは、歩行者の動き、ボディーランゲージ、および行動のコンピュータビジョンから、歩行者の意図の新規な行動に関する心理学的モデルを用いて、補完または拡張される、上述の実施形態などのボトムアップ、データ駆動のアプローチの能力に関連する。さらにまた、意図判断モジュール332は、人間114の会話を分析するマイクなどのカメラ112以外のセンサー(例えば、センサー113)を用いて、その予測を改善することができる。これらの改善を合わせることで、データフロー820、データフロー830、およびデータフロー840は、意図判断モジュール332によって判断されたとして、意図ポーズから意図への変換のさらなる例を示す。
車両110の危険ゾーンへ近いことは、人間114に対する意図の判断をトリガーするかにおける唯一の要因ではない。図9は、本開示のいくつかの実施形態によって、目印を参照することで、その目印を参照して人間の方向を判断することに用いられるキーポイントを描写する。画像910において、人間114は、上述のシステム、および方法を用いて判断されたように、縁石に背を向けている。これに基づいて、意図判断モジュール332は、人間114が道路に近づく可能性が低いと判断することができ、したがって、車両110は、人間114の意図に基づいてその経路を変更する必要がない。しかしながら、画像920において、人間114は縁石の方に向いており、画像930においては、人間114は縁石に対面している。これらの活動に基づいて、画像判断モジュール332は、人間114の意図が道路に入る場合は、車両110が人間114に対して危険を生じさせないように命令されることを確実とするよう、人間114の意図が判断されなければならないと判断させることができる。
上述の説明はマクロレベルでキーポイントを分析している一方で、キーポイント判断モジュール337は、人間114の意図を判断する場合に、意図判断モジュール332に対してよりロバストな情報を提供するようキーポイントを粒状に判断し、処理することができる。図10は、本開示のいくつかの実施形態によって、人間の身体のさまざまな部分を特定するためにキーポイントクラスターを描写する。画像1010は、人間の顔の例示的なキーポイントを図示している。より多くの数のキーポイントを使用することによって、意図判断モジュールは、意図判断モジュール332によって人間114の意図を判断することが可能となるより多くの情報を提供する、人間114の感情状態(例えば、しかめている、うれしいなど)を判断することが可能である。同様に、意図判断モジュール332は、画像1020に図示されるような腕、画像1030に図示されるような脚、および画像1040に図示されるような身体において、より多くのキーポイントを判断することによって、より正確なジェスチャー、および類似物を判断することが可能である。
図11は、本開示のいくつかの実施形態によって、ビデオフィードから受信された画像を意図判断へ変換するためにフローダイヤグラムを描写する。プロセス1100は、意図判断サービス330のプロセッサ202が、ビデオフィードから(例えば、上述の図1を参照して説明したように、ネットワーク120を経由してカメラ112から)複数の一連の画像を取得すること1102で始まる。画像は、所定の時間の長さ、または現在の時間に対して所定の数のフレームに対して取得することができる。人間が(例えば、人間検出モジュール333によって)検出されない画像は、破棄されてよい。次に、意図判断サービス330のプロセッサ202は、(例えば、図3を参照し、上述したように、キーポイント判断モジュール337を実行することによって)複数の一連の画像のそれぞれの画像における人間に対応するそれぞれのキーポイントを判断する1104。
次に、意図判断サービス330のプロセッサ202は、(例えば、図3について上述したように、キーポイント集約モジュール331を実行することによって)それぞれの画像に対するそれぞれのキーポイントを人間のポーズへと集約する1106。画像の中に複数の人間がいる場合は、それぞれの人間(または上述のように、それぞれの人間の誰かの意図が車両110の動作に影響を与える場合がある)に対するキーポイントが集約され、それぞれに対してポーズが判断される。次に、意図判断サービス330のプロセッサ202は、例えば、意図判断モジュール332を実行させ、クエリをポーズテンプレートデータベース334へ伝送し、ポーズを候補ポーズから意図へ変換する複数のテンプレートポーズと比較することによって、ポーズを意図テンプレートと比較する1108。次に、意図判断モジュール332は、マッチングするテンプレートが存在するかを判断する1110。例えば、意図判断モジュール332は、人間の意図、またはマッチングするテンプレートを特定することができないことのいずれかを示す応答メッセージをデータベースから受信する。応答メッセージが人間の意図を示す場合は、意図判断モジュール332は、マッチングするテンプレートがあったと判断し、判断された意図に対応するコマンドを出力(例えば、人間114の動きを回避するために旋回する、人間114が横断を可能とするよう減速するなど)する1112。
応答メッセージがマッチングするテンプレートを特定することができないことを示す場合は、意図判断サービス330の意図プロセッサ202は、車両110に安全モードに入るようコマンドする1114。例えば、意図判断サービス330は、安全モード動作のデータベース335を含むことができる。上述のように、意図判断サービス330は、一連の画像から、人間の位置、ならびに画像内の他の障害物および特徴を判断することができる。安全モード動作データベース335は、検出された障害物および特徴、さらにそれらの障害物および特徴、且つ車両110から人間の相対距離に基づいて、人間114の意図の知識がない場合に取るべき安全動作を示す。例えば、安全動作モードに入った場合に、車両に、旋回するか、加速するか、移動の停止をするか、オペレータへ制御の提供をするか、ホーンを鳴動させるか、または音を通じてメッセージの伝達するのか少なくとも1つを実行するようコマンドすることを含む。カメラ112の視野内で検出された物体に基づいて判断されるように、安全動作モードは、人間114の意図を判断するか、または人間114がカメラ112の視野を離れるか、または危険区域を離れるまで、入っていることができる。
(追加の構成を考慮)
本明細書を通じて、複数のインスタンスは、単一のインスタンスとして説明されるコンポーネント、オペレーション、または構造を実装することができる。1つまたは複数の方法の個々の動作が別個の動作として図示、および説明されているが、個々の動作の1つまたは複数を同時に実行することができ、動作を図示されている順序で実行する必要はない。同様に、単一のコンポーネントとして提示される構造、および機能は、別個のコンポーネントとして実装されてよい。これら、および他の変形例、修正、追加、および改善は、本明細書の主題の範囲内にある。
本明細書では、特定の実施形態は、論理もしくはいくつかのコンポーネント、またはモジュールもしくは機構を含むものとして説明される。モジュールは、ソフトウェアモジュール(例えば、機械可読媒体上、または伝送信号内で実施されるコード)、またはハードウェアモジュールのいずれかを構成することができる。ハードウェアモジュールは、特定の動作で実行することが可能な有形のユニットであり、特定の方法で構成、または配置することができる。例示的な実施形態において、1つまたは複数のコンピュータシステム(例えば、スタンドアローン、クライアント、またはサーバコンピュータシステム)、またはコンピュータシステムの1つまたは複数のハードウェアモジュール(例えば、プロセッサ、またはプロセッサのグループ)は、本明細書に記載される特定の動作を実行するよう動作するハードウェアモジュールのように、ソフトウェア(例えば、アプリケーション、またはアプリケーションの一部)によって構成されてよい。
さまざまな実施形態において、ハードウェアモジュールは、機械的、または電子的に実装されてよい。例えば、ハードウェアモジュールは、永続的に構成される専用の回路、または論理(例えば、フィールドプログラマブルゲートアレイ(FPGA)、または特定用途向け集積回路(ASIC)などの特定用途プロセッサとして、特定の動作を実行する)を備えてよい。また、ハードウェアモジュールは、ソフトウェアによって一時的に構成されるプログラム可能な論理、または回路(例えば、汎用プロセッサ、または他のプログラム可能なプロセッサ内に包含されるもの)を含むことができ、特定の動作を実行する。専用の永続的に構成される回路、または一時的に構成される回路(例えば、ソフトウェアによって構成される)において、ハードウェアモジュールを機械的に実装する判断は、コスト、および時間の考慮によって駆動されることができると認識されることとなる。
したがって、「ハードウェアモジュール」という用語は、有形のエンティティを包含することが理解されるべきであり、そのエンティティは、つまり物理的に構築され、永続的に構成される(例:ハードワイヤ化)エンティティ、または一時的に構成(例:プログラム化)され、特定の方法で動作する、または本明細書で説明する特定の動作を実行する。本明細書で用いられるように、「ハードウェア実装モジュール」は、ハードウェアモジュールを参照する。ハードウェアモジュールが一時的に構成(例えば、プログラム化)される実施形態を考慮すると、それぞれのハードウェアモジュールは、時間内に、任意の1つのインスタンスで構成、またはインスタンス化される必要はない。例えば、ハードウェアモジュールがソフトウェアを用いて構成される汎用プロセッサを含む場合、汎用プロセッサは、それぞれ異なるハードウェアモジュールとして、異なる時間で構成されてよい。したがって、ソフトウェアは、例えば、ある瞬間に特定のハードウェアモジュールを構成し、別の瞬間に異なるハードウェアモジュールを構成するようプロセッサを構成することができる。
ハードウェアモジュールは、情報を他のハードウェアモジュールへ提供したり、情報を他のハードウェアモジュールから受信したりすることが可能である。したがって、説明されるハードウェアモジュールは、通信可能に結合されているとみなすことができる。複数のそのようなハードウェアモジュールが同時に存在する場合、ハードウェアモジュールを接続する信号伝送を通じて(例えば、適切な回路、およびバスを超えて)通信を実現することができる。複数のハードウェアモジュールが異なる時間に構成、またはインスタンス化される実施形態において、そのようなハードウェアモジュール間の通信は、例えば、複数のハードウェアモジュールがアクセスするメモリ構造の中の情報の格納、および検索を通じて達成することができる。例えば、1つのハードウェアモジュールは、動作を実行し、その動作の出力を、それが通信可能に結合されているメモリデバイスの中に格納することができる。次に、さらなるハードウェアモジュールが、その後で、メモリデバイスにアクセスし、格納された出力を検索、および処理することができる。また、ハードウェアモジュールは、入力デバイスとの、または出力デバイスとの通信を開始することができ、リソース(例えば、情報の収集)を操作することが可能である。
本明細書で説明される例示的な方法のさまざまな動作は、関連する動作を実行するよう一時的に(例えば、ソフトウェアによって)、または永続的に構成される1つまたは複数のプロセッサによって少なくとも部分的に実行することができる。一時的に、または永続的に構成されているかをそのようなプロセッサは、1つまたは複数の操作もしくは機能を実行するよう動作するプロセッサ実装モジュールを構成することができる。本明細書で参照されるモジュールは、いくつかの例示的な実施形態において、プロセッサ実装モジュールを含むことができる。
同様に、本明細書で説明される方法は、少なくとも部分的にプロセッサに実装されてよい。例えば、方法の動作の少なくともいくつかは、1つまたは複数のプロセッサもしくはプロセッサ実装ハードウェアモジュールによって実行することができる。特定の動作性能は、1つまたは複数のプロセッサの間で分散され、単一の機械内に存在するだけでなく、いくつかの機械に渡って配置されてよい。いくつかの例示的な実施形態において、単一のプロセッサ、または複数のプロセッサは、単一の場所(例えば、家庭環境内に、オフィス環境内に、またはサーバーファームとして)配置することができ、一方、他の実施形態おいて、プロセッサは、いくつかの場所を渡って分散することができる。
また、1つまたは複数のプロセッサは、「クラウドコンピューティング」環境において、または「サービスとしてのソフトウェア」(SaaS)として関連する動作性能をサポートするよう動作することができる。例えば、少なくともいくつかの動作は、(プロセッサを含む機械の例として)コンピュータのグループによって実行されてよく、これらの動作は、ネットワーク(例えば、インターネット)、および1つまたは複数の適切なインターフェース(例えば、アプリケーションプログラミングインターフェース(APIs))を介してアクセス可能である。
特定の動作性能は、1つまたは複数のプロセッサの間で分散され、単一の機械内に存在するだけでなく、いくつかの機械に渡って配置されてよい。いくつかの例示的な実施形態において、1つまたは複数のプロセッサ、またはプロセッサ実装モジュールは、単一の地理的場所(例えば、家庭環境内、オフィス環境内、またはサーバーファーム内)に配置することができる。他の例示的な実施形態において、1つまたは複数のプロセッサ、またはプロセッサ実装モジュールは、いくつかの地理的場所に渡って分散されることができる。
本明細書の一部は、機械メモリ(例えば、コンピュータメモリ)内のビット、またはバイナリデジタル信号として格納されたデータにおける動作のアルゴリズム、または記号表現の観点から提示される。これらのアルゴリズム、または記号表現は、データ処理分野における当業者が彼らの仕事の内容を他の当業者に伝えるよう用いる技術の例である。本明細書で用いられるように、「アルゴリズム」は、所望の結果へ導く首尾一貫した一連の動作、または同様の処理である。この文脈において、アルゴリズム、および動作は、物理量の物理的操作を伴う。通常、必ずしもそういうわけではないが、そのような量は、機械によって、格納すること、アクセスすること、変換すること、結合すること、比較すること、またはさもなければ操作することが可能である電気的、磁気的、または光学的な信号の形態を取ることができる。主に共通使用の理由のために、「データ」、「コンテンツ」、「ビット」、「値」、「要素」、「記号」、「文字」、「用語」、「数」、または「数字」などの単語を用いてそのような信号を参照すると便利な場合がある。しかしながら、これらの単語は、単に便利なラベルに過ぎなく、且つ適切な物理量に関連付けられている。
特に明記しない限り、「処理」、「コンピューティング」、「計算」、「判断」、「提示」、または「表示」などの単語を用いる本明細書での説明は、1つまたは複数のメモリ内(例えば、揮発性メモリ、不揮発性メモリ、またはそれらの組み合わせ)、レジスタ内、または情報を受信、格納、伝送、または表示する他の機械コンポーネント内に物理(電子、磁気、または光学)量として表されるデータを操作、または変換する機械(例えば、コンピュータ)のアクション、またはプロセスを参照することができる。
本明細書に用いられるように、「一実施形態」、または「実施形態」への参照は、その実施形態に関連して記載される特定の要素、特徴、構造、または特性が少なくとも1つの実施形態において含まれることを意味する。本明細書におけるさまざまな場所において、「一実施形態において」という表現の記載は、必ずしもすべてが同じ実施形態を参照しているわけではない。
いくつかの実施形態は、「結合された」、および「接続された」という表現をそれらの派生語と共に用いて説明することができる。これらの用語は、互いに同義語として意図されていないことを理解されたい。例えば、いくつかの実施形態は、2つまたはそれより多くの要素が互いに直接物理的、または電気的に接触していることを示すよう「接続した」という用語を用いて説明することができる。別の例において、いくつかの実施形態は、2つまたはそれより多くの要素が直接物理的、または電気的接触にあることを示すよう「結合した」という用語を用いて説明することができる。しかしながら、また、「結合した」という用語は、2つまたはそれより多くの要素が互いに直接接触していないが、依然として互いに協働または相互作用することを意味してよい。実施形態は、本文脈において限定されない。
本明細書で用いられる場合、「備える」、「備えている」、「含む」、「含んでいる」、「有する」、「有している」、またはそれらの任意の他の変形例は、非排他的な包含を含むことが意図されている。例えば、要素のリストを備えるプロセス、方法、物品、または装置は、必ずしもそれらの要素のみに限定されず、明示的に記載されていない、またはそのようなプロセス、方法、物品、または装置に内在する他の要素を含んでよい。さらに、それとは反対に明示的に述べられていない限り、「または」は、「包括的なまたは」を参照するものであり、「排他的なまたは」を参照しない。例えば、条件AまたはBは、以下のいずれか1つによって満たされる。Aは真(または存在する)でBは偽(または存在しない)であり、Aは偽(または存在しない)で、Bは真(または存在する)であり、さらにAおよびBの両方が真(または存在する)である。
さらに、「a」または「an」の使用は、本明細書における実施形態の要素、および構成要素を説明するよう用いられる。これは、単に便宜上、および本発明の一般的な意味を付与するために行われているに過ぎない。本説明は、1つまたは少なくとも1つを含むものであり、また、そうでないことを意味することが明らかでない限り、単数形が複数形を含むように読まれるべきである。
本開示を読むことで、当業者は、本明細書に開示された原理を通じて、人間の意図を判断するためのシステム、およびプロセスに対するさらなる追加的な代替の構造、および機能的なデザインを理解することになるであろう。したがって、特定の実施形態および用途が図示され、且つ説明されてきた一方で、開示された実施形態は、本明細書に開示された正確な構造、および構成要素に限定されないことを理解されたい。さまざまな修正例、変更例、および変形例は、当業者にとって明らかとなることとなり、添付の特許請求の範囲において定義される趣旨および範囲から逸脱することなく、明細書に開示された方法、および装置の配置、動作、および詳細を作ることができる。

Claims (18)

  1. ビデオフィードから複数の一連の画像を取得するステップと、
    前記複数の一連の画像のそれぞれの画像において、人間に対応するそれぞれのキーポイントを判断するステップと、
    それぞれの画像に対する前記それぞれのキーポイントを前記人間のポーズへと集約するステップと、
    前記ポーズを候補のポーズから意図へ変換する複数のテンプレートポーズと比較するためにクエリをデータベースへ伝送するステップと、
    前記人間の意図、またはマッチングするテンプレートを特定することができないことのいずれかを示すデータベースから応答メッセージを受信するステップと、
    前記人間の前記意図を示す前記応答メッセージに応答して、前記意図に対応する命令を出力するステップと
    を備える方法。
  2. 前記マッチングするテンプレートを特定することができないことを示す前記応答メッセージに応答して、
    前記ビデオフィードをキャプチャしている車両の通常動作を停止させ、安全動作モードに入るようコマンドを出力するステップと、
    前記人間が前記ビデオの画像内にもはやいなくなった場合を判断するために前記ビデオフィードを監視するステップと、
    前記人間が前記ビデオの前記画像内にもはやいなくなったと判断したことに応答して、前記安全動作モードの動作を停止させ、前記車両の通常動作を再開させるコマンドを出力するステップと
    をさらに備える、請求項1に記載の方法。
  3. 前記安全動作モードは、複数のモードのいずれかであり、前記コマンドは、前記複数のモードの特定の1つの表示を含み、前記複数のモードの前記特定の1つは、前記車両に対する前記人間、および他の障害物の位置に基づいて選択される、請求項2に記載の方法。
  4. 前記安全動作モードは、入った場合に、前記車両が旋回、加速、移動の停止、オペレータへの制御の提供、視覚的、聴覚的、またはマルチメディアメッセージの出力、およびホーンの鳴動の少なくとも1つを実行するようコマンドすることを含む、請求項2に記載の方法。
  5. 前記クエリを前記データベースへ伝送するステップは、
    前記ビデオフィードをキャプチャしている車両の地理的位置を判断するステップと、
    複数の候補データベースのインデックスにアクセスするステップであって、前記インデックスは、それぞれのデータベース位置およびそれぞれのアドレスへの前記複数の候補データベースのそれぞれの候補データベースに対応するエントリを含み、
    どの候補データベースをクエリするか判断するよう前記地理的位置を前記エントリに対して比較するステップであって、前記複数の候補データベースのマッチングする候補データベースは、前記地理的位置とマッチングする前記マッチングする候補データベースの前記それぞれのデータベース位置に基づいて選択され、
    前記マッチングする候補データベースを、前記クエリが伝送される前記データベースとして割り当てるステップと
    をさらに含む、請求項1に記載の方法。
  6. 前記複数の一連の画像が人間を含むかを判断するステップと、
    前記複数の一連の画像が前記人間を含むという判断に応答して、前記複数の一連の画像のそれぞれの画像における前記人間に対応するそれぞれのキーポイントの前記判断を実行するステップと、
    前記複数の一連の画像が前記人間を含まないという判断に応答して、前記複数の一連の画像を破棄し、前記ビデオフィードから次の複数の一連の画像を取得するステップと
    をさらに含む、請求項1の方法。
  7. 前記ビデオフィードから前記複数の一連の画像を取得するステップは、
    現在の時間より前の時間の長さ、または現在キャプチャされた画像の前の一連の画像の量のいずれかを表す量を判断するステップと、
    現在時刻、または現在キャプチャされた画像のいずれかに対する前記ビデオフィードからの前記一連の画像の量を取得するステップと
    をさらに含む、請求項1に記載の方法。
  8. それぞれの画像に対する前記それぞれのキーポイントを前記人間の前記ポーズへと集約するステップは、
    キーポイントの複数のセットを判断するステップであって、キーポイントのそれぞれのセットは、前記人間の個別の身体部分に対応し、
    キーポイントのそれぞれのセットが他のキーポイントのセットに対してどのように移動するかに基づいて、キーポイントの相対的な移動のベクトルを判断するステップと、
    前記ポーズに、前記キーポイントの相対的な移動のベクトルを付け加えるステップと
    を含む、請求項1に記載の方法。
  9. 前記意図は、機械学習、統計分析、および心理的行動モデルの少なくとも1つを前記複数の一連の画像のそれぞれの画像へ適用して用いて判断される、請求項1に記載の方法。
  10. エンコードされた命令を有するコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって。クライアントデバイスのプロセッサによって実行されると、前記プロセッサに、
    ビデオフィードから複数の一連の画像を取得させ、
    前記複数の一連の画像のそれぞれの画像において、人間に対応するそれぞれのキーポイントを判断させ、
    それぞれの画像に対する前記それぞれのキーポイントを前記人間のポーズへと集約させ、
    前記ポーズとマッチングするテンプレートを特定するようクエリをデータベースへ伝送させ、前記ポーズを候補のポーズから意図へ変換する複数のテンプレートポーズと比較することによって、それぞれのテンプレートが関連する意図に対応させ、
    マッチングするテンプレートに基づいて、前記人間の意図、またはマッチングするテンプレートを特定できないことのいずれかを示す前記データベースから応答メッセージを受信させ、および
    前記人間の前記意図を示す前記応答メッセージに応答して、前記意図を出力させる、コンピュータプログラム製品。
  11. 前記命令は、さらに、前記プロセッサに、前記マッチングするテンプレートを特定することができないことを示す前記応答メッセージに応答して、
    前記ビデオフィードをキャプチャしている車両の通常動作を停止させ、安全動作モードに入るようコマンドを出力させ、
    前記人間が前記ビデオの画像内にもはやいなくなった場合を判断するために前記ビデオフィードを監視させ、および
    前記人間が前記ビデオの前記画像内にもはやいなくなったと判断したことに応答して、前記安全動作モードの動作を停止させ、前記車両の通常動作を再開させるコマンドの出力をさせる、請求項10に記載のコンピュータプログラム製品。
  12. 前記安全動作モードは、複数のモードのいずれかであり、前記コマンドは、前記複数のモードの特定の1つの表示を含み、前記複数のモードの前記特定の1つは、前記車両に対する前記人間、および他の障害物の位置に基づいて選択される、
    請求項11に記載のコンピュータプログラム製品。
  13. 前記安全動作モードは、入った場合に、前記車両が旋回、加速、移動の停止、オペレータへの制御の提供、およびホーンの鳴動の少なくとも1つを実行するようコマンドすることを含む、請求項11に記載のコンピュータプログラム製品。
  14. 前記命令は、さらに、前記プロセッサに、前記クエリを前記データベースへ伝送する場合に、
    前記ビデオフィードをキャプチャしている車両の地理的位置を判断させ、
    複数の候補データベースのインデックスにアクセスさせ、前記インデックスは、それぞれのデータベース位置およびそれぞれのアドレスへの前記複数の候補データベースのそれぞれの候補データベースに対応するエントリを含み、
    どの候補データベースをクエリするか判断するよう前記地理的位置を前記エントリに対して比較させ、前記複数の候補データベースのマッチングする候補データベースは、前記地理的位置とマッチングする前記マッチングする候補データベースの前記それぞれのデータベース位置に基づいて選択され、および
    前記マッチングする候補データベースを、前記クエリが伝送される前記データベースとして割り当てをさせる、請求項10に記載のコンピュータプログラム製品。
  15. 前記命令は、さらに、前記プロセッサに、
    前記複数の一連の画像が人間を含むかを判断させ、
    前記複数の一連の画像が前記人間を含むという判断に応答して、前記複数の一連の画像のそれぞれの画像における前記人間に対応するそれぞれのキーポイントの前記判断を実行させ、および
    前記複数の一連の画像が前記人間を含まないという判断に応答して、前記複数の一連の画像を破棄させ、前記ビデオフィードから次の複数の一連の画像の取得をさせる、請求項10に記載のコンピュータプログラム製品。
  16. 前記命令は、さらに、前記プロセッサに、前記ビデオフィードから前記複数の一連の画像を取得した場合に、
    現在の時間より前の時間の長さ、または現在キャプチャされた画像の前の一連の画像の量のいずれかを表す量を判断させ、および
    現在の時間、または現在キャプチャされた画像のいずれかに対する前記ビデオフィードからの前記一連の画像の量の取得をさせる、請求項15に記載のコンピュータプログラム製品。
  17. 前記命令は、さらに、前記プロセッサに、それぞれの画像に対する前記それぞれのキーポイントを前記人間の前記ポーズへと集約させた場合に、
    キーポイントの複数のセットを判断させ、キーポイントのそれぞれのセットは、前記人間の個別の身体部分に対応し、
    キーポイントのそれぞれのセットが他のキーポイントのセットに対してどのように移動するかに基づいて、キーポイントの相対的な移動のベクトルを判断させ、前記ポーズにて、前記キーポイントの相対的な移動のベクトルを付け加えさせる、請求項10に記載のコンピュータプログラム製品。
  18. 前記意図は、機械学習、統計分析、および心理的行動モデルの少なくとも1つを前記複数の一連の画像のそれぞれの画像へ適用して用いて判断される、請求項10に記載のコンピュータプログラム製品。
JP2020552164A 2017-12-13 2018-12-13 歩行者の意図を予測するためのシステムおよび方法 Pending JP2021507434A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762598359P 2017-12-13 2017-12-13
US62/598,359 2017-12-13
PCT/IB2018/001557 WO2019116099A1 (en) 2017-12-13 2018-12-13 Systems and methods for predicting pedestrian intent

Publications (2)

Publication Number Publication Date
JP2021507434A true JP2021507434A (ja) 2021-02-22
JP2021507434A5 JP2021507434A5 (ja) 2022-01-11

Family

ID=65718044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020552164A Pending JP2021507434A (ja) 2017-12-13 2018-12-13 歩行者の意図を予測するためのシステムおよび方法

Country Status (4)

Country Link
US (1) US10913454B2 (ja)
EP (1) EP3724813A1 (ja)
JP (1) JP2021507434A (ja)
WO (1) WO2019116099A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017208728B4 (de) * 2017-05-23 2024-10-24 Audi Ag Verfahren zur Ermittlung einer Fahranweisung
DE102018212655A1 (de) * 2018-07-30 2020-01-30 Conti Temic Microelectronic Gmbh Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
US10825450B2 (en) * 2018-10-25 2020-11-03 Motorola Solutions, Inc. Methods and systems for providing a response to an audio query where the response is determined to have a public safety impact
US11087749B2 (en) * 2018-12-20 2021-08-10 Spotify Ab Systems and methods for improving fulfillment of media content related requests via utterance-based human-machine interfaces
US11347225B2 (en) * 2019-02-05 2022-05-31 Intel Corporation Mechanism for conflict resolution and avoidance of collisions for highly automated and autonomous vehicles
US10933867B2 (en) * 2019-05-10 2021-03-02 Arnouse Digital Devices Corporation Artificial intelligence based collision avoidance system and method
EP3792821A1 (en) * 2019-09-11 2021-03-17 Naver Corporation Action recognition using implicit pose representations
CN112149466A (zh) * 2019-06-28 2020-12-29 富士通株式会社 手臂动作识别方法、装置及图像处理设备
CN112241448A (zh) * 2019-07-18 2021-01-19 阿里巴巴集团控股有限公司 应答信息生成方法、装置、设备及存储介质
US11479148B2 (en) * 2019-08-08 2022-10-25 GM Global Technology Operations LLC Personalization settings based on body measurements
CN110570200B (zh) * 2019-08-16 2020-08-25 阿里巴巴集团控股有限公司 一种支付方法及装置
US11816914B2 (en) * 2019-09-05 2023-11-14 Humanising Autonomy Limited Modular predictions for complex human behaviors
US11288498B2 (en) * 2019-09-19 2022-03-29 Hrl Laboratories, Llc Learning actions with few labels in the embedded space
US11803585B2 (en) * 2019-09-27 2023-10-31 Boe Technology Group Co., Ltd. Method and apparatus for searching for an image and related storage medium
US11993291B2 (en) * 2019-10-17 2024-05-28 Perceptive Automata, Inc. Neural networks for navigation of autonomous vehicles based upon predicted human intents
TWI710972B (zh) * 2019-11-01 2020-11-21 緯創資通股份有限公司 基於原子姿勢的動作辨識方法及其系統與電腦可讀取記錄媒體
DE102019220009A1 (de) * 2019-12-18 2021-06-24 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Verkehrsteilnehmern
US11587329B2 (en) * 2019-12-27 2023-02-21 Valeo Schalter Und Sensoren Gmbh Method and apparatus for predicting intent of vulnerable road users
US11157729B2 (en) * 2020-01-17 2021-10-26 Gm Cruise Holdings Llc Gesture based authentication for autonomous vehicles
US11657810B2 (en) * 2020-07-27 2023-05-23 International Business Machines Corporation Query routing for bot-based query response
CN111907520B (zh) * 2020-07-31 2022-03-15 东软睿驰汽车技术(沈阳)有限公司 行人姿态识别方法、装置及无人驾驶汽车
CN112200765B (zh) * 2020-09-04 2024-05-14 浙江大华技术股份有限公司 车辆中被误检的关键点的确定方法及装置
JP7347405B2 (ja) * 2020-11-30 2023-09-20 トヨタ自動車株式会社 運転支援システム
CN112906646A (zh) * 2021-03-23 2021-06-04 中国联合网络通信集团有限公司 人体姿态的检测方法及装置
CN113255509A (zh) * 2021-05-20 2021-08-13 福州大学 一种基于Yolov3和OpenPose的工地危险行为监控方法
CN116863728B (zh) * 2023-07-21 2024-07-19 重庆交通大学 一种基于过街行人步速分类的信号配时方法与系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186576A (ja) * 2010-03-05 2011-09-22 Nec Corp 動作認識装置
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013020578A (ja) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2014522035A (ja) * 2011-07-27 2014-08-28 サムスン エレクトロニクス カンパニー リミテッド オブジェクト姿勢検索装置及び方法
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
CN105740783A (zh) * 2016-01-25 2016-07-06 大连楼兰科技股份有限公司 基于姿态检测与衣帽特征的交警检测方法和系统
WO2016167331A1 (ja) * 2015-04-17 2016-10-20 三菱電機株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置
WO2017056382A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940998B2 (en) * 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
TW200525449A (en) * 2004-01-29 2005-08-01 Lai Jin Ding Human body image recognition system
JP4807432B2 (ja) * 2009-03-31 2011-11-02 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US20110025834A1 (en) * 2009-07-31 2011-02-03 Samsung Electronics Co., Ltd. Method and apparatus of identifying human body posture
EP2859732A4 (en) * 2012-06-11 2016-03-09 Intel Corp PROVISION OF SPONTANEOUS CONNECTIONS AND INTERACTIONS BETWEEN LOCAL AND REMOTE INTERACTION DEVICES
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
JP6613795B2 (ja) * 2015-10-16 2019-12-04 株式会社デンソー 表示制御装置および車両制御装置
US9825874B2 (en) 2016-03-17 2017-11-21 T-Mobile Usa, Inc. Dynamically optimized queue in data routing
US10055652B2 (en) * 2016-03-21 2018-08-21 Ford Global Technologies, Llc Pedestrian detection and motion prediction with rear-facing camera
US10757049B2 (en) * 2017-07-24 2020-08-25 Microsoft Technology Licensing, Llc Actions in a messaging system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186576A (ja) * 2010-03-05 2011-09-22 Nec Corp 動作認識装置
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013020578A (ja) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2014522035A (ja) * 2011-07-27 2014-08-28 サムスン エレクトロニクス カンパニー リミテッド オブジェクト姿勢検索装置及び方法
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2016167331A1 (ja) * 2015-04-17 2016-10-20 三菱電機株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置
WO2017056382A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN105740783A (zh) * 2016-01-25 2016-07-06 大连楼兰科技股份有限公司 基于姿态检测与衣帽特征的交警检测方法和系统

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DIOGO C. LUVIZON ET AL.: ""Human Pose Regression by Combining Indirect Part Detection and Contextual Information"", ARXIV, JPN7022005702, 6 October 2017 (2017-10-06), US, pages 1 - 10, ISSN: 0004937784 *
八尾 智幸、外4名: ""テレビ視聴行動からの個人的選好獲得のための行動認識"", 電子情報通信学会技術研究報告, vol. 103, no. 585, JPN6022051963, 16 January 2004 (2004-01-16), JP, pages 65 - 70, ISSN: 0005022038 *
古橋 竜祐、山田 啓一: ""複数フレームの見かけの姿勢に基づく歩行者の横断意図の推定"", 電気学会論文誌C, vol. 133, no. 5, JPN6022051961, 1 May 2013 (2013-05-01), JP, pages 1069 - 1075, ISSN: 0005022036 *
指田 岳彦、外2名: ""3次元人物姿勢情報を用いた睡眠時行動認識への取り組み"", SSII2014 第20回画像センシングシンポジウム 講演論文集, JPN6022051962, 11 June 2014 (2014-06-11), JP, pages 1 - 5, ISSN: 0005022037 *
橋本 潔、外7名: ""姿勢変動を考慮した基幹部位追跡と肩位置推定"", 画像の認識・理解シンポジウム(MIRU 2011)論文集, vol. 2011, JPN6022051964, 20 July 2011 (2011-07-20), JP, pages 668 - 674, ISSN: 0004937782 *
虎間 亮介、外2名: ""姿勢グラフを用いた人体動作生成"", 第73回(平成23年)全国大会講演論文集(4), JPN6022051965, 2 March 2011 (2011-03-02), JP, pages 95 - 96, ISSN: 0004937783 *
野田 悠介、外3名: ""劇場型プレゼンテーション支援システム〜Jobs〜"", 第75回(平成25年)全国大会講演論文集(4), JPN6023010795, 6 March 2013 (2013-03-06), JP, pages 203 - 204, ISSN: 0005022039 *

Also Published As

Publication number Publication date
US10913454B2 (en) 2021-02-09
EP3724813A1 (en) 2020-10-21
WO2019116099A1 (en) 2019-06-20
US20190176820A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP2021507434A (ja) 歩行者の意図を予測するためのシステムおよび方法
JP6757406B2 (ja) 電極を用いた、人間運転者が自律走行車の制御を引き継ぐメカニズム
US11557150B2 (en) Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera
KR102043588B1 (ko) 자율 주행 차량 내에서 미디어 콘텐츠를 표시하기 위한 시스템 및 방법
US10088846B2 (en) System and method for intended passenger detection
JP6615840B2 (ja) 自律走行車の個人運転好みの認識方法及びシステム
CN109643166B (zh) 用于自主车辆的基于手势的控制的方法和系统
JP6394735B2 (ja) 階層型コンテキストアウェアによる手足の検出
JP6310531B2 (ja) 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法
CN113302664B (zh) 运载工具的多模态用户接口
US10773732B1 (en) Systems and methods for interfacing with an occupant
JP6757442B2 (ja) 自動運転車における車線後処理
JP2020531943A (ja) 自律車両に割り当てられた乗客を認識すること
US20150362988A1 (en) Systems and methods for user indication recognition
US11276226B2 (en) Artificial intelligence apparatus and method for synthesizing images
US20180005445A1 (en) Augmenting a Moveable Entity with a Hologram
KR102639605B1 (ko) 인터페이스에서의 공간 객체들의 상대적 표현 및 명확화를 위한 시스템들 및 방법들
US11210567B2 (en) Artificial intelligence apparatus and method for recognizing object
US20190354178A1 (en) Artificial intelligence device capable of being controlled according to user action and method of operating the same
US11790683B2 (en) Gesture based authentication for autonomous vehicles
JP2016053880A (ja) 車載システム、情報処理方法、およびコンピュータプログラム
US20210382560A1 (en) Methods and System for Determining a Command of an Occupant of a Vehicle
JP2022132902A (ja) 移動体の制御システム、移動体、移動体の制御方法、およびプログラム
US11859995B2 (en) User preview of rideshare service vehicle surroundings
JP6946456B2 (ja) 地図及び測位を必要としない自動運転車両のコーナネゴシエーション方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230802

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311