JP2020042787A - 自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents

自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2020042787A
JP2020042787A JP2019131410A JP2019131410A JP2020042787A JP 2020042787 A JP2020042787 A JP 2020042787A JP 2019131410 A JP2019131410 A JP 2019131410A JP 2019131410 A JP2019131410 A JP 2019131410A JP 2020042787 A JP2020042787 A JP 2020042787A
Authority
JP
Japan
Prior art keywords
driving
model
automatic driving
support
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019131410A
Other languages
English (en)
Other versions
JP6835915B2 (ja
Inventor
幽涵 陳
You Han Chen
幽涵 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020042787A publication Critical patent/JP2020042787A/ja
Application granted granted Critical
Publication of JP6835915B2 publication Critical patent/JP6835915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】予め設定された自動運転モデルがシーン情報を処理することができない場合、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまうという問題を解決する自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】本発明による自動運転支援方法、運転機器、支援機器及び読み取り可能な記憶媒体は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行する。運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。【選択図】図2

Description

本発明は自動運転技術に関し、特に自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体に関する。
科学技術の発展と社会の進歩に伴って、自動運転技術は交通分野のトレンドとなっている。
従来の技術において、運転機器は、予め設定された自動運転モデルを通じて自動運転タスクを遂行する。運転機器は現在のシーン情報をリアルタイムで収集して、且つ自動運転モデルによってシーン情報を処理し、運転機器へ対応した運転命令を出力するようにする。
しかしながら、自動運転モデルは運転機器内に予め設定されているため、ひとたび運転機器が複雑な地形や複雑な道路状況に遭遇した場合、自動運転モデルでシーン情報を処理して、運転機器が自動運転タスクを実行し続けることができないという問題が発生しやすい。
上記に言及した従来の運転機器が自動運転タスクを実行する際に、予め設定された自動運転モデルがシーン情報を処理することができない場合、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまうという問題に対して、本発明はそのような問題を解決する自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体を提供する。
一態様によれば、本発明の自動運転支援方法は、現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送することと、前記支援機器がフィードバックした運転命令を受信して実行し、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられることと、を含む。
その中の1つの選択可能な実施形態において、前記自動運転モデルは深層学習アルゴリズムモデルを含み、前記運転命令は、現在シーン情報を組み合わせて、トレーニングサンプルを生成することに用いられ、前記トレーニングサンプルによって前記深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、前記トレーニングされた深層学習アルゴリズムモデルは前記最適化された自動運転モデルである自動運転モデルは深層学習アルゴリズムモデルを含む。
その中の1つの選択可能な実施形態において、前記現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送することは、前記現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得すること、前記処理結果の信頼度を確定すること、及び前記信頼度が予め設定された閾値より小さい場合、支援機器へ運転支援要求を発送することを含む。
その中の1つの選択可能な実施形態において、前記信頼度が予め設定された閾値より大きいか又は等しい場合、前記処理結果に応じて自動運転タスクを実行する。
他の態様によれば、本発明の自動運転支援方法は、運転機器が発送した運転支援要求を受信し、前記運転支援要求は前記運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものであることと、ユーザーがトリガーした運転命令を受信し、且つ前記運転機器へ前記運転命令を送信して、前記運転機器が運転命令を実行するようにし、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられることと、を含む。
その中の1つの選択可能な実施形態において、前記運転要求及び前記運転命令は無線モバイルネットワークによって前記運転機器に送信される。
その中の1つの選択可能な実施形態において、前記運転要求及び前記運転命令は近距離無線通信技術によって前記運転機器に送信される。
別の態様によれば、本発明の運転機器は、現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得するための第1処理ユニットと、処理結果に応じて支援機器へ運転支援要求を発送することに用いられ、更に前記支援機器がフィードバックした運転命令を受信して、前記運転命令を実行するようにすることに用いられ、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる第1通信ユニットと、を備える。
その中の1つの選択可能な実施形態において、前記自動運転モデルは深層学習アルゴリズムモデルを含み、前記運転命令は、現在シーン情報を組み合わせて、トレーニングサンプルを生成することに用いられ、前記トレーニングサンプルによって前記深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、前記トレーニングされた深層学習アルゴリズムモデルは前記最適化された自動運転モデルである。
その中の1つの選択可能な実施形態において、前記第1処理ユニットは更に、前記処理結果の信頼度を確定し、前記信頼度が予め設定された閾値より小さい場合、前記通信ユニットによって支援機器へ運転支援要求を発送することに用いられる。
その中の1つの選択可能な実施形態において、前記信頼度が予め設定された閾値より大きいか又は等しい場合、前記処理結果に応じて自動運転タスクを実行する。
別の態様によれば、本発明の支援機器は、運転機器が発送した運転支援要求を受信することに用いられ、前記運転支援要求は前記運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものである第2通信ユニットと、ユーザーがトリガーした運転命令を受信するためのインタラクティブユニットと、を備え、前記第2通信ユニットは更に、前記運転機器へ前記運転命令を送信して、前記運転機器が運転命令を実行するようにすることに用いられ、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。
その中の1つの選択可能な実施形態において、前記運転命令は前記第2通信ユニットから無線モバイルネットワークによって前記運転機器に送信される。
その中の1つの選択可能な実施形態において、前記運転命令は前記第2通信ユニットから近距離無線通信技術によって前記運転機器に送信される。
別の態様によれば、本発明の運転機器は、メモリ、前記メモリに接続されたプロセッサ、及び前記メモリに記憶されて且つ前記プロセッサ上で実行可能なコンピュータプログラムを備え、前記プロセッサは前記コンピュータプログラムを実行する際に上記の自動運転支援方法のいずれかを実行する。
別の態様によれば、本発明の支援機器は、メモリ、前記メモリに接続されたプロセッサ、及び前記メモリに記憶されて且つ前記プロセッサ上で実行可能なコンピュータプログラムを備え、前記プロセッサは前記コンピュータプログラムを実行する際に上記の自動運転支援方法のいずれかを実行する。
別の態様によれば、本発明のコンピュータ読み取り可能な記憶媒体は、コンピュータ読み取り可能な記憶媒体であって、プログラムを含み、前記プログラムが端末上で実行される際に、端末に上記の自動運転支援方法のいずれかに記載の方法を実行させる。
本発明による自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
以下の図面を通じて、本発明の明確な実施例を示し、より詳細な説明は後述する。これらの図面及び文字説明は任意の形態によって本開示の構想の範囲を限定することを意味せず、特定の実施例を参照することにより当業者のために本開示の概念を説明する。これらの図面は明細書に併せられて本明細書の一部となり、本開示内容に沿った実施例を示すものであり、且つ明細書とともに本開示の原理を解釈することに用いられる。
本発明によるネットワークアーキテクチャ模式図である。 本発明の実施例1による自動運転支援方法のフローチャートである。 本発明の実施例2による自動運転支援方法のフローチャートである。 本発明の実施例3による自動運転支援方法のフローチャートである。 本発明の実施例4による自動運転支援方法のフローチャートである。 本発明の実施例5による運転機器の構造模式図である。 本発明の実施例6による支援機器の構造模式図である。 本発明の実施例7による運転機器のハードウェア構造模式図である。 本発明の実施例8による支援機器のハードウェア構造模式図である。
本発明の実施例の目的、技術的解決手段及び利点をより明らかにするために、以下、本発明の実施例における図面を組み合わせて、本発明の実施例における技術的解決手段を説明する。
科学技術の発展と社会の進歩に伴って、自動運転技術は交通分野のトレンドとなっている。従来の技術において、運転機器は、予め設定された自動運転モデルを通じて自動運転タスクを遂行する。運転機器は現在のシーン情報をリアルタイムで収集して、且つ自動運転モデルによってシーン情報を処理し、運転機器へ対応した運転命令を出力するようにする。
しかしながら、自動運転モデルは運転機器内に予め設定されているため、ひとたび運転機器が複雑な地形や複雑な道路状況に遭遇した場合、自動運転モデルにはシーン情報を処理して、運転機器が自動運転タスクを実行し続けることができないという問題が発生しやすい。
上記に言及した従来の運転機器が自動運転タスクを実行する際、予め設定された自動運転モデルがシーン情報を処理することができない場合、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまうという問題に対して、本発明はそのような問題を解決する自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体を提供する。なお、本願による自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体は、自動運転を使用するシナリオに利用可能で、これらのシナリオは、有人状態で無人運転させるシーン、非有人状態で無人機器がパスファインディングを含むエンジニアリングタスクを自動実行するシーン等を含むが、これらに制限されるものではない。
図1は本発明によるネットワークアーキテクチャ模式図であり、図1に示すように、本発明によるネットワークアーキテクチャは、運転機器1及び支援機器2を少なくとも備える。ただし、運転機器1とは無人車両、無人機、無人ロボット等の移動体内に設置された機器又はモジュールを指す。支援機器2とは運転機器1と通信接続してデータインタラクティブを行うことができるヒューマンコンピュータインタラクション端末を指す。
図2は本発明の実施例1による自動運転支援方法のフローチャートである。
図2に示すように、自動運転支援方法は、以下のステップを含む。
ステップ101は、現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送する。
ステップ102は、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。
なお、本発明による自動運転支援方法の実行本体は、具体的に、図1に示すような運転機器であってよい。具体的に、本発明の自動運転支援方法は、まず、自動運転タスクを実行する過程において、運転機器が移動体における収集モジュールが収集した現在シーン情報を連続的に受信する必要があり、収集モジュールは移動体に設置される画像収集装置を含み、移動体内に設置された移動体の運転状態及び運転パラメータを感知又はテストするためのセンサーユニットを含んでもよい。運転機器は現在シーン情報を受信した後に、現在シーン情報を現在の自動運転モデルに入力し、これらの情報が自動運転モデルによって分析処理され、且つ処理結果を出力する。自動運転モデルには従来のモデルアーキテクチャを使用することができ、選択可能に、その出力された処理結果は現在シーンでの各運転命令のマッチング度、及び現在シーンに最もマッチする自動運転命令を含む。
運転機器はその処理結果に応じて支援機器へ運転支援要求を発送して、支援機器に運転機器が発送した運転支援要求を受信した後に、ユーザーが運転命令をトリガーする方法によって、運転機器へ対応した運転命令をリターンするようにすることができる。運転機器は運転命令を受信した後に、運転命令を実行することができる。
従来技術と異なるのは、本実施形態において、運転機器のインテリジェンスを高め、より多くの複雑な地形を認識させるために、運転機器は支援機器へ運転支援要求を発送する必要がある場合に、受信された支援機器でフィードバックした運転命令及び自分が収集して得られた現在シーン情報によって現在の自動運転モデルを最適化することができる。つまり、支援機器がフィードバックした運転命令及び収集して得られた現在シーン情報によって、現在の自動運転モデルを最適化して得られた最適化後の自動運転モデルはシーン情報を処理する能力を備える。最適化後の自動運転モデルは運転機器が次の自動運転タスクを実行する際に使用される自動運転モデルとして使用することができる。なお、最適化過程は本願による運転機器により実行してもよいし、クラウドサーバーにより実行してもよいし、支援機器側により実行してもよく、本実施例は単に実行本体が運転機器であることを例として説明する。
このような、絶えず最適化する自動運転支援方法を使用することによって、自動運転モデルはより多くの複雑なシーン情報の処理方法を絶えず学習することができ、様々な複雑な地形への制御能力及び出力能力を向上させる。
本発明による自動運転支援方法は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
実施例1を前提として、図3は本発明の実施例2による自動運転支援方法のフローチャートである。なお、本実施例2による自動運転支援方法は運転機器を深層学習アルゴリズムモデルの最適化する実行本体とする例であり、その他の選択可能な手段において、深層学習アルゴリズムモデルの最適化する実行本体は支援機器、クラウドサーバー等であってもよい。
図3に示すように、自動運転支援方法は、以下のステップを含む。
ステップ201では、深層学習アルゴリズムモデルによって収集して得られた現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送する。
ステップ202では、支援機器がフィードバックした運転命令を受信して実行する。
ステップ203では、現在シーン情報及び運転命令に応じて、トレーニングサンプルを生成する。
ステップ204では、トレーニングサンプルによって深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、トレーニングされた深層学習アルゴリズムモデルによって次の自動運転タスクを実行するようにする。
実施例1と異なるのは、本実施例2においては、自動運転モデルは深層学習アルゴリズムモデルを含み、深層学習アルゴリズムモデルは具体的に神経信念ネットワークモデル、畳み込みニューラルネットワークモデル、リカレントニューラルネットワークモデルを含むが、これらに制限されない。本実施例2において、まず、自動運転タスクを実行する過程において、運転機器は移動体における収集モジュールが収集した現在シーン情報を連続的に受信する必要があり、収集モジュールは移動体に設置される画像収集装置を含み、移動体内に設置された移動体の運転状態及び運転パラメータを感知又はテストするためのセンサーユニットを含んでもよい。運転機器は現在シーン情報を受信した後に、現在シーン情報を深層学習アルゴリズムモデルに入力し、これらの情報は深層学習アルゴリズムモデルによって分析処理され、処理結果を出力する。深層学習アルゴリズムモデルが出力した処理結果は現在シーンでの各運転命令のマッチング度、及び現在シーンに最もマッチする自動運転命令を含む。
運転機器はその処理結果に応じて支援機器へ運転支援要求を発送して、支援機器に運転機器が発送した運転支援要求を受信した後に、ユーザーが運転命令をトリガーする方法によって、運転機器へ対応した運転命令をリターンするようにすることができる。運転機器は運転命令を受信した後に、運転命令を実行することができる。
本実施形態において、運転機器は支援機器へ運転支援要求を発送する必要がある場合に、受信した支援機器によりフィードバックした運転命令及び自分が収集して得られた現在シーン情報によって現在の深層学習アルゴリズムモデルを再度トレーニングすることができる。つまり、運転命令を受信した後に、運転機器は運転命令及び現在シーン情報によって深層学習アルゴリズムモデルをトレーニングするためのトレーニングサンプルを生成することができる。続いて、トレーニングサンプルによって深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、トレーニングされた深層学習アルゴリズムモデルによって次の自動運転タスクを実行するようにする。このような深層学習アルゴリズムモデルにトレーニングサンプルを連続的に学習させる方法によって、深層学習アルゴリズムモデルがより完備にされ、様々な複雑な地形への制御能力及び出力能力も向上される。
本発明による自動運転支援方法は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
実施例1又は実施例2を前提として、図4は本発明の実施例3による自動運転支援方法のフローチャートである。なお、本実施例3による自動運転支援方法は運転機器を深層学習アルゴリズムモデルの最適化する実行本体とする例であり、その他の選択可能な手段において、深層学習アルゴリズムモデルの最適化する実行本体は支援機器、クラウドサーバー等であってもよい。
図4に示すように、自動運転支援方法は以下のステップを含む。
ステップ301では、現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得する。
ステップ302では、処理結果の信頼度を確定し、信頼度が予め設定された閾値より小さいか否かを判断する。
そうであると、ステップ304を実行し、そうでないと、ステップ303を実行する。
ステップ303では、処理結果に応じて自動運転タスクを実行する。
ステップ304では、支援機器へ運転支援要求を発送する。
ステップ305では、支援機器がフィードバックした運転命令を受信して実行する。
ステップ306では、運転命令及び現在シーン情報に応じて現在の自動運転モデルを最適化し、最適化された自動運転モデルが次の自動運転タスクを実行するようにする。
実施例1と異なるのは、本実施例3の自動運転支援方法は、まず、自動運転タスクを実行する過程において、運転機器は移動体における収集モジュールが収集した現在シーン情報を連続的に受信する必要があり、収集モジュールは移動体に設置される画像収集装置を含み、移動体内に設置された移動体の運転状態及び運転パラメータを感知又はテストするためのセンサーユニットを含んでもよい。運転機器は現在シーン情報を受信した後に、運転機器は現在シーン情報を現在の自動運転モデルに入力し、これらの情報は自動運転モデルによって分析処理され、処理結果を出力する。
その後、運転機器は処理結果の信頼度を確定し、信頼度が予め設定された閾値より大きいか又は等しい際に、運転機器は直ちに処理結果に応じて自動運転タスクを実行し、そうでないと、支援機器へ運転支援要求を発送する。その中の信頼度の予め設定された閾値は例えば50パーセントであってよい。
他の実施形態と同様に、運転機器はその処理結果に応じて支援機器へ運転支援要求を発送して、支援機器に運転機器が発送した運転支援要求を受信した後に、ユーザーが運転命令をトリガーする方法によって、運転機器へ対応した運転命令をリターンするようにすることができる。運転機器は運転命令を受信した後に、運転命令を実行することができる。
運転機器のインテリジェンスを高め、より多くの複雑な地形を認識させるために、運転機器は支援機器へ運転支援要求を発送する必要がある場合に、受信された支援機器によりフィードバックした運転命令及び自分が収集して得られた現在シーン情報によって現在の自動運転モデルを最適化することができる。つまり、支援機器がフィードバックした運転命令及び収集して得られた現在シーン情報によって、現在の自動運転モデルを最適化して得られた最適化後の自動運転モデルはシーン情報を処理する能力を備える。最適化後の自動運転モデルは運転機器が次の自動運転タスクを実行する際に使用される自動運転モデルとして使用することができる。このような連続的に最適化する自動運転支援方法を使用することによって、自動運転モデルはより多くの複雑なシーン情報の処理方法を連続的に学習することができ、様々な複雑な地形への制御能力及び出力能力を向上させる。
本発明による自動運転支援方法は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令及び現在シーン情報に応じて現在の自動運転モデルを最適化し、最適化後の自動運転モデルによって次の自動運転タスクを実行するようにすることによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
図5は本発明の実施例4による自動運転支援方法のフローチャートである。
図5に示すように、自動運転支援方法は、以下のステップを含む。
ステップ401では、運転機器が発送した運転支援要求を受信する。運転支援要求は運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものである。
ステップ402では、ユーザーがトリガーした運転命令を受信し、且つ運転機器へ運転命令を送信して、運転機器が運転命令を実行するようにする。運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。
なお、本発明による自動運転支援方法の実行本体は具体的に図1に示すような支援機器であってよい。具体的に、運転支援機器は遠端に架設された運転機器とリモート通信できるインタラクティブ端末であってもよいし、移動体内に架設された運転機器と近距離無線通信できるインタラクティブ機器であってもよい。自動運転タスクを実行する過程において、運転機器はシーン情報を連続的に収集し、且つ自動運転モデルによって現在シーン情報を処理して、自動運転タスクを実行するようにする。自動運転モデルが出力した結果が自動運転支援機能をトリガーする際に、運転機器は支援機器へ運転支援要求を発送する。その後、支援機器はユーザーとインタラクティブでき、且つユーザーがトリガーした運転命令を運転機器に送信し、運転機器が実行するようにし、且つその内に配置された自動運転モデルを最適化する。インタラクティブ方法はユーザーに現在シーン情報を示す方法及びユーザーがハードウェア機器によって入力した運転命令を受け取る方法を含み、ハードウェア機器はキーボード、マウス、タッチスクリーンを含むが、これらに制限されない。選択可能に、運転要求及び運転命令は無線モバイルネットワークによって運転機器に送信される。選択可能に、運転要求及び運転命令は近距離無線通信技術によって運転機器に送信される。
本発明による自動運転支援方法は、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
図6は本発明の実施例5による運転機器の構造模式図であり、図6に示すように、運転機器は、現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得するための第1処理ユニット10と、処理結果に応じて支援機器へ運転支援要求を発送することに用いられ、更に、支援機器がフィードバックした運転命令を受信して、運転機器が運転命令を実行するようにすることに用いられ、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる第1通信ユニット11と、を備える。
その中の1つの選択可能な実施形態において、自動運転モデルは深層学習アルゴリズムモデルを含み、運転命令は具体的に、現在シーン情報を組み合わせて、トレーニングサンプルを生成することに用いられ、トレーニングサンプルによって深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、トレーニングされた深層学習アルゴリズムモデルは最適化された自動運転モデルである。
第1処理ユニット10は更に処理結果の信頼度を確定し、信頼度が予め設定された閾値より小さいと、通信ユニットによって支援機器へ運転支援要求を発送することに用いられる。
信頼度が予め設定された閾値より大きいか又は等しい際に、運転機器は処理結果に応じて自動運転タスクを実行する。
当業者は、以上で説明したシステムの具体的な動作過程及び対応した有益な効果が、すでに説明した自動運転支援方法の実施例における対応した過程を参照することによって理解でき、説明の便利及び簡潔のため、ここでは詳しく説明しないものとする。
本発明による運転機器において、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
図7は本発明の実施例6による支援機器の構造模式図であり、図7に示すように、支援機器は、運転機器が発送した運転支援要求を受信することに用いられ、運転支援要求は運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものである第2通信ユニット20と、ユーザーがトリガーした運転命令を受信するためのインタラクティブユニット21と、を備え、第2通信ユニット20は更に、運転機器へ運転命令を送信して、運転機器が運転命令を実行するようにすることに用いられ、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。
運転命令は第2通信ユニット20から無線モバイルネットワークによって運転機器に送信される。
運転命令は第2通信ユニット20から近距離無線通信技術によって運転機器に送信される。
当業者は、以上で説明したシステムの具体的な動作過程及び対応した有益な効果が、すでに説明した自動運転支援方法の実施例における対応した過程を参照することによって理解でき、説明の便利及び簡潔のため、ここでは詳しく説明しないものとする。
本発明による運転機器において、運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送し、支援機器がフィードバックした運転命令を受信して実行し、運転命令は現在シーン情報を組み合わせて現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる。これによって、運転機器が自動運転タスクを実行する際に、一旦予め設定された自動運転モデルがシーン情報を処理することができない場合に、直ちに運転機器が自動運転タスクを実行し続けることができなくなってしまう問題を解決し、自動運転モデルのインテリジェンスと適用性を向上させる。
図8は本発明の実施例7による運転機器のハードウェア構造模式図であり、図8に示すように、運転機器はプロセッサ42及びメモリ41に記憶されてプロセッサ42上で実行可能なコンピュータプログラムを含み、プロセッサ42はコンピュータプログラムを実行する際に上記の実施例1〜3に記載の方法を実行する。
図9は本発明の実施例8による支援機器のハードウェア構造模式図であり、図9に示すように、支援機器は、プロセッサ52及びメモリ51に記憶されて且つプロセッサ52上で実行可能なコンピュータプログラムを含み、プロセッサ52はコンピュータプログラムを実行する際に上記の実施例4に記載の方法を実行する。
本発明は読み取り可能な記憶媒体を提供し、プログラムを含み、端末上で実行される際に、端末に上記の実施例1〜3に記載の方法を実行させる。
本発明は読み取り可能な記憶媒体を提供し、プログラムを含み、端末上で実行される際に、端末に上記の実施例4に記載の方法を実行させる。
当業者は、上記の各方法の実施例の全部又は一部のステップの実現がプログラム命令に関連するハードウェアによって完成されることができることを理解することができる。上記のプログラムはコンピュータ可読記憶媒体に記憶されることができる。プログラムが実行される際に、上記の各方法の実施例を含むステップを実行し、上記の記憶媒体は、ROM、RAM、磁気ディスク或いは光ディスク等の様々なプログラムコードを記憶できる媒体を含む。
最終的に説明すべきなのは、以上の各実施例は制限ではなく、本発明の技術的解決手段を説明するためのものだけであり、上記の各実施例を参照して本発明を詳しく説明したが、当業者は、依然として上記の各実施例に記載の技術的解決手段を修正し、或いはその中の一部又は全部の技術的特徴を等価置換することができ、これらの修正又は置換は、対応した技術的解決手段の本質を本発明の各実施例の技術的解決手段の範囲から逸脱させないのを理解すべきである。

Claims (18)

  1. 現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送することと、
    前記支援機器がフィードバックした運転命令を受信して実行し、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられることと、を含むことを特徴とする自動運転支援方法。
  2. 前記自動運転モデルは深層学習アルゴリズムモデルを含み、
    前記運転命令は、現在シーン情報を組み合わせて、トレーニングサンプルを生成することに用いられ、前記トレーニングサンプルによって前記深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、前記トレーニングされた深層学習アルゴリズムモデルは前記最適化された自動運転モデルであることを特徴とする請求項1に記載の自動運転支援方法。
  3. 前記現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果に応じて支援機器へ運転支援要求を発送することは、
    前記現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得すること、
    前記処理結果の信頼度を確定すること、及び
    前記信頼度が予め設定された閾値より小さい場合、支援機器へ運転支援要求を発送することを含むことを特徴とする請求項1に記載の自動運転支援方法。
  4. 前記信頼度が予め設定された閾値より大きいか又は等しい場合、前記処理結果に応じて自動運転タスクを実行することを特徴とする請求項3に記載の自動運転支援方法。
  5. 運転機器が発送した運転支援要求を受信し、前記運転支援要求は前記運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものであることと、
    ユーザーがトリガーした運転命令を受信し、且つ前記運転機器へ前記運転命令を送信して、前記運転機器が運転命令を実行するようにし、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられることと、を含むことを特徴とする自動運転支援方法。
  6. 前記運転要求及び前記運転命令は無線モバイルネットワークによって前記運転機器に送信されることを特徴とする請求項5に記載の自動運転支援方法。
  7. 前記運転要求及び前記運転命令は近距離無線通信技術によって前記運転機器に送信されることを特徴とする請求項5に記載の自動運転支援方法。
  8. 現在の自動運転モデルによって収集された現在シーン情報を処理し、処理結果を取得するための第1処理ユニットと、
    処理結果に応じて支援機器へ運転支援要求を発送することに用いられ、更に前記支援機器がフィードバックした運転命令を受信して、前記運転命令を実行するようにすることに用いられ、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられる第1通信ユニットと、を備えることを特徴とする運転機器。
  9. 前記自動運転モデルは深層学習アルゴリズムモデルを含み、
    前記運転命令は、現在シーン情報を組み合わせて、トレーニングサンプルを生成することに用いられ、前記トレーニングサンプルによって前記深層学習アルゴリズムモデルをトレーニングして、トレーニングされた深層学習アルゴリズムモデルを取得し、前記トレーニングされた深層学習アルゴリズムモデルは前記最適化された自動運転モデルであることを特徴とする請求項8に記載の運転機器。
  10. 前記第1処理ユニットは更に、前記処理結果の信頼度を確定し、前記信頼度が予め設定された閾値より小さい場合、前記通信ユニットによって支援機器へ運転支援要求を発送することに用いられることを特徴とする請求項8に記載の運転機器。
  11. 前記信頼度が予め設定された閾値より大きいか又は等しい場合、前記処理結果に応じて自動運転タスクを実行することを特徴とする請求項10に記載の運転機器。
  12. 運転機器が発送した運転支援要求を受信することに用いられ、前記運転支援要求は前記運転機器が現在の自動運転モデルによって収集された現在シーン情報を処理し、且つ処理結果に応じて発送したものである第2通信ユニットと、
    ユーザーがトリガーした運転命令を受信するためのインタラクティブユニットと、を備え、
    前記第2通信ユニットは更に、前記運転機器へ前記運転命令を送信して、前記運転機器が運転命令を実行するようにすることに用いられ、前記運転命令は前記現在シーン情報を組み合わせて前記現在の自動運転モデルを最適化し、最適化された自動運転モデルによって次の自動運転タスクを実行させることに用いられることを特徴とする支援機器。
  13. 前記運転要求及び前記運転命令は前記第2通信ユニットから無線モバイルネットワークによって前記運転機器に送信されることを特徴とする請求項12に記載の支援機器。
  14. 前記運転要求及び前記運転命令は前記第2通信ユニットから近距離無線通信技術によって前記運転機器に送信されることを特徴とする請求項12に記載の支援機器。
  15. 運転機器であって、メモリ、前記メモリに接続されたプロセッサ、及び前記メモリに記憶されて且つ前記プロセッサ上で実行可能なコンピュータプログラムを備え、
    前記プロセッサは前記コンピュータプログラムを実行する際に請求項1〜4のいずれか1項に記載の方法を実行することを特徴とする運転機器。
  16. 支援機器であって、メモリ、前記メモリに接続されたプロセッサ、及び前記メモリに記憶されて且つ前記プロセッサ上で実行可能なコンピュータプログラムを備え、
    前記プロセッサは前記コンピュータプログラムを実行する際に請求項5〜7のいずれか1項に記載の方法を実行することを特徴とする支援機器。
  17. コンピュータ読み取り可能な記憶媒体であって、プログラムを含み、前記プログラムが端末上で実行される際に、端末に請求項1〜4のいずれか1項に記載の方法を実行させることを特徴とするコンピュータ読み取り可能な記憶媒体。
  18. コンピュータ読み取り可能な記憶媒体であって、プログラムを含み、前記プログラムが端末上で実行される際に、端末に請求項5〜7のいずれか1項に記載の方法を実行させることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019131410A 2018-09-06 2019-07-16 自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体 Active JP6835915B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811039166.9 2018-09-06
CN201811039166.9A CN109460016A (zh) 2018-09-06 2018-09-06 自动驾驶协助方法、驾驶设备、协助设备及可读存储介质

Publications (2)

Publication Number Publication Date
JP2020042787A true JP2020042787A (ja) 2020-03-19
JP6835915B2 JP6835915B2 (ja) 2021-02-24

Family

ID=65606617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131410A Active JP6835915B2 (ja) 2018-09-06 2019-07-16 自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US20200081435A1 (ja)
EP (1) EP3620750B1 (ja)
JP (1) JP6835915B2 (ja)
CN (1) CN109460016A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157813B1 (en) * 2020-04-24 2021-10-26 StradVision, Inc. Method and device for on-vehicle active learning to be used for training perception network of autonomous vehicle
EP3904989A1 (en) * 2020-04-29 2021-11-03 von Reventlow, Christian Service robot system, robot and method for operating the service robot

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07108849A (ja) * 1993-10-13 1995-04-25 Hitachi Ltd 車の自動走行制御装置
US20170135621A1 (en) * 2015-11-16 2017-05-18 Samsung Electronics Co., Ltd. Apparatus and method to train autonomous driving model, and autonomous driving apparatus
JPWO2016158197A1 (ja) * 2015-03-31 2017-10-26 日立オートモティブシステムズ株式会社 自動運転制御装置
JP2017197066A (ja) * 2016-04-28 2017-11-02 本田技研工業株式会社 車両制御システム、交通制御システム、車両制御方法、および車両制御プログラム
KR20170133149A (ko) * 2016-05-25 2017-12-05 주식회사 만도 주행 학습 기반 자율 주행 시스템 및 방법
US20180074493A1 (en) * 2016-09-13 2018-03-15 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
JP2018081763A (ja) * 2016-11-14 2018-05-24 株式会社豊田自動織機 電池モジュール
JP2018081673A (ja) * 2016-11-14 2018-05-24 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 自律走行車用の計画フィードバックに基づく決定改善システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9201421B1 (en) * 2013-11-27 2015-12-01 Google Inc. Assisted perception for autonomous vehicles
CN105446338B (zh) * 2015-12-21 2017-04-05 福州华鹰重工机械有限公司 云辅助自动驾驶方法及系统
JP6681604B2 (ja) * 2016-05-31 2020-04-15 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
KR102237072B1 (ko) * 2017-01-06 2021-04-06 현대자동차 주식회사 자율 주행 시스템
WO2018170074A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
US11435732B2 (en) * 2017-07-12 2022-09-06 Accenture Global Solutions Limited Cognitive and adaptive telemetry
US11074470B2 (en) * 2017-12-06 2021-07-27 La Société Dataperformers Inc. System and method for automatically improving gathering of data using a data gathering device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07108849A (ja) * 1993-10-13 1995-04-25 Hitachi Ltd 車の自動走行制御装置
JPWO2016158197A1 (ja) * 2015-03-31 2017-10-26 日立オートモティブシステムズ株式会社 自動運転制御装置
US20170135621A1 (en) * 2015-11-16 2017-05-18 Samsung Electronics Co., Ltd. Apparatus and method to train autonomous driving model, and autonomous driving apparatus
JP2017197066A (ja) * 2016-04-28 2017-11-02 本田技研工業株式会社 車両制御システム、交通制御システム、車両制御方法、および車両制御プログラム
KR20170133149A (ko) * 2016-05-25 2017-12-05 주식회사 만도 주행 학습 기반 자율 주행 시스템 및 방법
US20180074493A1 (en) * 2016-09-13 2018-03-15 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
JP2018081763A (ja) * 2016-11-14 2018-05-24 株式会社豊田自動織機 電池モジュール
JP2018081673A (ja) * 2016-11-14 2018-05-24 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 自律走行車用の計画フィードバックに基づく決定改善システム

Also Published As

Publication number Publication date
EP3620750A1 (en) 2020-03-11
EP3620750B1 (en) 2022-08-31
US20200081435A1 (en) 2020-03-12
CN109460016A (zh) 2019-03-12
JP6835915B2 (ja) 2021-02-24

Similar Documents

Publication Publication Date Title
KR102425578B1 (ko) 객체를 인식하는 방법 및 장치
EP3535705B1 (en) Reinforcement learning with auxiliary tasks
US11663516B2 (en) Artificial intelligence apparatus and method for updating artificial intelligence model
KR102491546B1 (ko) 객체를 인식하는 방법 및 장치
US10962979B2 (en) System and method for multitask processing for autonomous vehicle computation and control
EP3966733A1 (en) Systems and methods for real-time adjustment of neural networks for autonomous tracking and localization of moving subject
KR102590411B1 (ko) 로봇 에이전트용 제어 정책
US9751212B1 (en) Adapting object handover from robot to human using perceptual affordances
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
US20210103815A1 (en) Domain adaptation for robotic control using self-supervised learning
EP3753688A1 (en) Mobile robot device and method for providing service to user
US11392139B2 (en) Method, apparatus and control system for controlling mobile robot
JP2020042787A (ja) 自動運転支援方法、運転機器、支援機器及びコンピュータ読み取り可能な記憶媒体
KR20190095193A (ko) 인공 지능 시스템의 동작을 관리하는 인공 지능 장치 및 그 방법
KR20210033809A (ko) 인공 신경망을 이용하여 로봇을 제어하는 제어 서버 및 방법와, 이를 구현하는 로봇
WO2019180434A1 (en) Processing a command
US20210035309A1 (en) Electronic device and control method therefor
KR102464906B1 (ko) 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법
US11341596B2 (en) Robot and method for correcting position of same
JP7083402B2 (ja) 移動ロボットを制御するための方法、装置及び制御システム
CN116164770A (zh) 路径规划方法、装置、电子设备和计算机可读介质
KR102599941B1 (ko) 데이터 수집 제어 방법, 장치, 전자 기기 및 매체
CN112947256A (zh) 基于机器人的电脑系统控制方法、装置、介质及机器人
US11636687B2 (en) Adaptive processing method for new scenes in autonomous driving, autonomous driving method and system
US20230174098A1 (en) Method for processing image, electronic device, vehicle, server and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210204

R150 Certificate of patent or registration of utility model

Ref document number: 6835915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250