JP2020061156A - 自動運転「機械意識」モデルの構成方法、その装置、又はプログラム - Google Patents
自動運転「機械意識」モデルの構成方法、その装置、又はプログラム Download PDFInfo
- Publication number
- JP2020061156A JP2020061156A JP2019204292A JP2019204292A JP2020061156A JP 2020061156 A JP2020061156 A JP 2020061156A JP 2019204292 A JP2019204292 A JP 2019204292A JP 2019204292 A JP2019204292 A JP 2019204292A JP 2020061156 A JP2020061156 A JP 2020061156A
- Authority
- JP
- Japan
- Prior art keywords
- machine
- probability
- driving
- vehicle
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 241000282414 Homo sapiens Species 0.000 claims abstract description 34
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 63
- 241000282412 Homo Species 0.000 claims description 18
- 230000002860 competitive effect Effects 0.000 claims description 15
- 230000014509 gene expression Effects 0.000 claims description 11
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 19
- 238000011161 development Methods 0.000 abstract description 4
- 238000012360 testing method Methods 0.000 abstract description 4
- 238000005259 measurement Methods 0.000 abstract 1
- 238000009826 distribution Methods 0.000 description 118
- 238000010801 machine learning Methods 0.000 description 51
- 238000013459 approach Methods 0.000 description 50
- 239000013598 vector Substances 0.000 description 38
- 238000012549 training Methods 0.000 description 32
- 238000004364 calculation method Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 230000001133 acceleration Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000012804 iterative process Methods 0.000 description 9
- 206010039203 Road traffic accident Diseases 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 238000012417 linear regression Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000007688 edging Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000239290 Araneae Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 210000003792 cranial nerve Anatomy 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000007383 nerve stimulation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012892 rational function Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
- G06N7/023—Learning or tuning the parameters of a fuzzy system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Abstract
Description
また、機械学習の自動運転理論では、現在価値のある解決策を提案した人はいない。
また、ディープラーニングで採用している学習効果に関する損失関数で引用している確率最急降下法SGDを改善策として取り入れても、得られた訓練値も局所最適解しか得られないため、「ブラックボックス」問題をさけることができない、そのため、何時事故を発生するか不透明である。
前記課題を解決するために、請求1に係れる発明は、自動運転「機械意識」モデルの構成方法であって、次のような特徴を備えている:
自動運転「機械意識」モデルを、深い「機械感知」、深い「機械理解」、深い「機械決断」を含め、少なくても一つのアルゴリズムを備える自動運転の意思決定システムとする。
(1)「機械感知」モジュールとは、レーダー、3D画像認識、車線認識、GPS、ジャイロを含む少なくても、一つのセンサーから、自動運転車の環境情報を感知することである。
(2)「機械理解」モジュールとは、自動運転の路上状況の情報にとって、プロセッサに搭載され、多数な数学の数式を演算することにより、生物の意識を持つ人間と同じ、若しくは人間以上のように、機械に理解させることである。
(3)「機械決断」モジュールとは、論理演算の結果に対し、自動運転の正負両方向の走行に対し、競合学習により、生物の意識を持つ人間と同じ、若しくは人間以上のように、決断結果を得られることである。
自動運転の環境の深い「機械感知」機能、自動運転の路上状況の深い「機械理解」機能、自動運転への指令を出す深い「機械決断」機能を含む少なくても一つの機能を達成するために必要としたプログラムである。
101は車線位置近傍に位置する離散格子の中心線である
102と103は中心線101の両側の直線である
301は確率空間を含むユークリッド空間である
302は確率分布320の中心点である
303は確率分布320の第1確率分布値の目盛りである
304は確率分布320の第2の確率分布値の目盛りである
305は確率分布320の第3確率分布値の目盛りである
306は確率分布320の第1確率分布の目盛りに属する領域である
307は確率分布320の第2確率分布の目盛りに属する領域である
308は確率分布320の第3確率分布の目盛りに属する領域である
300はユークリッド空間の一点である
310は確率分布330の中心点である。
311は確率分布330の第1確率分布値の目盛りである
312は確率分布330の第2確率分布値の目盛りである
313は確率分布330の第3確率分布値の目盛りである
314は確率分布330の第1確率分布の目盛りに属する領域である
315は確率分布330の第2確率分布の目盛りに属する領域である
316は確率分布330の第3確率分布の目盛りに属する領域である
320および330は確率空間である
図1は、自動機械学習による道路車線のアプローチ方法を示す図である。
或いはジィャカッド類似係数(Jaccardsimilarity Coefficient)尺度、またはハミング距離(Hamming Distance)尺度を含め、少なくても1つの尺度とする。
上記最大確率の尺度を、正規分布、多変量正規分布、対数正規分布指数分布、t分布、F分布、X2分布、二項分布、負の二項分布、ポアソン分布、アーラン分布(Erlang Distribution)、超幾何分布、幾何分布、トラフィック分布、ワイブル分布(Weibull Distribution)、三角分布、ベータ分布(Bete Distribution)、ガンマ分布(Gamma Distribution)のうちのいずれかに基づく最大確率値のとする。
図1(C)に示すように、(100)は自動運転車の車線画像であり、車線画像は離散ドットから構成される1本の斜線であり、(101)は車線位置の中心になった離散画素の中心線である。初期状態で、この中心線は最初に与えられた空間から、アプローチ関数により求めたものである。与えた空間に対し、必ず1つの尺度が存在する、この尺度の範囲以内(102と103により囲まれた領域)に属したドットを、極力車線の中心線(101)にアプローチする、尺度の範囲以外(102と103により囲まれた領域以外の領域)に属したドットを取り除くことにより、新たな空間を生成することができる。ここでの尺度を確率分布の分散とし、または(102)と(101)で囲まれた領域のドットの密度としてもいい、(103)と(101)で囲まれた領域のドット密度としてもよい。さらに、(102)と(101)、(103)と(101)、または(102)と(103)で囲まれた領域のドットの二次元確率としてもよい。
二次元確率分布の最大確率分布値を尺度とする場合に、矩形領域の二次元確率分布を使用することとする。
図1、図2に示すように、自動機械学習による車線認識の処理手順は、下記通り:
S1は初期化ステップ:まず、車線認識の前に、車線画像の抽出方法は、人間介入により、元画像データから、抽出対象とした車線画像データを切り離し、抽出対象とした画像の色情報、諧調値の情報、エッジの情報、周波数情報、模様情報、空間関係情報を含む少なくても一つの画像情報に基づいて、複素数の特徴値を求める。
の順とし、ドット順番と処理結果を無関係とする。
S2は中心車線を求めるステップ:S1初期化ステップで生成した車線領域で、下記計算式により中心線[図1(c)の(101)]を求める。
を行う。
S6は繰り返し処理が完了したかどうかを判別するステップ:「NO」であればS2スキップへ繰り返し処理を継続し、「YES」であればS7の終了ステップに進む。判断の根拠は:繰り返し処理の回数が最大繰り返し処理回数に達したか?または、繰り返し処理が最適なアプローチの結果に達したかである。
S7は終了ステップである。
[図3]確率空間を含む異なる空間を越える距離の定義イメージ図である。
図3に示すように、(301)は確率空間を含むユークリッド空間である。ユークリッド空間には2つの確率空間(320)および(330)がある。(302)は確率分布(320)の中心点である。(303)は確率分布(320)の第1確率分布値の目盛りであり、(304)は確率分布(320)の第2確率分布値の目盛りであり、(305)は確率分布(320)の第3確率分布値の目盛りである。
また、(306)を確率分布(320)の第1確率分布の目盛りに所属する領域とし、(302)と(303)の間の尺度の目盛り間隔をD1j (320)とし、この領域における確率分布値をP1j (320)とする。(307)を確率分布(320)の第2確率分布の目盛りに所属する領域とすると、(303)と(304)の間の尺度の目盛り間隔をD2j (320)とし、この領域における確率分布値をP2j (320)とする。(308)を確率分布(320)の第3確率分布の目盛りに所属する領域とすると、(304)と(305)の間の尺度の目盛り間隔をD3j (320)とし、この領域における確率分布値をP3j (320)とする。
まず、確率空間はユークリッド空間に属することは証明する。
ユークリッド空間をEとし、確率空間をPとし、サンプリング空間をΩとし、サンプリング空間の要素をω∈Ωとし、
数式9により、確率空間の集合Vから確率空間の集合Wの距離は、数式9により、確率空間の集合Wから確率空間の集合Vと等しい、または、確率空間の集合Vから確率空間の集合Wまでの距離について、集合Vと集合Wの間に一点集合Rを導入し、集合Rから確率空間の集合Vまでの距離に、集合Rから確率空間の集合Wまでの距離は、確率空間の集合Vから集合Rまでの距離と、確率空間の集合Wから集合Rまでの距離は等しい。これによって、数式9により定義された距離尺度の対称性、および三角不等数式に満たすことを分かった。
(2)非縮退性: d(w,v)=0,ではw=v;
(3)対称性: ∀w,v,d(w,v)=d(v,w);
計算数式9のユークリッド空間と確率空間の距離を統一でき、かつ距離尺度のすべての尺度条件を満たすことに基づいて、下記通りのより厳密なファジィ事象確率測度の尺度計算数式を提供ことができる。
集合Rが集合Wに属するファジィ事象確率測度の数式は下記のような計算数式から得ることができる。
図4に示すように:車線画像の確率空間の特徴ベクトルを求めるフローチャートは、次のように五つのステップがある。
または、車線画像の諧調値に関するガウス分布の最大確率値、最大確率尺度を求める。
図5は、最大確率尺度に基づいた自己組織の機械学習の処理フローチャートである。
図5に示すように、与えた色画像の最大確率諧調値の算出は、下記5つのステップによって行われる。
a画像の平均諧調値g(k)は下記通り:
図6は、車線画像の位置を特定する機械学習フローチャートである。
図6に示すように、車線画像の位置を特定する機械学習
車線画像概略位置を決めるステップS1:車線の特徴、配置状況など情報を用いて、不特定な車線画像の概略位置を特定する。
図7に示すように、車線画像の特徴ベクトル間の距離を算出するのは、下記の三つのステップで求めることができる。
また、不特定なサンプル車線画像の特徴ベクトルSの要素sj∈S(j=1,2,...,h)は、確率空間の特徴ベクトルとのユークリッド空間と確率空間との距離は
図8に示すように、(a)は、自動機械学習を用いて車線アプローチの繰り返し処理過程であり、前回の繰り返し処理車線よりもさらにアプローチされていることが明らかである。(b)は車線識別結果であり、最適なアプローチ車線であることが明らかになった。
図9に示すように、SDLモデルの導入による車線画像抽出の効果は、従来の2値化画像よりも車線がはっきりに抽出された、また、環境画像が邪魔になれなかった、車線認識の精度は従来の方法より高かったことができた。
まず、二次元画像に対して一次導関数の計算を行う。
二次元画像の関数式をF(x,y)とし、画像に対して一次導関数を求める方法は下記通り:
図10に示すように、画素F(x,y)を中心にし、5*5画素行列の25画素分の一次導関数をそれぞれ求める。図5に示した確率尺度の自己組織化機械学習により25個の導関数値の中から最大確率値を求め、この最大確率導関数値を中心点F(x,y)の正式な導関数値とする。画像全体の導関数値は、各点の水平方向および垂直方向の平行移動により、最終的に画像全体の一次導関数を計算することができる。
図11から、確率尺度の自己組織化機械学習によるエッジ化処理の効果が顕著であることが分かった。
「機械意識」とは、環境のすべての情報を深層に感知することができる「機械感知」の機能を、さらに感知した情報を深層に理解できる「機械理解」機能を、または複雑なロジックの演算をすることができる「機械決断」機能を持つことによって、意識を持つ生物より正確な判断結果を得ることが可能になったアルゴリズムである。
定式化するために、ここではメンバーシップ関数(Membership Function)を導入する。
図12(a)に示すように引数値が小さいほどメンバーシップ関数MFの値が大きくなり、逆に引数値が大きいほどメンバーシップ関数MFの値が小さくなる。例えば自動運転車の速度が安全速度に近いほど、引数値が小さければ、MF値が大きくなり、自動運転車がより安全になるが、逆であれば自動運転車がより危険になる。このような定式を利用することで、自動運転車の状態を簡単に記述することができる。ここで、Tを危険状態のひき値とする。
から外れ、遠ければ遠いほど、MFの値が大きくなり、自動運転車はより安全になる。
図13に示すように:自動運転車C1を真ん中の車線を走行する車とし、前方にある同行車をC2とする。C1の位置P1と同行車C2の位置P2との間の距離をd0とする。同様に左側車線の前方の同行車をC2’とし、C1の位置P1と同行車C2’の位置Pc2’との間の距離をしd0’とする。また、右側車線の前方の同行車をC2″とし、C1の位置P1と同走行車C2″の位置P2″との間の距離をd0″とする。
例は、自動運転車C1は、右車線に変更する場合、自動運転車C1は、右車線に走行している前の同行車C2”との一定的な車間距離を持つ必要がある。このよう
大きければ、車線の変更する場合に安全であるので、メンバーシップ関数
ここで、自動運転車C1はスピードアップし、前方の同行車に近づくことのファジィ事象確率測度値をFPfとし、前方の同行車から離れることのファジィ事象確率測度値をFP−fし、スピードダウンして後方の同行車に近づくことのファジィ事象確率測度値をFPbとし、後方の同行車から遠ざかることのファジィ事象確率測度値をFP−bとする。
決められる。さらにFPl値は、自動運転車C1と左側の同行車C2’との車間距離が一定であり、前方同行車C2との間隔[d0−(S1−S2)T]が近すぎるとともに、後方同行車C3との間隔[d0−(S1−S2)T]も近すぎることにより決められる。
ここで提出した「機械決断」は、図14に示すように、「機械決断」を構成する方法である。直進車に走っている自動運転車C1は、複雑な車間の関係の中、自動運転車C1が加速して前の同行車に近づけるか、減速して後方の車に近づけるか、左車線へ車線変更するか、右車線へ車線変換するかを決定するためには、はっきりかつ最適な判断の必要があるので、「機械決断」を導入して「機械意識」を持つシステムを構成しなければならない。
まずは、自動運転車C1は、加速して前に進むか、減速して前の同行車と離れるか、前に進むのは、ファジィ事象確率測度値FPfとFP−b、または、減速して前の同行車と離れるのは、ファジィ事象確率測度値FPlとFP−rに関連している、さらに、左の車線に車線変更しないファジィ事象確率測度値FP−lと、右の車線に車線変更しないファジィ事象確率測度値FP−rとを関係している。
図15に示すように、自動運転車C1が前方車C2との車間距離(DD)、自動運転車C1の初期速度(IV)、坂道の角度(TS)及びカーブ道の具合(Dis)等が検索項目に属し、制御項目には、ハンドル角度(Sw)、アクセル度合い(Tv)、ブレーキ度合い(BS)、走行方向(P/N)、カーブ制御(Tc)、ウインカー(TI)、間隔制御(Ci)、道路状況種類(RC)等の条件がある、これらのデータを制御ベクトルとする。
訓練データ集合に属する複数の訓練データ、即ち制御ベクトルに対し、上述図5の確率尺度の自己組織という機械学習の処理方法を参考して、各々要素の最大確率のガウス分布を求め、正確性のない訓練データを除いて、新たな訓練データ空間を得る、このように繰り返し処理することにより、一つの最大確率のガウス分布の制御ベクトルを得ることが可能である、このような訓練結果を自動運転の制御の「機知獲得」データとする。
図16(a)で、自動運転車C1が右車線で停車したばかりのバスC2を通過しようところ、バスの前方が自動運転車を見えない死角エリアであるため、自動運転車の制御システムとしては、万が一バスの前から乗客が跳び出してきた場合、非常停車を可能とする。
本出願は「機知獲得」、「機械意識」、「快適乗車」、および「快速到着」の4つの目的関数の融合をする方法を提出する。まずは「機知獲得」により、人間が自動運転に教える際に、訓練したデータにとって、できるだけ「快適乗車」、および「快速到着」の特徴を持たせる。また様々な走行状況下で訓練を行い、優れた運転者の高い運転スキルと、乗車者に「快適乗車」を楽しませることとを自動運転の機械に教えることである。
一つの走行状態は、アクセルの制御により自動運転車の加速或いは減速制御と、ハンドルの制御により、自動運転車がカーブする、減速または停止のブレーキ制御、自動車が前進または後退するシフトの制御、ウインカーの制御などを同時にできる。1つの走行状態は、意思決定層から走行状態を変更する指令を受けていない、または突発的な状態に遭遇していない限り、走行状態を維持し続ける。1つの走行状態が完了する場合、「機械意識」システムの状態指令に基づいて次の走行状態に移行することができる。
Claims (6)
- 自動運転「機械意識」モデルの構成方法であって、下記のような特徴を備える:
自動運転「機械意識」モデルを、深い「機械感知」、深い「機械理解」、深い「機械決断」を含め、少なくても一つのアルゴリズムを備える自動運転の意思決定システムとする。 - 前記、深い「機械感知」とは、レーター、3D画像認識、車線認識、GIS、ジャイロを含む、少なくても一つのセンサーから、自動運転の周りの路上状況の情報を感知することができることを特徴とする請求1に記載の自動運転「機械意識」モデルの構成方法。
- 前記、深い「機械理解」とは、自動運転の路上状況の情報にとって、数学的の表現方法を用いて、生物の意識を持つ人間と同じ、若しくは人間以上のように、機械に理解させることを特徴とする請求1に記載の自動運転「機械意識」モデルの構成方法。
- 前記、深い「機械決断」とは、論理演算の結果に対し、自動運転の正負両方向の走行に対し、競合学習により、生物の意識を持つ人間と同じ、若しくは人間以上のように、決断結果を得れることを特徴とする請求1に記載の自動運転「機械意識」モデルの構成方法。
- 自動運転「機械意識」モデルの構成装置であって、自動運転の環境の深い「機械感知」モジュール、自動運転の路上状況の深い「機械理解」モジュール、自動運転への指令を出す深い「機械決断」モジュールにより構成され、下記の特徴を備える:
(1)「機械感知」モジュールとは、レーダー、3D画像認識、車線認識、GPS、ジャイロを含む少なくても、一つのセンサーから、自動運転車の環境情報を感知することである;
(2)「機械理解」モジュールとは、自動運転の路上状況の情報にとって、プロセッサに搭載され、多数な数学の数式を演算することにより、生物の意識を持つ人間と同じ、若しくは人間以上のように、機械に理解させることである;
(3)「機械決断」モジュールとは、論理演算の結果に対し、自動運転の正負両方向の走行に対し、競合学習により、生物の意識を持つ人間と同じ、若しくは人間以上のように、決断結果を得れることである。 - 自動運転「機械意識」モデルの構成プログラムであって、次のような特徴を備えている:
自動運転の環境の深い「機械感知」機能、自動運転の路上状況の深い「機械理解」機能、自動運転への指令を出す深い「機械決断」機能を含む少なくても一つの機能を達成するために必要としたプログラムである。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811213226.4 | 2018-10-11 | ||
CN201811213226.4A CN111038521A (zh) | 2018-10-11 | 2018-10-11 | 一种自动驾驶“意识决定”模型的构成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061156A true JP2020061156A (ja) | 2020-04-16 |
JP7446568B2 JP7446568B2 (ja) | 2024-03-11 |
Family
ID=70220120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019204292A Active JP7446568B2 (ja) | 2018-10-11 | 2019-09-27 | 自動運転向け「意思決定」モデルの構成方法、その装置、又はプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11550327B2 (ja) |
JP (1) | JP7446568B2 (ja) |
CN (1) | CN111038521A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667466A (zh) * | 2020-05-26 | 2020-09-15 | 湖北工业大学 | 一种带钢表面质量缺陷多分类的多目标优化特征选择方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11414094B2 (en) * | 2020-03-25 | 2022-08-16 | Toyota Research Institute, Inc. | Systems and methods for switching between a primary driver and a secondary driver for a vehicle |
WO2021226767A1 (zh) * | 2020-05-09 | 2021-11-18 | 华为技术有限公司 | 一种自适应优化自动驾驶系统的方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH064800A (ja) * | 1992-06-18 | 1994-01-14 | Mitsubishi Electric Corp | 車両の安全走行制御装置 |
JPH0916797A (ja) * | 1995-06-30 | 1997-01-17 | Fuji Xerox Co Ltd | 画像解析表現付加装置 |
JPH09221052A (ja) * | 1996-02-16 | 1997-08-26 | Honda Motor Co Ltd | 車両衝突予防装置 |
JP2006525174A (ja) * | 2003-03-26 | 2006-11-09 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | 車両用の電子制御システム及び車両システムで運転者に依存しない少なくとも1つの介入を算出する方法 |
JP2018135069A (ja) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2018142323A (ja) * | 2017-02-27 | 2018-09-13 | 澤蒼 顧 | 超深層競合学習のニューラルネットワークモデルの構築方法、その装置、及びそのモデルが搭載された汎用モバイル端末装置、及びそのプログラム |
WO2018167891A1 (ja) * | 2017-03-15 | 2018-09-20 | 三菱電機株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080154629A1 (en) * | 1997-10-22 | 2008-06-26 | Intelligent Technologies International, Inc. | Vehicle Speed Control Method and Arrangement |
CN107298021B (zh) * | 2016-04-15 | 2022-03-08 | 松下电器(美国)知识产权公司 | 信息提示控制装置、自动驾驶车及其驾驶辅助系统 |
CN108509966A (zh) * | 2017-02-27 | 2018-09-07 | 顾泽苍 | 一种超深度对抗学习的方法 |
CN107506830A (zh) * | 2017-06-20 | 2017-12-22 | 同济大学 | 面向智能汽车规划决策模块的人工智能训练平台 |
-
2018
- 2018-10-11 CN CN201811213226.4A patent/CN111038521A/zh active Pending
-
2019
- 2019-09-27 JP JP2019204292A patent/JP7446568B2/ja active Active
- 2019-10-10 US US16/598,128 patent/US11550327B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH064800A (ja) * | 1992-06-18 | 1994-01-14 | Mitsubishi Electric Corp | 車両の安全走行制御装置 |
JPH0916797A (ja) * | 1995-06-30 | 1997-01-17 | Fuji Xerox Co Ltd | 画像解析表現付加装置 |
JPH09221052A (ja) * | 1996-02-16 | 1997-08-26 | Honda Motor Co Ltd | 車両衝突予防装置 |
JP2006525174A (ja) * | 2003-03-26 | 2006-11-09 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | 車両用の電子制御システム及び車両システムで運転者に依存しない少なくとも1つの介入を算出する方法 |
JP2018135069A (ja) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2018142323A (ja) * | 2017-02-27 | 2018-09-13 | 澤蒼 顧 | 超深層競合学習のニューラルネットワークモデルの構築方法、その装置、及びそのモデルが搭載された汎用モバイル端末装置、及びそのプログラム |
WO2018167891A1 (ja) * | 2017-03-15 | 2018-09-20 | 三菱電機株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Non-Patent Citations (1)
Title |
---|
大島弘安 ほか: "予見ファジー制御方式による自動列車運転装置の実現", 電気学会論文誌C(電子・情報・システム部門誌) [ONLINE], vol. 第109巻,第5号, JPN6022017604, May 1989 (1989-05-01), pages 337 - 344, ISSN: 0004925473 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667466A (zh) * | 2020-05-26 | 2020-09-15 | 湖北工业大学 | 一种带钢表面质量缺陷多分类的多目标优化特征选择方法 |
CN111667466B (zh) * | 2020-05-26 | 2023-04-18 | 湖北工业大学 | 一种带钢表面质量缺陷多分类的多目标优化特征选择方法 |
Also Published As
Publication number | Publication date |
---|---|
US11550327B2 (en) | 2023-01-10 |
JP7446568B2 (ja) | 2024-03-11 |
US20200285242A1 (en) | 2020-09-10 |
CN111038521A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020059497A (ja) | 「機知獲得」モデルを導入した自動運転の制御方法、装置及びそれによって構成されるプログラム | |
Lee et al. | Convolution neural network-based lane change intention prediction of surrounding vehicles for ACC | |
CN110796856B (zh) | 车辆变道意图预测方法及变道意图预测网络的训练方法 | |
JP2020061155A (ja) | Sdlモデルの導入した画像の抽出方法 | |
Díaz-Álvarez et al. | Modelling the human lane-change execution behaviour through multilayer perceptrons and convolutional neural networks | |
US20230124864A1 (en) | Graph Representation Querying of Machine Learning Models for Traffic or Safety Rules | |
CN109726804B (zh) | 一种基于行车预测场和bp神经网络的智能车辆驾驶行为拟人化决策方法 | |
US20210086798A1 (en) | Model-free reinforcement learning | |
JP2020061156A (ja) | 自動運転「機械意識」モデルの構成方法、その装置、又はプログラム | |
Johora et al. | Modeling interactions of multimodal road users in shared spaces | |
CN115662166B (zh) | 一种自动驾驶数据处理方法及自动驾驶交通系统 | |
Gaikwad | Vehicle Velocity Prediction Using Artificial Neural Networks and Effect of Real-World Signals on Prediction Window | |
Yu et al. | Autonomous overtaking decision making of driverless bus based on deep Q-learning method | |
Yu et al. | Modeling overtaking behavior in virtual reality traffic simulation system | |
Nan et al. | Intention prediction and mixed strategy nash equilibrium-based decision-making framework for autonomous driving in uncontrolled intersection | |
Chen et al. | Advanced driver assistance strategies for a single-vehicle overtaking a platoon on the two-lane two-way road | |
Gonsalves et al. | Integrated deep learning for self-driving robotic cars | |
Youssef et al. | Comparative study of end-to-end deep learning methods for self-driving car | |
Szőke et al. | Driving on highway by using reinforcement learning with CNN and LSTM networks | |
Lodh et al. | Autonomous vehicular overtaking maneuver: A survey and taxonomy | |
JP2020061157A (ja) | 自動機械学習の構成方法 | |
CN111046897A (zh) | 一种跨越不同空间的模糊事件概率测度的定义方法 | |
Zhang et al. | Spatial attention for autonomous decision-making in highway scene | |
CN115981302A (zh) | 车辆跟驰换道行为决策方法、装置及电子设备 | |
CN109543497A (zh) | 一种适于自动驾驶的多目的控制机器学习模型的构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7446568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |