JP7214018B2 - 物体認識装置、運転支援装置、サーバ、および、物体認識方法 - Google Patents
物体認識装置、運転支援装置、サーバ、および、物体認識方法 Download PDFInfo
- Publication number
- JP7214018B2 JP7214018B2 JP2021577755A JP2021577755A JP7214018B2 JP 7214018 B2 JP7214018 B2 JP 7214018B2 JP 2021577755 A JP2021577755 A JP 2021577755A JP 2021577755 A JP2021577755 A JP 2021577755A JP 7214018 B2 JP7214018 B2 JP 7214018B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- surrounding environment
- acquired
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000011156 evaluation Methods 0.000 claims description 139
- 238000010801 machine learning Methods 0.000 claims description 75
- 238000004364 calculation method Methods 0.000 claims description 47
- 230000002093 peripheral effect Effects 0.000 claims description 31
- 230000015654 memory Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Description
本開示は、機械学習における学習済みのモデル(以下「機械学習モデル」という。)を用いて演算を行う物体認識装置、サーバ、物体認識方法、および、物体認識装置による演算結果を用いて車両の運転支援を行う運転支援装置に関するものである。
従来、自動運転等の分野において、機械学習モデルを用いて演算を行う技術が知られている。
ところで、特許文献1には、ニューラルネットワークに基づき、入力データの各画素について、付与されているラベルの信頼値を取得して、各画素がエラー領域に含まれるか否かを判断する技術が開示されている。
ところで、特許文献1には、ニューラルネットワークに基づき、入力データの各画素について、付与されているラベルの信頼値を取得して、各画素がエラー領域に含まれるか否かを判断する技術が開示されている。
機械学習モデルを用いた演算過程は、いわゆるブラックボックスである。そのため、機械学習モデルを用いた演算を行って得られた結果が妥当であるとは限らないという課題があった。
特許文献1に開示されている技術は、そもそも、ニューラルネットワークに基づいて取得されたラベルの信頼値自体が妥当な値として出力されているか否かについては考慮されていない。そのため、上記課題を解決するために特許文献1に開示されているような技術を用いることはできない。
特許文献1に開示されている技術は、そもそも、ニューラルネットワークに基づいて取得されたラベルの信頼値自体が妥当な値として出力されているか否かについては考慮されていない。そのため、上記課題を解決するために特許文献1に開示されているような技術を用いることはできない。
本開示は上記のような課題を解決するためになされたもので、機械学習モデルを用いた演算を行って得られた結果が妥当なものか否かの判定を行うことを可能とした物体認識装置を提供することを目的とする。
本開示に係る物体認識装置は、情報を取得する情報取得部と、情報取得部が取得した情報と、第1機械学習モデルとに基づき、周辺の環境の状態に関する周辺環境情報を取得するとともに、周辺環境情報を取得した際の演算過程を示す演算過程情報を取得する周辺認識部と、周辺認識部が取得した演算過程情報に基づき、情報取得部が取得した情報のうち、演算過程において周辺環境情報への影響が大きかった情報、を示す説明情報、を生成する説明情報生成部と、情報取得部が取得した情報と、説明情報生成部が生成した説明情報とに基づき、周辺認識部が取得した周辺環境情報の妥当性を示す評価情報を生成する評価情報生成部とを備えたものである。
本開示によれば、機械学習モデルを用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る物体認識装置1の構成例を示す図である。
実施の形態1に係る物体認識装置1は、車両(図示省略)に搭載されている運転支援装置2に備えられ、第1機械学習モデル18に基づき、周辺の環境の状態に関する情報(以下「周辺環境情報」という。)を取得する。実施の形態1において、周辺環境情報は、自車両の周辺に存在する他車両の状態に関する情報、自車両の周辺に存在する歩行者の状態に関する情報、地形の情報、または、自車両の周辺に存在する障害物の状態に関する情報等を含む。第1機械学習モデル18の詳細については、後述する。
実施の形態1.
図1は、実施の形態1に係る物体認識装置1の構成例を示す図である。
実施の形態1に係る物体認識装置1は、車両(図示省略)に搭載されている運転支援装置2に備えられ、第1機械学習モデル18に基づき、周辺の環境の状態に関する情報(以下「周辺環境情報」という。)を取得する。実施の形態1において、周辺環境情報は、自車両の周辺に存在する他車両の状態に関する情報、自車両の周辺に存在する歩行者の状態に関する情報、地形の情報、または、自車両の周辺に存在する障害物の状態に関する情報等を含む。第1機械学習モデル18の詳細については、後述する。
その際、物体認識装置1は、取得した周辺環境情報が妥当なものか否かの判定を行う。実施の形態1において、取得した周辺環境情報が妥当であるか否か、は、具体的には、例えば、第1機械学習モデル18に基づいて認識した周辺の環境の状態が、正しく認識されたものであるか否か、を言う。物体認識装置1は、第1機械学習モデル18による、周辺の環境の状態を認識するための演算過程が妥当かどうかによって、第1機械学習モデル18に基づいて取得した周辺環境情報が妥当なものか否かの判定を行う。物体認識装置1による、周辺環境情報が妥当なものか否かの判定の詳細については、後述する。
物体認識装置1は、取得した周辺環境情報が妥当なものであると判定すると、当該周辺環境情報と、第2機械学習モデル19とに基づいて取得した、車両の運転を支援するための情報(以下「運転支援情報」という。)を、出力する。第2機械学習モデル19の詳細については、後述する。
運転支援装置2は、物体認識装置1から出力された運転支援情報に基づいて、車両の運転支援を行う。運転支援装置2が運転を支援する車両は、自動運転機能を有することを前提とする。なお、車両が自動運転機能を有する場合であっても、運転者が、当該自動運転機能を実行せず、自ら車両を運転することはできる。
物体認識装置1は、取得した周辺環境情報が妥当なものであると判定すると、当該周辺環境情報と、第2機械学習モデル19とに基づいて取得した、車両の運転を支援するための情報(以下「運転支援情報」という。)を、出力する。第2機械学習モデル19の詳細については、後述する。
運転支援装置2は、物体認識装置1から出力された運転支援情報に基づいて、車両の運転支援を行う。運転支援装置2が運転を支援する車両は、自動運転機能を有することを前提とする。なお、車両が自動運転機能を有する場合であっても、運転者が、当該自動運転機能を実行せず、自ら車両を運転することはできる。
物体認識装置1は、図1に示すように、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、出力部17、第1機械学習モデル18、および、第2機械学習モデル19を備える。
情報取得部11は、情報を取得する。実施の形態1において、情報取得部11は、車両をとりまく環境に関する情報を取得する。車両をとりまく環境に関する情報は、具体的には、車両外を撮像した撮像画像、車両の位置情報、車速に関する情報、地図情報等である。
例えば、情報取得部11は、車両に搭載されている撮像装置(図示省略)から、当該撮像装置が車両外を撮像した撮像画像を取得する。また、例えば、情報取得部11は、車両に搭載されているセンサ(図示省略)から、車両の位置情報等を取得する。また、例えば、情報取得部11は、物体認識装置1と接続される地図情報データベースから、地図情報を取得する。
情報取得部11は、取得した情報を、周辺認識部12および評価情報生成部14に出力する。
情報取得部11は、情報を取得する。実施の形態1において、情報取得部11は、車両をとりまく環境に関する情報を取得する。車両をとりまく環境に関する情報は、具体的には、車両外を撮像した撮像画像、車両の位置情報、車速に関する情報、地図情報等である。
例えば、情報取得部11は、車両に搭載されている撮像装置(図示省略)から、当該撮像装置が車両外を撮像した撮像画像を取得する。また、例えば、情報取得部11は、車両に搭載されているセンサ(図示省略)から、車両の位置情報等を取得する。また、例えば、情報取得部11は、物体認識装置1と接続される地図情報データベースから、地図情報を取得する。
情報取得部11は、取得した情報を、周辺認識部12および評価情報生成部14に出力する。
周辺認識部12は、情報取得部11が取得した情報と、第1機械学習モデル18とに基づき、周辺環境情報を取得するとともに、当該周辺環境情報を取得した際の演算の過程を示す情報(以下「演算過程情報」という。)を取得する。
ここで、第1機械学習モデル18は、車両をとりまく環境に関する情報が入力されると、周辺環境情報を出力するように、ニューラルネットワークまたはCNN(Convolutional Neural Network)等におけるディープラーニングにより予め機械学習が行われたモデルである。
周辺認識部12は、情報取得部11が取得した情報を第1機械学習モデル18に入力して、周辺環境情報を取得するための演算を行い、周辺環境情報を取得する。なお、実施の形態1では、図1に示すように、第1機械学習モデル18は、物体認識装置1に備えられているものとするが、これは一例に過ぎない。第1機械学習モデル18は、物体認識装置1の外部の、物体認識装置1が参照可能な場所に備えられていてもよい。
ここで、第1機械学習モデル18は、車両をとりまく環境に関する情報が入力されると、周辺環境情報を出力するように、ニューラルネットワークまたはCNN(Convolutional Neural Network)等におけるディープラーニングにより予め機械学習が行われたモデルである。
周辺認識部12は、情報取得部11が取得した情報を第1機械学習モデル18に入力して、周辺環境情報を取得するための演算を行い、周辺環境情報を取得する。なお、実施の形態1では、図1に示すように、第1機械学習モデル18は、物体認識装置1に備えられているものとするが、これは一例に過ぎない。第1機械学習モデル18は、物体認識装置1の外部の、物体認識装置1が参照可能な場所に備えられていてもよい。
周辺認識部12は、例えば、ディープラーニングの各層の演算結果のログを、演算過程情報として取得する。周辺認識部12は、例えば、第1機械学習モデル18に入力した、情報取得部11が取得した情報、および、第1機械学習モデル18そのものを、演算過程情報としてもよい。周辺認識部12は、第1機械学習モデル18を用いて行った、周辺環境情報を取得するための演算の過程を示す演算過程情報を取得する。
周辺認識部12は、取得した、周辺環境情報および演算過程情報を、説明情報生成部13に出力する。
周辺認識部12は、取得した、周辺環境情報および演算過程情報を、説明情報生成部13に出力する。
説明情報生成部13は、周辺認識部12が取得した演算過程情報に基づき、情報取得部11が取得した情報のうち、周辺認識部12が周辺環境情報を取得した際の演算過程において周辺環境情報への影響が大きかった情報、を示す情報(以下「説明情報」という。)、を生成する。
説明情報は、例えば、既知のLIME(Local interpretable model-agnostic explanations)の手法によって取得することができる。例えば、情報取得部11が取得する情報が撮像画像である場合、説明情報生成部13は、LIMEの手法を用いて、撮像画像全体のうちのどの部分に注目したかを示すヒートマップを取得する。説明情報生成部13は、取得したヒートマップを説明情報とする。
なお、上述の例は一例に過ぎない。例えば、説明情報生成部13は、第1機械学習モデル18に入力した情報の一部または全部と、第1機械学習モデル18の一部または全部とを用いれば、第1機械学習モデル18が、入力された情報のどこに注目して演算を行ったかを説明する説明情報を生成することができる。入力された情報のうち、第1機械学習モデル18が注目して演算を行った部分は、第1機械学習モデル18の演算過程において周辺環境情報への影響が大きかった情報である。
説明情報は、例えば、既知のLIME(Local interpretable model-agnostic explanations)の手法によって取得することができる。例えば、情報取得部11が取得する情報が撮像画像である場合、説明情報生成部13は、LIMEの手法を用いて、撮像画像全体のうちのどの部分に注目したかを示すヒートマップを取得する。説明情報生成部13は、取得したヒートマップを説明情報とする。
なお、上述の例は一例に過ぎない。例えば、説明情報生成部13は、第1機械学習モデル18に入力した情報の一部または全部と、第1機械学習モデル18の一部または全部とを用いれば、第1機械学習モデル18が、入力された情報のどこに注目して演算を行ったかを説明する説明情報を生成することができる。入力された情報のうち、第1機械学習モデル18が注目して演算を行った部分は、第1機械学習モデル18の演算過程において周辺環境情報への影響が大きかった情報である。
説明情報生成部13は、生成した説明情報を、評価情報生成部14に出力する。説明情報生成部13は、説明情報とともに、周辺認識部12から取得した周辺環境情報を、評価情報生成部14に出力する。
評価情報生成部14は、情報取得部11が取得した情報と、説明情報生成部13が生成した説明情報とに基づき、周辺認識部12が取得した周辺環境情報の妥当性を示す情報(以下「評価情報」という。)を生成する。
例えば、情報取得部11が取得した情報は撮像画像であり、周辺認識部12は、当該撮像画像と第1機械学習モデル18とに基づき、周辺環境情報として、信号の情報を取得したとする。信号の情報は、例えば、撮像画像上の座標で示される。また、説明情報生成部13が生成した説明情報はヒートマップであったとする。この場合、第1機械学習モデル18は、ヒートマップにて強調されている部分に注目して、信号を認識したことになる。言い換えれば、周辺認識部12が信号を認識する演算過程において、ヒートマップにて強調されている部分の影響が大きかったということになる。
例えば、情報取得部11が取得した情報は撮像画像であり、周辺認識部12は、当該撮像画像と第1機械学習モデル18とに基づき、周辺環境情報として、信号の情報を取得したとする。信号の情報は、例えば、撮像画像上の座標で示される。また、説明情報生成部13が生成した説明情報はヒートマップであったとする。この場合、第1機械学習モデル18は、ヒートマップにて強調されている部分に注目して、信号を認識したことになる。言い換えれば、周辺認識部12が信号を認識する演算過程において、ヒートマップにて強調されている部分の影響が大きかったということになる。
評価情報生成部14は、情報取得部11が取得した撮像画像において信号が撮像されていると想定される範囲と、ヒートマップにて強調されている範囲とを比較して、どの程度重なっているかを評価する。具体的には、評価情報生成部14は、例えば、撮像画像において信号が撮像されていると想定される範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する。評価情報生成部14は、撮像画像において信号が撮像されていると想定される範囲に対して、ヒートマップにて強調されている範囲が重なっている割合(%)を、重なり度合いとしてもよいし、当該割合(%)を0~1で表現した数値を、重なり度合いとしてもよい。
評価情報生成部14が、撮像画像において信号が撮像されていると想定される範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する具体的な方法について、一例を挙げて説明する。
例えば、周辺認識部12が認識した周辺環境情報に応じて、撮像画像上で当該周辺環境情報が撮像されていると想定される範囲を絞り込むためのおおまかな範囲(以下「環境絞込用範囲」という。)が予め設定されている。評価情報生成部14は、まず、周辺認識部12が認識した周辺環境情報に応じて、撮像画像上で、環境絞込用範囲を特定する。ここでは、例えば、予め、撮像画像上で、信号に応じた環境絞込用範囲として、撮像画像の上半分の範囲が設定されている。この場合、評価情報生成部14は、まず、撮像画像の上半分の範囲を特定する。
さらに、評価情報生成部14は、環境絞込用範囲から、周辺環境情報が撮像されていると想定される範囲を絞り込む。評価情報生成部14は、例えば、撮像画像上の環境絞込用範囲における輝度の変化から、周辺環境情報が撮像されていると想定される範囲を絞り込む。ここでは、評価情報生成部14は、撮像画像上の環境絞込用範囲において輝度の変化があった範囲を、信号が撮像されていると想定される範囲として絞りこむ。
そして、評価情報生成部14は、絞り込んだ範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する。
例えば、周辺認識部12が認識した周辺環境情報に応じて、撮像画像上で当該周辺環境情報が撮像されていると想定される範囲を絞り込むためのおおまかな範囲(以下「環境絞込用範囲」という。)が予め設定されている。評価情報生成部14は、まず、周辺認識部12が認識した周辺環境情報に応じて、撮像画像上で、環境絞込用範囲を特定する。ここでは、例えば、予め、撮像画像上で、信号に応じた環境絞込用範囲として、撮像画像の上半分の範囲が設定されている。この場合、評価情報生成部14は、まず、撮像画像の上半分の範囲を特定する。
さらに、評価情報生成部14は、環境絞込用範囲から、周辺環境情報が撮像されていると想定される範囲を絞り込む。評価情報生成部14は、例えば、撮像画像上の環境絞込用範囲における輝度の変化から、周辺環境情報が撮像されていると想定される範囲を絞り込む。ここでは、評価情報生成部14は、撮像画像上の環境絞込用範囲において輝度の変化があった範囲を、信号が撮像されていると想定される範囲として絞りこむ。
そして、評価情報生成部14は、絞り込んだ範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する。
ここで、図2は、実施の形態1において、評価情報生成部14が、情報取得部11が取得した撮像画像において信号が撮像されていると想定される範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する方法の一例のイメージを説明するための図である。図2Aは、情報取得部11が取得した撮像画像の一例のイメージを説明する図であり、図2Bは、説明情報生成部13が生成した説明情報としてのヒートマップの一例のイメージを説明する図である。
図2Aにおいて、評価情報生成部14が、信号が撮像されていると想定される範囲として絞りこんだ、撮像画像上の環境絞込用範囲において輝度の変化があった範囲を、201で示している。
図2Aにて201で示す範囲は全て、図2Bにて202で示す範囲に含まれている。
従って、評価情報生成部14は、重なり度合いを、「100%」と算出する。評価情報生成部14は、重なり度合いを「1」と算出してもよい。
図2Aにおいて、評価情報生成部14が、信号が撮像されていると想定される範囲として絞りこんだ、撮像画像上の環境絞込用範囲において輝度の変化があった範囲を、201で示している。
図2Aにて201で示す範囲は全て、図2Bにて202で示す範囲に含まれている。
従って、評価情報生成部14は、重なり度合いを、「100%」と算出する。評価情報生成部14は、重なり度合いを「1」と算出してもよい。
上述の例では、評価情報生成部14は、環境絞込用範囲から信号が撮像されていると想定される範囲を絞り込むものとしたが、例えば、評価情報生成部14は、撮像画像において信号が撮像されていると想定される範囲を、既知の画像認識技術を用いて判定するようにしてもよい。評価情報生成部14は、既知の画像認識技術を用いて判定した、信号が撮像されていると想定される範囲と、ヒートマップにて強調されている範囲との重なり度合いを算出する。
評価情報生成部14は、重なり度合いを算出すると、重なり度合いを示す情報を、評価情報とする。
なお、上述した例は一例に過ぎない。評価情報生成部14は、情報取得部11が取得した情報と、説明情報生成部13が生成した説明情報とに基づき、周辺認識部12が取得した周辺環境情報が妥当であるか否かを示す評価情報を生成するようになっていればよい。
なお、上述した例は一例に過ぎない。評価情報生成部14は、情報取得部11が取得した情報と、説明情報生成部13が生成した説明情報とに基づき、周辺認識部12が取得した周辺環境情報が妥当であるか否かを示す評価情報を生成するようになっていればよい。
評価情報生成部14は、生成した評価情報を、表示制御部15および運転支援情報取得部16に出力する。評価情報生成部14は、評価情報とあわせて、周辺認識部12が取得した周辺環境情報を、表示制御部15および運転支援情報取得部16に出力する。
評価情報生成部14は、評価情報とともに、説明情報生成部13が生成した説明情報を、表示制御部15および運転支援情報取得部16に出力するようにしてもよい。
評価情報生成部14は、評価情報とともに、説明情報生成部13が生成した説明情報を、表示制御部15および運転支援情報取得部16に出力するようにしてもよい。
表示制御部15は、評価情報生成部14が生成した評価情報に基づく情報を表示する。
表示制御部15は、評価情報を、表示装置(図示省略)に表示する。表示装置は、例えば、車両のインストルメントパネルに設置される。
表示制御部15は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が認識した周辺環境情報が妥当であるか否かを判定し、当該判定結果によって、表示装置に表示する情報の内容を制御することができる。表示制御部15は、評価情報生成部14が生成した評価情報が、予め設定された条件(以下「評価判定条件」という。)を満たすか否かによって、周辺環境情報が妥当であるか否かを判定する。
具体例を挙げると、例えば、評価判定条件は、「評価情報が評価判定用閾値以上であること」であったとする。なお、このとき、評価情報は、例えば、0~1の数値で表現された情報とする。数値が大きいほど、周辺環境情報が妥当であることを示す。
表示制御部15は、評価情報が評価判定用閾値以上である場合、周辺環境情報が妥当であると判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.8」であったとすると、表示制御部15は、周辺環境情報が妥当であると判定する。この場合、表示制御部15は、評価情報を表示装置に表示する。具体的には、例えば、表示制御部15は、「0.8」を表示する。表示制御部15は、評価情報を、「OK」等、周辺環境情報が妥当と言える旨を示すメッセージとして表示してもよい。
表示制御部15は、評価情報を、表示装置(図示省略)に表示する。表示装置は、例えば、車両のインストルメントパネルに設置される。
表示制御部15は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が認識した周辺環境情報が妥当であるか否かを判定し、当該判定結果によって、表示装置に表示する情報の内容を制御することができる。表示制御部15は、評価情報生成部14が生成した評価情報が、予め設定された条件(以下「評価判定条件」という。)を満たすか否かによって、周辺環境情報が妥当であるか否かを判定する。
具体例を挙げると、例えば、評価判定条件は、「評価情報が評価判定用閾値以上であること」であったとする。なお、このとき、評価情報は、例えば、0~1の数値で表現された情報とする。数値が大きいほど、周辺環境情報が妥当であることを示す。
表示制御部15は、評価情報が評価判定用閾値以上である場合、周辺環境情報が妥当であると判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.8」であったとすると、表示制御部15は、周辺環境情報が妥当であると判定する。この場合、表示制御部15は、評価情報を表示装置に表示する。具体的には、例えば、表示制御部15は、「0.8」を表示する。表示制御部15は、評価情報を、「OK」等、周辺環境情報が妥当と言える旨を示すメッセージとして表示してもよい。
一方、表示制御部15は、評価情報が評価判定用閾値未満である場合、周辺環境情報が妥当ではないと判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.4」であったとすると、表示制御部15は、周辺環境情報が妥当ではないと判定する。この場合、表示制御部15は、評価情報に加えて、説明情報生成部13が生成した説明情報を、表示装置に表示する。具体的には、表示制御部15は、例えば、「0.4」と、ヒートマップとを、表示する。なお、説明情報は、ヒートマップであるとしている。表示制御部15は、例えば、「NG」等、周辺環境情報が妥当とは言えない旨を示すメッセージと、ヒートマップとを表示してもよい。
運転支援情報取得部16は、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。なお、運転支援情報取得部16は、周辺認識部12が取得した周辺環境情報を、評価情報生成部14から取得すればよい。
より詳細には、運転支援情報取得部16は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が取得した周辺環境情報が妥当であると判定した場合、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。運転支援情報取得部16は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が取得した周辺環境情報が妥当ではないと判定した場合は、運転支援情報を取得しない。
より詳細には、運転支援情報取得部16は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が取得した周辺環境情報が妥当であると判定した場合、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。運転支援情報取得部16は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が取得した周辺環境情報が妥当ではないと判定した場合は、運転支援情報を取得しない。
運転支援情報取得部16は、評価情報生成部14が生成した評価情報が、評価判定条件を満たすか否かによって、周辺環境情報が妥当であるか否かを判定する。運転支援情報取得部16が採用する評価判定条件は、表示制御部15が、周辺環境情報が妥当であるか否かを判定する際に採用する評価判定条件と同じ条件とする。
具体例を挙げると、評価判定条件は、「評価情報が評価判定用閾値以上であること」であったとする。なお、このとき、評価情報は、例えば、0~1の数値で表現された情報とする。数値が大きいほど、周辺環境情報が妥当であることを示す。運転支援情報取得部16は、評価情報が評価判定用閾値以上である場合、周辺環境情報が妥当であると判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.8」であったとすると、運転支援情報取得部16は、周辺環境情報が妥当であると判定する。
具体例を挙げると、評価判定条件は、「評価情報が評価判定用閾値以上であること」であったとする。なお、このとき、評価情報は、例えば、0~1の数値で表現された情報とする。数値が大きいほど、周辺環境情報が妥当であることを示す。運転支援情報取得部16は、評価情報が評価判定用閾値以上である場合、周辺環境情報が妥当であると判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.8」であったとすると、運転支援情報取得部16は、周辺環境情報が妥当であると判定する。
一方、運転支援情報取得部16は、評価情報が評価判定用閾値未満である場合、周辺環境情報が妥当ではないと判定する。具体的には、例えば、評価判定用閾値が「0.7」であり、評価情報が「0.4」であったとすると、運転支援情報取得部16は、周辺環境情報が妥当ではないと判定する。
運転支援情報取得部16は、周辺環境情報が妥当であると判定すると、周辺認識部12が取得した周辺環境情報を第2機械学習モデル19に入力して、運転支援情報を取得するための演算を行い、運転支援情報を取得する。運転支援情報は、例えば、ブレーキの開度に関する情報、速度に関する情報、または、ハンドル操舵角に関する情報等、車両の運転を制御するための情報である。また、運転支援情報は、例えば、渋滞または障害物がある旨の通知等、ユーザである車両のドライバ、に対して提供する情報であってもよい。
第2機械学習モデル19は、周辺環境情報が入力されると、運転支援情報を出力するように、ニューラルネットワークまたはCNN等におけるディープラーニングにより予め機械学習が行われたモデルである。
なお、実施の形態1では、図1に示すように、第2機械学習モデル19は、物体認識装置1に備えられているものとするが、これは一例に過ぎない。第2機械学習モデル19は、物体認識装置1の外部の、物体認識装置1が参照可能な場所に備えられていてもよい。
なお、実施の形態1では、図1に示すように、第2機械学習モデル19は、物体認識装置1に備えられているものとするが、これは一例に過ぎない。第2機械学習モデル19は、物体認識装置1の外部の、物体認識装置1が参照可能な場所に備えられていてもよい。
運転支援情報取得部16は、運転支援情報を取得した場合、取得した運転支援情報を、出力部17に出力する。
出力部17は、運転支援情報取得部16が取得した運転支援情報を、運転支援装置2に出力する。
運転支援装置2は、物体認識装置1から運転支援情報が出力されると、当該運転支援情報に基づき、車両の運転支援を行う。
具体的には、運転支援装置2が備える運転支援部21が、物体認識装置1にて運転支援情報取得部16が取得した運転支援情報に基づき、車両の運転支援を行う。
なお、物体認識装置1から運転支援情報が出力されない場合、運転支援装置2において、運転支援部21は、例えば、車両の運転を手動運転へと切り替える。運転支援部21は、例えば、物体認識装置1以外の外部装置(図示省略)から出力される情報に従って、車両の運転支援を行うようにしてもよい。
運転支援装置2は、物体認識装置1から運転支援情報が出力されると、当該運転支援情報に基づき、車両の運転支援を行う。
具体的には、運転支援装置2が備える運転支援部21が、物体認識装置1にて運転支援情報取得部16が取得した運転支援情報に基づき、車両の運転支援を行う。
なお、物体認識装置1から運転支援情報が出力されない場合、運転支援装置2において、運転支援部21は、例えば、車両の運転を手動運転へと切り替える。運転支援部21は、例えば、物体認識装置1以外の外部装置(図示省略)から出力される情報に従って、車両の運転支援を行うようにしてもよい。
実施の形態1に係る物体認識装置1の動作について説明する。
図3は、実施の形態1に係る物体認識装置1の動作を説明するためのフローチャートである。
情報取得部11は、情報を取得する(ステップST301)。
情報取得部11は、取得した情報を、周辺認識部12および評価情報生成部14に出力する。
図3は、実施の形態1に係る物体認識装置1の動作を説明するためのフローチャートである。
情報取得部11は、情報を取得する(ステップST301)。
情報取得部11は、取得した情報を、周辺認識部12および評価情報生成部14に出力する。
周辺認識部12は、ステップST301にて情報取得部11が取得した情報と、第1機械学習モデル18とに基づき、周辺環境情報を取得するとともに、演算過程情報を取得する(ステップST302)。
周辺認識部12は、取得した、周辺環境情報および演算過程情報を、説明情報生成部13に出力する。
周辺認識部12は、取得した、周辺環境情報および演算過程情報を、説明情報生成部13に出力する。
説明情報生成部13は、ステップST302にて周辺認識部12が取得した演算過程情報に基づき、説明情報を生成する(ステップST303)。
説明情報生成部13は、生成した説明情報を、評価情報生成部14に出力する。説明情報生成部13は、説明情報とともに、周辺認識部12から取得した周辺環境情報を、評価情報生成部14に出力する。
説明情報生成部13は、生成した説明情報を、評価情報生成部14に出力する。説明情報生成部13は、説明情報とともに、周辺認識部12から取得した周辺環境情報を、評価情報生成部14に出力する。
評価情報生成部14は、ステップST301にて情報取得部11が取得した情報と、ステップST303にて説明情報生成部13が生成した説明情報とに基づき、評価情報を生成する(ステップST304)。
評価情報生成部14は、生成した評価情報を、表示制御部15および運転支援情報取得部16に出力する。評価情報生成部14は、評価情報とあわせて、ステップST302にて周辺認識部12が取得した周辺環境情報を、表示制御部15および運転支援情報取得部16に出力する。
評価情報生成部14は、評価情報とともに、説明情報生成部13が生成した説明情報を、表示制御部15および運転支援情報取得部16に出力するようにしてもよい。
評価情報生成部14は、生成した評価情報を、表示制御部15および運転支援情報取得部16に出力する。評価情報生成部14は、評価情報とあわせて、ステップST302にて周辺認識部12が取得した周辺環境情報を、表示制御部15および運転支援情報取得部16に出力する。
評価情報生成部14は、評価情報とともに、説明情報生成部13が生成した説明情報を、表示制御部15および運転支援情報取得部16に出力するようにしてもよい。
表示制御部15は、ステップST304にて評価情報生成部14が生成した評価情報に基づく情報を表示する(ステップST305)。
具体的には、表示制御部15は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が認識した周辺環境情報が妥当であるか否かを判定し、当該判定結果によって、表示装置に表示する情報の内容を制御する。
具体的には、表示制御部15は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が認識した周辺環境情報が妥当であるか否かを判定し、当該判定結果によって、表示装置に表示する情報の内容を制御する。
運転支援情報取得部16は、ステップST302にて周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する(ステップST306)。
より詳細には、運転支援情報取得部16は、ステップST305にて評価情報生成部14が生成した評価情報に基づき、ステップST302にて周辺認識部12が取得した周辺環境情報が妥当であると判定した場合、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。運転支援情報取得部16は、ステップST305にて評価情報生成部14が生成した評価情報に基づき、ステップST302にて周辺認識部が取得した周辺環境情報が妥当ではないと判定した場合、運転支援情報を取得しない。
運転支援情報取得部16は、運転支援情報を取得した場合、取得した運転支援情報を、出力部17に出力する。
より詳細には、運転支援情報取得部16は、ステップST305にて評価情報生成部14が生成した評価情報に基づき、ステップST302にて周辺認識部12が取得した周辺環境情報が妥当であると判定した場合、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。運転支援情報取得部16は、ステップST305にて評価情報生成部14が生成した評価情報に基づき、ステップST302にて周辺認識部が取得した周辺環境情報が妥当ではないと判定した場合、運転支援情報を取得しない。
運転支援情報取得部16は、運転支援情報を取得した場合、取得した運転支援情報を、出力部17に出力する。
出力部17は、ステップST306にて運転支援情報取得部16が取得した運転支援情報を、運転支援装置2に出力する(ステップST307)。
運転支援装置2は、物体認識装置1から運転支援情報が出力されると、当該運転支援情報に基づき、車両の運転制御を行う。
具体的には、運転支援装置2が備える運転支援部21が、物体認識装置1にて運転支援情報取得部16が取得した運転支援情報に基づき、車両の運転制御を行う。
なお、ステップST305の動作とステップST306の動作の順番は逆であってもよいし、ステップST305の動作とステップST306の動作が並行して行われるものとしてもよい。
運転支援装置2は、物体認識装置1から運転支援情報が出力されると、当該運転支援情報に基づき、車両の運転制御を行う。
具体的には、運転支援装置2が備える運転支援部21が、物体認識装置1にて運転支援情報取得部16が取得した運転支援情報に基づき、車両の運転制御を行う。
なお、ステップST305の動作とステップST306の動作の順番は逆であってもよいし、ステップST305の動作とステップST306の動作が並行して行われるものとしてもよい。
このように、実施の形態1に係る物体認識装置1は、取得した情報と、第1機械学習モデル18とに基づき、周辺環境情報を取得するとともに、演算過程情報を取得する。物体認識装置1は、演算過程情報に基づき、取得した情報のうち、周辺環境情報の演算過程において、当該周辺環境情報への影響が大きかった情報を示す説明情報を生成する。そして、物体認識装置1は、取得した情報と説明情報とに基づき、周辺環境情報の妥当性を評価し、当該妥当性を示す評価情報を生成する。
これにより、物体認識装置1は、第1機械学習モデル18を用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。すなわち、物体認識装置1は、第1機械学習モデル18を用いて周辺環境の認識を行った結果である周辺環境情報が妥当なものか否かの判定を行うことができる。
これにより、物体認識装置1は、第1機械学習モデル18を用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。すなわち、物体認識装置1は、第1機械学習モデル18を用いて周辺環境の認識を行った結果である周辺環境情報が妥当なものか否かの判定を行うことができる。
また、実施の形態1において、物体認識装置1は、評価情報生成部が生成した評価情報に基づく情報を表示する。これにより、車両のドライバは、物体認識装置1が妥当な周辺環境情報を取得できていることを視認することができる。
また、物体認識装置1は、周辺環境情報の妥当性が高いと評価した場合には、評価情報のみを表示し、周辺環境情報の妥当性が低いと評価した場合には、評価情報に加えて説明情報を表示するよう、表示制御を行う。このように、物体認識装置1は、妥当な周辺環境情報が取得できている場合に表示する情報量を少なくすることができる。その結果、物体認識装置1は、ドライバによる、妥当な周辺環境情報を取得できている場合の、周辺環境情報が取得できているかの監視作業の負荷を低減させることができる。
また、物体認識装置1は、周辺環境情報の妥当性が高いと評価した場合には、評価情報のみを表示し、周辺環境情報の妥当性が低いと評価した場合には、評価情報に加えて説明情報を表示するよう、表示制御を行う。このように、物体認識装置1は、妥当な周辺環境情報が取得できている場合に表示する情報量を少なくすることができる。その結果、物体認識装置1は、ドライバによる、妥当な周辺環境情報を取得できている場合の、周辺環境情報が取得できているかの監視作業の負荷を低減させることができる。
また、実施の形態1において、物体認識装置1は、取得した周辺環境情報と第2機械学習モデル19とに基づき、運転支援情報を取得する。そのため、物体認識装置1は、周辺環境情報の妥当性を判定した上で、当該周辺環境情報と第2機械学習モデル19とに基づいて運転支援情報を取得するので、当該運転支援情報を取得するにあたり、適切に、取得した周辺環境情報を活用することができる。
より詳細には、物体認識装置1は、生成した評価情報に基づき、周辺環境情報が妥当であると判定した場合、運転支援情報を取得する。物体認識装置1は、評価情報に基づき、周辺環境情報が妥当ではないと判定した場合は、運転支援情報を取得しない。そのため、物体認識装置1は、周辺環境情報の妥当性を判定した上で、当該周辺環境情報と第2機械学習モデル19とに基づいて運転支援情報を取得するので、当該運転支援情報を取得するにあたり、適切に、取得した周辺環境情報を活用することができる。
より詳細には、物体認識装置1は、生成した評価情報に基づき、周辺環境情報が妥当であると判定した場合、運転支援情報を取得する。物体認識装置1は、評価情報に基づき、周辺環境情報が妥当ではないと判定した場合は、運転支援情報を取得しない。そのため、物体認識装置1は、周辺環境情報の妥当性を判定した上で、当該周辺環境情報と第2機械学習モデル19とに基づいて運転支援情報を取得するので、当該運転支援情報を取得するにあたり、適切に、取得した周辺環境情報を活用することができる。
以上の実施の形態1では、図3のフローチャートで説明したように、運転支援情報取得部16は、評価情報生成部14が生成した評価情報に基づき、周辺認識部12が取得した周辺環境情報が妥当であるか否かの判定を行った後、周辺環境情報が妥当であると判定した場合に、運転支援情報を取得するものとした。しかし、これに限らず、運転支援情報取得部16は、評価情報に基づき、周辺環境情報が妥当であるか否かの判定を行うよりも前に、運転支援情報を取得しておくようにしてもよい。この場合、運転支援情報取得部16は、周辺環境情報が妥当であるか否かの判定を行い、周辺環境情報が妥当であると判定した場合、取得済みの運転支援情報を出力部17に出力する。運転支援情報取得部16は、周辺環境情報が妥当ではないと判定した場合は、取得済みの運転支援情報を出力しない。
図4は、実施の形態1において、運転支援情報取得部16が、周辺環境情報が妥当であるか否かの判定を行うよりも前に運転支援情報を取得する場合の、物体認識装置1の動作を説明するためのフローチャートである。
図4のステップST401~ステップST402、ステップST404~ステップST406、ステップST408の具体的な動作は、それぞれ、図3のステップST301~~ステップST305、ステップST307の具体的な動作と同様であるため、重複した説明を省略する。
図4は、実施の形態1において、運転支援情報取得部16が、周辺環境情報が妥当であるか否かの判定を行うよりも前に運転支援情報を取得する場合の、物体認識装置1の動作を説明するためのフローチャートである。
図4のステップST401~ステップST402、ステップST404~ステップST406、ステップST408の具体的な動作は、それぞれ、図3のステップST301~~ステップST305、ステップST307の具体的な動作と同様であるため、重複した説明を省略する。
ステップST403にて、運転支援情報取得部16は、ステップST402にて周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する。
ステップST407にて、運転支援情報取得部16は、ステップST405にて評価情報生成部14が生成した評価情報に基づき、ステップST402にて周辺認識部12が取得した周辺環境情報が妥当であるか否かを判定する。
運転支援情報取得部16は、周辺環境情報が妥当であると判定した場合、ステップST402にて取得済みの運転支援情報を出力すると判定する。運転支援情報取得部16は、周辺環境情報が妥当ではないと判定した場合、ステップST402にて取得済みの運転支援情報を出力しないと判定する。
運転支援情報取得部16は、運転支援情報を出力すると判定した場合、取得済みの運転支援情報を、出力部17に出力する。
なお、ステップST403の動作は、ステップST405の動作が完了するまでに行われていればよい。また、ステップST406の動作とステップST407の動作の順番は逆であってもよいし、ステップST406の動作とステップST407の動作が並行して行われるものとしてもよい。
ステップST407にて、運転支援情報取得部16は、ステップST405にて評価情報生成部14が生成した評価情報に基づき、ステップST402にて周辺認識部12が取得した周辺環境情報が妥当であるか否かを判定する。
運転支援情報取得部16は、周辺環境情報が妥当であると判定した場合、ステップST402にて取得済みの運転支援情報を出力すると判定する。運転支援情報取得部16は、周辺環境情報が妥当ではないと判定した場合、ステップST402にて取得済みの運転支援情報を出力しないと判定する。
運転支援情報取得部16は、運転支援情報を出力すると判定した場合、取得済みの運転支援情報を、出力部17に出力する。
なお、ステップST403の動作は、ステップST405の動作が完了するまでに行われていればよい。また、ステップST406の動作とステップST407の動作の順番は逆であってもよいし、ステップST406の動作とステップST407の動作が並行して行われるものとしてもよい。
また、以上の実施の形態1では、物体認識装置1は、図1に示すような構成を有するものとしたが、物体認識装置1は、表示制御部15、運転支援情報取得部16、出力部17、および、第2機械学習モデル19を備えることを必須としない。
例えば、物体認識装置1が、表示制御部15を備えない構成を有する場合、当該物体認識装置1の動作において、図3のステップST305、および、図4のステップST406の動作は行われない。
例えば、物体認識装置1が、運転支援情報取得部16、出力部17、および、第2機械学習モデル19を備えない構成を有する場合、当該物体認識装置1の動作において、図3のステップST306~ステップST307、および、図4のステップST403、ステップST407~ステップST408の動作は行われない。
例えば、物体認識装置1が、表示制御部15を備えない構成を有する場合、当該物体認識装置1の動作において、図3のステップST305、および、図4のステップST406の動作は行われない。
例えば、物体認識装置1が、運転支援情報取得部16、出力部17、および、第2機械学習モデル19を備えない構成を有する場合、当該物体認識装置1の動作において、図3のステップST306~ステップST307、および、図4のステップST403、ステップST407~ステップST408の動作は行われない。
また、以上の実施の形態1において、物体認識装置1は、車両に搭載されていることを前提としたが、これは一例に過ぎない。
例えば、図1を用いて説明した物体認識装置1の構成部の一部が、サーバ3に備えられるものとしてもよい。
図5は、実施の形態1において、図1を用いて説明した物体認識装置1の構成部の一部がサーバ3に備えられるものとした物体認識システムの構成例を示す図である。
図5では、図1を用いて説明した物体認識装置1の構成部のうち、情報取得部11および出力部17は車両に搭載された運転支援装置2aに備えられるものとし、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、第1機械学習モデル18、および、第2機械学習モデル19が、サーバ3に備えられるものとして、運転支援装置2aとサーバ3とで物体認識システムを構成するようにしている。運転支援装置2aとサーバ3とは、ネットワーク4を介して接続される。
サーバ3は、上記構成部に加え、情報取得部31および出力部32を備える。
サーバ3の情報取得部31は、情報取得部11から情報を取得する。情報取得部31は、取得した情報を、周辺認識部12に出力する。
サーバ3の出力部32は、運転支援情報を、運転支援部21に出力する。
例えば、図1を用いて説明した物体認識装置1の構成部の一部が、サーバ3に備えられるものとしてもよい。
図5は、実施の形態1において、図1を用いて説明した物体認識装置1の構成部の一部がサーバ3に備えられるものとした物体認識システムの構成例を示す図である。
図5では、図1を用いて説明した物体認識装置1の構成部のうち、情報取得部11および出力部17は車両に搭載された運転支援装置2aに備えられるものとし、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、第1機械学習モデル18、および、第2機械学習モデル19が、サーバ3に備えられるものとして、運転支援装置2aとサーバ3とで物体認識システムを構成するようにしている。運転支援装置2aとサーバ3とは、ネットワーク4を介して接続される。
サーバ3は、上記構成部に加え、情報取得部31および出力部32を備える。
サーバ3の情報取得部31は、情報取得部11から情報を取得する。情報取得部31は、取得した情報を、周辺認識部12に出力する。
サーバ3の出力部32は、運転支援情報を、運転支援部21に出力する。
また、図5では、車両は1台であることを想定しているが、これは一例に過ぎない。運転支援装置2aをそれぞれ搭載した複数台の車両が、サーバ3と接続されるようになっていてもよい。
この場合、サーバ3において、出力部32は、運転支援情報を、情報取得部31が取得した情報を出力した出力元の運転支援装置2aに出力するようにしてもよいし、当該運転支援装置2aとは別の車両に搭載された運転支援装置2aに出力するようにしてもよい。
具体例を挙げて説明する。以下の具体例では、サーバ3に対して情報を出力した運転支援装置2aとは別の、1以上の運転支援装置2aを、「他運転支援装置」という。また、運転支援装置2aを搭載した車両を「自車両」、「他運転支援装置」を搭載した車両を「他車両」という。自車両の運転支援装置2aからは、サーバ3に、自車両周辺を撮像した撮像画像が出力されるものとする。サーバ3は、撮像画像と第1機械学習モデル18とに基づき、周辺環境情報を取得し、当該周辺環境情報の妥当性を判定する。
例えば、自車両を先頭とし、自車両の後ろに1台以上の他車両が渋滞している車列があったとする。サーバ3は、運転支援装置2aから取得した撮像画像と第1機械学習モデル18とに基づき、落石等の障害物がある旨の周辺環境情報を取得したとする。さらに、サーバ3は、取得した周辺環境情報が妥当であると判定したとする。この場合、サーバ3は、周辺環境情報と第2機械学習モデル19とに基づいて取得した運転支援情報を、運転支援装置2aに出力する。運転支援情報は、例えば、ブレーキの開度を制御する情報である。このとき、サーバ3は、運転支援装置2aだけでなく、自車両の後ろで渋滞している他車両に搭載されている他運転支援装置に対しても、運転支援情報を出力することができる。
この場合、サーバ3において、出力部32は、運転支援情報を、情報取得部31が取得した情報を出力した出力元の運転支援装置2aに出力するようにしてもよいし、当該運転支援装置2aとは別の車両に搭載された運転支援装置2aに出力するようにしてもよい。
具体例を挙げて説明する。以下の具体例では、サーバ3に対して情報を出力した運転支援装置2aとは別の、1以上の運転支援装置2aを、「他運転支援装置」という。また、運転支援装置2aを搭載した車両を「自車両」、「他運転支援装置」を搭載した車両を「他車両」という。自車両の運転支援装置2aからは、サーバ3に、自車両周辺を撮像した撮像画像が出力されるものとする。サーバ3は、撮像画像と第1機械学習モデル18とに基づき、周辺環境情報を取得し、当該周辺環境情報の妥当性を判定する。
例えば、自車両を先頭とし、自車両の後ろに1台以上の他車両が渋滞している車列があったとする。サーバ3は、運転支援装置2aから取得した撮像画像と第1機械学習モデル18とに基づき、落石等の障害物がある旨の周辺環境情報を取得したとする。さらに、サーバ3は、取得した周辺環境情報が妥当であると判定したとする。この場合、サーバ3は、周辺環境情報と第2機械学習モデル19とに基づいて取得した運転支援情報を、運転支援装置2aに出力する。運転支援情報は、例えば、ブレーキの開度を制御する情報である。このとき、サーバ3は、運転支援装置2aだけでなく、自車両の後ろで渋滞している他車両に搭載されている他運転支援装置に対しても、運転支援情報を出力することができる。
また、例えば、自車両と他車両が、異なる出発地点から、同じ目的地へ向けて走行中であったところ、自車両が渋滞に巻き込まれたとする。サーバ3は、運転支援装置2aから取得した撮像画像と第1機械学習モデル18とに基づき、渋滞がある旨の周辺環境情報を取得したとする。さらに、サーバ3は、取得した周辺環境情報が妥当であると判定したとする。この場合、サーバ3は、周辺環境情報と第2機械学習モデル19とに基づいて取得した運転支援情報を、運転支援装置2aに出力する。運転支援情報は、例えば、ドライバに対して渋滞が発生していることを通知するための情報である。このとき、サーバ3は、運転支援装置2aだけでなく、同じ目的地へ向けて走行中の他車両に搭載されている他運転支援装置に対しても、運転支援情報を出力することができる。
このように、サーバ3は、同じ制御を行う複数の車両、または、同じ情報を提供する必要がある複数の車両、にそれぞれ搭載されている運転支援装置2aに対して、運転支援情報を出力することができる。
図6A,図6Bは、実施の形態1に係る物体認識装置1のハードウェア構成の一例を示す図である。
実施の形態1において、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17の機能は、処理回路601により実現される。すなわち、物体認識装置1は、情報に基づいて取得した周辺環境情報の妥当性を評価し、当該妥当性の評価に基づいて周辺環境情報の表示、または、周辺環境情報に基づく運転支援情報の取得を行うための処理回路601を備える。
処理回路601は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリ606に格納されるプログラムを実行するCPU(Central Processing Unit)605であってもよい。
実施の形態1において、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17の機能は、処理回路601により実現される。すなわち、物体認識装置1は、情報に基づいて取得した周辺環境情報の妥当性を評価し、当該妥当性の評価に基づいて周辺環境情報の表示、または、周辺環境情報に基づく運転支援情報の取得を行うための処理回路601を備える。
処理回路601は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリ606に格納されるプログラムを実行するCPU(Central Processing Unit)605であってもよい。
処理回路601が専用のハードウェアである場合、処理回路601は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路601がCPU605の場合、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17は、HDD(Hard Disk Drive)602、メモリ606等に記憶されたプログラムを実行するCPU605、システムLSI(Large-Scale Integration)等の処理回路601により実現される。また、HDD602、メモリ606等に記憶されたプログラムは、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ606とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、情報取得部11、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、運転支援情報取得部16、および、出力部17の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、情報取得部11および出力部17については専用のハードウェアとしての処理回路601でその機能を実現し、周辺認識部12、説明情報生成部13、評価情報生成部14、表示制御部15、および、運転支援情報取得部16については処理回路601がメモリ606に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、物体認識装置1は、図示しない表示装置、または、サーバ3等の装置と、有線通信または無線通信を行う入力インタフェース装置603および出力インタフェース装置604を備える。
また、物体認識装置1は、図示しない表示装置、または、サーバ3等の装置と、有線通信または無線通信を行う入力インタフェース装置603および出力インタフェース装置604を備える。
以上のように、実施の形態1によれば、物体認識装置1は、情報を取得する情報取得部11と、情報取得部11が取得した情報と、第1機械学習モデル18とに基づき、周辺の環境の状態に関する周辺環境情報を取得するとともに、周辺環境情報を取得した際の演算過程を示す演算過程情報を取得する周辺認識部12と、周辺認識部12が取得した演算過程情報に基づき、情報取得部11が取得した情報のうち、演算過程において周辺環境情報への影響が大きかった情報、を示す説明情報、を生成する説明情報生成部13と、情報取得部11が取得した情報と、説明情報生成部13が生成した説明情報とに基づき、周辺認識部12が取得した周辺環境情報の妥当性を示す評価情報を生成する評価情報生成部14とを備えるように構成した。そのため、物体認識装置1は、機械学習モデル(第1機械学習モデル18)を用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。
また、実施の形態1によれば、物体認識装置1は、評価情報生成部14が生成した評価情報に基づく情報を表示する表示制御部15を備えるように構成できる。そのため、これにより、ユーザは、物体認識装置1が妥当な周辺環境情報を取得できていることを視認することができる。
また、実施の形態1によれば、物体認識装置1において、情報取得部11は車両周辺の情報を取得し、周辺認識部12が取得した周辺環境情報と、第2機械学習モデル19とに基づき、運転支援情報を取得する運転支援情報取得部16を備えるように構成できる。そのため、物体認識装置1は、周辺環境情報の妥当性を判定した上で、当該周辺環境情報と第2機械学習モデル19とに基づいて運転支援情報を取得するので、当該運転支援情報を取得するにあたり、適切に、取得した周辺環境情報を活用することができる。
以上の実施の形態1では、物体認識装置1は、車両の周辺の環境の状態に関する周辺環境情報を取得し、当該周辺環境情報の妥当性を判定するものとしたが、これは一例に過ぎない。
例えば、物体認識装置1は、工場内にて、画像と機械学習モデルとに基づいて、ネジを打つ位置に関する情報を演算結果情報として取得し、演算結果情報の妥当性を判定する装置に適用することができる。
例えば、物体認識装置1は、取得した、演算結果情報が妥当であると判定した場合、当該演算結果情報に基づいて、ネジ打ちを制御する支援情報を、ネジ打ち機に出力する。
このように、実施の形態1に係る物体認識装置1は、取得した情報と機械学習モデルとに基づいて演算結果情報を取得する種々の装置に適用することができ、当該種々の装置において、機械学習モデルを用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。
例えば、物体認識装置1は、工場内にて、画像と機械学習モデルとに基づいて、ネジを打つ位置に関する情報を演算結果情報として取得し、演算結果情報の妥当性を判定する装置に適用することができる。
例えば、物体認識装置1は、取得した、演算結果情報が妥当であると判定した場合、当該演算結果情報に基づいて、ネジ打ちを制御する支援情報を、ネジ打ち機に出力する。
このように、実施の形態1に係る物体認識装置1は、取得した情報と機械学習モデルとに基づいて演算結果情報を取得する種々の装置に適用することができ、当該種々の装置において、機械学習モデルを用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができる。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
この発明に係る物体認識装置は、機械学習モデルを用いた演算を行って得られた結果が妥当なものか否かの判定を行うことができるように構成したため、機械学習モデルを用いて演算を行う物体認識装置に適用することができる。
1 物体認識装置、11,31 情報取得部、12 周辺認識部、13 説明情報生成部、14 評価情報生成部、15 表示制御部、16 運転支援情報取得部、17,32 出力部、18 第1機械学習モデル、19 第2機械学習モデル、2,2a 運転支援装置、21 運転支援部、3 サーバ、4 ネットワーク、601 処理回路、602 HDD、603 入力インタフェース装置、604 出力インタフェース装置、605 CPU、606 メモリ。
Claims (10)
- 情報を取得する情報取得部と、
前記情報取得部が取得した情報と、第1機械学習モデルとに基づき、周辺の環境の状態に関する周辺環境情報を取得するとともに、前記周辺環境情報を取得した際の演算過程を示す演算過程情報を取得する周辺認識部と、
前記周辺認識部が取得した演算過程情報に基づき、前記情報取得部が取得した情報のうち、前記演算過程において前記周辺環境情報への影響が大きかった情報、を示す説明情報、を生成する説明情報生成部と、
前記情報取得部が取得した情報と、前記説明情報生成部が生成した説明情報とに基づき、前記周辺認識部が取得した周辺環境情報の妥当性を示す評価情報を生成する評価情報生成部
とを備えた物体認識装置。 - 前記評価情報生成部が生成した評価情報に基づく情報を表示する表示制御部
を備えた請求項1記載の物体認識装置。 - 前記情報取得部は車両周辺の情報を取得し、
前記周辺認識部が取得した周辺環境情報と、第2機械学習モデルとに基づき、運転支援情報を取得する運転支援情報取得部
を備えた請求項1記載の物体認識装置。 - 前記運転支援情報取得部は、
前記評価情報生成部が生成した評価情報に基づき、前記周辺認識部が取得した周辺環境情報が妥当であると判定した場合、前記運転支援情報を取得し、
前記評価情報生成部が生成した評価情報に基づき、前記周辺認識部が取得した周辺環境情報が妥当ではないと判定した場合、前記運転支援情報を取得しない
ことを特徴とする請求項3記載の物体認識装置。 - 請求項3または請求項4記載の物体認識装置と、
前記運転支援情報取得部が取得した運転支援情報に基づき、車両の運転制御を行う運転支援部
とを備えた運転支援装置。 - 情報を取得する情報取得部と、
前記情報取得部が取得した情報と、第1機械学習モデルとに基づき、周辺環境に存在する物体に関する周辺環境情報を取得するとともに、前記周辺環境情報を取得した際の前記第1機械学習モデルによる演算過程を示す演算過程情報を取得する周辺認識部と、
前記周辺認識部が取得した演算過程情報に基づき、前記演算過程において前記周辺環境情報への影響が大きかった情報を示す説明情報、を生成する説明情報生成部と、
前記情報取得部が取得した情報と、前記説明情報生成部が生成した説明情報とに基づき、前記周辺認識部が取得した周辺環境情報の妥当性を示す評価情報を生成する評価情報生成部と、
前記評価情報生成部が生成した評価情報を外部装置に出力する出力部
とを備えたサーバ。 - 前記評価情報生成部が生成した評価情報を表示する表示制御部
を備えた請求項6記載のサーバ。 - 前記外部装置は車両であり、
前記情報取得部は車両周辺の情報を取得し、
前記周辺認識部が取得した周辺環境情報と、第2機械学習モデルとに基づき、運転支援情報を取得する運転支援情報取得部を備え、
前記出力部は、前記運転支援情報取得部が取得した運転支援情報を前記車両に出力する
ことを特徴とする請求項6記載のサーバ。 - 前記運転支援情報取得部は、
前記評価情報生成部が生成した評価情報に基づき、前記周辺認識部が取得した周辺環境情報が妥当であると判定した場合、前記運転支援情報を取得し、
前記評価情報生成部が生成した評価情報に基づき、前記周辺認識部が取得した周辺環境情報が妥当ではないと判定した場合、前記運転支援情報を取得しない
ことを特徴とする請求項8記載のサーバ。 - 情報取得部が、情報を取得するステップと、
周辺認識部が、前記情報取得部が取得した情報と、第1機械学習モデルとに基づき、周辺の環境の状態に関する周辺環境情報を取得するとともに、前記周辺環境情報を取得した際の演算過程を示す演算過程情報を取得するステップと、
説明情報生成部が、前記周辺認識部が取得した演算過程情報に基づき、前記情報取得部が取得した情報のうち、前記演算過程において前記周辺環境情報への影響が大きかった情報、を示す説明情報、を生成するステップと、
評価情報生成部が、前記情報取得部が取得した情報と、前記説明情報生成部が生成した説明情報とに基づき、前記周辺認識部が取得した周辺環境情報の妥当性を示す評価情報を生成するステップ
とを備えた物体認識方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/005309 WO2021161410A1 (ja) | 2020-02-12 | 2020-02-12 | 物体認識装置、運転支援装置、サーバ、および、物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021161410A1 JPWO2021161410A1 (ja) | 2021-08-19 |
JP7214018B2 true JP7214018B2 (ja) | 2023-01-27 |
Family
ID=77291462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021577755A Active JP7214018B2 (ja) | 2020-02-12 | 2020-02-12 | 物体認識装置、運転支援装置、サーバ、および、物体認識方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230042572A1 (ja) |
JP (1) | JP7214018B2 (ja) |
CN (1) | CN115039123A (ja) |
DE (1) | DE112020006708T5 (ja) |
WO (1) | WO2021161410A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016110232A (ja) | 2014-12-02 | 2016-06-20 | エヌ・ティ・ティ・コムウェア株式会社 | 対象認識装置、対象認識方法、およびプログラム |
JP2018073308A (ja) | 2016-11-04 | 2018-05-10 | 株式会社Soken | 認識装置、プログラム |
JP2019101535A (ja) | 2017-11-29 | 2019-06-24 | コニカミノルタ株式会社 | 教師データ作成装置および該方法ならびに画像セグメンテーション装置および該方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6462328B2 (ja) * | 2014-11-18 | 2019-01-30 | 日立オートモティブシステムズ株式会社 | 走行制御システム |
US10592936B2 (en) * | 2015-06-04 | 2020-03-17 | Mitsubishi Electric Corporation | Travel assistance device, travel assistance server, and travel assistance system |
JP6490210B2 (ja) * | 2015-06-12 | 2019-03-27 | 三菱電機株式会社 | 運転支援装置および運転支援方法 |
US10055652B2 (en) * | 2016-03-21 | 2018-08-21 | Ford Global Technologies, Llc | Pedestrian detection and motion prediction with rear-facing camera |
US10678240B2 (en) * | 2016-09-08 | 2020-06-09 | Mentor Graphics Corporation | Sensor modification based on an annotated environmental model |
-
2020
- 2020-02-12 US US17/791,949 patent/US20230042572A1/en active Pending
- 2020-02-12 JP JP2021577755A patent/JP7214018B2/ja active Active
- 2020-02-12 WO PCT/JP2020/005309 patent/WO2021161410A1/ja active Application Filing
- 2020-02-12 CN CN202080095206.0A patent/CN115039123A/zh active Pending
- 2020-02-12 DE DE112020006708.4T patent/DE112020006708T5/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016110232A (ja) | 2014-12-02 | 2016-06-20 | エヌ・ティ・ティ・コムウェア株式会社 | 対象認識装置、対象認識方法、およびプログラム |
JP2018073308A (ja) | 2016-11-04 | 2018-05-10 | 株式会社Soken | 認識装置、プログラム |
JP2019101535A (ja) | 2017-11-29 | 2019-06-24 | コニカミノルタ株式会社 | 教師データ作成装置および該方法ならびに画像セグメンテーション装置および該方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115039123A (zh) | 2022-09-09 |
JPWO2021161410A1 (ja) | 2021-08-19 |
WO2021161410A1 (ja) | 2021-08-19 |
US20230042572A1 (en) | 2023-02-09 |
DE112020006708T5 (de) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811282B2 (ja) | 自動運転車に用いられる自動データラベリング | |
JP6668435B2 (ja) | 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ{method for monotoring blind spot of vehicle and blind spot monitor using the same} | |
US11823573B2 (en) | Signal control apparatus and signal control method based on reinforcement learning | |
JP6748244B2 (ja) | 自動運転車に用いられる学習に基づく速度計画装置 | |
JP7001642B2 (ja) | 自動運転車両のためのオブジェクト移動を予測するための方法およびシステム | |
JP6832421B2 (ja) | シミュレーションに基づく自動運転車の感知要求の評価方法 | |
JP6878493B2 (ja) | 自動運転車両(adv)に用いるピッチ角の補正方法 | |
JP6619778B2 (ja) | 自律走行車の車両交通行動を予測して運転決定をするための方法及びシステム | |
JP7222868B2 (ja) | オブジェクト挙動のリアルタイム予測 | |
KR102201045B1 (ko) | 자율 주행 차량을 위한 주행 궤적을 생성하는 방법, 시스템 및 기계 판독 가능한 매체 | |
JP6779326B2 (ja) | 複数のスレッドを使用して自動運転車両に用いられる基準線を生成するための方法及びシステム | |
JP2022507995A (ja) | 無人運転車用の障害物回避方法及び装置 | |
US20180373943A1 (en) | Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium | |
JP6757442B2 (ja) | 自動運転車における車線後処理 | |
US20230229170A1 (en) | Incorporating rules into complex automated decision making | |
JP7149288B2 (ja) | 自動運転車両のための螺旋曲線に基づく垂直駐車計画システム | |
JP7176573B2 (ja) | 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム | |
JP7233572B2 (ja) | エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置 | |
JP2018158719A (ja) | 自動運転車両に用いられる制御型の計画と制御システム | |
JP7009490B2 (ja) | 自動運転車両のための制御主導型の3ポイントターン計画 | |
JP6932196B2 (ja) | 自動運転車両のための螺旋経路に基づく3ポイントターン計画 | |
JP7214018B2 (ja) | 物体認識装置、運転支援装置、サーバ、および、物体認識方法 | |
KR101818535B1 (ko) | 기계 학습 기법을 이용한 자동 주차 가능 여부 예측 시스템 | |
JP2020529348A (ja) | 自動運転車両のためのスピード制御コマンド自動較正システム | |
JP7207227B2 (ja) | 運転行動評価装置、運転行動評価方法、及び運転行動評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7214018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |