CN108073950A - 识别方法、识别装置、识别器生成方法以及识别器生成装置 - Google Patents
识别方法、识别装置、识别器生成方法以及识别器生成装置 Download PDFInfo
- Publication number
- CN108073950A CN108073950A CN201710853009.0A CN201710853009A CN108073950A CN 108073950 A CN108073950 A CN 108073950A CN 201710853009 A CN201710853009 A CN 201710853009A CN 108073950 A CN108073950 A CN 108073950A
- Authority
- CN
- China
- Prior art keywords
- image data
- identifier
- shooting condition
- acquirement
- study
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
Abstract
一种识别方法、识别装置、识别器生成方法以及识别器生成装置。识别方法包括:取得图像数据,取得所述图像数据的拍摄条件,从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,使用所述选择的识别器,识别所述取得的图像数据中的对象物。
Description
技术领域
本公开涉及使用识别器识别图像数据中的对象物的识别方法和识别装置、生成识别图像数据中的对象物的识别器的识别器生成方法和识别器生成装置。
背景技术
以往,已知有使用识别器识别图像数据中的对象物的识别装置。在以往的识别装置中,通过对识别器进行机器学习,提高了识别器的识别精度(例如参照专利文献1)。
在先技术文献
专利文献
专利文献1:日本特开2004-213567号公报
发明内容
发明要解决的问题
作为机器学习,已知有使用了多层神经网络(neural network)的深度学习。在深度学习中,制作依存于学习数据集的识别器。在使用有偏差的学习数据进行了学习而得到的识别器中,能够以高精度对为该学习数据特制的图像数据识别对象物,但是对于通用的图像数据,识别精度变低。这样的使用了有偏差的学习数据的学习通常被称为过学习。
通常来说,要求制作通用性高的识别器而不陷入过学习。然而,为了制作通用性高的识别器,需要大量收集没有偏差的学习数据,难易度变高,也花费成本。另外,由于使用大量的学习数据进行学习,所以有可能花费大量的时间,且学习不会结束。
本公开是为解决上述问题而提出的,其目的在于,提供一种能够以高精度识别对象物的识别方法、识别装置、识别器生成方法以及识别器生成装置。
用于解决问题的手段
本公开涉及的识别方法是使用识别器识别图像数据中的对象物的识别方法,包括:取得所述图像数据,取得所述图像数据的拍摄条件,从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,使用所述选择的识别器,识别所述取得的图像数据中的所述对象物。
发明的效果
根据本公开,由于使用识别器识别图像数据中的对象物,其中,所述识别器是使用了与识别时所取得的图像数据相同的拍摄条件下取得的学习用图像数据进行学习而得到的识别器所以能够以高精度识别对象物。
附图说明
图1是表示本实施方式1涉及的学习系统的构成的框图。
图2是用于说明本实施方式1涉及的学习系统的工作的流程图。
图3是表示本实施方式1涉及的识别系统的构成的框图。
图4是用于说明本实施方式1涉及的识别系统的工作的流程图。
图5是表示本实施方式2涉及的自动驾驶车辆的构成的框图。
图6是表示利用第一识别器从在第一地域拍摄到的图像数据之中对行人进行了识别而得到的识别结果的图,所述第一识别器是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。
图7是表示利用第一识别器从在第二地域拍摄到的图像数据之中对行人进行了识别而得到的识别结果的图,所述第二地域与第一地域不同,所述第一识别器是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。
图8是表示利用第二识别器从在第二地域拍摄到的图像数据之中对行人进行了识别而得到的识别结果的图,所述第二识别器是使用在第二地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。
具体实施方式
(发明本公开涉及的一个技术方案的经过)
作为机器学习,已知有使用了多层神经网络的深度学习。在深度学习中,制作依存于学习数据集的识别器。对于使用有偏差的学习数据进行了学习而得到的识别器,能够以高精度对为该学习数据特制的图像数据识别对象物,但是对于通用的图像数据,识别精度变低。这样的使用了有偏差的学习数据的学习通常被称为过学习。
例如,设为:根据由车载相机拍摄到的图像识别人物或道路标识的识别器使用在美国拍摄到的图像数据进行了学习。而且,在日本使用该识别器的情况下,由于该识别器没有使用在日本拍摄到的图像数据进行学习,所以有可能识别率降低。这是由于,在美国和日本,道路标识的图形、太阳的高度等日照条件、植物和电线杆等风景以及行驶车道不同。
通常来说,要求制作通用性高的识别器而不陷入过学习。然而,为了制作通用性高的识别器,需要大量收集没有偏差的学习数据,难易度变高,也花费成本。另外,由于使用大量的学习数据进行学习,所以有可能花费大量的时间,且学习不会完结。
为了解决以上问题,本公开的一个技术方案涉及的识别方法,包括以下步骤:
取得图像数据,
取得所述图像数据的拍摄条件,
从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,
使用所述选择的识别器,识别所述取得的图像数据中的对象物。
根据该构成,取得图像数据。取得图像数据的拍摄条件。从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与取得的拍摄条件相应的识别器。使用所选择的识别器,识别所取得的图像数据中的对象物。
因此,由于使用识别器识别图像数据中的对象物,其中,所述识别器是使用与识别时取得的图像数据相同的拍摄条件下取得的学习用图像数据进行了学习而得到的识别器,所以能够以高精度识别对象物。
另外,也可以是,在上述识别方法中,对于所述多个识别器,通过将按所述多个拍摄条件的每一个进行了分类而得到的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成所述多个识别器。
根据该构成,通过将按多个拍摄条件进行了分类而得到的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个拍摄条件学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个拍摄条件的预定的学习模型,由此生成多个识别器。
因此,由于不是无条件地使用学习用图像数据来学习识别器,而是仅使用与预定的拍摄条件相应的学习用图像数据来学习识别器,所以能够缩短学习时间。
另外,也可以是,在上述识别方法中,所述图像数据通过由设置于在道路上移动的移动体的拍摄装置进行拍摄来取得,
所述拍摄条件表示取得所述图像数据的地域,
所述对象物表示存在于所述道路上的障碍物,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的地域的地域信息,
所述选择中,从按各自不同的多个地域的每一个而生成的多个识别器之中,选择与所述取得的地域信息相应的识别器,
所述识别中,使用所述选择的识别器,识别所述取得的图像数据中的所述障碍物。
根据该构成,通过拍摄,从设置于移动体的拍摄装置取得图像数据,所述移动体在道路上移动。拍摄条件表示取得图像数据的地域。对象物表示存在于道路上的障碍物。取得用于确定取得图像数据的地域的地域信息。从按各自不同的多个地域的每一个而生成的多个识别器之中,选择与所取得的地域信息相应的识别器。使用选择出的识别器,识别所取得的图像数据中的障碍物。因此,能够识别在特定的地域拍摄到的图像数据中的障碍物。
另外,也可以是,在上述识别方法中,所述图像数据通过由设置于在道路上移动的移动体的拍摄装置进行拍摄来取得,
所述拍摄条件表示取得所述图像数据的国家,
所述对象物表示存在于所述道路上的道路标识,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的国家的国家信息,
所述选择中,从按各自不同的多个国家的每一个而生成的多个识别器之中,选择与所述取得的国家信息相应的识别器,
所述识别中,使用所述选择的识别器,识别所述取得的图像数据中的所述道路标识。
根据该构成,图像数据是通过由设置于在道路上移动的移动体的拍摄装置进行拍摄而取得的数据。拍摄条件表示取得图像数据的国家。对象物表示存在于道路上的道路标识。取得用于确定取得图像数据的国家的国家信息。从按各自不同的多个国家的每一个而生成的多个识别器之中,选择与所取得的国家信息相应的识别器。使用选择出的识别器,识别所取得的图像数据中的道路标识。因此,能够识别在特定的国家拍摄到的图像数据中的道路标识。
另外,也可以是,在上述识别方法中,所述拍摄条件表示取得所述图像数据的场所的天气,
所述拍摄条件的取得中,取得场所的天气,所述场所是取得所述图像数据的场所,
所述选择中,从按各自不同的多个天气的每一个而生成的多个识别器之中,选择与所述取得的天气相应的识别器。
根据该构成,拍摄条件表示取得图像数据的场所的天气。取得图像数据被取得的场所的天气。从按各自不同的多个天气的每一个而生成的多个识别器之中,选择与所取得的天气相应的识别器。因此,能够识别在特定的天气下拍摄到的图像数据中的对象物。
另外,也可以是,在上述识别方法中,所述拍摄条件表示取得所述图像数据的时间段,
所述拍摄条件的取得中,取得时间段,所述时间段是取得所述图像数据的时间段,
所述选择中,从按各自不同的多个时间段的每一个而生成的多个识别器之中,选择与所述取得的时间段相应的识别器。
根据该构成,拍摄条件表示取得图像数据的时间段。取得图像数据被取得的时间段。从按各自不同的多个时间段的每一个而生成的多个识别器之中,选择与所取得的时间段相应的识别器。因此,能够识别在特定的时间段拍摄到的图像数据中的对象物。
另外,也可以是,在上述识别方法中,所述拍摄条件表示取得所述图像数据的市区、山区以及海岸部中的任一场所,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的场所是所述市区、所述山区以及所述海岸部中的哪一个的场所信息,
所述选择中,从按所述市区、所述山区以及所述海岸部而生成的多个识别器之中,选择与所述取得的场所信息相应的识别器。
根据该构成,拍摄条件表示取得图像数据的市区、山区以及海岸部中的任一场所。取得用于确定取得图像数据的场所是市区、山区以及海岸部中的哪一个的场所信息。从按市区、山区以及海岸部而生成的多个识别器中选择与所取得的位置信息相应的识别器。因此,能够识别在市区、山区以及海岸部中的任一场所拍摄到的图像数据中的对象物。
本公开的另一技术方案涉及的识别装置,具备存储器和电路,所述电路在运行中执行包括以下的工作:
取得图像数据,
取得所述图像数据的拍摄条件,
从按多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,
使用所述选择的识别器,识别所述取得的图像数据中的对象物。
根据该构成,取得图像数据。取得图像数据的拍摄条件。从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所取得的拍摄条件相应的识别器。使用选择出的识别器,识别所取得的图像数据中的对象物。
因此,由于使用识别器识别图像数据中的对象物,其中,所述识别器是使用与识别时取得的图像数据相同的拍摄条件下取得的学习用图像数据进行了学习而得到的识别器,所以能够以高精度识别对象物。
本公开的另一技术方案涉及的识别器生成方法,是生成识别图像数据中的对象物的识别器的方法,包括:
取得拍摄条件分别不同的多个学习用图像数据,
通过将所述取得的多个学习用图像数据按每个所述拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成按每个所述拍摄条件而不同的多个识别器。
根据该构成,取得拍摄条件分别不同的多个学习用图像数据。
通过将所取得的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个拍摄条件学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个拍摄条件的预定的学习模型,由此生成按每个拍摄条件而不同的多个识别器。
因此,由于不是无条件地使用学习用图像数据来学习识别器,而是仅使用与预定的拍摄条件相应的学习用图像数据来学习识别器,所以能够缩短学习时间。
本公开的另一技术方案涉及的识别器生成装置,生成识别图像数据中的对象物的识别器,并具备存储器和电路,所述电路在运行中执行包括以下的工作:
取得拍摄条件分别不同的多个学习用图像数据,
通过将所述取得的多个学习用图像数据按每个所述拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成按每个所述拍摄条件而不同的多个识别器。
根据该构成,取得拍摄条件分别不同的多个学习用图像数据。通过将所取得的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个拍摄条件学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个拍摄条件的预定的学习模型,由此生成按每个拍摄条件而不同的多个识别器。
因此,由于不是无条件地使用学习用图像数据来学习识别器,而是仅使用与预定的拍摄条件相应的学习用图像数据来学习识别器,所以能够缩短学习时间。
以下,参照附图,说明本公开的实施方式。此外,以下的实施方式是将本公开具体化而得到的一例,并不限定本公开的技术范围。
(实施方式1)
说明本实施方式1涉及的学习系统和识别系统。
图1是表示本实施方式1涉及的学习系统的构成的框图。图1所示的学习系统具备学习装置1、相机101、GPS(Global Positioning System:全球定位系统)103以及用户输入部107。
学习装置1生成识别器,所述识别器识别图像数据中的对象物。学习装置1具备图像数据存储部102、拍摄条件取得部104、图像数据取得部105、分类部106、标签赋予部108、学习部109以及存储器110。此外,学习装置1还可以具备相机101、GPS103以及用户输入部107。
相机101是拍摄装置的一例,在不同的拍摄条件下拍摄学习用图像。拍摄条件例如表示图像数据被取得的地域。学习系统例如搭载在汽车上,相机101拍摄汽车的行进方向(前方)的风景。
图像数据存储部102存储由相机101拍摄到的多个学习用图像数据。此外,图像数据存储部102例如可以存储经由互联网等网络取得的多个学习用图像数据。
GPS103取得学习装置1的当前位置,即拍摄学习用图像的位置。此外,当前位置例如用纬度和经度表示。
拍摄条件取得部104取得由GPS103取得的学习装置1的当前位置,即拍摄学习用图像的位置,并根据所取得的位置确定拍摄学习用图像的地域。拍摄条件取得部104对由相机101拍摄并存储于图像数据存储部102的学习用图像数据赋予表示拍摄条件的拍摄条件信息,所述拍摄条件是拍摄该学习用图像数据的地域。
图像数据取得部105从图像数据存储部102取得拍摄条件分别不同的多个学习用图像数据。例如,图像数据取得部105取得所拍摄的地域分别不同的多个学习用图像数据。
分类部106按每个拍摄条件将由图像数据取得部105取得的多个学习用图像数据分类。
用户输入部107例如由触摸面板或键盘等用户界面构成,受理由用户输入的正确标签,所述正确标签表示识别器识别的对象物。例如,如果对象物是行人,则用户输入部107受理表示行人的正确标签的输入。此外,正确标签在机器学习中被使用。
标签赋予部108进行注释(annotation)处理,所述注释处理将由用户输入部107输入的正确标签赋予给由分类部106进行了分类而得到的多个学习用图像数据中的每一个。
学习部109按每个拍摄条件将由图像数据取得部105取得的多个学习用图像数据输入到预定的学习模型,按每个拍摄条件学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个拍摄条件的预定的学习模型,由此,生成按每个拍摄条件而不同的多个识别器。学习部109使用作为机器学习之一的深度学习,学习按拍摄条件进行了分类而得到的多个学习用图像数据。此外,由于深度学习是通常的技术,所以省略说明。
存储器110存储由学习部109生成的多个识别器。存储器110具备第一识别器111、第二识别器112以及第三识别器113。第一识别器111、第二识别器112以及第三识别器113是与分别不同的拍摄条件对应的识别器。
例如,第一识别器111是使用在第一地域拍摄到的多个学习用图像数据而生成的识别器,第二识别器112是使用在与第一地域不同的第二地域拍摄到的多个学习用图像数据而生成的识别器,第三识别器113是使用在与第一地域和第二地域不同的第三地域拍摄到的多个学习用图像数据而生成的识别器。例如,第一地域是美国的加利福尼亚,第二地域是日本的东京,第三地域是中国的北京。此外,在本实施方式中,存储器110具备第一识别器111、第二识别器112以及第三识别器113这三个识别器,但本公开不特别限定于此,可以具备两个识别器,也可以具备4个以上识别器。
接着,说明本实施方式1涉及的学习系统的工作。
图2是用于说明本实施方式1涉及的学习系统的工作的流程图。
首先,在步骤S1中,相机101在预定的拍摄条件下拍摄学习用图像。拍摄条件例如是取得图像数据的地域,相机101在第一地域拍摄学习用图像。相机101将拍摄到的学习用图像数据存储于图像数据存储部102。此外,相机101既可以将以预定的时间间隔拍摄到的多个学习用图像数据存储于图像数据存储部102,也可以将以预定的时间间隔从拍摄到的动态图像数据中选取出的多个学习用图像数据存储于图像数据存储部102。
接着,在步骤S2中,拍摄条件取得部104取得由GPS103取得的拍摄学习用图像的位置,并根据所取得的位置确定拍摄学习用图像的拍摄条件。例如,拍摄条件取得部104根据由GPS103取得的纬度和经度、预先存储的地图信息,确定拍摄学习用图像的地域。
接着,在步骤S3中,拍摄条件取得部104对由相机101拍摄并存储于图像数据存储部102的学习用图像数据赋予表示拍摄条件的拍摄条件信息,所述拍摄条件是拍摄该学习用图像数据的地域。
接着,在步骤S4中,图像数据取得部105从图像数据存储部102取得拍摄条件分别不同的多个学习用图像数据。
接着,在步骤S5中,分类部106按每个拍摄条件将由图像数据取得部105取得的多个学习用图像数据分类。
接着,在步骤S6中,标签赋予部108将由用户输入部107输入的、表示识别器要识别的对象物的正确标签赋予给由分类部106进行了分类而得到的多个学习用图像数据中的每一个。
接着,在步骤S7中,学习部109按每个拍摄条件将由分类部106进行了分类而得到的多个学习用图像数据输入到神经网络模型,并按每个拍摄条件学习表示对象物的特征的权重信息,并将表示对象物的特征的权重信息应用于每个拍摄条件的神经网络模型,由此生成按每个拍摄条件不同的多个识别器。
接着,在步骤S8中,学习部109对所生成的多个识别器中的每一个赋予表示拍摄条件的拍摄条件信息,并将赋予了拍摄条件信息的多个识别器存储于存储器207。
这样,由于不是无条件地使用学习用图像数据来学习识别器,而是仅使用与预定的拍摄条件相应的学习用图像数据来学习识别器,所以能够缩短学习时间。
图3是表示本实施方式1涉及的识别系统的构成的框图。图3所示的识别系统具备识别装置2、相机201以及GPS203。
识别装置2使用识别器识别图像数据中的对象物。识别装置2具备图像数据取得部202、拍摄条件取得部204、条件选择部205、识别部206、存储器207以及识别结果输出部208。此外,识别装置2还可以具备相机201和GPS203。
相机201在预定的拍摄条件下拍摄图像。拍摄条件例如表示取得图像数据的地域。识别系统例如搭载在汽车上,相机201拍摄汽车的行进方向(前方)的风景。
图像数据取得部202取得由相机201拍摄到的图像数据。图像数据通过由设置于在道路上移动的移动体的相机201进行拍摄而取得。
GPS203取得识别装置2的当前位置,即拍摄图像的位置。此外,当前位置例如用纬度和经度表示。
拍摄条件取得部204取得图像数据的拍摄条件。拍摄条件取得部204取得用于确定图像数据被取得的地域的地域信息。
条件选择部205从分别按不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所取得的拍摄条件相应的识别器。通过将按多个拍摄条件的每一个进行了分类而得到的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个拍摄条件学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个拍摄条件的预定的学习模型,由此生成多个识别器。此外,对象物例如表示存在于道路上的障碍物。障碍物例如是行人。条件选择部205从按各自不同的多个地域的每一个而生成的多个识别器之中,选择与所取得的地域信息相应的识别器。
识别部206使用由条件选择部205选择出的识别器,识别所取得的图像数据中的对象物。例如,识别部206使用由条件选择部205选择出的识别器,识别所取得的图像数据中的障碍物。
存储器207存储由学习装置1生成的多个识别器。存储器207具备第一识别器111、第二识别器112以及第三识别器113。第一识别器111、第二识别器112以及第三识别器113是分别与不同的拍摄条件对应的识别器。第一识别器111、第二识别器112以及第三识别器113在识别装置2的制造时被预先存储。此外,也可以是,识别装置2经由网络从服务器接收第一识别器111、第二识别器112以及第三识别器113。
识别结果输出部208输出由识别部206识别出的识别结果。此外,识别结果既可以是表示对象是否被识别出的信息,也可以是表示图像数据中的对象物被识别出的位置的信息。
接着,说明本实施方式1涉及的识别系统的工作。
图4是用于说明本实施方式1涉及的识别系统的工作的流程图。
首先,在步骤S11中,相机201在预定的拍摄条件下拍摄图像。拍摄条件例如是取得图像数据的地域,相机201在第一地域拍摄图像。
接着,在步骤S12中,图像数据取得部202从相机201取得在预定的拍摄条件下拍摄到的图像数据。例如,图像数据取得部202从相机201取得在第一地域拍摄到的图像数据。
接着,在步骤S13中,拍摄条件取得部204取得由GPS203取得的、图像被拍摄的位置,并根据所取得的位置确定图像被拍摄的拍摄条件。例如,拍摄条件取得部204根据由GPS203取得的纬度和经度和预先存储的地图信息,确定图像被拍摄的地域。
接着,在步骤S14中,条件选择部205从分别按不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与由拍摄条件取得部204确定出的拍摄条件相应的识别器。在由拍摄条件取得部204确定出的拍摄条件为第一地域的情况下,条件选择部205选择与第一地域相应的第一识别器111。
接着,在步骤S15中,识别部206使用由条件选择部205选择出的识别器,识别由图像数据取得部202取得的图像数据中的对象物。在由条件选择部205选择了第一识别器111的情况下,识别部206使用第一识别器111识别由图像数据取得部202取得的图像数据中的对象物。
接着,在步骤S16中,识别结果输出部208输出由识别部206识别的识别结果。
这样,由于使用识别器识别图像数据中的对象物,其中,所述识别器是使用与识别时取得的图像数据相同的拍摄条件下取得的学习用图像数据进行了学习而得到的识别器,所以能够以高精度识别对象物。
此外,也可以是,本实施方式1涉及的识别系统还具备以能够通信的方式经由网络与识别装置2连接的服务器。在该情况下,识别装置2具备图像数据取得部202、拍摄条件取得部204、识别结果输出部208以及通信部。识别装置2的通信部向服务器发送由图像数据取得部202取得的图像数据和由拍摄条件取得部204确定的拍摄条件。服务器具备通信部、条件选择部205、识别部206以及存储器207。服务器的通信部接收由识别装置2发送的图像数据和拍摄条件。另外,服务器的通信部向识别装置2发送由识别部206识别的识别结果。识别装置2的通信部接收由服务器发送的识别结果。这样,通过将多个识别器存储于服务器,能够削减识别装置2的存储器的容量。
另外,本实施方式1中的拍摄条件是地域,但本公开不特别限定于此,拍摄条件可以是取得图像数据的国家。另外,本实施方式1中的对象物可以是存在于道路上的道路标识、引导标识或警戒标识。在该情况下,也可以是,图像数据取得部105取得在不同的国家拍摄的多个学习用图像数据,分类部106按每个国家将取得的多个学习用图像数据分类,学习部109通过将所取得的多个学习用图像数据按每个国家输入到预定的学习模型,按每个国家学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个国家的预定的学习模型,从而生成按每个国家而不同的多个识别器。例如,第一识别器111使用在美国拍摄到的学习用图像数据而生成,第二识别器112使用在日本拍摄到的学习用图像数据生成,第三识别器113使用在中国拍摄到的学习用图像数据而生成。另外,也可以是,拍摄条件取得部204取得用于确定取得图像数据的国家的国家信息,条件选择部205从按各自不同的多个国家的每一个而生成的多个识别器之中,选择与所取得的国家信息相应的识别器,识别部206使用选择出的识别器,识别所取得的图像数据中的道路标识、引导标识或警戒标识。
另外,在本实施方式1中,拍摄条件可以是取得图像数据的场所的天气。在该情况下,也可以是,图像数据取得部105取得在不同的天气拍摄到的多个学习用图像数据,分类部106将所取得的多个学习用图像数据按每个天气分类,学习部109通过将所取得的多个学习用图像数据按每个天气输入到预定的学习模型,按每个天气学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个天气的预定的学习模型,由此生成按每个天气而不同的多个识别器。例如,第一识别器111使用在晴天拍摄到的学习用图像数据而生成,第二识别器112使用在多云天拍摄到的学习用图像数据而生成,第三识别器113使用在雨天拍摄到的学习用图像数据而生成。另外,也可以是,拍摄条件取得部204取得图像数据被取得的场所的天气,条件选择部205从按各自不同的多个天气的每一个而生成的多个识别器之中,选择与所取得的天气相应的识别器。
另外,在本实施方式1中,拍摄条件可以是图像数据被取得的时间段。在该情况下,也可以是,图像数据取得部105取得在不同的时间段拍摄到的多个学习用图像数据,分类部106将所取得的多个学习用图像数据按每个时间段分类,学习部109通过将所取得的多个学习用图像数据按每个时间段输入到预定的学习模型,按每个时间段学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于每个时间段的预定的学习模型,由此生成按每个时间段而不同的多个识别器。例如,第一识别器111使用在0时~8时之间的时间段拍摄到的学习用图像数据而生成,第二识别器112使用在8时~16时之间的时间段拍摄到的学习用图像数据而生成,第三识别器113使用在16时~24时(0时)之间的时间段拍摄到的学习用图像数据而生成。另外,也可以是,拍摄条件取得部204取得图像数据被取得的时间段,条件选择部205从按各自不同的多个时间段的每一个而生成的多个识别器之中,选择与所取得的时间段相应的识别器。
进一步,在本实施方式1中,拍摄条件也可以是图像数据被取得的市区、山区以及海岸部中的任一场所。在该情况下,也可以是,图像数据取得部105取得在市区、山区以及海岸部拍摄到的多个学习用图像数据,分类部106按市区、山区以及海岸部将所取得的多个学习用图像数据分类,学习部109通过将所取得的多个学习用图像数据按市区、山区以及海岸部输入到预定的学习模型,按市区、山区以及海岸部学习表示对象物的特征的信息,并将表示对象物的特征的信息应用于按市区、山区以及海岸部的预定的学习模型,由此生成按市区、山区以及海岸部而不同的多个识别器。例如,第一识别器111使用在市区拍摄到的学习用图像数据而生成,第二识别器112使用在山区拍摄到的学习用图像数据而生成,第三识别器113使用在海岸部拍摄到的学习用图像数据而生成。另外,也可以是,拍摄条件取得部204取得用于确定图像数据被取得的场所是市区、山区以及海岸部中的哪一个的场所信息,条件选择部205从按市区、山区以及海岸部而生成的多个识别器之中选择与所取得的场所信息相应的识别器。
(实施方式2)
说明本实施方式2涉及的自动驾驶车辆。
图5是表示本实施方式2涉及的自动驾驶车辆的构成的框图。图5所示的自动驾驶车辆3具备自动驾驶系统301、车辆控制处理器302、制动器控制系统303、加速器控制系统304、转向控制系统305、车辆导航系统306、相机201、GPS203以及识别装置2。
自动驾驶车辆3是自主行驶的车辆。在本实施方式2中,自动驾驶车辆3是汽车,但本公开不特别限定于此,自动驾驶车辆3也可以是摩托车、卡车、巴士、电车以及飞行器等各种车辆。
自动驾驶系统301具备处理器310、存储器311、用户输入部312、显示部313以及传感器314。
存储器311是计算机可读取记录介质,例如是硬盘驱动器、ROM(Read OnlyMemory:只读存储器)、RAM(Random Access Memory:随机存取存储器)、光盘以及半导体存储器等。存储器311存储有自动驾驶程序321和数据322。数据322包括地图数据331。地图数据331包括地形信息、表示行驶车道的车道信息、与十字路口相关的十字路口信息以及表示限制速度的限制速度信息等。此外,作为地图数据331,不限于上述信息。
处理器310例如是CPU(中央运算处理装置),执行存储在存储器311中的自动驾驶程序321。通过处理器310执行自动驾驶程序321,自动驾驶车辆3自主地行驶。另外,处理器310从存储器311读出数据322,向存储器311写入数据322,并更新存储于存储器311的数据322。
用户输入部312受理用户输入的各种信息。显示部313显示各种信息。传感器314测定自动驾驶车辆3周围的环境和自动驾驶车辆3内部的环境。传感器314例如包括计测自动驾驶车辆3的速度的速度计、计测自动驾驶车辆3的加速度的加速时钟、计测自动驾驶车辆3的方向的陀螺仪以及发动机温度传感器等。此外,传感器314不限于上述传感器。
车辆控制处理器302控制自动驾驶车辆3。制动器控制系统303以减速的方式控制自动驾驶车辆3。加速器控制系统304控制自动驾驶车辆3的速度。转向控制系统305调节自动驾驶车辆3的行进方向。车辆导航系统306决定自动驾驶车辆3的行驶路径,提示自动驾驶车辆3的行驶路径。
相机201配置在自动驾驶车辆3的后视镜附近,并拍摄自动驾驶车辆3前方的图像。相机201的构成与图3所示的相机201的构成相同。此外,相机201也可以不拍摄自动驾驶车辆3的前方,而是拍摄自动驾驶车辆3的后方、自动驾驶车辆3的右方以及自动驾驶车辆3的左方等自动驾驶车辆3周围的图像。
GPS203取得自动驾驶车辆3的当前位置。GPS203的构成与图3所示的GPS203的构成相同。
识别装置2从由相机201拍摄到的图像数据之中识别对象物,输出识别结果。识别装置2的构成与图3所示的识别装置2的构成相同。处理器310基于识别装置2的识别结果,控制自动驾驶车辆3的自主运转。例如,在对象物为行人的情况下,识别装置2从由相机201拍摄到的图像数据之中对行人进行识别,输出识别结果。在从图像数据之中识别出行人的情况下,处理器310基于识别装置2的识别结果,以避开行人的方式控制自动驾驶车辆3的自主运转。
此外,也可以是,识别装置2从图像数据之中不仅对行人进行识别,还对其他车辆、位于道路的障碍物、交通信号、道路标识、行驶车道或树木等车辆外部的物体进行识别。
处理器310基于传感器314的感测结果和识别装置2的识别结果,控制自动驾驶车辆3的方向和速度。处理器310利用加速器控制系统304使自动驾驶车辆3加速,利用制动器控制系统303使自动驾驶车辆3减速,利用转向控制系统305使自动驾驶车辆3的方向变化。
接着,说明本实施方式2中的自动驾驶车辆3的识别装置2的图像识别处理。
图6是表示利用第一识别器从在第一地域拍摄到的图像数据之中识别行人而得到的识别结果的图,所述第一识别器是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器,图7是表示利用第一识别器从在第二地域拍摄到的图像数据之中识别行人而得到的识别结果的图,所述第二地域与第一地域不同,所述第一识别器是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器,图8是表示利用第二识别器从在第二地域拍摄的图像数据之中识别行人而得到的识别结果的图,所述第二识别器是使用在第二地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。
图6所示的图像401是在第一地域拍摄到的图像。识别装置2的第一识别器111是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。在该情况下,拍摄条件取得部204确定为拍摄条件是第一地域,识别部206通过使用与第一地域对应的第一识别器111识别图像401中的行人,从而正确地识别行人402。
另一方面,图7所示的图像411是在与第一地域不同的第二地域拍摄到的图像。识别装置2的第一识别器111是使用在第一地域拍摄到的多个学习用图像数据进行了学习而得到的识别器,假设在存储器207中没有存储使用在第二地域拍摄道的多个学习用图像数据进行了学习而得到的识别器。识别部206在使用第一识别器111识别图像411中的行人的情况下,错误地将电线杆412识别为行人。
进而,图8所示的图像421是在第二地域拍摄到的图像。识别装置2的第二识别器112是使用在第二地域拍摄到的多个学习用图像数据进行了学习而得到的识别器。在该情况下,拍摄条件取得部204确定为拍摄条件是第二地域,识别部206通过使用与第二地域对应的第二识别器112识别图像421中的行人,从而正确地识别行人422。
这样,通过生成根据拍摄条件进行了学习而得到的多个识别器,并使用与拍摄条件相应的识别器来识别图像数据中的对象物,从而能够在特定的拍摄条件下以高精度识别图像数据中的对象物。
另外,由于识别装置2能够以高精度识别行人等对象物,所以能够将识别装置2应用于自动驾驶车辆。
在本公开中,单元、装置、部件或部的全部或一部分,或附图所示的框图的功能块的全部或一部分也可以利用包括半导体器件、半导体集成电路(IC)或LSI(large scaleintegration:大规模集成电路)的一个或多个电子电路来执行。LSI或IC既可以集成在一块芯片中,也可以将多块芯片组合而构成。例如,存储元件以外的功能块可以集成在一块芯片中。在这里,虽然称呼为LSI或IC,但根据集成程度的不同称呼方法也改变,也可以是称为系统LSI、VLSI(Very Large Scale Integration:超大规模集成电路)或ULSI(Ultra LargeScale Integration:超大规模集成电路)的部件。在制造LSI后被编程的、FieldProgrammable Gate Array(FPGA:现场可编程门阵列),或能够重新构建LSI内部的接合关系或安装LSI内部的电路划分的Reconfigurable Logic Device(可重构逻辑器件)也能够在相同的目的中使用。
并且,单元、装置、部件或部的全部或一部分功能或操作能够通过软件处理来执行。在该情况下,软件记录在一个或多个ROM、光盘、硬盘驱动器等非易失性记录介质中,在由处理装置(Processor)执行软件时,在该软件中确定的功能由处理装置(Processor)和外围装置执行。系统或装置可以具备记录有软件的一个或多个非易失性记录介质、处理装置(Processor:处理器)以及需要的硬件装置例如接口。
产业上的可利用性
本公开涉及的识别方法和识别装置能够以高精度识别对象物,作为使用识别器来识别图像数据中的对象物的识别方法和识别装置是有用的。另外,本公开涉及的识别器生成方法和识别器生成装置能够缩短学习时间,作为生成识别图像数据中的对象物的识别器的识别器生成方法和识别器生成装置是有用的。
Claims (10)
1.一种识别方法,包括:
取得图像数据,
取得所述图像数据的拍摄条件,
从按各自不同的多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,
使用所述选择的识别器,识别所述取得的图像数据中的对象物。
2.根据权利要求1所述的识别方法,
对于所述多个识别器,通过将按所述多个拍摄条件的每一个进行了分类而得到的多个学习用图像数据按每个拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成所述多个识别器。
3.根据权利要求1或2所述的识别方法,
所述图像数据通过由设置于在道路上移动的移动体的拍摄装置进行拍摄来取得,
所述拍摄条件表示取得所述图像数据的地域,
所述对象物表示存在于所述道路上的障碍物,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的地域的地域信息,
所述选择中,从按各自不同的多个地域的每一个而生成的多个识别器之中,选择与所述取得的地域信息相应的识别器,
所述识别中,使用所述选择的识别器,识别所述取得的图像数据中的所述障碍物。
4.根据权利要求1或2所述的识别方法,
所述图像数据通过由设置于在道路上移动的移动体的拍摄装置进行拍摄来取得,
所述拍摄条件表示取得所述图像数据的国家,
所述对象物表示存在于所述道路上的道路标识,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的国家的国家信息,
所述选择中,从按各自不同的多个国家的每一个而生成的多个识别器之中,选择与所述取得的国家信息相应的识别器,
所述识别中,使用所述选择的识别器,识别所述取得的图像数据中的所述道路标识。
5.根据权利要求1或2所述的识别方法,
所述拍摄条件表示取得所述图像数据的场所的天气,
所述拍摄条件的取得中,取得场所的天气,所述场所是取得所述图像数据的场所,
所述选择中,从按各自不同的多个天气的每一个而生成的多个识别器之中,选择与所述取得的天气相应的识别器。
6.根据权利要求1或2所述的识别方法,
所述拍摄条件表示取得所述图像数据的时间段,
所述拍摄条件的取得中,取得时间段,所述时间段是取得所述图像数据的时间段,
所述选择中,从按各自不同的多个时间段的每一个而生成的多个识别器之中,选择与所述取得的时间段相应的识别器。
7.根据权利要求1或2所述的识别方法,
所述拍摄条件表示取得所述图像数据的市区、山区以及海岸部中的任一场所,
所述拍摄条件的取得中,取得用于确定取得所述图像数据的场所是所述市区、所述山区以及所述海岸部中的哪一个的场所信息,
所述选择中,从按所述市区、所述山区以及所述海岸部而生成的多个识别器之中,选择与所述取得的场所信息相应的识别器。
8.一种识别装置,具备存储器和电路,所述电路在运行中执行包括以下的工作:
取得图像数据,
取得所述图像数据的拍摄条件,
从按多个拍摄条件的每一个而生成的多个识别器之中,选择与所述取得的拍摄条件相应的识别器,
使用所述选择的识别器,识别所述取得的图像数据中的对象物。
9.一种识别器生成方法,是生成识别图像数据中的对象物的识别器的方法,包括:
取得拍摄条件分别不同的多个学习用图像数据,
通过将所述取得的多个学习用图像数据按每个所述拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成按每个所述拍摄条件而不同的多个识别器。
10.一种识别器生成装置,生成识别图像数据中的对象物的识别器,具备存储器和电路,所述电路在运行中执行包括以下的工作:
取得拍摄条件分别不同的多个学习用图像数据,
通过将所述取得的多个学习用图像数据按每个所述拍摄条件输入到预定的学习模型,按每个所述拍摄条件学习表示所述对象物的特征的信息,并将表示所述对象物的特征的信息应用于每个所述拍摄条件的所述预定的学习模型,由此生成按每个所述拍摄条件而不同的多个识别器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016222178A JP2018081404A (ja) | 2016-11-15 | 2016-11-15 | 識別方法、識別装置、識別器生成方法及び識別器生成装置 |
JP2016-222178 | 2016-11-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108073950A true CN108073950A (zh) | 2018-05-25 |
Family
ID=60320711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710853009.0A Pending CN108073950A (zh) | 2016-11-15 | 2017-09-20 | 识别方法、识别装置、识别器生成方法以及识别器生成装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10747996B2 (zh) |
EP (1) | EP3321854A3 (zh) |
JP (1) | JP2018081404A (zh) |
CN (1) | CN108073950A (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7365145B2 (ja) * | 2018-07-19 | 2023-10-19 | ヤフー株式会社 | 情報提供装置、情報提供方法、およびプログラム |
JP6943820B2 (ja) | 2018-08-02 | 2021-10-06 | 古河電気工業株式会社 | 融着接続システム、融着接続機及び光ファイバの回転角判定方法 |
JP2020020997A (ja) * | 2018-08-02 | 2020-02-06 | 古河電気工業株式会社 | 融着接続システム、融着接続機及び光ファイバ種判別方法 |
JP7052660B2 (ja) * | 2018-09-25 | 2022-04-12 | トヨタ自動車株式会社 | 学習画像選別装置 |
CN115512173A (zh) * | 2018-10-11 | 2022-12-23 | 特斯拉公司 | 用于使用增广数据训练机器模型的系统和方法 |
JP7391029B2 (ja) * | 2018-10-11 | 2023-12-04 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法および情報処理システム |
JP7279721B2 (ja) * | 2018-10-30 | 2023-05-23 | 日本電気株式会社 | 物体認識装置、物体認識方法および物体認識プログラム |
CN109359623B (zh) * | 2018-11-13 | 2021-05-11 | 西北工业大学 | 基于深度联合分布适配网络的高光谱图像迁移分类方法 |
US10775977B2 (en) * | 2019-01-25 | 2020-09-15 | Google Llc | Image display with selective depiction of motion |
JP2020134990A (ja) * | 2019-02-13 | 2020-08-31 | カシオ計算機株式会社 | データベース生成方法、データベース生成装置およびデータベース生成プログラム |
CN109902739A (zh) * | 2019-02-27 | 2019-06-18 | 厦门理工学院 | 一种机械设备故障程度识别方法、终端设备及存储介质 |
WO2020202244A1 (ja) * | 2019-03-29 | 2020-10-08 | 日本電気株式会社 | モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 |
JP7167850B2 (ja) * | 2019-05-22 | 2022-11-09 | 株式会社Jvcケンウッド | 人物判定用の学習済みモデルセットの生成装置、生成方法、生成プログラム、人物領域判定装置、判定方法、および判定プログラム |
JP7025372B2 (ja) * | 2019-06-11 | 2022-02-24 | Kddi株式会社 | 物体識別装置、方法およびシステム |
CN112180395B (zh) * | 2019-06-13 | 2023-04-07 | 北京百度网讯科技有限公司 | 道路标记的提取方法、装置、设备及存储介质 |
JPWO2020261333A1 (zh) * | 2019-06-24 | 2020-12-30 | ||
CN110363146A (zh) * | 2019-07-16 | 2019-10-22 | 杭州睿琪软件有限公司 | 一种物体识别方法、装置、电子设备和存储介质 |
JP7071316B2 (ja) * | 2019-07-19 | 2022-05-18 | 株式会社日立製作所 | 車両用情報処理装置 |
CN110490955A (zh) * | 2019-08-26 | 2019-11-22 | 成都步科智能有限公司 | 一种标注图像获取方法及装置 |
US20220366248A1 (en) * | 2019-10-10 | 2022-11-17 | Nec Corporation | Learning apparatus, a learning method, object detecting apparatus, object detecting method, and recording medium |
US11125575B2 (en) | 2019-11-20 | 2021-09-21 | Here Global B.V. | Method and apparatus for estimating a location of a vehicle |
US20230037499A1 (en) | 2020-02-17 | 2023-02-09 | Mitsubishi Electric Corporation | Model generation device, in-vehicle device, and model generation method |
JP7452095B2 (ja) | 2020-02-27 | 2024-03-19 | 沖電気工業株式会社 | データ処理装置、データ処理方法およびプログラム |
US20230127338A1 (en) * | 2020-03-31 | 2023-04-27 | Nec Corporation | Road deterioration determination device, road deterioration determination method, and storage medium |
CN113628227B (zh) * | 2021-08-02 | 2022-05-17 | 哈尔滨工业大学 | 一种基于深度学习的海岸线变化分析方法 |
JP7209785B1 (ja) | 2021-08-23 | 2023-01-20 | セフテック株式会社 | 規制領域内への進入車両検出装置 |
WO2024013933A1 (ja) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | 映像処理システム、映像処理装置及び映像処理方法 |
CN115798239B (zh) * | 2022-11-17 | 2023-09-22 | 长安大学 | 一种车辆运行道路区域类型辨识方法 |
CN117315237B (zh) * | 2023-11-23 | 2024-02-27 | 上海闪马智能科技有限公司 | 目标检测模型的确定方法及装置、存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213567A (ja) * | 2003-01-08 | 2004-07-29 | Ntt Docomo Inc | 画像学習装置及びその学習方法 |
CN1818929A (zh) * | 2005-01-28 | 2006-08-16 | 爱信艾达株式会社 | 图像识别装置及图像识别方法 |
US20080069400A1 (en) * | 2006-07-07 | 2008-03-20 | Ying Zhu | Context adaptive approach in vehicle detection under various visibility conditions |
JP2010183187A (ja) * | 2009-02-03 | 2010-08-19 | Canon Inc | 撮像装置およびその制御方法、プログラム |
CN102316327A (zh) * | 2010-07-06 | 2012-01-11 | 索尼公司 | 图像处理设备、成像方法以及图像处理方法 |
US20130101157A1 (en) * | 2011-10-20 | 2013-04-25 | International Business Machines Corporation | Optimizing the detection of objects in images |
CN104050620A (zh) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | 对象检测设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007329762A (ja) * | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 |
JP2008040851A (ja) * | 2006-08-08 | 2008-02-21 | Fuji Xerox Co Ltd | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
DE102007034505A1 (de) * | 2007-07-24 | 2009-01-29 | Hella Kgaa Hueck & Co. | Verfahren und Vorrichtung zur Verkehrszeichenerkennung |
JP4953012B2 (ja) * | 2007-08-10 | 2012-06-13 | アイシン・エィ・ダブリュ株式会社 | 画像認識装置と画像認識装置のためのプログラム、及びこれを用いたナビゲーション装置とナビゲーション装置のためのプログラム |
JP5159390B2 (ja) * | 2008-03-28 | 2013-03-06 | キヤノン株式会社 | 物体検知方法及びその装置 |
US9002100B2 (en) * | 2008-04-02 | 2015-04-07 | Xerox Corporation | Model uncertainty visualization for active learning |
DE102009057553A1 (de) * | 2009-12-09 | 2011-06-16 | Conti Temic Microelectronic Gmbh | Verfahren zur Unterstützung des Fahrers eines straßengebundenen Fahrzeugs bei der Fahrzeugführung |
US9633436B2 (en) * | 2012-07-26 | 2017-04-25 | Infosys Limited | Systems and methods for multi-dimensional object detection |
JP2014063360A (ja) * | 2012-09-21 | 2014-04-10 | Sony Corp | 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム |
JP2014215877A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 物体検出装置 |
KR102278945B1 (ko) * | 2015-01-27 | 2021-07-19 | 삼성전자주식회사 | 이미지 처리 방법 및 이를 지원하는 전자 장치 |
CN107092920A (zh) * | 2016-02-17 | 2017-08-25 | 福特全球技术公司 | 评估其上行驶有车辆的路面的方法和装置 |
JP6804965B2 (ja) * | 2016-12-15 | 2020-12-23 | 株式会社日立製作所 | 画像処理装置、画像処理システム、および画像処理方法 |
-
2016
- 2016-11-15 JP JP2016222178A patent/JP2018081404A/ja active Pending
-
2017
- 2017-09-20 CN CN201710853009.0A patent/CN108073950A/zh active Pending
- 2017-11-02 US US15/802,435 patent/US10747996B2/en active Active
- 2017-11-10 EP EP17201112.4A patent/EP3321854A3/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213567A (ja) * | 2003-01-08 | 2004-07-29 | Ntt Docomo Inc | 画像学習装置及びその学習方法 |
CN1818929A (zh) * | 2005-01-28 | 2006-08-16 | 爱信艾达株式会社 | 图像识别装置及图像识别方法 |
US20080069400A1 (en) * | 2006-07-07 | 2008-03-20 | Ying Zhu | Context adaptive approach in vehicle detection under various visibility conditions |
JP2010183187A (ja) * | 2009-02-03 | 2010-08-19 | Canon Inc | 撮像装置およびその制御方法、プログラム |
CN102316327A (zh) * | 2010-07-06 | 2012-01-11 | 索尼公司 | 图像处理设备、成像方法以及图像处理方法 |
US20130101157A1 (en) * | 2011-10-20 | 2013-04-25 | International Business Machines Corporation | Optimizing the detection of objects in images |
CN104050620A (zh) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | 对象检测设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2018081404A (ja) | 2018-05-24 |
US10747996B2 (en) | 2020-08-18 |
EP3321854A3 (en) | 2018-07-04 |
US20180137336A1 (en) | 2018-05-17 |
EP3321854A2 (en) | 2018-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108073950A (zh) | 识别方法、识别装置、识别器生成方法以及识别器生成装置 | |
US10528055B2 (en) | Road sign recognition | |
CN106611497B (zh) | 交通量预测系统及预测方法、车辆用显示装置以及车辆 | |
JP6595182B2 (ja) | マッピング、位置特定、及び姿勢補正のためのシステム及び方法 | |
Sun et al. | Proximity based automatic data annotation for autonomous driving | |
CN102800207B (zh) | 交通信号检测系统和方法 | |
CN110103983A (zh) | 用于端对端自主车辆验证的系统和方法 | |
CN109211249A (zh) | 用于车辆定位的方法和系统 | |
CN110239562A (zh) | 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适 | |
CN108162974B (zh) | 使用道路角度数据的车辆控制 | |
CN109891346A (zh) | 用于自主车辆控制系统的位置特定辅助 | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
US20180137628A1 (en) | Image data extraction apparatus and image data extraction method | |
JP2018055141A (ja) | 移動体軌道予測システム | |
CN107036607A (zh) | 用于核实车辆的地图数据的系统和方法 | |
CN111797526B (zh) | 一种仿真测试场景构建方法及装置 | |
CN108534790A (zh) | 无人驾驶车辆导航方法、装置及无人驾驶车辆 | |
US11573084B2 (en) | Method and system for heading determination | |
CN111351502B (zh) | 用于从透视图生成环境的俯视图的方法,装置和计算机程序产品 | |
JPWO2006035755A1 (ja) | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 | |
CN108136867A (zh) | 自动驾驶车辆的车辆位置点转发方法 | |
CN107664993A (zh) | 一种路径规划方法 | |
CN112945230B (zh) | 车辆行车状态的识别方法、装置、计算机设备和存储介质 | |
CN107179767A (zh) | 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 | |
CN107735647A (zh) | 候补路径提供系统、车载装置及候补路径提供方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180525 |
|
WD01 | Invention patent application deemed withdrawn after publication |