CN105574536B - 机器学习装置和方法、分类装置和方法以及记录介质 - Google Patents
机器学习装置和方法、分类装置和方法以及记录介质 Download PDFInfo
- Publication number
- CN105574536B CN105574536B CN201510590503.3A CN201510590503A CN105574536B CN 105574536 B CN105574536 B CN 105574536B CN 201510590503 A CN201510590503 A CN 201510590503A CN 105574536 B CN105574536 B CN 105574536B
- Authority
- CN
- China
- Prior art keywords
- learning
- classification
- contents
- content
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
Abstract
本发明提供一种机器学习装置、机器学习方法、分类装置、分类方法。机器学习装置(100)的图像获取部(121)获取n个(n为2以上的自然数)用于种类划分的带标签的学习用图像。特征向量获取部(122)从n个学习用图像之中分别获取表示特征的特征向量。向量变换部(123)基于学习用图像彼此的类似度而将n个学习用图像各自的特征向量变换为类似特征向量。分类条件学习部(125)基于由向量变换部(123)变换后的类似特征向量和n个学习用图像各自所附带的标签,来学习用于对该n个学习用图像进行种类划分的分类条件。分类部(126)按照分类条件学习部(125)学习到的分类条件,对未附带标签的试验用图像进行种类划分。
Description
本申请主张以2014年10月31日提出申请的日本专利申请第2014- 222600号为基础申请的优先权,该基础申请的内容全部援引于本申请中。
技术领域
本发明涉及机器学习装置、机器学习方法、分类装置、分类方法。
背景技术
以往,已知将内容(例如图像、声音、文本等)分类为其内容所属的种类的分类装置。该分类装置按照用于分类内容的分类条件来进行内容的分类。该分类条件一般是由机器学习装置机器学习到的条件。
在此,作为学习用于将内容分类为两个种类的分类条件的机器学习装置,已知支持向量机(SVM:Support Vector Machine)。
该SVM(机器学习装置)利用属于两个种类之一的学习用内容的集合和属于另一个种类的学习用内容的集合,预先学习将这些集合分类为两个的分类条件(例如用于分类的函数等)。然后,分类装置按照学习到的分类条件,将未知的内容分类为两个种类之中的任一个种类。在此,“GENERALIZED HISTOGRAM INTERSECTION KERNEL FOR IMAGERECOGNITION”、International Conference on Image Processing(ICIP)、 2005年9月公开了用于将无法线性分离的两个集合以非线性的方式分离的SVM技术。
其中,SVM利用将学习用内容的特征定量化后的特征向量来进行上述分类条件的学习。在此情况下,SVM学习用于对分布于向量空间的一方和另一方的学习用内容各自的特征向量进行线性分离的分类条件。
然而,向量空间中的特征向量的分布的方法根据学习用内容的本来的性质的不同而不同,有时无法将一方和另一方的学习用内容的集合彼此进行线性分离。即,是否易于线性分离较大程度依赖于学习用内容的本来的性质,在分布的方法根据学习用内容的本来的性质唯一决定的情况下,用于线性分离的自由度较低。
因而,存在如下问题,即,纵使机器学习装置学习了分类条件,利用该学习到的分类条件的分类装置针对未知的内容也无法精度良好地分类为该未知的内容应属的种类。
发明内容
本发明正是为了解决上述问题而完成的,其目的在于,提供一种精度良好地分类为内容所属的种类的机器学习装置、机器学习方法、分类装置、分类方法。
本发明的第1观点所涉及的机器学习装置的特征在于,具备:内容获取单元,其获取n个(n为2以上的自然数)用于种类划分的带标签的学习用内容;特征向量获取单元,其从所述内容获取单元获取到的n个学习用内容之中分别获取表示特征的特征向量;向量变换单元,其基于学习用内容彼此的类似度,将所述特征向量获取单元获取到的所述n个学习用内容各自的特征向量变换为类似特征向量;学习单元,其基于由所述向量变换单元变换后的所述类似特征向量、和所述n个学习用内容各自所附带的标签,来学习用于对该n个学习用内容进行种类划分的分类条件;和分类单元,其按照所述学习单元学习到的分类条件,对未附带所述标签的试验用内容进行种类划分。
本发明的第2观点所涉及的分类装置的特征在于,具备:未知内容分类单元,其按照第1观点所涉及的机器学习装置学习到的分类条件对与所述学习用内容和所述试验用内容不同的未知的内容进行种类划分。
附图说明
图1是表示机器学习装置的构成的框图。
图2是表示学习用图像和试验用图像的一例的图。
图3是表示从学习用图像之中获取到的特征向量的一例的图。
图4是表示将学习用图像的特征向量变为类似特征向量的流程的一例的图。
图5是表示将试验用图像的特征向量变为类似特征向量的流程的一例的图。
图6是表示基于取幂参数α的取幂后的类似特征向量的示例的图。
图7是表示与取幂参数α的值相应的取幂前后的值的变化的图。
图8是用于说明线性SVM(支持向量机)的原理的图。
图9A是表示调整参数C大的情况下的示例的图。
图9B是表示调整参数C小的情况下的示例的图。
图10是表示正误判定用表的一例的图。
图11是表示实施方式所涉及的分类处理的流程的流程图。
图12是表示分类装置的构成的框图。
图13是表示变形例所涉及的分类处理的流程的流程图。
图14是表示图13的分类处理的后续的流程图。
具体实施方式
以下,基于附图来说明本发明的实施方式。
如图1所示,机器学习装置100具备存储部110以及控制部120。该机器学习装置100是对用于将学习用内容(图像、声音、文本等)分类为两个种类的分类条件进行机器学习的装置。该机器学习装置100经过:根据学习用内容来学习分类条件的学习阶段、和按照学习到的分类条件对试验用内容进行分类并作出正误评价的试验阶段。然后,分类装置在商用环境下,按照学习到的分类条件对不同于学习用内容和试验用内容的未知的内容进行分类。
在本实施方式中,以机器学习装置100的学习阶段和试验阶段为中心来进行说明。此外,在本实施方式中,作为内容而取图像为例来进行说明。此外,在本实施方式中,“学习分类条件”和“生成分类条件”为同义,适当根据任一者来进行说明。
存储部110为HDD(Hard Disk Drive,硬盘驱动器)等非易失性存储器。该存储部110具备图像存储部111。该图像存储部111存储图2所示那样的学习用图像S1~Sn和试验用图像T1~Tm。学习用图像S1~Sn是附带有用于将这些学习用图像S1~Sn划分为两个种类的标签的带标签图像。该标签取两个种类之中的一个种类的值(例如1)或者另一个种类的值(例如-1)当中的任一值。另一方面,试验用图像T1~Tm是未附带有标签的无标签图像。
此外,由于要划分为两个种类,因此带标签学习用图像的个数(n个) 需要为至少两个以上,即n为2以上的自然数。此外,为了多次执行正误评价,无标签试验用图像的个数(m个)需要为至少两个以上,即m为 2以上的自然数。在本实施方式中,为了易于理解,以n和m的数相等、即n=m为前提来进行以下说明。
另外,针对学习用图像S1~Sn,在无需特别确定哪一个学习用图像 (例如学习用图像S1等)的情况下,简称为学习用图像来进行以下说明。此外,针对学习用图像S1~Sn,在将两个以上的带标签学习用图像总称的情况下,适当称作多个学习用图像、n个学习用图像等来进行以下说明。关于试验用图像T1~Tm也相同。
在此,说明直至在图像存储部111中存储多个学习用图像和多个试验用图像为止的流程。用户根据目的来预先收集多个学习用图像和多个试验用图像。例如,如果用户想要按照被摄体的有无使图像分为两类,则预先收集100张有被摄体的人物图像、以及100张无被摄体的风景图像。然后,将人物图像100张之中的50张设为标签1的学习用图像,将剩余的50 张设为无标签的试验用图像。另一方面,将风景图像100张之中的50张设为标签-1的学习用图像,将剩余的50张设为试验用图像。
根据该构成,作为一例,获得带标签1或者-1的100张的学习用图像和无标签的100张的试验用图像。然后,用户将收集到的共计200张的图像存储至机器学习装置100的图像存储部111。由此,学习准备完成,成为可由机器学习装置100进行机器学习的状态。
另外,机器学习装置100在试验阶段执行:按照分类条件进行分类后的试验用图像是否被分类为正确的种类的正误判定。因而,为了正误判定,试验用图像与标签(1或者-1)建立对应地存储至存储部110。换言之,试验用图像除了在被分类之后能够进行正误判定(即,在存储部110中存储有正误判定用的表)之外,与无法进行正误判定的未知的图像(例如在投放到商用环境中后由分类装置进行分类的图像等)是同样的。另外,关于试验阶段中的具体处理将在后面叙述。
返回图1,控制部120由CPU(Central Processing Unit,中央处理单元)、ROM(ReadOnly Memory,只读存储器)、RAM(Random Access Memory,随机存取存储器)等构成。控制部120的CPU通过读出并执行 ROM中所存储的分类处理用的程序来实现各功能(图像获取部121、特征向量获取部122、向量变换部123、取幂部124、分类条件学习部125、分类部126、选择部127)。
图像获取部121获取多个学习用图像和多个试验用图像。具体而言,图像获取部121从图像存储部111之中获取学习用图像n个(n≥2)和试验用图像m个(m≥2)。另外,图像获取部121并不限于从图像存储部 111获取图像,当然也可以以有线或者无线的方式从外部获取两图像。此外,图像获取部121相当于内容获取单元。
特征向量获取部122从图像获取部121获取到的多个学习用图像和多个试验用图像之中分别获取表示特征的特征向量。具体而言,首先,特征向量获取部122从n个学习用图像之中分别获取例如通过BoF(Bag of Features,特征包)而将局部特征定量化后的特征向量。其次,特征向量获取部122以L1范数对从n个学习用图像之中分别获取到的特征向量进行标准化。
该L1范数是特征向量的各分量的绝对值和。用特征向量的各分量除以该L1范数,从而各分量的值被标准化为0~1。由此,能够使不一致的各分量的值变为相同的尺度,因此计算后述的类似度时的运算处理变得容易。另外,并不限于L1范数,也可以通过特征向量的各分量的平方和的平方根即L2范数来对特征向量进行标准化。
在此,参照图3来说明从带标签学习用图像S1~Sn之中分别获取特征向量的情形。在图3中,例如由(0.1,0.1,0.7,0.1)来表示从第1个学习用图像S1之中获取到的标准化后的特征向量,由(0.4,0.2,0.2,0.2)来表示从第n个学习用图像Sn之中获取到的标准化后的特征向量。由该特征向量可知,特征向量获取部122将局部的4个特征定量化而获取到了4个特征向量的分量。因而,特征向量的分量的数为4个,因此维数为4,即特征向量为4维。
另外,特征向量获取部122按照相同的要领从m个试验用图像之中分别获取特征向量。此外,特征向量获取部122相当于特征向量获取单元。
返回图1,向量变换部123基于学习用图像彼此的类似度,将特征向量获取部122获取到的n个学习用图像各自的特征向量变换为类似特征向量。
具体而言,首先,向量变换部123生成将行数设为等于n个的n行、列数设为等于n个的n列、各分量设为内容彼此的类似度的n行n列的类似矩阵(参照图4)。其次,向量变换部123将所生成的类似矩阵的各行的行向量分别作为取代n个学习用图像各自的特征向量的类似特征向量。
在此,若取图4的学习用图像S1的特征向量(0.1,0.1,0.7,0.1)为例来说明,则与该特征向量对应的第1行的行向量为(S11,S12,S13,···S1n)。该行向量的各分量为学习用图像彼此的类似度,S11表示学习用图像S1彼此的类似度,S12表示学习用图像S1和S2的类似度,S13表示学习用图像 S1和S3的类似度,S1n表示学习用图像S1和Sn的类似度。该类似度通过由以下的式(1)表示的直方图交集(histogram intersection)来计算。
【数学式1】
在此,n表示维数,xi表示成为比较对象的一方的图像的特征向量中的第i维的分量的值,yi表示成为比较对象的另一方的图像的特征向量中的第i维的分量的值,k(x,y)表示类似度。上述(式1)表示选择同维中的(即,相同的局部特征部分中的)两图像的分量的值之中的小值,将在所有维中分别选择出的小值的和设为类似度的值(1~0的值)。该类似度越接近1则两图像越相似。另外,在两图像的分量的值相等的情况下,只要选择任一者即可。
在图4的情况下,例如关于S11的类似度,由于在所有维中分量的值相等,因此成为0.1+0.1+0.7+0.1=1.0。另一方面,关于S12的类似度,选择第1维的值0.1和0.1之中的0.1、第2维的值0.1和0.7之中的0.1、第 3维的值0.7和0.1之中的0.1、第4维的值0.1和0.1之中的0.1来相加,成为0.1+0.1+0.1+0.1=0.4。
按照这样的要领,通过利用了(式1)的直方图交集,求取所有类似矩阵的各分量的类似度(参照图4)。然后,将类似矩阵的各行的行向量分别作为取代n个学习用图像各自的特征向量的类似特征向量。例如,取代学习用图像S1的特征向量(0.1,0.1,0.7,0.1)的类似特征向量成为 (1.0,0.4,0.5,···0.5)。
如此,向量变换部123生成类似矩阵,从而能够将n个特征向量变换为n个类似特征向量。该类似特征向量的各分量为学习用图像彼此的类似度。因而,能够在向量空间中将由特征向量决定的点的位置移动至由类似特征向量决定的点的位置。这意味着向量空间中的n个点的分布的方法改变。
此外,由于类似特征向量的各分量的值为类似度的值,因此也可以说被进行了非线性变换。该非线性变换是指用于线性变换的运算处理(例如使给定的值相乘系数的处理)以外的处理(例如对给定的值进行取幂的处理或置换为类似度的处理等)。由此,在向量空间中由特征向量决定的点的位置非线性地移动至由类似特征向量决定的点的位置、即非直线移动。
此外,如果类似特征向量的分量的数(n个)比特征向量的分量的数大,则将特征向量的维数扩充至n维。在本实施方式中,由于特征向量为 4维,因此如果n>4,则通过变换为类似特征向量而能够扩充维数。这意味着从4维的向量空间变为n维的向量空间。
另外,向量变换部123按照相同的要领,基于学习用图像和试验用图像的类似度,将m个试验用图像各自的特征向量变换为类似特征向量(参照图5)。学习用图像的类似度以该学习用图像为基准来计算类似度,因此即便在计算试验用图像的类似度时,为了试验时的尺度一致,也将基准设为学习用图像来计算类似度。
由此,生成m(=n)行n列的试验用图像的类似矩阵,能够将m个特征向量分别变换为m个类似特征向量(参照图5)。另外,向量变换部 123相当于向量变换单元。
返回图1,取幂部124对类似特征向量的各分量的类似度的值进行取幂。例如,取幂部124对图4的学习用图像S1的类似特征向量的各分量的类似度的值(1.0,0.4,0.5···0.5)进行取幂。在图6中示出将取幂参数α设为1、α设为2、α设为0.5的情况下的取幂后的示例。在该情况下,将类似特征向量的各分量的值进行1次方、2次方、0.5次方,因此在n 维的向量空间中可获得不同的3个模式的分布。
参照图7来对此进行说明。图7是表示与取幂参数α的值相应的、取幂前后的值的变化的图。由该图可知,α的值越大,则相对于取幂前的值而取幂后的值越小。这意味着取幂前的类似度低的值视作噪声,类似度接近1的值保留。另一方面,α的值越小,则相对于取幂前的类似度低的值而取幂后的值越大。这意味着取幂前的类似度低的值不视作噪声,增大值来保留。
鉴于此,根据取幂参数α使类似度的值变化,从而能够增大分布的变化,因此在向量空间中能够提高分类为两个种类时的自由度。另外,关于进行取幂的定时以及取幂的值的选择方式将在后面叙述。此外,取幂部 124相当于取幂单元。
返回图1,分类条件学习部125基于由向量变换部123变换后的类似特征向量、和n个学习用图像各自所附带的标签,来学习用于对该n个学习用图像进行种类划分的分类条件(生成分类条件)。
具体而言,分类条件学习部125以将由n个学习用图像S1~Sn各自的类似特征向量决定的向量空间内的n个点分离为两个种类的函数(也称作识别函数)作为分类条件来学习。在本实施方式中,机器学习装置100 进行学习是指生成识别函数。此外,在本实施方式中,通过线性SVM(支持向量机)来生成线性分离为两个种类的识别函数。
在此,暂时脱离上述的实施方式,参照图8来说明线性SVM的原理。在该图8中,为了易于理解,取特征向量的分量的数为x1和x2这两个、即2维的特征向量为例来进行说明。在图8中示出如下示例,即,在2 维的向量空间中分布着由标签为1的多个学习用图像各自的特征向量决定的点(+)、和由标签为-1的多个学习用图像各自的特征向量决定的点 (-)。这用式子来表示的话则成为以下的式(2)。
【数学式2】
在此,j表示第1个~第n个学习用图像之中的任意的第j个。该式 (2)表示:属于种类C1的第j个学习用图像的标签y为1,属于种类C2的第j个学习用图像的标签y为-1。
此外,图8的识别函数由以下的式(3)来表示。
【数学式3】
y=w x+b (式3)
在此,w表示权重向量,b表示偏置项。求取该w和b时,在线性 SVM中进行求取,以使距实线所表示的识别函数最近的点(支持向量) 的距离即间距L最大化。间距L能根据以下的H1和H2的式(4)来求取。
【数学式4】
H1表示承载了一个以上(在图8的示例中为两个+的点)的属于C1的支持向量的边界的式子。另一方面,H2表示承载了一个以上(在图8 的示例中为两个-的点)的属于C2的支持向量的边界的式子。xC1表示属于种类C1的xj,xC2表示属于种类C2的xj。为了求取间距L,若将两者相减,则成为w(xC1-xC2)=2。若两边除以||w||,则(xC1-xC2)=2/||w||。即,2L=2/||w||,因此间距L成为以下的式(5)。
【数学式5】
为使该间距L最大化,只要使||w||最小化即可。为了便于计算,该||w|| 被置换为等效的以下的式(6)。
【数学式6】
此外,从式(2)以及(3)导出以下的式(7)。
【数学式7】
能够如以下的式(8)那样整理该式(7)。
【数学式8】
yj(wxj+b)≥1 (式8)
该式(8)成为求取w和b之际的制约条件。求取既能满足该制约条件又能使式(6)最小化的w和b,来生成使间距L为最大的识别函数。换言之,生成使间距L为最大的识别函数,可以说是附带式(8)的制约条件地使式(6)最小化的附条件最小化问题。
在此,在求解该最小化问题来生成识别函数之际,在线性SVM中需要考虑容许学习错误到何种程度。将不容许学习错误来生成识别函数称作硬间距。另一方面,将容许学习错误来生成识别函数称作软间距。作为用于决定容许该学习错误的程度的参数,在线性SVM中利用调整参数C。该C越大则越成为硬间距(参照图9A),C越小则越成为软间距(参照图9B)。
关于该调整参数C的值,由于分类试验用图像时的正确率根据值而改变,因此需要求取最佳值。关于该点将在后面叙述。分类条件学习部 125在任意的调整参数C下求解最小化问题,从而生成一个识别函数(参照图9A以及图9B)。以上,参照图8及图9A、图9B和式(2)至(8),对线性SVM的一般原理进行了说明。
但是,在本实施方式中,在n维的向量空间中分布着由n个学习用图像各自的类似特征向量决定的n个点(标签1的点为+、标签-1的点为 -)。然后,取幂部124对类似特征向量的各分量进行取幂,从而使该分布的方法不同。然后,分类条件学习部125在任意的调整参数C的值下求解最小化问题,从而生成将n个点线性分离为两个种类的识别函数。该分类条件学习部125生成与取幂参数α和调整参数C的多个不同组合对应的多个不同识别函数。该α和C的组合通过后述的格点搜索来决定。另外,分类条件学习部125相当于学习单元。
返回图1,分类部126按照分类条件学习部125所生成的分类条件即识别函数,将无标签的试验用图像分类为两个种类之中的任一个种类。具体而言,分类部126将试验用图像的类似特征向量的值(例如,若为图5 所示的试验用图像T1的类似特征向量,则是指根据各分量0.5,0.5,0.9,···0.9求取的值)代入到所生成的识别函数的式(3)的x中,求取y的值。若y的值为1以上,则分类部126将试验用图像分类为C1的种类,若y 的值为-1以下,则分类部126将试验用图像分类为C2的种类。
此外,分类部126进行分类后的试验用图像是否被分类为正确的种类的正误判定。具体而言,分类部126参照图10所示的正误判定用表来进行正误判定。例如,分类部126参照正误判定用表,若分类后的试验用图像T1为C1的种类(y≥1),则判定为正确,若为C2的种类(y≤-1),则判定为不正确。分类部126根据m个试验用图像T1~Tm的全部图像的正确或者不正确来计算正确率(也称作识别率)%。分类部126针对多个不同的C和α的所有组合的识别函数来分别计算正确率。
另外,分类部126相当于分类单元。
其次,选择部127选择使分类部126将试验用图像分类为任一个种类的正确率为最大的识别函数的调整参数C和用于取幂的取幂参数α的组合。由此能够决定:使正确率为最大的调整参数C下的识别函数、和唯一决定此时的向量空间中的n个点的分布的取幂参数α的值。另外,选择部127相当于选择单元。
以上,对机器学习装置100的各部的功能进行了说明。以下,参照图 11的流程图来说明机器学习装置100的各部的协作的分类处理。
该分类处理在图像存储部111中存储了多个学习用图像和多个试验用图像而学习准备完成之后,以用户向机器学习装置100作出学习指示 (例如经由鼠标、键盘等按下学习开始按钮等)为契机而被开始。
首先,图像获取部121获取学习用图像和试验用图像(步骤S11)。具体而言,图像获取部121从图像存储部111之中获取学习用图像n个(n ≥2)和试验用图像m个(m≥2)。
其次,特征向量获取部122获取学习用图像和试验用图像的特征向量 (步骤S12)。具体而言,特征向量获取部122获取从n个学习用图像分别通过BoF而将局部特征定量化后的特征向量、以及从m个试验用图像分别通过BoF而将局部特征定量化后的特征向量。
接下来,特征向量获取部122使两图像的特征向量标准化(步骤S13)。具体而言,特征向量获取部122以L1范数对n个特征向量和m个特征向量进行标准化。
其次,向量变换部123将两图像的特征向量分别变换为类似特征向量 (步骤S14)。具体而言,向量变换部123基于学习用图像彼此的类似度而将n个学习用图像各自的特征向量变换为类似特征向量(参照图4)。此外,向量变换部123基于学习用图像和试验用图像的类似度而将m个试验用图像各自的特征向量变换为类似特征向量(参照图5)。
接下来,控制部120决定格点搜索的调整参数C和取幂参数α各自的搜索范围(C1~Ck,α1~αk)(步骤S15)。控制部120虽然能够任意决定搜索范围,但例如若将C1~Ck设为0.01~10并将步幅间隔设为10,则成为C1=0.01,C2=0.1,C3=1,C4=10这4种。同样地,控制部120例如若将α1~αk设为0.1~10并将步幅间隔设为10,则成为α1=0.1,α2=1,α3=10这3种。
由此,C和α的组合的模式数成为k×k种(在上述例的情况下为 4×3=12种)。将对该k×k种的所有模式进行搜索称作格点搜索。
其次,控制部120决定搜索范围之中的任意的组合(Ci,αi)(步骤 S16)。在此,i是指1~k的值之中的任意的值。
接下来,取幂部124利用决定出的αi(i=1~k)对类似特征向量的各分量进行取幂(步骤S17)。例如,取幂部124在αi=0.1(i=1)的情况下,对n个学习用图像S1~Sn各自的类似特征向量的各分量的值进行0.1次方。由此,由取幂前的类似特征向量决定的向量空间内的n个点移动至由取幂后的类似特征向量决定的位置。
此外,取幂部124关于m个试验用图像T1~Tm,为使试验时的尺度一致,也利用决定出的αi(i=1~k)对类似特征向量的各分量进行取幂。
其次,分类条件学习部125生成决定出的Ci下的识别函数(步骤S18)。例如,分类条件学习部125在Ci=0.01(i=1)的情况下,在Ci=0.01下求解最小化问题,由此来生成将向量空间内的n个点线性分离为两个种类的识别函数。
接下来,分类部126以生成的识别函数来分类试验用图像(步骤S19)。具体而言,分类部126按照识别函数而将m个试验用图像T1~Tm分别分类为两个种类之中的任一个种类。进一步具体来说,分类部126将m个试验用图像各自的类似特征向量进行了αi次方后的值代入到识别函数中,从而分类为任一个种类。
其次,分类部126计算所生成的识别函数的正确率(步骤S20)。具体而言,分类部126针对分类后的m个试验用图像T1~Tm分别参照图10 所示的正误判定用表来进行正误判定,计算正确率。例如,若m=100个,其中70个为正确,则正确率为70%。
接下来,控制部120判定所有组合的搜索是否已结束(步骤S21)。具体而言,控制部120判定由步骤S15决定的搜索范围(C1~Ck,α1~αk) 的所有组合即k×k种的搜索是否已结束。
在此,在所有组合的搜索未结束的情况下(步骤S21;否),返回步骤S16,决定其他的任意的组合,来进行步骤S17至20的处理。这样,直至计算出k×k种的所有模式各自中的识别函数的正确率为止,循环进行步骤S16至21的处理。
然后,若所有组合的搜索结束(步骤S21;是),则选择部127选择使正确率为最大的调整参数C和取幂参数α的组合(步骤S22)。具体而言,选择部127选择使在步骤S19以及S20的试验阶段中计算出的正确率为最大的、识别函数的调整参数C和用于对类似特征向量的各分量进行取幂的取幂参数α的组合。由此,可获得使正确率为最大的识别函数。
在经过这样的学习阶段和试验阶段之后,图12所示的分类装置200 在商用环境中按照机器学习装置100学习到的分类条件即识别函数,对未知图像进行种类划分。该未知图像不同于学习用图像和试验用图像,是不附带标签且无法进行正误判定的图像。
在此,存储部210的特征向量存储部211在基于未知图像和学习用图像的类似度来生成类似特征向量的关系上,存储根据学习用图像生成的特征向量S1~Sn。在此,说明分类装置200分类未知图像的流程。分类装置200执行控制部220的ROM所存储的商用环境下的分类处理用的程序,由此来实现以下的各部的功能。首先,图像获取部221获取未知图像。然后,特征向量获取部222按照与机器学习装置100的特征向量获取部 122相同的要领,从未知图像之中获取特征向量。
接下来,向量变换部223基于学习用图像和未知图像的类似度,将未知图像的特征向量变换为类似特征向量。在此,未知图像为1张,因此与学习用图像的特征向量S1~Sn的类似矩阵成为1行n列,该第1行的行向量成为取代未知图像的特征向量的类似特征向量。
其次,取幂部224以机器学习装置100的选择部127选择出的最佳值的取幂参数α对未知图像的类似特征向量的各分量进行取幂。接下来,未知内容分类部225按照具有最佳值的调整参数C的识别函数来分类由被取幂后的类似特征向量决定的向量空间内的一个点,从而将未知图像分类为两个种类之中的任一个。以上,分类装置200利用机器学习装置100学习到的使正确率为最大的取幂参数α和调整参数C,按照识别函数精度良好地对未知图像进行分类。
以上,在参照图11说明过的本实施方式中的机器学习装置100之中,通过具备向量变换部123,从而根据n个学习用图像各自的特征向量生成 n行n列的类似矩阵,并将该生成的类似矩阵的各行的行向量分别作为取代特征向量的类似特征向量。由此,能够基于学习用图像彼此的类似度而将由学习用图像的本来的性质唯一决定的特征向量变换为类似特征向量。因而,能够不依赖于学习用图像的本来的性质地改变向量空间中的分布的方法,因此能够提高用于线性分离的自由度。
此外,类似特征向量的各分量是通过直方图交集而计算出的类似度。因而,从特征向量向类似特征向量的变换是基于类似度的非线性变换。因而,较之于在处理负荷高且学习时间长的非线性SVM中非线性分离为两个种类的情况,能够在由线性SVM快速地学习的同时获得接近非线性 SVM的性能。
此外,如果类似特征向量的分量的数即维数(在本实施方式中为n 维)大于特征向量的分量的数即维数(在本实施方式中为4维),则向量变换部123将特征向量变换为比该特征向量的维数更多维数的多维的类似特征向量。换言之,向量变换部123从4维的向量空间向n维(n>4) 的向量空间进行维扩充。一般而言,若扩充维数,则易于进行线性分离,故所生成的识别函数的正确率得以提高。因此,分类装置200能够按照正确率高的识别函数来精度良好地对未知的图像进行分类。
此外,在本实施方式中的机器学习装置100之中,通过具备取幂部 124,从而对类似特征向量的各分量的类似度的值进行取幂。通过准备多个取幂参数α的值,从而可获得多份的分布的变化。然后,在分类处理中,通过格点搜索来选择正确率最高的最佳值α。因而,在向量空间中,既能提高分类为两个种类时的自由度,又能生成正确率高的识别函数。因此,在分类装置200分类未知图像时,能够精度良好地分类为该未知图像应属的种类。
以上结束实施方式的说明,但机器学习装置100的具体构成、图11 所示的分类处理的内容当然并不限于上述的实施方式中说明过的内容。
(变形例)
例如,能够将上述的实施方式中的图11的分类处理变形为图13、图 14。该变形例所涉及的分类处理的不同点在于:取代图11的分类处理的步骤S22而新加入了步骤S23至S25。因此,下面以该不同点为中心来进行说明。
控制部120在所有组合的搜索结束时(步骤S21),判定是否有正确率超过给定的阈值的组合(步骤S23)。这里,在无正确率超过给定的阈值的组合的情况下(步骤S23;否),向量变换部123将类似特征向量变换为不同的类似特征向量(步骤S24)。
具体而言,向量变换部123基于图4所示的n个学习用图像各自的类似特征向量彼此的类似度,将类似特征向量变换为不同的类似特征向量。由此,生成n行n列的新的类似矩阵,将所生成的新的类似矩阵的各行的行向量作为取代类似特征向量的不同的类似特征向量。
向量变换部123按照相同的要领,将图5所示的m个试验用图像各自的类似特征向量变换为不同的类似特征向量。
然后,返回步骤S15,以不同的类似特征向量来进行步骤S15至S21 的格点搜索。如此,直至获得正确率超过给定的阈值的组合为止,每次基于当前的类似特征向量彼此的类似度来生成与当前的类似特征向量不同的类似特征向量,进行格点搜索。
在控制部120判定为有正确率超过给定的阈值的组合的情况下(步骤 S23;是),选择部127选择正确率超过给定的阈值的组合之中使正确率最大的C和α的组合(步骤S25)。选择部127在正确率超过给定的阈值的组合为一个的情况下选择该C和α的组合即可,在正确率超过给定的阈值的组合为两个以上的情况下选择使正确率最高的C和α的组合即可。
根据以上的变形例所涉及的分类处理,直至超过给定的阈值(例如 80%)为止,基于当前的类似特征向量彼此的类似度来生成与当前的类似特征向量不同的类似特征向量。即,直至超过给定的阈值为止,能无限次地生成新的类似特征向量。因而,机器学习装置100可获得超过给定的阈值的识别函数。因此,分类装置200能精度良好地对未知的图像进行分类。
另外,在上述的实施方式以及变形例中,分类条件学习部125通过线性SVM来求解附制约条件最小化问题。并且,此时生成使将n个学习用图像线性分离为两个种类的间距成为最大的识别函数,但并不限于此。例如,分类条件学习部125也可以取代线性SVM而通过其他的手法来生成将n个学习用图像分类为两个种类的识别函数。分类条件学习部125作为其他的手法,例如能够通过k近邻法(k-nearest neighbor method)、朴素贝叶斯分类法(Bayes classification method)、决策树(decision tree)、神经网络(neuralnetwork)、装袋法(bagging method)、提升法(boosting method)、随机森林法(randomforest method)等来生成识别函数。
此外,在上述的实施方式以及变形例中,虽然以格点搜索中的步幅间隔相同为前提来进行了说明,但并不限于此。例如,也可最初以较大的步幅间隔来粗略地进行格点搜索以确定使正确率高的C和α的组合,接下来在该正确率高的C和α的附近的范围内以较小的步幅间隔而局部地细致进行格点搜索。由此,能够对C和α进行细致地调节,因此能够期待高的正确率。
此外,在上述的实施方式以及变形例中,设为了取幂部124对类似特征向量的各分量的类似度的值进行取幂,但并非必须取幂。例如,也可以在不进行取幂部124的取幂处理的情况下利用变换后的类似特征向量来生成识别函数。在此情况下,在图11、图13以及图14的分类处理中,不进行取幂处理,格点搜索的对象也仅变为调整参数C即可。由此,能够减轻机器学习装置100的处理负荷。
此外,在上述的实施方式以及变形例中,以试验用图像的个数(m 个)与学习用图像的个数(n个)相同为前提来进行了说明,但并不限于此。m个可以与n个不同,m也不一定必须为2以上的自然数,作为最小单位也可以m=1来进行试验。
此外,在上述的实施方式以及变形例中,以学习将多个图像分类为两个种类的分类条件的机器学习装置100为前提进行了说明,但并不限于此。机器学习装置100也可学习分类为3个种类以上的多种类的分类条件。
此外,在上述的实施方式以及变形例中,作为内容的一形态而取图像为例进行了说明,但并不限于此。也可以将该机器学习装置100的机器学习适用于能获取特征向量的文本、声音等。
此外,本发明的机器学习装置100以及分类装置200的各功能也能够通过通常的PC等计算机来实施。
具体而言,在上述实施方式中,说明了分类处理用的程序被预先存储在控制部120(220)的ROM中的情形。但是,也可以将用于实现图1 以及图12的各部的功能的程序存储在软盘、CD-ROM(Compact Disc Read Only Memory,紧凑盘只读存储器)、DVD(DigitalVersatile Disc,数字通用盘)以及MO(Magneto-Optical Disc,磁光盘)等计算机可读取记录介质中进行分发,将该程序安装于计算机中,由此构成能够实现上述的各部的功能的计算机。
此外,也可以预先将程序保存在因特网等通信网络上的服务器装置所具有的盘装置等中,并且例如能够由计算机来下载等。
以上,对本发明的实施方式进行了说明,但在本实施方式中仅为例示,并不限定本发明的技术范围。本发明可以采取其他各种实施方式,进而在不脱离本发明主旨的范围内能够进行省略、置换等各种变更。这些实施方式及其变形包含在权利要求书所记载的发明及其等同的范围内。
Claims (11)
1.一种机器学习装置,具备存储学习用内容以及试验用内容的存储部和控制部,其特征在于,
所述控制部,具备:
内容获取单元,其获取n个用于将n个学习用内容划分为两个种类的带标签的学习用内容,其中n为2以上的自然数;
特征向量获取单元,其从所述内容获取单元获取到的n个学习用内容之中分别获取表示特征的特征向量;
向量变换单元,其基于学习用内容彼此的类似度,将所述特征向量获取单元获取到的所述n个学习用内容各自的特征向量变换为类似特征向量;
学习单元,其基于所述n个学习用内容各自所附带的标签,以将由该n个学习用内容各自的所述类似特征向量决定的向量空间内的n个点线性分离为两个种类的函数作为分类条件来学习;
分类单元,其按照所述学习单元学习到的分类条件,对未附带所述标签的试验用内容进行种类划分,从而按照所述函数而将所述试验用内容分类为两个种类之中的任一个种类;
取幂单元,其对所述类似特征向量的各分量的类似度的值进行取幂;和
选择单元,其选择所述函数的调整参数和用于所述取幂的取幂参数的组合,该组合使所述分类单元将所述试验用内容分类为所述任一个种类的正确率为最大,
所述学习用内容和所述试验用内容均为图像、声音或者文本。
2.根据权利要求1所述的机器学习装置,其特征在于,
所述向量变换单元生成将行数设为等于所述n个的n行、列数设为等于所述n个的n列、各分量设为所述学习用内容彼此的类似度的n行n列的类似矩阵,并将该生成的类似矩阵的各行的行向量分别作为所述类似特征向量。
3.根据权利要求1所述的机器学习装置,其特征在于,
所述学习单元通过线性支持向量机即线性SVM、k近邻法、朴素贝叶斯分类法、决策树、神经网络、装袋法、提升法或者随机森林法来对线性分离为所述两个种类的函数进行学习。
4.根据权利要求1所述的机器学习装置,其特征在于,
所述向量变换单元将所述特征向量变换为比该特征向量的分量的数即维数更多维数的多维的类似特征向量。
5.根据权利要求1所述的机器学习装置,其特征在于,
所述向量变换单元通过直方图交集来求取所述学习用内容彼此的类似度。
6.根据权利要求1所述的机器学习装置,其特征在于,
所述特征向量获取单元从所述n个学习用内容之中分别获取通过特征包即BoF而将局部特征定量化后的特征向量,并以L1范数或者L2范数对从该n个学习用内容之中分别获取到的特征向量进行标准化。
7.一种分类装置,其特征在于,具备:
未知内容分类单元,其按照权利要求1所述的机器学习装置学习到的分类条件,对与所述学习用内容和所述试验用内容不同的未知的内容进行种类划分。
8.根据权利要求7所述的分类装置,其特征在于,
所述分类装置具备:
获取单元,其从所述未知的内容之中获取表示该未知的内容的特征的特征向量;和
变换单元,其基于所述学习用内容与所述未知的内容的类似度,将所述获取单元获取到的所述未知的内容的特征向量变换为类似特征向量,
所述未知内容分类单元按照所述分类条件对由所述变换单元所变换后的类似特征向量决定的向量空间内的一个点进行分类,由此对所述未知的内容进行种类划分。
9.一种机器学习方法,其特征在于,包括:
内容获取步骤,从存储学习用内容和试验用内容的存储部获取n个用于将n个所述学习用内容划分为两个种类的带标签的学习用内容,其中n为2以上的自然数;
特征向量获取步骤,从在所述内容获取步骤中获取到的n个学习用内容之中分别获取表示特征的特征向量;
向量变换步骤,基于学习用内容彼此的类似度,将在所述特征向量获取步骤中获取到的所述n个学习用内容各自的特征向量变换为类似特征向量;
学习步骤,基于所述n个学习用内容各自所附带的标签,以将由该n个学习用内容各自的所述类似特征向量决定的向量空间内的n个点线性分离为两个种类的函数作为分类条件来学习;
分类步骤,按照在所述学习步骤中学习到的分类条件,对未附带所述标签的试验用内容进行种类划分,从而按照所述函数而将所述试验用内容分类为两个种类之中的任一个种类;
取幂步骤,其对所述类似特征向量的各分量的类似度的值进行取幂;和
选择步骤,其选择所述函数的调整参数和用于所述取幂的取幂参数的组合,该组合使所述分类步骤将所述试验用内容分类为所述任一个种类的正确率为最大,
所述学习用内容和所述试验用内容均为图像、声音或者文本。
10.一种分类方法,其特征在于,包括:
未知内容分类步骤,按照通过权利要求9所述的机器学习方法学习到的分类条件,对与所述学习用内容和所述试验用内容不同的未知的内容进行种类划分。
11.一种记录有程序的计算机可读取的记录介质,所述程序使得具备存储学习用内容以及试验用内容的存储部和控制部的机器学习装置的计算机执行如下步骤:
内容获取步骤,从所述存储部获取n个用于将n个所述学习用内容划分为两个种类的带标签的学习用内容,其中n为2以上的自然数;
特征向量获取步骤,从在所述内容获取步骤中获取到的n个学习用内容之中分别获取表示特征的特征向量;
向量变换步骤,基于学习用内容彼此的类似度,将在所述特征向量获取步骤中获取到的所述n个学习用内容各自的特征向量变换为类似特征向量;
学习步骤,基于所述n个学习用内容各自所附带的标签,以将由该n个学习用内容各自的所述类似特征向量决定的向量空间内的n个点线性分离为两个种类的函数作为分类条件来学习;
分类步骤,按照在所述学习步骤中学习到的分类条件,对未附带所述标签的试验用内容进行种类划分,从而按照所述函数而将所述试验用内容分类为两个种类之中的任一个种类;
取幂步骤,其对所述类似特征向量的各分量的类似度的值进行取幂;和
选择步骤,其选择所述函数的调整参数和用于所述取幂的取幂参数的组合,该组合使所述分类步骤将所述试验用内容分类为所述任一个种类的正确率为最大,
所述学习用内容和所述试验用内容均为图像、声音或者文本。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014222600A JP6090286B2 (ja) | 2014-10-31 | 2014-10-31 | 機械学習装置、機械学習方法、分類装置、分類方法、プログラム |
JP2014-222600 | 2014-10-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105574536A CN105574536A (zh) | 2016-05-11 |
CN105574536B true CN105574536B (zh) | 2020-05-01 |
Family
ID=55853009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510590503.3A Active CN105574536B (zh) | 2014-10-31 | 2015-09-16 | 机器学习装置和方法、分类装置和方法以及记录介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9659239B2 (zh) |
JP (1) | JP6090286B2 (zh) |
CN (1) | CN105574536B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9842390B2 (en) * | 2015-02-06 | 2017-12-12 | International Business Machines Corporation | Automatic ground truth generation for medical image collections |
CN105354307B (zh) * | 2015-11-06 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 一种图像内容识别方法及装置 |
US11593635B2 (en) * | 2016-04-06 | 2023-02-28 | Sony Corporation | Information processing device, method of processing information, and method of providing information |
KR101899101B1 (ko) * | 2016-06-01 | 2018-09-14 | 서울대학교 산학협력단 | 인공 신경망 기반 예측 모델 생성 장치 및 방법 |
JP6629678B2 (ja) * | 2016-06-16 | 2020-01-15 | 株式会社日立製作所 | 機械学習装置 |
JP7025123B2 (ja) * | 2017-03-21 | 2022-02-24 | 本田技研工業株式会社 | 心情推定装置 |
JP6930179B2 (ja) * | 2017-03-30 | 2021-09-01 | 富士通株式会社 | 学習装置、学習方法及び学習プログラム |
KR102425578B1 (ko) | 2017-08-08 | 2022-07-26 | 삼성전자주식회사 | 객체를 인식하는 방법 및 장치 |
CN107729540B (zh) * | 2017-10-31 | 2021-04-16 | 努比亚技术有限公司 | 照片分类的方法、设备及计算机可存储介质 |
CN108595927B (zh) * | 2018-04-04 | 2023-09-19 | 北京市商汤科技开发有限公司 | 身份认证、解锁及支付方法、装置、存储介质、产品和设备 |
WO2019215907A1 (ja) * | 2018-05-11 | 2019-11-14 | オリンパス株式会社 | 演算処理装置 |
KR102153167B1 (ko) * | 2018-07-02 | 2020-09-07 | 한양대학교 산학협력단 | 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법 |
KR20200071477A (ko) | 2018-12-11 | 2020-06-19 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
JP7268347B2 (ja) * | 2018-12-21 | 2023-05-08 | カシオ計算機株式会社 | 識別装置、識別方法及びプログラム |
CN109670552B (zh) * | 2018-12-24 | 2023-03-10 | 苏州大学 | 一种图像分类方法、装置、设备及可读存储介质 |
JP7383946B2 (ja) * | 2019-09-12 | 2023-11-21 | 株式会社アイシン | 画像復元装置、画像復元方法、画像復元プログラム、復元器生成装置、復元器生成方法、復元器生成プログラム、判定器生成装置、判定器生成方法、判定器生成プログラム、物品判定装置、物品判定方法、および物品判定プログラム |
WO2021075994A1 (en) * | 2019-10-16 | 2021-04-22 | Saudi Arabian Oil Company | Determination of elastic properties of a geological formation using machine learning applied to data acquired while drilling |
WO2021085785A1 (en) * | 2019-10-29 | 2021-05-06 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
WO2021125616A1 (ko) * | 2019-12-19 | 2021-06-24 | 이향룡 | Ai의 학습 및 적용을 위한 개체 데이터를 검출하는 방법 및 이의 시스템 |
EP4105844A4 (en) * | 2020-02-10 | 2024-04-03 | Aising Ltd | INFORMATION PROCESSING DEVICE, METHOD, PROGRAM AND SYSTEM |
WO2021161603A1 (ja) * | 2020-02-10 | 2021-08-19 | 株式会社エイシング | 情報処理装置、方法、プログラム及びシステム |
WO2021187776A1 (en) * | 2020-03-17 | 2021-09-23 | Samsung Electronics Co., Ltd. | Methods and systems for grouping of media based on similarities between features of the media |
CN111814990B (zh) * | 2020-06-23 | 2023-10-10 | 汇纳科技股份有限公司 | 阈值确定方法、系统、存储介质及终端 |
US11796714B2 (en) | 2020-12-10 | 2023-10-24 | Saudi Arabian Oil Company | Determination of mechanical properties of a geological formation using deep learning applied to data acquired while drilling |
KR20240029126A (ko) * | 2022-08-26 | 2024-03-05 | 한국전자기술연구원 | 설치환경에 최적화된 딥러닝 모델 생성 시스템 및 방법, 이의 학습 데이터 구성 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101520847A (zh) * | 2008-02-29 | 2009-09-02 | 富士通株式会社 | 模式识别装置和方法 |
CN101770644A (zh) * | 2010-01-19 | 2010-07-07 | 浙江林学院 | 森林火灾远程视频监控烟火识别方法 |
US7840060B2 (en) * | 2006-06-12 | 2010-11-23 | D&S Consultants, Inc. | System and method for machine learning using a similarity inverse matrix |
CN103324677A (zh) * | 2013-05-24 | 2013-09-25 | 西安交通大学 | 一种可分级的快速图像gps位置估计方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4527322B2 (ja) * | 2001-07-25 | 2010-08-18 | 日本電気株式会社 | 画像検索装置、画像検索方法、及び画像検索用プログラム |
JP5098559B2 (ja) * | 2007-10-11 | 2012-12-12 | 富士ゼロックス株式会社 | 類似画像検索装置、及び類似画像検索プログラム |
US7836000B2 (en) * | 2007-12-10 | 2010-11-16 | Yahoo! Inc. | System and method for training a multi-class support vector machine to select a common subset of features for classifying objects |
JP5653003B2 (ja) * | 2009-04-23 | 2015-01-14 | キヤノン株式会社 | オブジェクト識別装置及びオブジェクト識別方法 |
US8478052B1 (en) * | 2009-07-17 | 2013-07-02 | Google Inc. | Image classification |
JP5554987B2 (ja) * | 2009-12-28 | 2014-07-23 | キヤノン株式会社 | オブジェクト識別装置及びその制御方法 |
US9967218B2 (en) * | 2011-10-26 | 2018-05-08 | Oath Inc. | Online active learning in user-generated content streams |
US9064491B2 (en) * | 2012-05-29 | 2015-06-23 | Nuance Communications, Inc. | Methods and apparatus for performing transformation techniques for data clustering and/or classification |
EP2953062A4 (en) * | 2013-02-01 | 2017-05-17 | Fujitsu Limited | Learning method, image processing device and learning program |
US9436893B2 (en) * | 2013-11-27 | 2016-09-06 | Adobe Systems Incorporated | Distributed similarity learning for high-dimensional image features |
-
2014
- 2014-10-31 JP JP2014222600A patent/JP6090286B2/ja active Active
-
2015
- 2015-09-10 US US14/850,516 patent/US9659239B2/en active Active
- 2015-09-16 CN CN201510590503.3A patent/CN105574536B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7840060B2 (en) * | 2006-06-12 | 2010-11-23 | D&S Consultants, Inc. | System and method for machine learning using a similarity inverse matrix |
CN101520847A (zh) * | 2008-02-29 | 2009-09-02 | 富士通株式会社 | 模式识别装置和方法 |
CN101770644A (zh) * | 2010-01-19 | 2010-07-07 | 浙江林学院 | 森林火灾远程视频监控烟火识别方法 |
CN103324677A (zh) * | 2013-05-24 | 2013-09-25 | 西安交通大学 | 一种可分级的快速图像gps位置估计方法 |
Non-Patent Citations (1)
Title |
---|
Generalized histogram intersection kernel for image recognition;S. Boughorbel;《IEEE International Conference on Image Processing 2005》;20060327;第3卷;III - 161-4 * |
Also Published As
Publication number | Publication date |
---|---|
US20160125273A1 (en) | 2016-05-05 |
JP2016091166A (ja) | 2016-05-23 |
JP6090286B2 (ja) | 2017-03-08 |
CN105574536A (zh) | 2016-05-11 |
US9659239B2 (en) | 2017-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574536B (zh) | 机器学习装置和方法、分类装置和方法以及记录介质 | |
JP6781415B2 (ja) | ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 | |
US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
US8233711B2 (en) | Locality-constrained linear coding systems and methods for image classification | |
US10181082B2 (en) | Method and system for automated behavior classification of test subjects | |
WO2011086889A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
JP6566397B2 (ja) | 認識装置、実数行列分解方法、認識方法 | |
Gong et al. | Model-based oversampling for imbalanced sequence classification | |
Ullah et al. | A hierarchical feature model for multi-target tracking | |
JP2011150541A (ja) | 学習装置、学習方法、及びプログラム | |
US11270203B2 (en) | Apparatus and method for training neural network by performing normalization using a plurality of normalization techniques | |
JP2017126158A (ja) | 2値分類学習装置、2値分類装置、方法、及びプログラム | |
JP2011154501A (ja) | 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム | |
JP2017107386A (ja) | 事例選択装置、分類装置、方法、及びプログラム | |
JP5776694B2 (ja) | 物体識別向けの学習装置、学習システム、学習方法、及び学習プログラム | |
JP5518757B2 (ja) | 文書分類学習制御装置、文書分類装置およびコンピュータプログラム | |
JPWO2020054551A1 (ja) | 情報処理装置、情報処理方法、プログラム | |
US20210319269A1 (en) | Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods | |
JP6467893B2 (ja) | 情報処理システム、情報処理方法、及び、プログラム | |
Solimani et al. | Optimizing tomato plant phenotyping detection: Boosting YOLOv8 architecture to tackle data complexity | |
Ul Rahman et al. | Additive parameter for deep face recognition | |
KR102646430B1 (ko) | 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치 | |
Li et al. | A selective boosting technique for pattern classification | |
CN111611395A (zh) | 一种实体关系的识别方法及装置 | |
Kounalakis et al. | Vision system for robotized weed recognition in crops and Grasslands |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |