CN107615310A - 信息处理设备 - Google Patents
信息处理设备 Download PDFInfo
- Publication number
- CN107615310A CN107615310A CN201680029428.6A CN201680029428A CN107615310A CN 107615310 A CN107615310 A CN 107615310A CN 201680029428 A CN201680029428 A CN 201680029428A CN 107615310 A CN107615310 A CN 107615310A
- Authority
- CN
- China
- Prior art keywords
- parameter
- processing device
- message processing
- unit
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 143
- 238000010801 machine learning Methods 0.000 claims abstract description 127
- 238000004891 communication Methods 0.000 claims abstract description 41
- 230000007935 neutral effect Effects 0.000 claims abstract description 33
- 230000011218 segmentation Effects 0.000 claims description 10
- 235000013399 edible fruits Nutrition 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 73
- 238000005516 engineering process Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 241000208340 Araliaceae Species 0.000 description 7
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 7
- 235000003140 Panax quinquefolius Nutrition 0.000 description 7
- 235000008434 ginseng Nutrition 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000009897 systematic effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 101150096038 PTH1R gene Proteins 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000003306 harvesting Methods 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150071434 BAR1 gene Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000003792 cranial nerve Anatomy 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 201000004409 schistosomiasis Diseases 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010827 pathological analysis Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G01V20/00—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/10—Numerical modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
[问题]提高神经网络的泛化性能。[解决方案]提供了一种信息处理设备,其设置有:控制单元,其控制关于用于物理模拟的参数的设置的显示;通信单元,其向物理模拟器发送参数并且从物理模拟器接收在物理模拟中获得的图像信息;以及机器学习单元,其基于图像信息进行机器学习,其中,控制单元使显示单元将参数与机器学习单元的学习结果以相关联的方式进行显示。
Description
技术领域
本公开内容涉及信息处理设备。
背景技术
近年来,模仿颅神经系统的机理的神经网络引起了关注。此外,已经报道了使用物理模拟器使神经网络进行机器学习的技术。例如,非专利文献1描述了使用模拟器的游戏控制学习结果。
引文列表
非专利文献
[非专利文献1]DeepMind Technologies,7个人,“Playing Atari with DeepReinforcement Learning”,2015年11月9日[在线],[2016年2月8日访问],因特网<https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf>
发明内容
技术问题
然而,在非专利文献1描述的方法中,难以使神经网络根据现实世界中发生的各种变化来进行学习。
在这方面,本公开内容提出了一种能够进一步提高神经网络的泛化性能的信息处理设备。
解决方案
根据本公开内容,提供了一种信息处理设备,其包括:控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;以及通信单元,其被配置成将在物理模拟中获得的图像信息和与图像信息相关联的参数发送至机器学习单元,并且从机器学习单元接收基于图像信息的确定结果。控制单元使显示单元将确定结果和参数彼此相关联地进行显示。
此外,根据本公开内容,提供了一种信息处理设备,其包括:控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;通信单元,其被配置成将参数发送至物理模拟器,并且从物理模拟器接收在物理模拟中获得的图像信息;以及机器学习单元,其被配置成基于图像信息进行机器学习。控制单元使显示单元将上述参数和由机器学习单元获得的学习结果彼此相关联地进行显示。
有益效果
如上所述,根据本公开内容,可以进一步提高神经网络的泛化性能。注意,上述效果不一定是限制性的。与上述效果一起或者代替上述效果,可以实现本说明书中所描述的效果中的任何一种或可从本说明书理解到的其他效果。
附图说明
[图1]图1是图示了根据本公开内容的机器学习的概述的概念图。
[图2]图2是图示了根据本公开内容的信息处理设备的功能配置的概念图。
[图3]图3是根据本公开内容的第一实施方式的系统配置示例。
[图4]图4是根据实施方式的信息处理设备的功能框图。
[图5]图5是根据实施方式的用户接口的配置示例。
[图6]图6是根据实施方式的原始图像显示区域的显示示例。
[图7]图7是根据实施方式的参数设置区域的显示示例。
[图8]图8是根据实施方式的物理模拟图像显示区域的显示示例。
[图9]图9是根据实施方式的生成图像显示区域的显示示例。
[图10]图10是根据实施方式的确定结果显示区域的显示示例。
[图11]图11是根据实施方式的新参数的设置示例。
[图12]图12是根据实施方式的多个识别结果的显示示例。
[图13]图13是根据实施方式的三维模型参数设置区域的显示示例。
[图14]图14是说明根据实施方式由信息处理设备进行的控制的流程的流程图。
[图15]图15是根据本公开内容的第二实施方式的机器学习设备的功能框图。
[图16]图16是学习结果显示区域的显示示例。
[图17]图17是根据本公开内容的硬件配置示例。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选的实施方式。在本说明书和附图中,用相同的附图标记表示具有基本相同的功能和结构的结构元件,并且省略对这些结构元件的重复说明。
将按以下的顺序给出描述。
1.本公开内容的概述
1.1神经网络
1.2与神经网络相关的泛化性能
1.3与泛化性能的提高相关的图像生成
1.4根据本公开内容的信息处理设备的概述
2.第一实施方式
2.1根据第一实施方式的系统配置示例
2.2根据第一实施方式的信息处理设备10
2.3根据第一实施方式的控制的概述
2.4用户接口的配置示例
2.5通过同步定位与地图构建(SLAM)生成三维模型
2.6根据第一实施方式的控制的流程
3.第二实施方式
3.1根据第二实施方式的系统配置
3.2根据第二实施方式的机器学习设备20
3.3根据第二实施方式的学习结果的显示
4.硬件配置示例
5.结论
<1.本公开内容的概述>
<<1.1.神经网络>>
神经网络指代模仿人类颅神经回路的模型,并且是用于在计算机上实现人类学习能力的技术。如上所述,神经网络的一个特征是其具有学习能力。在神经网络中,通过突触耦合形成网络的人造神经元(节点)能够通过学习而改变突触耦合强度来获取解决问题的能力。换言之,神经网络能够通过重复复习来自动推断解决问题的规则。
由神经网络进行的学习的示例包括图像识别和语音识别。神经网络例如通过重复学习输入图像图案,变得能够识别包括在输入图像中的对象等。神经网络的学习能力作为驱动人工智能(AI)的发展的关键,正在引起关注。此外,期望将神经网络的学习能力应用在各个工业领域。
<<1.2.与神经网络相关的泛化性能>>
此处,将描述与神经网络相关的泛化性能。可以将与神经网络相关的泛化性能理解为处理更多情况的能力。换言之,泛化性能可以认为是指示神经网络对于输入数据的灵活性的指标。
泛化性能对使用神经网络的各种设备具有非常重要的意义。例如,进行交通工具驾驶控制的自动驾驶AI通常需要高泛化性能。此处,自动驾驶AI可以是例如使用多层结构的神经网络通过深度学习已经获取驾驶控制功能的学习设备。
自动驾驶AI能够基于通过学习获取的环境识别能力或驾驶控制能力来根据周围环境进行交通工具驾驶控制。例如,自动驾驶AI基于从传感器观测到的观测信息来识别其他交通工具或行人,并且进行转向控制、制动控制等以避开交通工具或行人。此时,自动驾驶AI的泛化性能是重要的关键。
例如,在自动驾驶AI不能够正确地识别其他交通工具或行人的情况下,不能够进行适当的驾驶控制,并且可能造成事故。因此,就安全性而言,需要具有更高泛化性能的AI。
<<1.3.与泛化性能的提高相关的图像生成>>
已经描述了与神经网络相关的泛化性能的示例。接下来,将描述用于提高泛化性能的技术。如上所述,泛化性能可以被认为是神经网络对于输入数据的灵活性。因此,为了提高泛化性能,期望在学习时提供更多的数据。
然而,通常的情况是,准备用于学习的数据需要更多的成本和努力。因此,也已知下述技术:从原始图像生成多个不同的图像,并且使用这些生成图像来学习。
作为一种这样的技术,例如,已知被称为扰动(perturbation)的技术。在扰动中,可以通过改变原始图像的比例、旋转角度、亮度以及对比度来生成多个不同的图像。
然而,在扰动中,由于生成了许多在现实世界的环境中未观测到的图像,因此很难说使用这些图像的机器学习是有效的。例如,在扰动中,可以通过改变图像的纵横比来生成不同的图像,但是在现实世界中基本上不会观测到这样的现象。为此,为了提高泛化性能,需要生成符合现实世界的环境的图像的技术。
通常,通过不同的独立的用户接口来进行与使用扰动等的图像生成和机器学习相关的控制。为此,例如,将生成图像输入至学习设备的操作被手动地进行并且需要人工。此外,在根据学习设备的输出结果再次生成图像的情况下,需要提高工作效率,因为其在不同的用户接口之间切换。
根据本公开内容的信息处理设备是聚焦于上述的图像生成技术和学习技术来构思的,并且其通过生成符合现实世界的环境的图像来实现高效率的机器学习。为此,根据本公开内容的信息处理设备可以使用物理模拟器生成图像。此外,根据本公开内容的信息处理设备通过使用单个用户接口提供与物理模拟和机器学习相关的信息来实现更有效率的机器学习。
<<1.4.根据本公开内容的信息处理设备的概述>>
上面已经描述了本公开内容的背景。接下来,将描述根据本公开内容的信息处理设备的概述。如上所述,根据本公开内容的信息处理设备可以使用物理模拟器进行图像生成。此处,物理模拟器可以是配备有用于模拟动力学定律的物理引擎的模拟器。物理模拟器能够基于所设置的参数来再现在现实世界中可观测到的各种环境。
此处,参数可以包括与视点、照明状况、背景、时间、天气状况等相关的参数。物理模拟器能够基于与例如太阳的移动、雨或风的强度、视点的角度等相关的参数来进行各种物理模拟。换言之,根据本公开内容的信息处理设备能够通过使用物理模拟器实现图像生成来获得更接近现实世界的环境的图像。
图1是图示了根据本公开内容的由信息处理设备实现的机器学习的概述的概念图。参照图1,根据本实施方式的信息处理设备能够从作为源的原始图像OR获得多个生成图像GI。此处,原始图像OR可以是通过各种方法获得的二维图像。根据本公开内容的信息处理设备能够通过使用从原始图像OR生成的三维模型进行物理模拟来获取多个生成图像GI。
此外,根据本公开内容的信息处理设备能够使学习设备I1学习多个生成图像GI并且获取学习结果。此时,根据本公开内容的信息处理设备能够通过单个用户接口来控制与图像生成和学习相关的处理。
图2是图示了根据本公开内容的信息处理设备的功能配置的概念图。参照图2,根据本公开内容的信息处理设备包括接口控制功能F1、机器学习功能F2、物理模拟器功能F3以及三维模型生成功能F4。
此处,接口控制功能F1可以是控制由信息处理设备提供的用户接口的功能。具体地,接口控制功能F1能够向用户提供用户接口,该用户接口用于控制机器学习功能F2、物理模拟器功能F3以及三维模型生成功能F4之间的输入和输出。
此外,机器学习功能F2可以是针对输入信息进行机器学习的功能。例如,机器学习功能F2可以识别从接口控制功能F1输入的图像信息,并且将识别结果返回至接口控制功能F1。
此外,物理模拟器功能F3可以是基于输入信息来执行物理模拟的功能。例如,物理模拟器功能F3可以基于从接口控制功能F1输入的三维模型和参数来执行物理模拟,并且将与物理模拟相关的图像信息返回至接口控制功能F1。
此外,三维模型生成功能F4可以是根据输入的二维图像生成三维模型的功能。例如,三维模型生成功能F4可以根据从接口控制功能F1输入的二维图像生成三维模型,并且将与三维模型相关的信息返回至接口控制功能F1。
上面已经描述了根据本公开内容的信息处理设备的功能配置的概述。根据本公开内容的信息处理设备可以是具有上面列出的功能的设备。此时,可以取决于操作条件等来适当地设计信息处理设备的功能配置。例如,根据本公开内容的信息处理设备可以包括接口控制功能F1和物理模拟器功能F3。在该情况下,上述信息处理设备能够通过进行与具有机器学习功能F2或三维模型生成功能F4的另一设备的通信来提高与机器学习相关的泛化性能。
<2.第一实施方式>
<<2.1.与第一实施方式相关的系统配置示例>>
接下来,将描述根据第一实施方式的系统配置示例。参照图3,根据第一实施方式的系统包括信息处理设备10、机器学习设备20以及模型生成设备30。此外,信息处理设备10、机器学习设备20以及模型生成设备30通过网络40连接,使得它们能够彼此进行通信。
此处,根据第一实施方式的信息处理设备10可以是具有接口控制功能F1和物理模拟器功能F3的设备。换言之,根据本实施方式的信息处理设备10可以是具有提供用于进行与机器学习相关的图像生成和学习控制的用户接口的功能的物理模拟器。
机器学习设备20可以是基于从信息处理设备10接收到的信息来进行机器学习的设备。具体地,机器学习设备20能够基于从信息处理设备10接收到的图像信息来进行与图像信息相关的识别学习。机器学习设备20还具有将针对从信息处理设备10接收到的图像信息的识别结果发送至信息处理设备10的功能。
例如,机器学习设备20可以进行基于深度学习的学习或基于强化学习的学习。例如,机器学习设备20能够进行结合深度学习和Q学习(Q learning)的学习。
模型生成设备30可以具有基于从信息处理设备10接收到的二维图像信息来生成三维模型的功能。此时,例如,模型生成设备30能够使用诸如同步定位与地图构建(SLAM)的技术来进行三维模型生成。模型生成设备30可以通过除SLAM之外的技术来生成三维模型。在该情况下,模型生成设备30可以使用广泛使用的三维建模技术来生成三维模型。模型生成设备30还具有将生成的三维模型的信息发送至信息处理设备10的功能。
网络40具有将信息处理设备10、机器学习设备20以及模型生成设备30彼此连接的功能。网络40可以包括:公共线路网络,例如因特网,电话线路网络,卫星通信网络等;包括以太网(注册商标)的各种类型的局域网(LAN);广域网(WAN)等。此外,网络40可以包括诸如因特网协议-虚拟专用网络(IP-VPN)的专用线路网络。
<<2.2.根据第一实施方式的信息处理设备10>>
接下来,将详细描述根据本实施方式的信息处理设备10。如上所述,根据本实施方式的信息处理设备10可以是包括接口控制功能F1和物理模拟功能F3的设备。换言之,根据本实施方式的信息处理设备10具有提供下述用户接口的功能,该用户接口用于控制机器学习设备20和模型生成设备30之间的输入和输出,并且进行与机器学习相关的图像生成和学习控制。此外,根据本实施方式的信息处理设备10具有生成与机器学习相关的图像的物理模拟功能。
图4是根据本实施方式的信息处理设备10的功能框图。参照图4,根据本实施方式的信息处理设备10包括控制单元110、模拟器单元120、模型获取单元130以及通信单元140。
(控制单元110)
控制单元110具有控制关于与物理模拟相关的参数设置的显示的功能。此外,控制单元110具有将从机器学习设备20获取的确定结果与参数进行关联并且将其显示在连接的显示单元(未示出)上的功能。此处,确定结果可以是针对输入图像信息的识别结果。
此外,控制单元110可以具有动态地设置上述参数的功能。具体地,控制单元110能够设置指定参数值的范围的参数范围、与参数范围相关的分割信息等。稍后将详细描述控制单元110的参数设置功能。
此外,控制单元110可以具有识别用户的操作并且根据用户操作进行处理的功能。例如,用户操作可以包括与参数设置和改变、原始图像的选择、学习的开始和停止等相关的操作。控制单元110可以从连接的输入设备(未示出)获取与用户操作相关的信息,并且根据用户操作进行处理。
(模拟器单元120)
模拟器单元120具有基于动力学定律进行物理模拟的功能。具体地,模拟器单元120能够基于由控制单元110设置的参数以及由稍后要描述的模型获取单元130获取的三维模型来执行物理模拟。
此外,模拟器单元120具有根据与物理模拟相关的三维图像获取二维图像的功能。此时,模拟器单元120可以基于由控制单元110设置的参数来获取二维图像。此处,二维图像可以是二维CG图像。稍后将详细描述模拟器单元120的二维图像获取功能。
(模型获取单元130)
模型获取单元130具有获取根据二维图像生成的三维模型的功能。换言之,模型获取单元130可以具有下述功能:使模型生成设备30基于从控制单元110传输的原始图像的信息来生成三维模型,并且获取生成的三维模型。具体地,在模型生成设备30通过SLAM生成三维模型的情况下,模型获取单元130能够获取通过SLAM生成的三维模型。
此外,模型获取单元130能够将获取的三维模型传输至模拟器单元120。模型获取单元130可以直接从模型生成设备30获取三维模型,或者可以通过稍后要描述的通信单元140来获取三维模型。
(通信单元140)
通信单元140具有在机器学习设备20和模型生成设备30之间进行通信的功能。例如,通信单元140能够将在物理模拟中获得的与参数相关联的图像信息发送至机器学习设备20。此外,通信单元140能够从机器学习设备20接收基于图像信息的确定结果。
此外,通信单元140可以从机器学习设备20接收由具有不同的网络结构的多个不同的神经网络执行的多个确定结果。在该情况下,控制单元110能够使多个确定结果与参数相关联地显示在显示单元上。
此外,通信单元140还可以向机器学习设备20发送与图像信息相关的补偿。在该情况下,机器学习设备20能够使用接收到的补偿来进行强化学习。
<<2.3.与本实施方式相关的控制的概述>>
接下来,将描述根据本实施方式的控制的概述。如上所述,根据本实施方式的信息处理设备10具有提供用于进行与机器学习相关的图像生成和学习控制的用户接口的功能。用户能够通过操作用户接口来使机器学习设备20执行与机器学习相关的图像生成或使用图像的机器学习。此外,因为用户能够使用同一用户接口来检查由机器学习设备20获得的确定结果,所以可以有效地进行工作。
此外,根据本实施方式的信息处理设备10能够动态地设置与物理模拟相关的参数。例如,信息处理设备10可以首先使用宽的参数间隔来进行物理模拟,并且使机器学习设备20识别所获得的生成图像。此时,通过从机器学习设备20接收识别结果,信息处理设备10能够估计机器学习设备20难以识别的参数范围。
在该情况下,围绕与错误地确定的图像相关联的参数值,信息处理设备10可以以更精细的参数间隔来进行物理模拟,并且进行另外的图像生成。换言之,信息处理设备10能够基于识别结果来设置新参数,并且进一步详细地搜寻机器学习设备20难以识别的参数值的边界。
此外,信息处理设备10能够通过围绕与错误地确定的图像相关联的参数值进行图像生成,来生成与机器学习设备20难以识别的参数范围相关的用于学习的大量图像。换言之,根据本实施方式的信息处理设备10,可以根据机器学习设备20的当前识别能力来实现有效的学习。
<<2.4.用户接口的配置示例>>
上面已经描述了根据本实施方式的控制的概述。接下来,将在描述根据本实施方式的用户接口的配置的同时,进一步详细地描述根据本实施方式的信息处理设备10的功能。图5是根据本实施方式的用户接口的配置示例。
参照图5,根据本实施方式的用户接口UI1包括:原始图像显示区域R1,参数设置区域R2,物理模拟图像显示区域R3,生成图像显示区域R4以及确定结果显示区域R5。下面将参照图6至图12详细描述显示在区域R1至R5中的每一个上的内容。
(原始图像显示区域R1)
原始图像显示区域R1是用户选择原始图像的区域。换言之,原始图像显示区域R1可以是用于指定作为要由模型生成设备30生成的三维模型的源的二维图像(原始图像)的区域。
图6图示了原始图像显示区域R1的显示示例。参照图6,根据本实施方式,多个原始图像OR1至OR3显示在原始图像显示区域R1上。用户能够通过选择原始图像显示区域R1上的任意的原始图像来指定要用于三维建模的二维图像。
显示在原始图像显示区域R1上的二维图像可以是用户先前捕获的二维图像,或者可以是由信息处理设备10从通过网络40连接的各种设备收集的二维图像。例如,信息处理设备10可以收集由安装在交通工具上的交通工具装载设备拍摄的图像信息,并且使图像信息显示在原始图像显示区域R1上。
此外,用户可以指定原始图像显示区域R1上的多个原始图像。在模型生成设备30使用诸如SLAM的技术生成三维模型的情况下,获得了多个原始图像。为此,用户可以根据模型生成设备30的三维建模技术来指定原始图像。
虽然未示出,但是可以根据模型生成设备30的三维建模技术在原始图像显示区域R1上显示各种消息。例如,该消息可以是诸如“请指定连续捕获的多个图像”的内容。用户能够根据该消息指定适当的原始图像。
(参数设置区域R2)
参数设置区域R2是用于设置与物理模拟相关的各种参数的区域。参数设置区域R2可以被设置有用于指定例如参数范围或与参数范围相关的分割信息的装置。
图7图示了根据本实施方式的参数设置区域R2的显示示例。参照图7,与多个参数P1至P3相关的设置项显示在参数设置区域R2上。在图7所示的一个示例中,参数P1可以是与太阳位置相关的参数。此外,参数P2可以是与云的量相关的参数。参数P3可以是与路面上的太阳光的反射率相关的参数。
在图7所示的示例中,示出了与三个参数P1至P3相关的设置项,但是可以在参数设置区域R2上显示与四个或更多个参数相关的设置项。此外,用户可以通过按钮操作等来切换要显示的参数。
此外,在参数设置区域R2上显示与参数P1至P3相关的设置项。此处,设置项可以包括参数范围。参照图7,在参数设置区域R2上显示用于设置与参数P1相关的最小值的项Pmin1和用于设置与参数P1相关的最大值的项Pmax1。
此时,控制单元110能够使用与参数的值相关的指示符来使参数范围被显示。在图7所示的示例中,由Bar1可视地指示与参数P1相关的参数值,并且在Bar1上显示与项Pmin1相对应的按钮Bmin1和与项Pmax1相对应的按钮Bmax1。用户能够通过操作按钮Bmin1和Bmax1来改变与参数P1相关的参数范围。
此外,设置项可以包括与参数范围相关的分割信息。此处,分割信息可以是用于划分参数范围的分割数量。在图7所示的示例中,显示了用于指定与参数P1相关的分割数量的项Pdiv1。根据本实施方式的模拟器单元120能够基于参数范围和分割数量来获得多个生成图像。
此外,控制单元110能够自动设置与初始物理模拟相关的参数(下文中也称为“初始参数”)。如上所述,根据本实施方式的控制单元110能够基于机器学习设备20的识别结果来设置新参数。此时,控制单元110可以首先将宽的参数范围设置为初始参数并从机器学习设备20获取识别结果。随后,控制单元110可以基于识别结果来设置比初始参数窄的参数范围并使得进行图像生成。因此,可获得机器学习设备20难以识别的参数值的生成图像。
控制单元110能够基于例如针对每个参数决定的默认值、过去执行的学习的结果等来自动设置初始参数。此外,可以设计由控制单元110进行的初始参数的自动设置,使得根据用户设置来切换是否需要执行。用户可以设置初始参数。在控制单元110自动设置初始参数的情况下,用户可以能够改变每个设置值。因此,可以根据用户的决定来进行更灵活的参数设置。
(物理模拟图像显示区域R3)
物理模拟图像显示区域R3是用于显示由模拟器单元120进行的物理模拟的状态的区域。换言之,可以在物理模拟图像显示区域R3上实时地显示基于根据原始图像生成的三维模型和所设置的参数的物理模拟的处理。
图8是根据本实施方式的物理模拟图像显示区域R3的显示示例。如上所述,模拟器单元120能够执行基于根据原始图像生成的三维模型和所设置的参数的物理模拟。此时,三维模型可以是由模型生成设备30基于在原始图像显示区域R1上指定的二维图像生成的三维模型。此外,参数可以是由控制单元110或用户在参数设置区域R2上设置的参数。
此外,模拟器单元120能够在物理模拟中基于所设置的参数来生成二维CG图像。更具体地,模拟器单元120可以基于在参数设置区域R2上设置的参数范围和分割数量来生成二维CG图像。例如,在将数字1至100设置为参数范围并且将分割数量设置成10的情况下,模拟器单元120可以生成数量上等于参数值10的倍数的二维CG图像。
(生成图像显示区域R4)
生成图像显示区域R4是用于显示由模拟器单元120在物理模拟中获得的生成图像的区域。如上所述,生成图像可以是基于参数设置而获得的二维CG图像。
图9是根据本实施方式的生成图像显示区域R4的显示示例。参照图9,通过物理模拟获得的生成图像GI1至GI3显示在生成图像显示区域R4上。生成图像显示区域R4可以根据物理模拟的执行状态来实时更新。换言之,通过物理模拟的执行处理所获得的生成图像可以被顺序地添加在生成图像显示区域R4上。
在图9所示的示例中,生成图像GI1至GI3可以是从基于图7所示的参数P1的设置而执行的物理模拟中获得的图像。参照图9,可以理解的是,太阳的位置在生成图像GI1至GI3中是不同的。如上所述,根据本实施方式的信息处理设备10,可以有效地生成符合真实世界中的环境变化的图像,并且将这些生成图像提供给机器学习设备20。
(确定结果显示区域R5)
确定结果显示区域R5是用于显示机器学习设备20针对生成图像的确定结果的区域。换言之,用于指示机器学习设备20是否能够识别生成图像的识别结果可以显示在确定结果显示区域R5上。
图10是根据本实施方式的确定结果显示区域R5的显示示例。参照图10,由机器学习设备20获得的识别结果与参数值相关联地显示在确定结果显示区域R5上。如上所述,根据本实施方式的控制单元110能够使显示单元将针对生成图像的识别结果和与生成图像相关的参数值彼此相关联地显示。更具体地,控制单元110可以使被设置为初始参数的参数范围及分割数量与确定结果相关联地显示。
参照图10,可视地指示参数值的Bar2和识别结果RR1显示在确定结果显示区域R5上。此处,识别结果RR1包括针对基于被设置为初始参数的参数范围和分割数量而获得的每个生成图像的识别结果。换言之,在识别结果RR1中,由边框边界指示的区域可以是生成图像的识别结果。
在图10所示的示例中,用阴影线表示与生成图像相关的指示由机器学习设备20做出的错误确定的区域。如上所述,因为控制单元110将生成图像的识别结果和与生成图像相关的参数显示成彼此可视地相关联,所以用户能够理解机器学习设备20难以识别的参数范围。图10图示了使用阴影来对与错误确定相关的显示进行强调的示例,但是可以使用诸如红色或蓝色的不同颜色来指示识别结果。此外,识别结果可以由数字或字符来指示。例如,控制单元110可以使用诸如“真”和“假”或者“1”和“0”的文本信息来显示识别结果。
此外,如上所示,根据本实施方式的控制单元110能够基于识别结果来设置新参数。此时,控制单元110可以使识别结果和新参数彼此相关联地显示在确定结果显示区域R5上。
参照图10,在确定结果显示区域R5中,将项Pmin2、项Pmax2以及项Pdiv2示出为由控制单元110设置的新参数。此外,在Bar2上示出与项Pmin2相对应的按钮Bmin2以及与项Pmax2相对应的按钮Bmax2。此处,上面提到的项可以承担与上面参照图7描述的参数项相同的功能。参照图10,基于对项Pdiv2设置的值,分割线DivL被显示在确定结果显示区域R5上。与初始参数类似,上面列出的参数可以被用户改变。
如图10中所示,控制单元110可以基于指示错误确定的识别结果来设置新参数范围。此时,控制单元110能够将新参数范围设置成包括与指示错误确定的识别结果相关联的参数值。在该情况下,控制单元110可以设置比与识别结果RR1相关联的参数范围窄的新参数范围。换言之,根据本实施方式的控制单元110能够围绕与错误确定结果相关联的那个参数值来设置新参数范围,并且进一步详细地搜寻机器学习设备20难以识别的参数值的边界。
此外,如上所述,控制单元110能够通过设置新参数范围并且进行图像生成,来生成与机器学习设备20难以识别的参数范围相关的用于学习的大量图像。此时,控制单元110还能够通过将分割数量设置为要增加来调节所获得的生成图像的数量。
此外,控制单元110可以控制显示,使得放大与所设置的新参数范围相关的识别结果或指示错误确定的识别结果。在图10所示的示例中,与包括指示错误确定的识别结果的新参数范围相关的识别结果被突出显示为放大结果ER1。
此外,如图10所示,控制单元110能够使确定结果和生成图像彼此相关联地显示。在图10所示的示例中,控制单元110控制与放大结果ER1相关联的生成图像GI6至GI10的显示。控制单元110可以控制与识别结果RR1相关联的生成图像的显示。此外,可以将生成图像的显示设置成通过用户操作来切换。可以适当地设计由控制单元110进行的针对识别结果的放大显示控制或者针对生成图像的显示控制。
上面已经描述了在控制单元110基于指示错误确定的识别结果来设置新参数范围的情况下的显示示例。另一方面,根据本实施方式的控制单元110可以设置不包括与识别结果相关联的参数范围的新参数范围。换言之,控制单元110能够重新设置未被用于识别的参数范围,并且在更宽的范围内研究机器学习设备20的识别能力。
图11是在控制单元110设置不包括与识别结果相关联的参数范围的新参数范围的情况下的显示示例。参照图11,可以理解的是,控制单元110设置不包括与识别结果RR2相关联的参数范围的新参数范围。
此外,参照图11,识别结果RR2不包括指示错误确定的识别结果。如上所述,根据本实施方式的控制单元110可以基于识别结果RR2中不包括指示错误确定的识别结果这一事实来重新设置尚未用于识别的参数范围。因此,可以更有效地研究机器学习设备20的识别能力。
此外,根据本实施方式的控制单元110能够对由具有不同网络结构的多个神经网络所确定的多个确定结果进行比较和显示。图12是在控制单元110对多个确定结果进行比较和显示的情况下的显示示例。
参照图12,可以理解的是,与图10和图11所示的示例不同,在确定结果显示区域R5上显示多个识别结果RR3和RR4。此处,识别结果RR3和RR4可以指示由不同的神经网络获得的识别结果。如上所述,根据本实施方式的控制单元110能够对由多个神经网络获得的识别结果进行比较和显示。
此时,通信单元140可以从单个机器学习设备20获取多个识别结果,或者可以从多个机器学习设备20获取多个识别结果。用户能够检查显示在确定结果区域R5上的多个识别结果,确定多个神经网络之间的识别能力的差异,并且进行不同地处理。
此时,控制单元110可以基于每个识别结果分别设置新参数,或者可以统计地处理多个识别结果并且重新设置公共参数。通信单元140能够将基于所设置的新参数而获得的生成图像发送至一个或更多个机器学习设备20。
上面已经详细描述了根据本实施方式的用户接口的配置。如上所述,根据本实施方式的信息处理设备10能够使模型生成设备30基于指定的原始图像来生成三维模型。此外,信息处理设备10能够基于上述参数和设置参数来执行物理模拟,并且获得多个生成图像。此外,信息处理设备10能够将多个所获得的生成图像发送至机器学习设备20,并且使接收到的识别结果被显示。
根据本实施方式的信息处理设备10,可以通过同一用户接口来控制上述处理,并且显著地提高工作效率。此外,根据本实施方式的信息处理设备10能够基于获取的识别结果来设置新参数。换言之,根据本实施方式的信息处理设备10,可以自动生成与难以识别的参数值相关的图像,并且使机器学习设备20学习该生成图像。
已经聚焦于单个参数进行了上面的描述,但是根据本实施方式的信息处理设备10可以聚焦于多个参数来设置新参数。因为密切相关联的参数作为与物理模拟相关的参数而被包括,所以信息处理设备10能够进行与密切相关联的参数相关的新设置,并且使机器学习设备20进行各种学习。密切相关联的参数可以是例如路面上的反射率、雨或太阳光的强度等。
此外,信息处理设备10能够同时进行多个参数的设置,并且同时生成训练图像和验证图像。在该情况下,信息处理设备10可以适当地调整与用于生成训练图像的参数不同的参数的值,并且生成验证图像。可以根据用户设置适当地改变上述的功能。
<<2.5.通过SLAM生成三维模型>>
接下来,将描述根据本实施方式通过SLAM生成三维模型。如上所述,根据本实施方式的信息处理设备10可以使用通过SLAM生成的三维模型来进行物理模拟。此时,根据本实施方式的信息处理设备10能够将多个连续捕获的二维图像发送至模型生成设备30,并且获取与多个二维图像相关的三维模型。
(SLAM概述)
此处,将描述SLAM的概述。可以将根据本实施方式的SLAM理解为用于根据由同一摄像装置连续捕获的多个图像来生成三维模型的技术。
首先,模型生成设备30从多个图像中提取特征点。此时,模型生成设备30可以使用例如尺度不变特征变换(SIFT)或加速鲁棒特征(SURF)来进行特征点检测。此外,例如,模型生成设备30可以使用哈里斯(Harris)角点检测技术等。
然后,进行从各个图像提取的特征点的匹配。此时,模型生成设备30可以进行与用于特征点检测的技术相对应的匹配。例如,在SIFT或SURF用于特征点检测的情况下,模型生成设备30可以基于与检测到的特征点相关的特征量向量来进行上述匹配。
然后,模型生成设备30基于匹配结果来计算特征点的三维坐标,并且根据特征点的三维坐标来计算与每个图像相对应的摄像装置参数。此处,摄像装置参数可以是摄像装置的自由度矢量。换言之,根据本实施方式的摄像装置参数可以是摄像装置的位置坐标(X,Y,Z)和各个坐标轴的旋转角度(Φx,Φy,Φz)。
此外,模型生成设备30可以基于所计算的摄像装置参数来使投影误差最小化。具体地,模型生成设备30能够进行使每个摄像装置参数和每个特征点的位置分布最小化的统计处理。
上面已经对根据本实施方式的SLAM的概述进行了描述。根据本实施方式的模型生成设备30能够基于通过上述处理获得的特征点的三维坐标来生成三维模型。
(三维模型参数的设置)
接下来,将描述根据本实施方式的三维模型参数的设置。根据本实施方式的信息处理设备10能够进一步设置与由模型生成设备30进行的三维建模相关的三维模型参数。此处,三维模型参数可以是与上述SLAM相关的参数。具体地,三维模型参数可以包括要提取的特征点的数量、特征点的匹配阈值、用于摄像装置参数计算的特征点的范围等。
根据本实施方式的信息处理设备10能够使模型生成设备30基于三维模型参数的设置生成三维模型并且获取三维模型。为此,信息处理设备10可以在用户接口中包括与三维模型参数相关的设置区域。
图13是根据本实施方式的与三维模型参数设置区域R6相关的显示示例。参照图13,在三维模型参数设置区域R6上显示项Pum1、项Pthr1以及项Pran1。可以在设置项上显示用于操作设置项的值的Bar3至Bar5以及按钮B3至B5。
此处,项Pum1可以是用于指定要提取的特征点的数量的设置项。模型生成设备30可以基于对项Pum1设置的值来从图像提取特征点。
项Pthr1可以是用于在进行图像的匹配时设置与特征点匹配相关的阈值的设置项。模型生成设备30可以基于对项Pthr1设置的值来进行特征点匹配。
此外,项Pran1可以是用于设置用于计算摄像装置参数的特征点的范围的项。模型生成设备30可以基于对项Pran1设置的值来计算摄像装置参数。
上面已经描述了根据本实施方式的通过SLAM生成三维模型。根据本实施方式的信息处理设备10能够使用由上述技术生成的三维模型来执行物理模拟,并且获得更接近现实世界的生成图像。
<<2.6.根据第一实施方式的控制的流程>>
接下来,将详细描述根据本实施方式的控制的流程。图14是示出由信息处理设备10进行的控制的流程的流程图。
参照图14,首先,控制单元110获取与由用户指定的原始图像相关的信息(S1101)。此时,用户可以指定多个原始图像,以实现通过SLAM进行的三维模型生成。
然后,控制单元110设置与物理模拟相关的参数(S1102)。此时,用户可以改变由控制单元110设置的参数。
然后,模型获取单元130基于在步骤S1101中指定的原始图像和在步骤S1102中设置的三维模型参数来获取三维模型(S1103)。
然后,模拟器单元120基于在步骤S1102中设置的参数和在步骤S1103中获取的三维模型来执行物理模拟(S1104)。
然后,模拟器单元120基于在步骤S1102中设置的参数来获取生成图像(S1105)。如上所述,生成图像可以是基于物理模拟获取的二维CG图像。步骤S1104和S1105可以并行执行。
然后,通信单元140将在步骤S1105中获取的生成图像发送至机器学习设备20(S1107)。此外,通信单元140可以将与生成图像相关的补偿发送至机器学习设备20。在该情况下,机器学习设备20能够基于接收到的补偿来进行强化学习。
然后,通信单元140接收机器学习设备20针对在步骤S1107中发送的生成图像的识别结果(S1108)。
然后,控制单元110将在步骤S1108中接收到的识别结果和在步骤S1102中设置的参数彼此相关联地进行显示(S1109)。
然后,控制单元110基于在步骤S1107中获取的识别结果来设置新参数。此时,用户可以改变由控制单元110设置的参数。
然后,控制单元110确定处理是否结束(S1110)。此时,控制单元110可以基于由用户进行的操作来确定处理是否结束。
此处,在控制单元110结束处理的情况下(步骤S1110中“是”),信息处理设备10可以结束一系列处理并且转换至待机状态。另一方面,如果处理并未结束(步骤S1110中“否”),则信息处理设备10可以重复进行步骤S1104至S1110的处理。
上面已经描述了根据本实施方式的由信息处理设备10进行的控制的流程。在上面的描述中,已经将由用户改变参数的情况作为示例进行了描述,但是根据本实施方式的信息处理设备10可以在指定原始图像之后自动重复步骤S1104至S1110的处理。根据本实施方式的信息处理设备10能够使机器学习设备20通过重复上述处理来进行连续学习。换言之,根据本实施方式的信息处理设备10能够通过重复进行基于识别结果的图像生成来继续有效地提高机器学习设备20的泛化性能。
<3.第二实施方式>
<<3.1.根据第二实施方式的系统配置>>
接下来,将描述根据本公开内容的第二实施方式。在本公开内容的第二实施方式中,机器学习设备20可以具有接口控制功能F1。在第二实施方式中,信息处理设备10可以是包括物理模拟器功能F3的物理模拟器。换言之,在根据本公开内容的第二实施方式中,机器学习设备20能够控制用户接口并且获取通过由信息处理设备10进行的物理模拟而获得的生成图像。
根据本实施方式的系统可以包括机器学习设备20、信息处理设备10以及模型生成设备30。此外,这些设备通过网络40连接,使得它们能够彼此进行通信。
(机器学习设备20)
如上所述,根据第二实施方式的机器学习设备20可以是具有接口控制功能F1和机器学习功能F2的信息处理设备。换言之,根据本实施方式的机器学习设备20可以是具有提供下述用户接口的功能的学习设备,该用户接口用于进行与机器学习相关的图像生成和学习控制。
(信息处理设备10)
根据本实施方式的信息处理设备10可以是具有物理模拟器功能F3的物理模拟器。根据本实施方式的信息处理设备10具有下述功能:基于从机器学习设备20接收到的参数来进行物理模拟,并且将通过物理模拟获得的生成图像发送至机器学习设备20。
上面已经描述了根据本实施方式的系统配置示例。根据本实施方式的模型生成设备30可以具有与根据第一实施方式的模型生成设备30的功能同样的功能,并且因此将省略其描述。
<<3.2.根据第二实施方式的机器学习设备20>>
接下来,将描述根据本实施方式的机器学习设备20。图15是根据本实施方式的机器学习设备20的功能框图。参照图15,根据本实施方式的机器学习设备20包括控制单元210、机器学习单元220、模型获取单元230以及通信单元240。下面的描述将聚焦于与第一实施方式的差异来进行,并且将省略对重复功能的描述。
(控制单元210)
控制单元210具有控制关于与物理模拟相关的参数的设置的显示的功能。此外,控制单元210具有下述功能:使参数与机器学习单元220针对从信息处理设备10获取的生成图像的学习结果彼此相关联地显示在连接的显示单元(未示出)上。
(机器学习单元220)
机器学习单元220具有基于在由信息处理设备10进行的物理模拟中所获得的生成图像来进行机器学习的功能。
(通信单元240)
通信单元240具有在信息处理设备10与模型生成设备30之间进行通信的功能。例如,通信单元240能够将由控制单元210设置的参数发送至信息处理设备10。此外,通信单元240能够从信息处理设备10接收在物理模拟中获得的生成图像。
上面已经描述了根据本实施方式的机器学习设备20的各个部件。模型获取单元230可以具有与根据第一实施方式的模型获取单元130的功能同样的功能,并且因此将省略其描述。
<<3.3.根据第二实施方式的学习结果的显示>>
接下来,将描述根据本实施方式的学习结果的显示。如上所述,机器学习设备20的控制单元210能够使与生成图像相关的参数和机器学习单元220针对生成图像的学习结果彼此相关联地显示。
图16是根据本实施方式的学习结果显示区域R7的显示示例。参照图16,在学习结果显示区域R7上显示下述内容:生成图像GI11至GI13,与生成图像GI11至GI13相关联的参数值,以及机器学习单元220针对生成图像GI11至GI13的学习结果。
在图16所示的示例中,使用“0”或“1”显示学习结果,但是控制单元210可以例如使由机器学习单元220基于生成图像而重建的图像被显示在学习结果显示区域R7上。此外,在图16所示的示例中,显示了与生成图像相关的单个参数P1的值,但是控制单元210可以使多个参数与学习结果相关联地进行显示。
此外,根据本实施方式的学习结果显示区域R7不限于图17所示的示例,并且可以显示各种学习结果。例如,控制单元210能够对由具有不同网络结构的多个神经网络获得的学习结果进行比较和显示。此外,控制单元210能够使与生成图像相关联的参数和针对生成图像的训练结果及验证结果彼此相关联地显示。
此外,控制单元210可以使参数值和由机器学习单元220进行的学习进展彼此相关联地显示。此时,例如,控制单元210能够使用学习曲线来指示针对预定参数值的学习误差、训练误差等。
上面已经描述了与本公开内容相关的第二实施方式。如上所述,根据本实施方式的控制单元210能够使与生成图像相关的参数值和针对生成图像的学习结果彼此相关联地显示。用户能够检查学习结果显示区域R7,并且理解机器学习单元220难以识别的参数区域。此外,用户可以检查机器学习单元220的学习结果,并且进行各种机器学习相关的控制。例如,用户可以在同一用户接口上改变机器学习单元220的网络结构。根据基于本实施方式的机器学习设备20,可以显著地提高与机器学习控制相关的用户的工作效率。
<4.硬件配置示例>
接下来,将描述根据本公开内容的对信息处理设备10、机器学习设备20以及模型生成设备30而言共同的硬件配置示例。图17是示出根据本公开内容的信息处理设备10、机器学习设备20以及模型生成设备30中的每一个的硬件配置示例的框图。参照图17,信息处理设备10、机器学习设备20以及模型生成设备30中的每一个例如包括:CPU 871、ROM872、RAM 873、主机总线874、桥接器875、外部总线876、接口877、输入设备878、输出设备879、存储设备880、驱动器881、连接端口882以及通信设备883。此处描述的硬件配置是示例,并且可省略一些部件。可以进一步添加除了此处描述的部件之外的部件。
(CPU 871)
CPU871作为例如操作处理设备或控制设备,并且基于记录在ROM872、RAM 873、存储设备880或可移除记录介质901中的各种程序来控制全部部件或一些部件的操作。
(ROM 872和RAM 873)
ROM 872是存储由CPU 871读取的程序、用于操作的数据等的设备。例如,由CPU871读取的程序、在执行程序时适当改变的各种参数等暂时地或永久地存储在RAM 873中。
(主机总线874、桥接器875、外部总线876以及接口877)
例如,CPU 871、ROM 872以及RAM 873与能够进行高速数据传输的主机总线874彼此连接。另一方面,例如,主机总线874通过桥接器875连接至具有相对低的数据传输速度的外部总线876。此外,外部总线876通过接口877连接至各种部件。
(输入设备878)
输入设备878的示例包括鼠标、键盘、触摸面板、按钮、开关以及杆。此外,能够使用红外线或其他无线电波发送控制信号的远程控制器(下文中称为远程控制器)可以用作输入设备878。
(输出设备879)
输出设备879是能够向用户可视地或可听见地通知所获取的信息的设备,诸如例如,诸如阴极射线管(CRT)、LCD或有机EL的显示设备,诸如扬声器或耳机的音频输出设备,打印机,移动电话,传真机。
(存储设备880)
存储设备880是存储各种数据的设备。存储设备880的示例包括诸如硬盘驱动器(HDD)的磁存储设备、半导体存储设备、光存储设备以及磁-光存储设备。
(驱动器881)
驱动器881是用于读出记录在诸如磁盘、光盘、磁-光盘、半导体存储器等的可移除记录介质901中的信息或者将信息写入可移除记录介质901中的设备。
(可移除记录介质901)
可移除记录介质901的示例包括DVD介质、蓝光(注册商标)介质、HD DVD介质以及各种半导体存储介质。将理解的是,可移除记录介质901可以是例如安装有非接触型IC芯片的IC卡、电子设备等。
(连接端口882)
连接端口882是用于连接外部连接设备902的端口,例如通用串行总线(USB)端口、IEEE 1394端口、小型计算机系统接口(SCSI)、RS-232C端口或光学音频终端。
(外部连接设备902)
外部连接设备902的示例包括:打印机、便携式音乐播放器、数字摄像装置、数字摄像机以及IC记录器。
(通信设备883)
通信设备883是建立与网络的连接的通信设备,并且通信设备883的示例包括用于有线或无线LAN的通信卡、蓝牙(注册商标)或无线USB(WUSB)、光通信路由器、非对称数字用户线(ADSL)路由器以及各种通信调制解调器。
<5.结论>
如上所述,根据本公开内容的信息处理设备10可以具有提供以下用户接口的功能:该用户接口用于控制机器学习设备20与模型生成设备30之间的输入和输出,并且进行与机器学习功能相关的图像生成和学习控制。此外,信息处理设备10可以具有生成与机器学习相关的图像的物理模拟功能。此外,根据本公开内容的机器学习设备20可以是具有提供用于进行与机器学习相关的图像生成和学习控制的用户接口的功能的学习设备。根据该配置,可以进一步提高神经网络的泛化性能。
上面已经参照附图描述了本公开内容的优选实施方式,然而本公开内容不限于上述示例。本领域的技术人员可以在所附权利要求的范围内发现各种改变和修改,并且应当理解,这些修改和改变将自然地落入本公开内容的技术范围内。
例如,已经聚焦于与图像识别相关的示例对上述实施方式进行了描述,但是本技术不限于该示例。根据本公开内容的技术也可以应用至例如与机床、外科手术机器人、病理诊断以及农业收割相关的机器学习。
例如,在进行与机床相关的机器学习的情况下,当机器视觉难以识别的环境被并入到物理模拟器中时,可以生成再现各种环境状况的二维CG图像,并且实现例如根据相应的环境状况的控制学习。
此外,例如,在进行与外科手术机器人相关的机器学习的情况下,当难以识别器官或手术工具的环境被并入到物理模拟器中时,可以生成改变了器官的照明或反应的二维CG图像,并且实现根据各种情况的控制学习。
此外,例如,在进行与病理诊断相关的机器学习的情况下,当病理切片被并入到物理模拟器中时,可以生成改变了染色强度的二维CG图像,并且实现例如与各种样本相对应的癌症确定学习。
此外,例如,在进行与农业收割相关的机器学习的情况下,可以通过将从各种传感器获取的传感器信息并入到物理模拟器中并且针对传感器信息和输出结果进行学习,来实现与农业收割相关的学习。
此外,本说明书中描述的效果仅是说明性或示例性的效果,而非限制性的。即,与上述效果一起或代替上述效果,根据本公开内容的技术可以实现对本领域的技术人员而言可以从本说明书的描述中清楚理解到的其他效果。
此外,本技术也可以如下进行配置。
(1)一种信息处理设备,包括:
控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;以及
通信单元,其被配置成向机器学习单元发送在所述物理模拟中获得的与所述参数相关联的图像信息,并且从所述机器学习单元接收基于所述图像信息的确定结果,
其中,所述控制单元使显示单元将所述确定结果和所述参数彼此相关联地进行显示。
(2)根据(1)所述的信息处理设备,
其中,所述参数的设置包括指示所述参数的值的范围的参数范围,以及
所述控制单元使所述显示单元将所述确定结果和所述参数范围彼此相关联地进行显示。
(3)根据(2)所述的信息处理设备,
其中,所述参数的设置进一步包括与所述参数范围相关的分割信息,
所述控制单元进一步使所述显示单元将所述确定结果和所述分割信息彼此相关联地进行显示,以及
所述图像信息是基于所述参数范围和所述分割信息而获取的。
(4)根据(2)或(3)所述的信息处理设备,
其中,所述控制单元基于所述确定结果设置新参数,并且使所述显示单元将所述确定结果和所述新参数彼此相关联地进行显示。
(5)根据(4)所述的信息处理设备,
其中,所述确定结果是针对所述图像信息而确定的正确错信息,
所述控制单元基于指示错误确定的确定结果来设置新参数范围,以及
所述新参数范围包括与指示错误确定的确定结果相关联的参数的值,并且比与所述确定结果相关联的参数范围窄。
(6)根据(5)所述的信息处理设备,
其中,所述控制单元控制进行显示使得指示错误确定的确定结果被放大。
(7)根据(4)至(6)中任一项所述的信息处理设备,
其中,所述控制单元设置不包括与所述确定结果相关联的参数范围的新参数范围。
(8)根据(1)至(7)中任一项所述的信息处理设备,
其中,所述控制单元使所述显示单元将所述确定结果和与所述参数的值相关的指示符一起进行显示。
(9)根据(1)至(8)中任一项所述的信息处理设备,
其中,所述参数由用户设置或改变。
(10)根据(1)至(9)中任一项所述的信息处理设备,
其中,所述控制单元进一步使所述确定结果和基于所述图像信息而生成的图像彼此相关联地显示。
(11)根据(1)至(10)中任一项所述的信息处理设备,还包括:
IP1784480P
模拟器单元,其被配置成进行物理模拟。
(12)根据(11)所述的信息处理设备,还包括:
模型获取单元,其被配置成获取根据二维图像生成的三维模型,
其中,所述模拟器单元使用根据所述二维图像生成的三维模型来进行物理模拟。
(13)根据(12)所述的信息处理设备,
其中,所述模型获取单元获取通过同步定位与地图构建生成的三维模型。
(14)根据(13)所述的信息处理设备,
其中,与所述物理模拟相关的参数进一步包括三维模型参数,
所述模型获取单元基于所述三维模型参数来获取所述三维模型,以及
所述三维模型参数包括要提取的特征点的数量、特征点的匹配阈值以及用于摄像装置参数计算的特征点的范围中的至少一个。
(15)根据(12)至(14)中任一项所述的信息处理设备,
其中,所述控制单元使所述显示单元对所述二维图像、基于所述图像信息而生成的图像以及所述物理模拟的执行图像中的至少一个进行显示。
(16)根据(1)至(15)中任一项所述的信息处理设备,
其中,所述通信单元向所述机器学习单元发送与所述图像信息相关的补偿。
(17)根据(1)至(16)中任一项所述的信息处理设备,
其中,所述通信单元接收由具有不同网络结构的多个神经网络确定的多个所述确定结果。
(18)一种信息处理设备,包括:
控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;
通信单元,其被配置成向物理模拟器发送所述参数,并且从所述物理模拟器接收在所述物理模拟中获得的图像信息;以及
机器学习单元,其被配置成基于所述图像信息来进行机器学习,
其中,所述控制单元使显示单元将所述参数和由所述机器学习单元获得的学习结果彼此相关联地进行显示。
附图标记列表
10 信息处理设备
110 控制单元
120 模拟器单元
130 模型获取单元
140 通信单元
20 机器学习设备
210 控制单元
220 机器学习单元
230 模型获取单元
240 通信单元
30 模型生成设备
Claims (18)
1.一种信息处理设备,包括:
控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;以及
通信单元,其被配置成向机器学习单元发送在所述物理模拟中获得的与所述参数相关联的图像信息,并且从所述机器学习单元接收基于所述图像信息的确定结果,
其中,所述控制单元使显示单元将所述确定结果和所述参数彼此相关联地进行显示。
2.根据权利要求1所述的信息处理设备,
其中,所述参数的设置包括指示所述参数的值的范围的参数范围,以及
所述控制单元使所述显示单元将所述确定结果和所述参数范围彼此相关联地进行显示。
3.根据权利要求2所述的信息处理设备,
其中,所述参数的设置进一步包括与所述参数范围相关的分割信息,
所述控制单元进一步使所述显示单元将所述确定结果和所述分割信息彼此相关联地进行显示,以及
所述图像信息是基于所述参数范围和所述分割信息而获取的。
4.根据权利要求2所述的信息处理设备,
其中,所述控制单元基于所述确定结果设置新参数,并且使所述显示单元将所述确定结果和所述新参数彼此相关联地进行显示。
5.根据权利要求4所述的信息处理设备,
其中,所述确定结果是针对所述图像信息而确定的正确错误信息,
所述控制单元基于指示错误确定的确定结果来设置新参数范围,以及所述新参数范围包括与指示错误确定的确定结果相关联的参数的值,并且比与所述确定结果相关联的参数范围窄。
6.根据权利要求5所述的信息处理设备,
其中,所述控制单元控制进行显示使得指示错误确定的确定结果被放大。
7.根据权利要求4所述的信息处理设备,
其中,所述控制单元设置不包括与所述确定结果相关联的参数范围的新参数范围。
8.根据权利要求1所述的信息处理设备,
其中,所述控制单元使所述显示单元将所述确定结果和与所述参数的值相关的指示符一起进行显示。
9.根据权利要求1所述的信息处理设备,
其中,所述参数由用户设置或改变。
10.根据权利要求1所述的信息处理设备,
其中,所述控制单元进一步使所述确定结果和基于所述图像信息而生成的图像彼此相关联地显示。
11.根据权利要求1所述的信息处理设备,还包括:
模拟器单元,其被配置成进行物理模拟。
12.根据权利要求11所述的信息处理设备,还包括:
模型获取单元,其被配置成获取根据二维图像生成的三维模型,
其中,所述模拟器单元使用根据所述二维图像生成的三维模型来进行物理模拟。
13.根据权利要求12所述的信息处理设备,
其中,所述模型获取单元获取通过同步定位与地图构建生成的三维模型。
14.根据权利要求13所述的信息处理设备,
其中,与所述物理模拟相关的参数进一步包括三维模型参数,
所述模型获取单元基于所述三维模型参数来获取所述三维模型,以及
所述三维模型参数包括要提取的特征点的数量、特征点的匹配阈值以及用于摄像装置参数计算的特征点的范围中的至少一个。
15.根据权利要求12所述的信息处理设备,
其中,所述控制单元使所述显示单元对所述二维图像、基于所述图像信息而生成的图像以及所述物理模拟的执行图像中的至少一个进行显示。
16.根据权利要求1所述的信息处理设备,
其中,所述通信单元向所述机器学习单元发送与所述图像信息相关的补偿。
17.根据权利要求1所述的信息处理设备,
其中,所述通信单元接收由具有不同网络结构的多个神经网络确定的多个所述确定结果。
18.一种信息处理设备,包括:
控制单元,其被配置成控制关于与物理模拟相关的参数的设置的显示;
通信单元,其被配置成向物理模拟器发送所述参数,并且从所述物理模拟器接收在所述物理模拟中获得的图像信息;以及
机器学习单元,其被配置成基于所述图像信息来进行机器学习,
其中,所述控制单元使显示单元将所述参数和由所述机器学习单元获得的学习结果彼此相关联地进行显示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-063379 | 2016-03-28 | ||
JP2016063379A JP2017182129A (ja) | 2016-03-28 | 2016-03-28 | 情報処理装置。 |
PCT/JP2016/088889 WO2017168898A1 (ja) | 2016-03-28 | 2016-12-27 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107615310A true CN107615310A (zh) | 2018-01-19 |
Family
ID=59963932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680029428.6A Pending CN107615310A (zh) | 2016-03-28 | 2016-12-27 | 信息处理设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10430707B2 (zh) |
EP (1) | EP3438892A4 (zh) |
JP (1) | JP2017182129A (zh) |
CN (1) | CN107615310A (zh) |
WO (1) | WO2017168898A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345614A (zh) * | 2018-09-20 | 2019-02-15 | 山东师范大学 | 基于深度强化学习的ar增强现实大屏互动的动画仿真方法 |
CN112534367A (zh) * | 2018-10-01 | 2021-03-19 | 欧姆龙株式会社 | 学习装置、控制装置、学习方法以及学习程序 |
CN112585544A (zh) * | 2018-08-20 | 2021-03-30 | 西门子股份公司 | 用于人工智能的基于可编程逻辑控制器的模块化加速模块 |
CN112640037A (zh) * | 2018-09-03 | 2021-04-09 | 首选网络株式会社 | 学习装置、推理装置、学习模型的生成方法及推理方法 |
CN112997214A (zh) * | 2018-11-13 | 2021-06-18 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200082262A1 (en) * | 2016-12-21 | 2020-03-12 | Intel Corporation | Camera re-localization by enhanced neural regression using middle layer features in autonomous machines |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
JP6950505B2 (ja) * | 2017-12-08 | 2021-10-13 | 富士通株式会社 | 判別プログラム、判別方法および判別装置 |
KR101885562B1 (ko) * | 2017-12-18 | 2018-08-06 | 주식회사 뷰노 | 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치 |
US10303045B1 (en) * | 2017-12-20 | 2019-05-28 | Micron Technology, Inc. | Control of display device for autonomous vehicle |
KR20190101677A (ko) * | 2018-02-23 | 2019-09-02 | 주식회사 모비스 | 강화학습과 머신러닝 기법을 이용한 가속기 성능 최적화를 위한 제어 패러미터 결정 시스템 |
CN108921893B (zh) * | 2018-04-24 | 2022-03-25 | 华南理工大学 | 一种基于在线深度学习slam的图像云计算方法及系统 |
WO2020026459A1 (ja) * | 2018-08-03 | 2020-02-06 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
KR102541743B1 (ko) * | 2018-09-03 | 2023-06-13 | 가부시키가이샤 프리퍼드 네트웍스 | 학습 장치, 추론 장치 및 학습 완료 모델 |
WO2020152763A1 (ja) | 2019-01-22 | 2020-07-30 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
WO2020213748A1 (ja) * | 2019-04-15 | 2020-10-22 | 株式会社シンクアウト | 充血グレード提示装置および充血グレード提示方法 |
JP7312054B2 (ja) * | 2019-08-06 | 2023-07-20 | 株式会社Subaru | 車両の走行制御システム |
US11200458B1 (en) | 2020-06-15 | 2021-12-14 | Bank Of America Corporation | System for integration of a hexagonal image processing framework within a technical environment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853399A (zh) * | 2010-05-11 | 2010-10-06 | 北京航空航天大学 | 利用计算机视觉技术进行盲道和人行横道实时检测的方法 |
CN104268539A (zh) * | 2014-10-17 | 2015-01-07 | 中国科学技术大学 | 一种高性能的人脸识别方法及系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008287378A (ja) * | 2007-05-16 | 2008-11-27 | Hitachi Omron Terminal Solutions Corp | 画像識別学習装置及びそれを用いた印刷物識別装置 |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8971612B2 (en) * | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
EP2890300B1 (en) * | 2012-08-31 | 2019-01-02 | Kenji Suzuki | Supervised machine learning technique for reduction of radiation dose in computed tomography imaging |
US9031317B2 (en) * | 2012-09-18 | 2015-05-12 | Seiko Epson Corporation | Method and apparatus for improved training of object detecting system |
US9418467B2 (en) * | 2012-12-21 | 2016-08-16 | Honda Motor Co., Ltd. | 3D human models applied to pedestrian pose classification |
JP6664579B2 (ja) * | 2014-06-20 | 2020-03-13 | ヤフー株式会社 | 学習装置、学習方法及び学習プログラム |
US10496766B2 (en) * | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US9632502B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
WO2017079341A2 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US10627470B2 (en) * | 2015-12-08 | 2020-04-21 | Siemens Healthcare Gmbh | System and method for learning based magnetic resonance fingerprinting |
-
2016
- 2016-03-28 JP JP2016063379A patent/JP2017182129A/ja active Pending
- 2016-12-27 US US15/566,327 patent/US10430707B2/en active Active
- 2016-12-27 CN CN201680029428.6A patent/CN107615310A/zh active Pending
- 2016-12-27 EP EP16897113.3A patent/EP3438892A4/en not_active Withdrawn
- 2016-12-27 WO PCT/JP2016/088889 patent/WO2017168898A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853399A (zh) * | 2010-05-11 | 2010-10-06 | 北京航空航天大学 | 利用计算机视觉技术进行盲道和人行横道实时检测的方法 |
CN104268539A (zh) * | 2014-10-17 | 2015-01-07 | 中国科学技术大学 | 一种高性能的人脸识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
XINGCHAO PENG等: "EXPLORING INVARIANCES IN DEEP CONVOLUTIONAL NEURAL NETWORKS USING SYNTHETIC IMAGES", 《HTTPS://ARXIV.ORG/PDF/1412.7122V1.PDF》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112585544A (zh) * | 2018-08-20 | 2021-03-30 | 西门子股份公司 | 用于人工智能的基于可编程逻辑控制器的模块化加速模块 |
CN112640037A (zh) * | 2018-09-03 | 2021-04-09 | 首选网络株式会社 | 学习装置、推理装置、学习模型的生成方法及推理方法 |
CN109345614A (zh) * | 2018-09-20 | 2019-02-15 | 山东师范大学 | 基于深度强化学习的ar增强现实大屏互动的动画仿真方法 |
CN109345614B (zh) * | 2018-09-20 | 2023-04-07 | 山东师范大学 | 基于深度强化学习的ar增强现实大屏互动的动画仿真方法 |
CN112534367A (zh) * | 2018-10-01 | 2021-03-19 | 欧姆龙株式会社 | 学习装置、控制装置、学习方法以及学习程序 |
CN112534367B (zh) * | 2018-10-01 | 2023-09-19 | 欧姆龙株式会社 | 学习装置、控制装置、学习方法以及计算机可读存储介质 |
US11971709B2 (en) | 2018-10-01 | 2024-04-30 | Omron Corporation | Learning device, control device, learning method, and recording medium |
CN112997214A (zh) * | 2018-11-13 | 2021-06-18 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112997214B (zh) * | 2018-11-13 | 2024-04-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
JP2017182129A (ja) | 2017-10-05 |
US10430707B2 (en) | 2019-10-01 |
EP3438892A4 (en) | 2019-11-06 |
WO2017168898A1 (ja) | 2017-10-05 |
EP3438892A1 (en) | 2019-02-06 |
US20180082178A1 (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107615310A (zh) | 信息处理设备 | |
JP6852748B2 (ja) | 情報処理方法および情報処理装置 | |
WO2020010979A1 (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
CN103582893B (zh) | 用于增强现实表示的二维图像获取 | |
Maung | Real-time hand tracking and gesture recognition system using neural networks | |
CN110730970B (zh) | 优化策略控制器的方法和系统 | |
CN110414601A (zh) | 基于深度卷积对抗网络的光伏组件故障诊断方法、系统及设备 | |
CN108304075B (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN108769517A (zh) | 一种基于增强现实进行远程辅助的方法与设备 | |
CN107850936A (zh) | 用于提供物理环境的虚拟显示的方法和系统 | |
WO2020091891A1 (en) | Cross-domain image translation | |
JP6690489B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN106997613A (zh) | 根据2d图像的3d模型生成 | |
CN110348278A (zh) | 用于自主驾驶的基于视觉的样本高效的强化学习框架 | |
CN111091166A (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
US20220405587A1 (en) | Computer-implemented method and system for generating a synthetic training data set for training a machine learning computer vision model | |
CN109583367A (zh) | 图像文本行检测方法及装置、存储介质和电子设备 | |
CN110378095A (zh) | 基于验证码的交互验证方法、装置、介质和计算设备 | |
CN110288691A (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
Zhang et al. | Adversarial samples for deep monocular 6d object pose estimation | |
US11202000B2 (en) | Learning apparatus, image generation apparatus, learning method, image generation method, and program | |
Lv et al. | A challenge of deep‐learning‐based object detection for hair follicle dataset | |
KR20220012784A (ko) | 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180119 |
|
WD01 | Invention patent application deemed withdrawn after publication |