CN108572586B - 信息处理装置和信息处理系统 - Google Patents

信息处理装置和信息处理系统 Download PDF

Info

Publication number
CN108572586B
CN108572586B CN201710904677.1A CN201710904677A CN108572586B CN 108572586 B CN108572586 B CN 108572586B CN 201710904677 A CN201710904677 A CN 201710904677A CN 108572586 B CN108572586 B CN 108572586B
Authority
CN
China
Prior art keywords
artificial intelligence
result
information processing
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710904677.1A
Other languages
English (en)
Other versions
CN108572586A (zh
Inventor
得地贤吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Publication of CN108572586A publication Critical patent/CN108572586A/zh
Application granted granted Critical
Publication of CN108572586B publication Critical patent/CN108572586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/043Distributed expert systems; Blackboards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39271Ann artificial neural network, ffw-nn, feedforward neural network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Abstract

信息处理装置和信息处理系统。信息处理装置包括:第一人工智能,该第一人工智能通过处理输入信息输出第一结果,以及第二人工智能,该第二人工智能不同于所述第一人工智能,并且通过处理所述输入信息输出第二结果。基于通过将所述第一结果与所述第二结果进行比较所获取的结果,确定接下来要执行的处理的内容。

Description

信息处理装置和信息处理系统
技术领域
本发明涉及信息处理装置和信息处理系统。
背景技术
日本未审查专利申请公报No.2000-112707公开了一种提供监测计算机网络中的外围组件的功能的装置的技术。
在日常生活中辅助人们的机器人(如清洁机器人或通信机器人)中正在使用人工智能,并且针对人工智能的处理操作的可靠性要求日益增长。
发明内容
本发明的目的是,与在基于由单个人工智能所提供的结果确定处理操作时相比,在处理操作中实现更高的可靠性。
根据本发明的第一方面,提供了一种信息处理装置。所述信息处理装置包括:第一人工智能,该第一人工智能通过处理输入信息输出第一结果,和第二人工智能,该第二人工智能不同于所述第一人工智能,并且通过处理所述输入信息输出第二结果。基于通过将所述第一结果与所述第二结果进行比较所获取的结果,确定接下来要执行的处理的内容。
根据本发明的第二方面,鉴于第一方面,所述第一人工智能与在虚拟空间中能移动的第一人物相关联,并且所述第二人工智能与在所述虚拟空间中能移动的第二人物相关联。
根据本发明的第三方面,鉴于第二方面,当与终端装置进行通信时,所述第一人物和所述第二人物被显示在该终端装置的显示屏幕上。
根据本发明的第四方面,鉴于第三方面,当所述第一人物在所述虚拟空间中移动时,所述第二人物与所述第一人物一起移动。
根据本发明的第五方面,鉴于第一方面,所述第一人工智能和所述第二人工智能移动至经由通信链路连接至所述信息处理装置的另一信息处理装置。
根据本发明的第六方面,鉴于第五方面,响应于在终端装置的显示屏幕上执行的移动操作,所述第一人工智能和所述第二人工智能移动至与所述第一人工智能相关联的所述第一人物和与所述第二人工智能相关联的所述第二人物中的一个或二者上。
根据本发明的第七方面,鉴于第一方面,如果所述第一结果不同于所述第二结果,则所述第二结果具有超过所述第一结果的优先级。
根据本发明的第八方面,鉴于第一方面,基于通过将所述第一结果的一部分与所述第二结果的一部分进行比较所获取的结果,确定接下来要执行的处理的内容。
根据本发明的第九方面,鉴于第一方面,所述第一人工智能和所述第二人工智能在方法上不同。
根据本发明的第十方面,鉴于第一方面,所述第一人工智能和所述第二人工智能在方法上相同,但在与学习有关的参数方面不同。
根据本发明的第十一方面,提供了一种信息处理装置。所述信息处理系统包括:第一信息处理装置,该第一信息处理装置包括第一人工智能,该第一人工智能操作以通过处理输入信息输出第一结果,和第二信息处理装置,该第二信息处理装置包括第二人工智能,该第二人工智能不同于所述第一人工智能,并且操作以通过处理所述输入信息输出第二结果。基于通过将所述第一结果与所述第二结果进行比较所获取的结果,确定接下来要执行的处理的内容。
根据本发明的第一方面,与在基于由单个人工智能所提供的结果确定处理操作时相比,在处理操作中实现更高的可靠性。
根据本发明的第二方面,通过将人工智能作为虚拟空间中的人物进行管理,在真实空间与虚拟空间之间实现无缝协调。
根据本发明的第三方面,人工智能通过显示人物而在视觉上被识别。
根据本发明的第四方面,通过参考人物的移动来识别两个人工智能之间的协调操作。
根据本发明的第五方面,这两个人工智能被传送至另一个信息处理装置。
根据本发明的第六方面,响应于虚拟空间上的人物的移动操作来移动这两个人工智能。
根据本发明的第七方面,与在重复这两个人工智能的操作直到两个结果相匹配为止时相比,更多地控制确定延迟。
根据本发明的第八方面,如果结果包括多条信息,则通过将结果缩小至这些信息的一部分来控制确定延迟。
根据本发明的第九方面,通过使这两种人工智能在方法上不同,增加确定的可靠性。
根据本发明的第十方面,通过使与两个人工智能的学习有关的参数不同,来提高确定的可靠性。
根据本发明的第十一方面,与在基于由单个人工智能所提供的结果确定处理操作时相比,在处理操作中实现更高的可靠性。
附图说明
基于下列图,对本发明的示例性实施方式进行详细描述,其中:
图1是作为信息处理装置的示例的机器人的外观图;
图2例示了在示例性实施方式中使用的机器人的硬件配置;
图3例示了由机器人提供的计算资源的使用示例;
图4例示了两种处理结果经由除两个人工智能的处理功能之外的其它处理功能而组合的机制;
图5例示了两种处理结果通过两种人工智能之一组合的机制;
图6例示了真实空间与虚拟空间之间的协调操作;
图7例示了终端装置的硬件配置;
图8例示了显示屏幕上的显示示例;
图9例示了显示屏幕上的另一显示示例;
图10例示了显示屏幕上的另一显示示例;
图11例示了显示屏幕上的另一显示示例;
图12例示了显示屏幕上的另一显示示例;
图13例示了人工智能移动的处理;
图14例示了响应于人工智能的移动处理的显示屏幕上的显示示例;
图15例示了人工智能的移动完成的状态;
图16例示了响应于人工智能的移动完成的阶段的显示屏幕上的显示示例;
图17例示了具有工作者角色的人工智能和具有监督者角色的人工智能在单独的装置中操作的操作示例;
图18例示了当两个人工智能在单独的装置中操作时的两个结果的组合操作;
图19例示了当人工智能在单独的装置中操作时在显示屏幕上的显示示例;以及
图20例示了人工智能的工作位置如何与针对显示屏幕上的人物执行的操作相一致地移动。
具体实施方式
参照附图对本发明的示例性实施方式进行描述。
描述了该示例性实施方式的可利用人工智能自主移动的信息处理装置。
该信息处理装置用作提供要被人工智能使用的计算资源的、真实空间中的装置。
该计算资源是指由计算机执行的处理或作业中使用的资源。计算源通常是信息处理装置使用处理器(处理器时间)和存储器(包括物理存储器和虚拟存储器)的时间之和。
人工智能与现有计算机程序的不同之处在于,在人工智能中所有输入和输出关系没有被预先描述。
人工智能利用向形成信息处理装置的硬件资源发出的命令来影响真实空间。
本示例性实施方式涉及最大化其在个别特定领域的能力的狭义人工智能。然而,人工智能不仅可以是狭义的人工智能,而且是可以解决多种复杂问题的广义人工智能。
可用作实现人工智能的算法是一种机器学习算法,其根据给定信息自主学习法则和规则,并通过向数据应用所学习和生成的法则和规则来输出结果。
在使用机器学习算法的人工智能中,学习中使用的信息的类型、量、学习时间、或加权方面的差异影响人工智能的输出结果。
在这个意义上,按学习中所使用信息的类型和量不同的人工智能是按与学习有关的参数不同的人工智能示例。
而且,可用作实现人工智能的算法是一种深度学习型算法,其被实现为利用多层神经网络的机器学习。
深度学习型算法包括:利用卷积神经网络的方法、利用循环神经网络的方法、利用深度信念网络的方法、以及利用深度Boltzmann机器的方法。按实现方法不同的人工智能是按与学习有关的参数不同的人工智能示例。
而且,实现人工智能的算法可以包括遗传算法、强化学习、聚类分析、自组织地图(SOM)、以及整体学习。
根据该示例性实施方式,按算法不同的人工智能被认为是按算法方法不同的人工智能。按算法不同的人工智能和按与学习有关的参数和学习量不同的人工算法通常被称为按方法不同的人工智能。
每个人工智能在处理内容方面都有其自身的用处。
该示例性实施方式的人工智能支持以下各项中的全部或一些:处理语言的功能、处理图像的功能、处理音频的功能、执行控制的功能、以及优化和推理的功能。
通信机器人是具有处理语言的功能的机器人的示例。清洁机器人是具有执行控制的功能的机器人的示例。
根据该示例性实施方式,词语“自主”是指以不受外部控制的方式执行某事物的状态。换句话说,词语“自主”是指自足式且不依赖于其它实体的状态。
对本示例性实施方式的信息处理装置进行具体描述。信息处理装置存在于真实空间内。
图1例示了作为信息处理装置的示例的机器人10的外观图。
参照图1,机器人10具有人类娃娃或玩具的外观。机器人10不限于娃娃形状,而是可以具有模仿动物(如狗或猫)、植物(如花或树)、车辆(如火车)或飞机的形状。
人形机器人10包括:躯干11、头12、臂13和15、手14和16、以及腿17和18。
躯干11容纳用于信号处理的电子组件。躯干11还可以包括显示器或音频装置。
头12经由设置在颈部的关节机构连接至躯干11。根据该示例性实施方式,关节机构可围绕三个轴旋转。围绕三个轴的旋转包括偏转(围绕z轴旋转)、转动(围绕x轴旋转)、以及俯仰(绕y轴旋转)。
关节机构不一定必须围绕三个轴旋转,而是可以仅绕一个轴或仅绕两个轴旋转。关节机构可以通过马达(未示出)旋转,或者可以手动旋转。另选的是,头12可以固定至躯干11。
头12包括眼睛12A和12B。眼睛12A和12B可以被设置用于装饰目的,或者可以包括成像装置、投影仪或照明装置。头12还可以包括可动耳。
根据示例性实施方式,臂13和15经由关节机构连接至躯干11。每个臂13和15的上臂和下臂经由关节机构彼此连接。作为关节机构,头12可以是多轴型或单轴型。该关节机构可以通过马达(未示出)旋转或者可以手动旋转。另选的是,臂13和15可以固定至躯干11。
当臂13和15以预定角度弯曲时,机器人10可以携带物品。
手14和16分别经由设置在手腕位置处的关节机构连接至臂13和15。在每只手14和16中,手指经由关节机构连接至手掌。像头12的关节一样,该关节机构可以是多轴或单轴型。围绕每个轴的旋转可以通过马达(未示出)驱动或者可以手动驱动。根据该示例性实施方式,手14和16中的每一个可以通过可以张开或合拢的手指抓握物品。
另选的是,手14和16可以分别固定至臂13和15。
腿17和18可以经由关节机构连接至躯干11。另选地,腿17和18可以是诸如轮子或履带的自推进机构,并且可以直接连接至躯干11。
如果腿17和18经由关节机构连接至躯干11,那么该关节机构可以是像头12的关节机构一样的多轴或单轴型。
围绕每个轴的旋转可以通过马达(未示出)驱动或者可以手动驱动。另选地,腿17和18中的每一个都可以固定至躯干11。
图2例示了供在示例性实施方式中使用的机器人10的硬件配置。
该机器人10包括:控制器21、摄像头22、扬声器23、麦克风24、可动机构25、通信单元26、显示器27、移动机构28、电源29、传感器30、以及位置检测器31。这些部件例如经由总线32彼此互连。控制器21控制整个装置的移动。摄像头22捕获机器人10的环境图像。扬声器23再现会话语音、音乐、以及音效。麦克风24被用于输入或拾取声音。可动机构25例如是关节机构。通信单元26与外部装置通信。显示器27显示图像。移动机构28移动整个装置。电源29向每一个部件馈送电力。传感器30被用于收集关于每个部件状态的信息和外围信息。位置检测器31被用于获取位置信息。
出于示例的目的,例示了图2的硬件配置。机器人10可以不一定必须包括上述所有功能单元。
机器人10可以包括另一功能单元(未示出)。例如,机器人10可以包括电源按钮、存储器装置(如硬盘装置或半导体存储器),和热源(包括冷却源)。
控制器21是计算机,并且包括中央处理单元(CPU)、只读存储器(ROM)、以及随机存取存储器(RAM)。
ROM存储由CPU执行的程序。
CPU读取存储在ROM上的程序,并利用RAM作为工作区域执行该程序。通过执行该程序,CPU控制形成机器人10的部件。
该程序包括与实现与人工智能相对应的算法有关的程序。形成控制器21的CPU和RAM提供将被人工智能使用的计算资源。
利用人工智能,示例性实施方式的控制器21处理由摄像头22、麦克风24以及传感器30获取的信息,并且响应于机器人10的周围环境和状态,自主地确定机器人10的操作。
控制器21可以从扬声器23发出声音,经由通信单元26发送消息,或者经由显示器27输出图像。
因此,控制器21响应于这些信息的输入和输出以及可动机构25的运动而建立与用户的通信。通信的应用示例可能包括等待客户或领导会议。
如果发生未标识的事件,则控制器21可以具有经由互联网搜索或与外部计算机通信来收集附加信息的功能,并且根据与搜索到的事件的相似程度找到解决方案。
根据示例性实施方式,由控制器21获取的信息包括:通过视觉、听觉、触觉、味觉、嗅觉、平衡感以及热感获得的信息。
视觉可以通过对摄像头22所拍摄的图像的识别处理来实现。
听觉可以通过对麦克风24所拾取的声音的识别处理来实现。
触感可以包括浅部感觉(触感、痛感以及热感)、深部感觉(压力感、位置感、振动感等)、皮质感觉(两点辨别、空间感知等)。
控制器21可以辨别触觉的差异。
触觉、味觉、嗅觉、平衡感以及热感可以在多种传感器30获取信息时加以实现。由热感获得的信息包括:环境温度、内部温度以及人或动物的体温。
由控制器21获取的信息可以包括人或动物的脑电图。脑电图可以通过利用通信单元26接收由脑波检测装置发送的信息来获取。
根据示例性实施方式,摄像头22设置在眼睛12A和眼睛12B(参见图1)中的每一个的位置处。
如果使用投影仪作为显示器27,那么投影仪可以安装在眼睛21A和12B中的一个或两个处(参见图1)。另选地,投影仪可以安装在躯干11或头12上。
可动机构25被用于传输物品或表达感觉。
如果可动机构25被用于传输物品,则可动机构25通过改变臂13和15以及手14和16(参见图1)的形状来夹持、保持或支承该物品。
如果可动机构25被用于表达情感,则该可动机构25使头12倾斜以示疑问、向上看、环顾四周、抬起臂13和15,或者用手指指。
示例性实施方式的通信单元26与外部无线地通信。
机器人10包括通信单元26,其数量等于希望在用作目的地的外部装置中使用的通信方案的数量。
该通信方案包括红外通信、可见光通信、近场无线电通信、WiFi(注册商标)、蓝牙(Bluetooth,注册商标)、RFID(注册商标)、ZigBee(注册商标)、IEEE 802.11a(注册商标)、MulteFire、以及低功率广域(LPWA)。
用于无线电通信的频带包括短波段(800MHz至920MHz)、以及2.4GHz波段和5GHz波段。
应注意到,通信单元26可以利用通信线缆连接至外部装置。
显示器27可以被用于建立与用户的可视通信。例如,通信单元26可以显示人物或图形。
如果显示器27安装在头12上,则显示器27可以显示面部表情。
根据示例性实施方式,轮子或履带被用于移动机构28。另选的是,机器人10可以利用空气的力移动,例如,利用螺旋桨或吹出压缩空气的机构。
示例性实施方式的电源29是可充电电池。只要提供电力,电源29可以是一次电池、燃料电池、或太阳能电池板。
另选地,可以经由电缆从外部供电。
示例性实施方式的机器人10包括位置检测器31。
位置检测器31可以是以下系统之一。该系统包括:从全球定位系统(GPS)信号获取位置信息的系统、利用类似于GPS信号的信号来测量室内空间内的一位置的室内消息传送系统(IMES)、根据多个WiFi接入点发送的无线电波的强度和无线电波的抵达时间来固定位置的WiFi定位系统、响应于从基站周期性产生的信号根据方位和响应的延迟时间来固定位置的基站定位系统、通过接收处于不可听范围内的超声波来固定位置的超声探测系统、通过利用蓝牙从信标接收无线电波来固定位置的蓝牙(Bluetooth,注册商标)定位系统、利用通过闪烁来自发光二极管(LED)的照明光而发送的定位信息来固定位置的可见光定位系统、以及利用加速度传感器或陀螺仪传感器固定位置的航位推算系统。
图3例示了由机器人10提供的计算资源的使用示例。
根据示例性实施方式,由控制器21提供的计算资源35被用于两个人工智能和控制程序的操作。
这两个人工智能通过称为“人工智能1”和“人工智能2”来加以区分。人工智能1是第一人工智能的示例,而人工智能2是第二人工智能的示例。
根据示例性实施方式,人工智能1和人工智能2彼此不同。不同人工智能的示例是按算法方法不同的人工智能,或者即使使用相同的算法方法也按与学习有关的参数而不同。
如果使用不同的算法方法,则人工智能1可以使用机器学习型算法,而人工智能2可以使用深度学习型算法。
如果即使使用相同的算法方法,与学习有关的参数也不同,那么人工智能1可以使用具有一年学习期的深度学习算法,而人工智能2可以使用具有两年学习期的深度学习算法。
而且,不同人工智能的示例可以是具有不同修改的学习数据(数据优先化)的权重的人工智能。
算法方法的差异或参数的差异可能导致处理时间,直到获取处理结果为止。应注意到,处理时间还取决于可用的计算资源。
根据示例性实施方式,人工智能1和人工智能2共享计算资源。另选的是,人工智能1所使用的计算资源可以与人工智能2所使用的计算资源物理上不同。
假定相同的输入信息,如果人工智能1和人工智能2使用不同的算法,则人工智能1和人工智能2可能不一定给出相同的处理结果。
另一方面,如果人工智能1和人工智能2给出相同的处理结果,那么该处理结果被认为更可靠,因为它们是从多种角度评估的结果。
图3的计算资源的、未被人工智能1和人工智能2使用的一部分可以被用于确定组合人工智能1和人工智能2的处理结果,或者可以被用于部件(如扬声器23、可动机构25、通信单元26、显示器27、以及移动机构28)的控制操作。
图4和图5例示了组合两个人工智能的处理结果的机制。图4例示了两种处理结果经由除了两个人工智能的处理功能之外的其它处理功能而组合的机制。图5例示了通过这两个人工智能之一组合两种处理结果的机制。
参照图4,人工智能1和人工智能2接收相同的输入信息(步骤S101)。
人工智能1和人工智能2分别根据其单独的算法执行处理1和处理2(步骤S102和103),并分别获取结果1和结果2(步骤S104和S105)。
将两个结果1和2提供给由控制器21执行的控制程序,并在那里进行比较(步骤S106)。该控制程序是一个预先描述所有输入和输出关系的现有程序。
控制程序比较两个结果1和2,并且响应于比较结果来确定接下来要执行的处理的内容(步骤S107)。
如果结果1与结果2匹配,则控制程序确定将处理结果中的预定一个(例如,人工智能1的结果1)输出。响应于所识别的外部环境,控制程序控制移动机构28,从而在真实空间中移动机器人10。例如,控制程序通过扬声器23产生响应于所识别的语音内容的声音。例如,控制程序响应于来自外部的识别输入,通过利用可动机构25驱动臂13和15来表现情感。
如果结果1与结果2不同,则控制程序确定为输出的是处于高级位置的人工智能的结果。例如,可以选择人工智能1的结果1。
另选的是,控制程序可以指令人工智能1和人工智能2中的每一个再次执行其处理。在这种情况下,控制程序将附加条件附加至输入信息。附加条件根据输入信息预先确定。附加条件的附加可以按以使得通过人工智能1的处理所获取的结果1的选项范围变窄这样的方式工作。控制程序指令人工智能1和人工智能2重复执行其处理,直到结果1与结果2匹配为止。
即使在重复执行处理之后,这两个结果(即,结果1与结果2)也可能无法匹配,在这种情况下,机器人10可以挂起其操作。
尽管存在机器人10被允许挂起其操作的情况,但在预定时段内可能希望响应,如在自驱动应用的情况下。在这种情况下,在经过预定时段或者已经超出预定迭代次数的条件下,基于要输出一个预定结果(例如,人工智能2的结果2)的前提(换句话说,以更高优先级处理),将控制程序设计成确定接下来要执行的处理的内容。
人工智能1的结果1和人工智能2的结果2中的每一个都可以包括多条信息。如果希望人工智能1与人工智能2之间的所有信息全部匹配,则为使结果1和结果2彼此匹配可能需要花费时间。
有鉴于此,控制程序可以具有对结果1和结果2中的每一个的多个部分中的一些执行比较的功能。可以根据受时间限制的控制项目来预定信息中的一些。这样,缩短了用于确定的时间。
图5的处理与图4的处理的不同之处在于,图5的处理包括比较操作(步骤S106),并且通过人工智能2执行接下来要执行的确定操作(步骤S107)。另选的是,可以通过人工智能1来执行接下来要执行的比较操作(步骤S106)和确定操作(步骤S107)。
在这种情况下,人工智能涉及确定操作,并且根据操作状态,学习结果可以反映在关于要使用哪个处理结果的确定上。有鉴于此,根据图4的处理,在确定操作的可靠性方面改进了图5的处理。
将所确定的处理提供给与人工智能1和人工智能2分开操作的控制程序,并因此根据预定输入和输出关系来控制机器人10的操作。
在上面的讨论中,两个人工智能(人工智能1和2)基本上具有相同等级,通过结果1与结果2的比较,增加了人工智能处理结果的可靠性。人工智能1和人工智能2之一可以具有工作者的角色,而人工智能1和2中的另一个可以具有监督者的角色。
下面对真实空间中的机器人10与终端装置的显示屏幕(虚拟空间)之间执行的协调操作进行描述。
图6例示了真实空间与虚拟空间之间的协调操作。
机器人10和终端装置40都物理地存在于真实空间中,并且可以经由通信链路彼此通信。
终端装置40可以是包括显示屏幕41和通信单元(未例示)的电子装置。例如,终端装置40可以是(1)信息装置,如笔记本计算机、台式计算机、平板计算机、智能腕表、智能电话、数码相机、摄像机、或游戏机,(2)家用电器,如冰箱、烹饪机或洗衣机,(3)住房设备,如家用电器监视器,或(4)车辆,如汽车。终端装置40是信息处理装置的示例。
显示在示例性实施方式的终端装置40的显示屏幕41上的是分别与皆在机器人10上操作的人工智能1和人工智能2(参见图3)相关联的人物42A和人物42B。
终端装置40的用户经由显示在显示屏幕41上的虚拟空间中的人物42A、42B,来识别真实空间中的机器人10的操作状态,并指令机器人10执行希望动作。
人物42A对应于人工智能1,而人物42B对应于人工智能2。
经由人物42A和42B,用户可以在视觉上识别作为虚拟空间中的实体的人工智能1和人工智能2。
显示屏幕41上的人物42A和42B可以与机器人10在真实空间中的移动一致地移动。即使在真实空间中终端装置40与机器人10分隔开,用户也可以在实时的基础上,通过参考人物42A和42B的移动来识别机器人10的操作状态。
如图6所示,人物42A和42B在设计方面没有不同。如果人工智能1和人工智能2分别具有工作者的角色和监督者的作用,那么这两个人工智能可以在显示尺度、显示颜色或显示形状方面加以区分。
图7例示了终端装置40的硬件配置。
终端装置40包括:控制器45、操作单元46、通信单元47、存储器48、显示器49、以及扬声器50。控制器45控制整个装置的移动。操作单元46接收来自用户的操作输入。通信单元47被用于与外部装置(如机器人10)进行通信。存储器48存储信息。显示器49显示图像。扬声器50输出声音、音乐以及音果。这些部件经由总线51彼此互连。
控制器45是计算机,并且包括CPU、ROM以及RAM。ROM存储由CPU执行的程序。CPU从ROM读取程序,并利用RAM作为工作区域执行该程序。通过执行该程序,CPU控制形成终端装置40的每个部件的操作。
该程序实现显示在显示器49上的、分别对应于在机器人10上操作的人工智能1和人工智能2的人物42A和42B的功能。
操作单元46包括键盘、按钮、开关、触摸板、触摸面板等。
通信单元47经由无线电通信链路或任何其它通信链路与机器人10进行通信。
存储器48包括诸如硬盘装置或半导体存储器的存储装置。
显示器49在执行程序(包括操作系统(OS)和固件)时显示多种图像。显示器49可以是液晶显示器或电致发光(EL)显示器。
参照图8至图12,对真实空间与虚拟空间之间的协调操作进行描述。
图8例示了显示屏幕41上的显示示例。参照图8,显示屏幕41显示与在显示在显示屏幕41上的虚拟空间对应的装置名称41A、由人工智能1执行的作业41B和41C、以及对应于装置名称41A的机器人10位于真实空间中的位置41D。
参照图8,“机器人A”被列为装置名称41A。在同一画面上显示的是分别与执行机器人A的处理的人工智能1和人工智能2相关联的人物42A和42B。
查看显示屏幕41的用户可以获知在远程位置操作的机器人10(机器人A)正在收集环境图像(作业1)并且正在移动(作业2)。
参照图8,人工智能1(人物42A)作为工作者操作,而人工智能2(人物42B)作为监督者操作。
图9例示了显示屏幕41上的另一显示示例。图9的显示屏幕41与图8的显示屏幕41的不同之处在于,将装置名称41A作为虚拟空间中的人工智能1(人物42A)和人工智能2(人物42B)的活动区域41E的名称被显示在图9的显示屏幕41上。
图10例示了显示屏幕41上的另一显示示例。四个工作空间56到59在图10的显示屏幕41上显示为虚拟空间。
工作空间56指示环境图像的收集操作,工作空间57指示处理图像的操作,工作空间58指示移动操作,而工作空间59指示通信。
参照图10,人工智能1(人物42A)和人工智能2(人物42B)执行工作空间56(环境图像的收集操作)和工作空间57(处理图像)这两个作业。
图11例示了显示屏幕上的另一显示示例。图11的显示屏幕41显示包括多个工作空间的工作空间60,并且显示与人工智能1相对应的人物42A以及与人工智能2相对应的人物42B。
即使由图11的显示屏幕41上的人工智能1和2并行地执行更多个处理,人物42A和42B的显示数量的增加也被控制,并且作业的内容被容易地验证。
图12例示了显示屏幕41上的另一显示示例。图12例示了这样的情况,即,具有工作者角色的人工智能1(人物42A)和具有监督者角色的人工智能2(人物42B)已经从虚拟空间中的工作空间56(环境图像的收集操作)移动至工作空间57(处理图像)。
人物42A和42B在虚拟空间中的移动表示位于真实空间中的机器人10(机器人A)的移动。用户可以经由虚拟空间中的移动来识别机器人10(机器人A)的操作状态。
因为如图12所示,具有工作者角色的人工智能1(人物42A)和具有监督者角色的人工智能2(人物42B)在虚拟空间中一起移动,所以用户可以在视觉上识别人工智能1和人工智能2的协调关系。
在上面的讨论中,人工智能1和2对应于机器人10在虚拟空间中移动。另选的是,人工智能1和2可以移动至经由通信链路连接至机器人10的另一装置。
图13例示了人工智能移动的处理。参照图13,具有工作者角色的人工智能1从与机器人10对应的计算资源35移动至与服务器70对应的计算资源71。服务器70是信息处理装置的示例。
通过机器人10与服务器70之间的通信来执行移动。更具体地说,实现人工智能1的算法的一组数据(程序、学习数据、参数等)从机器人10发送至服务器70。因为服务器70所提供的计算资源71通常比由机器人10提供的计算资源35宽,所以移动至服务器70的人工智能1的操作加速。
图14例示了响应于人工智能1的移动处理的显示屏幕41上的显示示例。参照图14,与具有工作者角色的人工智能1对应的人物42A的活动区域41E从机器人A移动至服务器70。
图15例示了人工智能1和2的移动完成的状态。参照图15,具有工作者角色的人工智能1和具有监督者角色的人工智能2已经从与机器人10相对应的计算资源35移动至与服务器70相对应的计算资源71。因为具有工作者角色的人工智能1和具有监督者角色的人工智能2已经按协调方式移动,所以增加了处理结果的可靠性。
图16例示了响应于人工智能1和2的移动完成的阶段的、显示屏幕41上的显示示例。参照图16,与具有监督者角色的人工智能1相对应的人物42B的活动区域41E也从机器人A移动至服务器70。
图14和图16的显示屏幕41显示分别对应于人工智能1和2的人物42A和42B在虚拟空间中的工作空间的移动。经由该显示,用户可以获知在服务器70上执行与真实空间中存在的机器人A的识别处理和检查处理有关的处理功能。
即使该处理功能从机器人A被传送至服务器70,也可以通过通信链路将处理结果提供给机器人A。因为在机器人A的计算资源35上执行根据预定规则操作的控制程序,所以机器人A的操作得以继续。
根据上述讨论,具有工作者角色的人工智能1和具有监督者角色的人工智能2都可以在单个机器人上操作。这两种人工智能,即,人工智能1和人工智能2,可以在不同的装置上操作。
图17例示了具有工作者角色的人工智能1和具有监督者角色的人工智能2在单独的装置中操作的操作示例。参照图17,具有工作者角色的人工智能1在机器人10的计算资源35上操作,而具有监督者角色的人工智能2在服务器70的计算资源71上操作。在这种情况下,减少了由人工智能1占用的计算资源35的比例,并且希望增加处理效率。
在处理具有较高机密性的信息(如个人信息)时,可以使用图17所示的人工智能的部署。
将与机器人10的用户有关的个人信息作为输入信息直接提供给机器人10上的人工智能1,同时将用于统计处理的加密信息作为输入信息提供给服务器70上的人工智能2。换句话说,人工智能1将输入信息作为个人信息处理,而人工智能2将被加密的信息作为输入信息处理,使得个人不被标识出。如果处理结果包括可能标识个人的信息,则将被加密的信息从机器人10发送给服务器70。
处理具有较高加密度的信息的另一种方法可以包括:在具有较高加密度的人工智能(专用人工智能)处理信息和具有较低加密度的人工智能(通用智能)处理信息之间切换。例如,具有较高加密度的信息(出自要处理的信息)由方案上与通用人造智能不同的一个或更多个专用人工智能处理,并且在通过一个或更多个专用人工智能处理该信息之后,该处理被通用人工智能接管。在这种情况下,控制了具有较高加密度的信息的泄漏,并且还控制了在通用人工智能中积累具有较高加密度的信息。
图18例示了当两个人工智能在单独的装置中操作时的两个结果的组合操作。在图18的处理中,除了每个操作的执行实体包括机器人10和服务器70之外,图18的其余处理与图4的处理相同。如在图5的处理中,可以由服务器70执行用于确定接下来要执行的处理的内容的比较操作和确定操作。
图19例示了当人工智能1和2在单独的装置中操作时在显示屏幕41上的显示示例。参照图19,用户认识到,具有工作者角色的人工智能1(人物42A)在机器人A上操作,而具有监督者角色的人工智能2(人物42B)在服务器70上操作。
在该示例性实施方式的上述讨论中,人物42A和42B以在真实空间中移动的人工智能1和2的协调操作在虚拟空间中移动。另选的是,可以通过对显示屏幕41上的人物42A和42B执行移动操作来移动人工智能1和2的工作位置。
图20例示了人工智能的工作位置如何与针对显示屏幕41上的人物42B执行的操作相一致地移动。
参照图20,人物42B(出自对应于人工智能1和2的人物42A和42B)在显示屏幕41上从机器人A移动至服务器70。从终端装置40向机器人A发送移动操作的内容。
响应于接收到的移动命令,机器人A向特定服务器发送一组数据以实现人工智能2(程序、学习数据、以及参数),从而完成人工智能2在真实空间中的移动。
以这种方式,用户经由显示屏幕41(虚拟空间)上的人物以无缝方式在真实空间中执行操作。同样,在这种情况下,机器人A上操作的人工智能1的处理结果由在服务器70上操作的人工智能2进行监督,因此增加了机器人A的操作的可靠性。
已经描述了本示例性实施方式。本发明的范围不限于上述示例性实施方式的范围。可以对本示例性实施方式进行改变和修改,并且应用有这些改变和修改的示例性实施方式也落入如参照权利要求书的范围所描述的本发明的范围内。
根据本示例性实施方式,两个人工智能在机器人10的计算资源35或服务器70的计算资源71上操作,或者以分布式方式在机器人10的计算资源35和服务器70的计算资源71上操作。另选的是,三个或更多个人工智能可以在单个计算资源上操作,或者可以以分布式方式在多个计算资源上操作。
在这种情况下,人工智能之一可以用作工作者,而另一人工智能可以用作监督者。三种或更多种人工智能希望按方法不同。使用不同方法的人工智能允许从多种角度执行评估,从而更能增加处理结果的可靠性。
当比较三个或更多个人工智能的处理结果时,可以在人工智能之一的处理结果上设置比其它人工智能的处理更高的优先级(更重要)。另选的是,可以引入多数判定规则以确定具有相同内容的较大数量的结果被确定为更正确。如果引入大多数判定规则,则增加处理结果的准确度,并且人工智能找到更复杂的问题解决处理方面的应用。
根据本示例性实施方式,人工智能之一用作监督者。另选的是,两个人工智能可以彼此协调以执行与单个处理有关的操作。处理内容可以预先在两个人工智能之间划分,并且可以将预定人工智能设计成负责特定处理。
如在终端装置40的显示器49中,可以在机器人10的显示器27上显示与人工智能相关联的人物。使用显示在人工智能可操作的装置(不限于机器人10)上的人物允许用户可视地识别在装置上可操作的人工智能的数量和角色。
根据本示例性实施方式,人工智能1和2可操作的信息处理装置是机器人10。如果信息处理装置包括提供计算资源的硬件那就足够了。该信息处理装置可以采取以下形式:笔记本计算机、平板计算机、服务器、智能腕表、智能电话、数码相机、摄像机、录音机、医疗器械、汽车、火车、轮船、飞机、或者无人机。
出于例示和描述的目的,提供了本发明的示例性实施方式的前述描述。不是旨在排它或将本发明限制成所公开的精确形式。显见的是,本领域专业技术人员将明白许多修改例和变型例。选择并描述该实施方式,以便最佳地说明本发明的原理及其实践应用,由此,使得本领域技术人员能够针对各种实施方式并且具有如适于预期特定用途的各种修改例来理解本发明。本发明的范围旨在通过下面的权利要求书及其等同物来限定。

Claims (11)

1.一种信息处理装置,该信息处理装置包括:
第一人工智能,该第一人工智能通过处理输入信息输出第一结果;以及
第二人工智能,该第二人工智能不同于所述第一人工智能,并且通过处理所述输入信息输出第二结果,
其中,基于通过将所述第一结果与所述第二结果进行比较所获取的结果,确定接下来要执行的处理的内容,
其中,接下来要执行的所述处理的内容是使用通过重复地比较由所述第一人工智能输出的第一结果和由所述第二人工智能输出的第二结果直到以下中的一项发生所获得的结果来确定的:
所述第一结果与所述第二结果匹配;或者
所述第一结果不与所述第二结果匹配并且经过了预定时段;或者
所述第一结果不与所述第二结果匹配并且已经超出重复比较的预定迭代次数,并且
其中,接下来要执行的所述处理的内容是通过响应于所述第一结果不与所述第二结果匹配并且经过了所述预定时段或已经超出重复比较的所述预定迭代次数而向所述第二结果分配比所述第一结果更高的优先级来确定的。
2.根据权利要求1所述的信息处理装置,其中,所述第一人工智能与在虚拟空间中能移动的第一人物相关联,并且所述第二人工智能与在所述虚拟空间中能移动的第二人物相关联。
3.根据权利要求2所述的信息处理装置,其中,当与终端装置进行通信时,所述第一人物和所述第二人物被显示在所述终端装置的显示屏幕上。
4.根据权利要求3所述的信息处理装置,其中,当所述第一人物在所述虚拟空间中移动时,所述第二人物与所述第一人物一起移动。
5.根据权利要求1所述的信息处理装置,其中,所述第一人工智能和所述第二人工智能移动至经由通信链路连接至所述信息处理装置的另一信息处理装置。
6.根据权利要求5所述的信息处理装置,其中,响应于在终端装置的显示屏幕上执行的移动操作,所述第一人工智能和所述第二人工智能移动至与所述第一人工智能相关联的第一人物、以及与所述第二人工智能相关联的第二人物中的一个或二者上。
7.根据权利要求1所述的信息处理装置,其中,如果所述第一结果不同于所述第二结果,则所述第二结果具有超过所述第一结果的优先级。
8.根据权利要求1所述的信息处理装置,其中,基于通过将所述第一结果的一部分与所述第二结果的一部分进行比较所获取的结果,确定接下来要执行的处理的内容。
9.根据权利要求1所述的信息处理装置,其中,所述第一人工智能和所述第二人工智能在方法上不同。
10.根据权利要求1所述的信息处理装置,其中,所述第一人工智能和所述第二人工智能在方法上相同,但在与学习有关的参数方面不同。
11.一种信息处理系统,该信息处理系统包括:
第一信息处理装置,该第一信息处理装置包括第一人工智能,该第一人工智能操作以通过处理输入信息输出第一结果;以及
第二信息处理装置,该第二信息处理装置包括第二人工智能,该第二人工智能不同于所述第一人工智能,并且操作以通过处理所述输入信息输出第二结果,
其中,基于通过将所述第一结果与所述第二结果进行比较所获取的结果,确定接下来要执行的处理的内容,
其中,接下来要执行的所述处理的内容是使用通过重复地比较由所述第一人工智能输出的第一结果和由所述第二人工智能输出的第二结果直到以下中的一项发生所获得的结果来确定的:
所述第一结果与所述第二结果匹配;或者
所述第一结果不与所述第二结果匹配并且经过了预定时段;或者
所述第一结果不与所述第二结果匹配并且已经超出重复比较的预定迭代次数,并且
其中,接下来要执行的所述处理的内容是通过响应于所述第一结果不与所述第二结果匹配并且经过了所述预定时段或已经超出重复比较的所述预定迭代次数而向所述第二结果分配比所述第一结果更高的优先级来确定的。
CN201710904677.1A 2017-03-14 2017-09-29 信息处理装置和信息处理系统 Active CN108572586B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017048618A JP6938980B2 (ja) 2017-03-14 2017-03-14 情報処理装置、情報処理方法及びプログラム
JP2017-048618 2017-03-14

Publications (2)

Publication Number Publication Date
CN108572586A CN108572586A (zh) 2018-09-25
CN108572586B true CN108572586B (zh) 2022-11-15

Family

ID=63519516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710904677.1A Active CN108572586B (zh) 2017-03-14 2017-09-29 信息处理装置和信息处理系统

Country Status (3)

Country Link
US (1) US20180268280A1 (zh)
JP (1) JP6938980B2 (zh)
CN (1) CN108572586B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190106944A (ko) * 2019-08-30 2019-09-18 엘지전자 주식회사 지능형 냉장고 및 그 제어 방법
JP7273692B2 (ja) * 2019-11-01 2023-05-15 株式会社東芝 制御装置、制御方法およびプログラム
US11443235B2 (en) 2019-11-14 2022-09-13 International Business Machines Corporation Identifying optimal weights to improve prediction accuracy in machine learning techniques
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN114201278B (zh) * 2021-12-07 2023-12-15 北京百度网讯科技有限公司 任务处理方法、任务处理装置、电子设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101187990A (zh) * 2007-12-14 2008-05-28 华南理工大学 一种会话机器人系统
CN101470421A (zh) * 2007-12-28 2009-07-01 中国科学院沈阳应用生态研究所 一种基于人工智能技术的植物生长室及其控制系统
CN101488026A (zh) * 2009-02-26 2009-07-22 福州欣创摩尔电子科技有限公司 分布式数据采集控制平台系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040175680A1 (en) * 2002-09-09 2004-09-09 Michal Hlavac Artificial intelligence platform
US20150161662A1 (en) * 2013-12-10 2015-06-11 Acquisio System and Method for Directing Online Advertising Across Multiple Channels
US9987749B2 (en) * 2014-08-15 2018-06-05 University Of Central Florida Research Foundation, Inc. Control interface for robotic humanoid avatar system and related methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101187990A (zh) * 2007-12-14 2008-05-28 华南理工大学 一种会话机器人系统
CN101470421A (zh) * 2007-12-28 2009-07-01 中国科学院沈阳应用生态研究所 一种基于人工智能技术的植物生长室及其控制系统
CN101488026A (zh) * 2009-02-26 2009-07-22 福州欣创摩尔电子科技有限公司 分布式数据采集控制平台系统

Also Published As

Publication number Publication date
CN108572586A (zh) 2018-09-25
US20180268280A1 (en) 2018-09-20
JP6938980B2 (ja) 2021-09-22
JP2018151950A (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
CN108572586B (zh) 信息处理装置和信息处理系统
US7515992B2 (en) Robot apparatus and emotion representing method therefor
JP4396273B2 (ja) ロボット装置及びその制御方法
JP6927938B2 (ja) クラウドサービスシステムを組み込んだロボットシステム
JP4826785B2 (ja) 飛行型情報処理装置
US20180005445A1 (en) Augmenting a Moveable Entity with a Hologram
CN109571513A (zh) 一种沉浸式移动抓取服务机器人系统
US11559902B2 (en) Robot system and control method of the same
JP6950192B2 (ja) 情報処理装置、情報処理システム及びプログラム
EP3862148A1 (en) Information processing device, control method, and program
Udgata et al. Advances in sensor technology and IOT framework to mitigate COVID-19 challenges
Tresa et al. A study on internet of things: overview, automation, wireless technology, robotics
US11618164B2 (en) Robot and method of controlling same
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5076081B2 (ja) 集団状態推定システムおよび集団注意制御システムならびにアクティブセンシングシステム
Sharma et al. Gaze Controlled Safe HRI for Users with SSMI
EP3738726B1 (en) Animal-shaped autonomous moving body, method of operating animal-shaped autonomous moving body, and program
CN108415676B (zh) 信息处理设备和信息处理方法
JP7196894B2 (ja) 情報処理装置、情報処理システム及びプログラム
Jia et al. Distributed telerobotics system based on common object request broker architecture
KR20210007774A (ko) 로봇 시뮬레이터의 표시 방법
Kubota et al. Tele-operation of robot partners through iPod touche
ECE et al. Object Manipulation and Control with Robotic Hand
Ditthapron et al. Object Manipulation and Control with Robotic Hand
Xiaoan et al. Gesture and Vision Based Automatic Grasping and Flexible Placement in Teleoperation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo, Japan

Applicant before: Fuji Xerox Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant