CN114981847A - 信息处理装置、信息处理方法和信息处理程序 - Google Patents

信息处理装置、信息处理方法和信息处理程序 Download PDF

Info

Publication number
CN114981847A
CN114981847A CN202180009306.1A CN202180009306A CN114981847A CN 114981847 A CN114981847 A CN 114981847A CN 202180009306 A CN202180009306 A CN 202180009306A CN 114981847 A CN114981847 A CN 114981847A
Authority
CN
China
Prior art keywords
virtual object
information processing
information
transition
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180009306.1A
Other languages
English (en)
Inventor
市川美和
田岛大辅
弓场大梦
石井智裕
舩桥真俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN114981847A publication Critical patent/CN114981847A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Abstract

本发明使用户能够准确地掌握与虚拟对象有关的信息。根据实施方式的信息处理装置(10)包括:呈现控制单元(1123),其基于与显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围对应的距离,确定虚拟对象的转变的定时;以及呈现创建单元(1124),其基于由呈现控制单元(1123)确定的定时来控制待输出的虚拟对象的转变。

Description

信息处理装置、信息处理方法和信息处理程序
技术领域
本公开内容涉及信息处理装置、信息处理方法和信息处理程序。
背景技术
作为农业方法的示例,存在一种被称为协生农法(Synecoculture,注册商标)的农业方法,该方法基于无栽培、无施肥和无杀虫剂。协生农法(注册商标)受到构成生态系统的各种生态系统成分的影响,使得作业者难以在短时间内学习协生农法(注册商标),因此需要来自技术人员的帮助。因此,近年来,农田(例如,田地或农场)中的技术人员远程地协助农业中的作业者的技术已经被关注。
在协生农法(注册商标)的帮助下,需要向诸如农田的远程场所中的作业者远程地给出准确的指示。因此,近年来,增强现实(AR)作为向处于远程位置的作业者给出基于视觉的准确指示的技术而受到关注。
引文列表
专利文献
专利文献1:WO 2017/061281 A
发明内容
技术问题
然而,在常规的AR技术中,当从一位置——在该位置处,可以观看在与真实空间对应的位置处以AR表示显示的整个对象(虚拟对象)(例如图标)——接近虚拟对象时,作业者可能不能掌握虚拟对象的一部分。这是因为根据作业者与虚拟对象之间的距离,虚拟对象的一部分未落入显示视场角的视场角内。在该情况下,作业者可能不能适当地掌握技术人员指示接近的工作地点(工作区域)。这可能引起技术人员不能准确地引导作业者。
鉴于此,本公开内容提出了能够允许用户准确地掌握关于虚拟对象的信息的新颖且改进的信息处理装置、信息处理方法和信息处理程序。
问题的解决方案
根据本公开内容,提供了一种信息处理装置,其包括:呈现控制单元,其基于根据显示视场角和作为虚拟地呈现的对象虚拟对象的显示范围的距离,确定虚拟对象的转变的定时;以及呈现创建单元,其基于由呈现控制单元确定的定时来控制待输出的虚拟对象的转变。
附图说明
图1是示出根据实施方式的信息处理系统的配置示例的图。
图2是示出根据实施方式的信息处理系统的实现示例的图。
图3是示出根据实施方式的信息处理系统的实现示例的图。
图4是示出根据实施方式的信息处理系统的实现示例的图。
图5是示出根据实施方式的信息处理系统的功能概述的图。
图6是示出根据实施方式的信息处理系统的功能概述的图。
图7是示出根据实施方式的信息处理系统的配置示例的框图。
图8是示出根据实施方式的存储单元的示例的图。
图9是示出根据实施方式的信息处理装置中的处理流程的流程图。
图10是示出根据实施方式的信息处理系统的功能概述的图。
图11是示出根据实施方式的信息处理系统的功能概述的图。
图12是示出根据实施方式的应用示例的示例的图。
图13是示出实现信息处理装置的功能的计算机的示例的硬件配置图。
具体实施方式
下文中将参照附图详细描述本公开内容的优选实施方式。注意,通过对具有基本相同的功能配置的部件分配相同的附图标记,将从本说明书和附图中省略冗余的描述。
注意,将按以下顺序提供描述。
1.本公开内容的一个实施方式
1.1引言
1.2信息处理系统的配置
2.信息处理系统的实现示例
2.1确认农田和到工作地点的移动
2.2工作
2.3工作后确认
3.信息处理系统的功能
3.1功能概述
3.2功能配置示例
3.3信息处理系统的处理
3.4处理的变型
4.应用示例
4.1农田以外的目标对象
5.硬件配置示例
6.总结
<<1.本公开内容的一个实施方式>>
<1.1引言>
在下面的描述中,农田中的作业者被适当地称为“用户”。用户可以是作为农田中的作业者经历AR体验的用户。在实施方式中,用户不是实际农田的作业者,而是作为农田作业者经历AR体验的人。此外,在下文中,指示用户的农田中的技术人员被适当地称为“指示者”。指示者可以是指示作为农田中的作业者经历AR体验的用户的指示者或指示主体。在实施方式中,指示者是指示作为农田中的作业者经历AR体验的用户的指示者或指示主体,而不是实际农田中的技术人员。
<1.2信息处理系统的配置>
将描述根据实施方式的信息处理系统1的配置。图1是示出信息处理系统1的配置示例的图。如图1所示,信息处理系统1包括信息处理装置10、终端装置20和信息提供装置30。信息处理装置10可以被连接至各种类型的装置。例如,终端装置20和信息提供装置30被连接至信息处理装置10,并且在装置之间执行信息交换。信息处理装置10被无线地连接至终端装置20和信息提供装置30。例如,信息处理装置10使用蓝牙(注册商标)执行与终端装置20和信息提供装置30的近场无线通信。注意,终端装置20和信息提供装置30可以以有线信道或经由网络连接至信息处理装置10。
(1)信息处理装置10
信息处理装置10是例如基于虚拟对象的转变的定时来控制由终端装置20输出的虚拟对象的转变的信息处理装置,虚拟对象的转变的定时是基于根据显示视场角和虚拟对象的显示范围的距离而确定的。具体地,信息处理装置10首先基于根据显示视场角和虚拟对象的显示范围的距离来确定虚拟对象的转变的定时。随后,信息处理装置10基于所确定的定时来控制虚拟对象的转变。然后,信息处理装置10向终端装置20提供用于控制虚拟对象的转变的控制信息。
此外,信息处理装置10还具有控制信息处理系统1的整体操作的功能。例如,信息处理装置10基于在各个装置之间交换的信息来控制信息处理系统1的整体操作。具体地,信息处理装置10例如基于从信息提供装置30接收到的信息来控制由终端装置20输出的虚拟对象的转变。
信息处理装置10由个人计算机(PC)、工作站(WS)等实现。注意,信息处理装置10不限于PC、WS等。例如,信息处理装置10可以是配备有作为应用的信息处理装置10的功能的诸如PC或WS的信息处理装置。
(2)终端装置20
终端装置20是能够输出AR表示的诸如透视眼镜(全息透镜)的可穿戴装置。
终端装置20基于从信息处理装置10提供的控制信息输出虚拟对象。
(3)信息提供装置30
信息提供装置30是向信息处理装置10提供关于虚拟对象的信息的信息处理装置。例如,信息处理装置10基于关于获取关于虚拟对象的信息的信息来提供关于虚拟对象的信息。
信息提供装置30由PC、WS等实现。注意,信息提供装置30不限于PC,WS等。例如,信息提供装置30可以是配备有作为应用的信息提供装置30的功能的诸如PC或WS的信息处理装置。
<<2.信息处理系统的实现示例>>
上面已经描述了信息处理系统1的配置。接下来,将描述信息处理系统1的实现示例。在实施方式中,农田不是实际农田而是用于AR体验的模拟农田,并且因此被适当地称为“AR农田”。此外,在实施方式中,假设用户U11佩戴透视眼镜,对视场角有限制。另外,在实施方式中,假设在农田中存在工作地点。
<2.1.确认农田和到工作地点的移动>
图2是示出场景FS1和场景FS2的图,在场景FS1中,作为AR体验的目标的用户U11确认农田,在场景FS2中,用户U11移动到工作地点。图2包括动作场景US11和AR场景AS11,动作场景US11指示在AR体验期间用户U11的动作,AR场景AS11指示与用户U11的动作一起显示的AR表示。在下文中,将相互关联地描述动作场景US和AR场景AS。注意,动作图像UR11至UR14分别对应于AR图像AR11至AR14。
图2首先示出了指示场景GS11,在指示场景GS11中,用户U11被指示为“让我们开始工作。请带上番茄幼苗”。动作图像UR11是示出用户U11带上番茄幼苗并且在稍微远离农田的地点等待的场景的图像。AR图像AR11是指示在终端装置20上显示的AR表示的图像。AR图像AR11处于无AR表示的状态,并且因此显示真实空间的整个背景。接下来,响应于指示者的操作,信息处理系统1以AR表示将植被的虚拟对象显示到AR农田中(S11)。随后,用户U11进行到指示场景GS12,指示场景GS12被指示为“这是整个农田的视图”。
动作图像UR12是指示其中用户U11通过具有农田的俯视图而掌握整个农田的场景的图像。AR图像AR12是指示在终端装置20上显示的AR表示的图像。在AR图像AR12中,在AR农田中显示植被的虚拟对象。例如,AR图像AR12包括番茄的虚拟对象OB11、胡萝卜的虚拟对象OB12等的显示。在AR图像AR12中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB11和虚拟对象OB12,但另外,也可以将附图标记分配给包括在AR图像AR12中的其他虚拟对象。注意,通过组合指示场景GS11和指示场景GS12获得的场景是场景FS1。随后,用户U11进行到指示场景GS13,指示场景GS13被指示为“靠近今天的工作地点”。
动作图像UR13是指示用户U11接近工作地点的场景的图像。信息处理系统1根据用户U11的动作执行限制植被的虚拟对象的显示范围的处理(S12)。AR图像AR13是指示在终端装置20上显示的AR表示的图像。AR图像AR13具有在AR图像AR12中显示的植被的虚拟对象的有限显示范围。例如,在AR图像AR13中,限制虚拟对象的显示范围,使得仅显示允许用户U11在预定时间内(例如,在与每日工作时间对应的时间内)处理的信息。由于该限制,信息处理系统1可以准确地将用户U11引导到工作地点。AR图像AR13包括例如马铃薯的虚拟对象OB13的显示、卷心菜的虚拟对象OB14的显示。在AR图像AR13中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB13和虚拟对象OB14,但另外,也可以将附图标记分配给包括在AR图像AR13中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1执行作为使植被的复杂度(多样性)可视化的可视化信息的虚拟对象的AR表示(S13)。随后,用户U11进行到指示场景GS14,指示场景GS14包括指示“这指示植被的复杂度。让我们在复杂度低的地点种植幼苗”。
动作图像UR14是指示其中用户U11确认改善点的场景的图像。AR图像AR14是指示在终端装置20上显示的AR表示的图像。AR图像AR14以AR表示显示使植被的复杂度可视化的虚拟对象OB15。AR图像AR14以AR表示显示虚拟对象OB15,该虚拟对象OB15例如是指示植被的复杂度的网格三维图。虚拟对象OB15根据网格三维图的高度指示植被的复杂度。例如,虚拟对象OB15的向下凹陷指示植被不丰富的位置,也就是说,用户U11的工作是必要的。这使得信息处理系统1可以向用户U11准确地指示需要工作的位置。注意,场景FS2是指示场景GS13和指示场景GS14的组合。处理进行到图3所示的场景。
<2.2.工作>
图3是示出场景FS3的图,在场景FS3中,用户U11执行工作的AR体验。图3包括:指示用户U11的动作的动作场景US12;以及指示与用户U11的动作相关联地显示的AR表示的AR场景AS12。在下文中,将相互关联地描述动作场景US和AR场景AS。注意,动作图像UR15至UR18分别对应于AR图像AR15至AR18。
图3包括指示场景GS15,在指示场景GS15中,用户U11被指示为“让我们蹲下工作。注意不要损伤根”。动作图像UR15是示出用户U11蹲下并且等待的场景的图像。AR图像AR15是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR15显示使植被的根的范围可视化的虚拟对象。例如,AR图像AR15显示使植被的根的范围可视化的虚拟对象OB16至OB18等。这使信息处理系统1可以向用户U11准确地指示不应被损坏的植被的根部分。在AR图像AR15中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB16和虚拟对象OB18,但另外,也可以将附图标记分配给包括在AR图像AR15中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1执行使指示者的手的移动可视化的虚拟对象的实时AR表示(S14)。这使指示者可以甚至从远程位置准确地给出指向指示。注意,在步骤S14中由信息处理系统1执行的操作不限于以AR表示实时显示呈现指示者的手的可视化移动的虚拟对象的情况。例如,信息处理系统1可以预先捕获指示者的手的移动的图像,从而以AR表示显示呈现手的可视化移动的虚拟对象。作为另一示例,信息处理系统1可以通过使用预先创建的手的虚拟对象来创建手的移动,从而以AR表示显示呈现手的可视化移动的虚拟对象。随后,用户U11进行到指示场景GS16,指示场景GS16被指示为“这看起来是种植幼苗的好地点”。
动作图像UR16是示出用户U11在指示者指示的地点种植番茄幼苗的场景的图像。AR图像AR16是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR16执行使指示者的手的移动可视化的虚拟对象的实时显示。例如,AR图像AR16显示使指示者的手的移动可视化的虚拟对象OB19。虚拟对象OB19根据指示者的手的移动而实时改变。此外,AR图像AR16显示根据指示者的操作使需要工作的位置可视化的虚拟对象。例如,AR图像AR16显示使需要工作的位置可视化的虚拟对象OB20。通过该配置,信息处理系统1可以通过执行需要工作的部分以及指示者的手的移动的AR表示来准确地对需要工作的位置给出指向指示。在AR图像AR16中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB19和虚拟对象OB20,但另外,也可以将附图标记分配给包括在AR图像AR16中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1执行使由指示者的手的移动指示的细节或模型行为可视化的虚拟对象的实时AR表示(S15)。通过该配置,指示者可以准确地指示包括细微差别的工作方法。随后,用户U11进行到指示场景GS17,指示场景GS17被指示为“像这样盖上土”。
动作图像UR17是示出用户U11遵循由指示者指示的模型行为用土覆盖幼苗的场景的图像。AR图像AR17是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR17执行对使指示者的手的移动可视化的虚拟对象的实时显示。例如,AR图像AR17显示使指示者的手的移动可视化的虚拟对象OB19和虚拟对象OB21。虚拟对象OB19根据指示者的右手的移动而实时改变。虚拟对象OB21根据指示者的左手的移动而实时改变。通过该配置,信息处理系统1执行对指示者的双手的移动的AR表示,使得可以更准确地执行指向指示。在AR图像AR17中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB19和虚拟对象OB21,但另外,也可以将附图标记分配给包括在AR图像AR17中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1执行对使由指示者的手的移动指示的反馈可视化的虚拟对象的实时AR表示(S16)。通过该操作,指示者可以通过指示反馈来使用户U11安心。随后,用户U11进行到指示“这看起来是好的”的指示场景GS18。
动作图像UR18是指示用户U11确认来自指示者的反馈并且起立的场景的图像。AR图像AR18是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR18执行对使指示反馈的指示者的手的移动可视化的虚拟对象的实时显示。例如,AR图像AR18显示使指示反馈的指示者的手的移动可视化的虚拟对象OB19。虚拟对象OB19根据指示反馈的指示者的手的移动而实时改变。通过该配置,信息处理系统1执行对指示者的反馈的AR表示,使得可以更准确地执行指向指示。在AR图像AR18中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB19,但另外,也可以将附图标记分配给包括在AR图像AR18中的其他虚拟对象。注意,场景FS3是指示场景GS15至GS18的组合。处理进行到图4所示的场景。
<2.3.工作后确认>
图4是示出确认由用户U11执行的工作的场景FS4的图。图4包括:指示用户U11的动作的动作场景US13;以及指示与用户U11的动作相关联地显示的AR表示的AR场景AS13。在下文中,将相互关联地描述动作场景US和AR场景AS。注意,动作图像UR19至UR22分别对应于AR图像AR19至AR22。
图4示出了其中用户U11被指示为“已获得较高多样性”的指示场景GS19。动作图像UR19是示出用户U11查看已经执行工作的部分的场景的图像。AR图像AR19是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR19以AR表示显示使植被的复杂度可视化的虚拟对象OB22。AR图像AR19以AR表示显示虚拟对象OB22,该虚拟对象OB22例如是指示植被的复杂度的网格三维图。虚拟对象OB22根据高度差指示复杂度。例如,虚拟对象OB22指示位置PT11具有高复杂度和丰富的植被。另外,虚拟对象OB22指示位置PT12具有低复杂度和不丰富(贫瘠)的植被。此外,位置PT13是用户U11已经在场景FS3中种植幼苗的位置。虚拟对象OB22指示位置PT13现在具有较高的复杂度和较丰富的植被。通过该配置,信息处理系统1可以使用户U11能够感觉到工作的效果。在AR图像AR19中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB22,但另外,也可以将附图标记分配给包括在AR图像AR19中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1以AR表示显示使整个农田的复杂度可视化的虚拟对象(S17)。通过该操作,指示者可以使用户U11更容易找到其他改进点。随后,用户U11进行到被指示为“整个农田看起来良好”的指示场景GS20。
动作图像UR20是示出用户U11从稍微远离农田的地点观看的场景的图像。AR图像AR20是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR20以AR表示显示使整个农田中的植被的复杂度可视化的虚拟对象OB23。AR图像AR20以AR表示显示虚拟对象OB23,该虚拟对象OB23是指示例如整个农田中的植被的复杂度的网格三维图。这使信息处理系统1可以向用户U11准确地指示其他的改进点。在AR图像AR20中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB23,但另外,也可以将附图标记分配给包括在AR图像AR20中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1以AR表示显示使预测的未来植被生长程度可视化的虚拟对象(S18)。通过该配置,指示者可以提高用户U11的积极性。随后,用户U11进行到指示“对生长感兴趣。让我们看看从现在开始两个月它如何生长”的指示场景GS21。
动作图像UR21是指示用户U11观察整个农田的场景的图像。AR图像AR21是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR21显示使预测的未来植被生长可视化的虚拟对象。例如,AR图像AR21显示使预测的未来植被生长可视化的虚拟对象OB24至OB26等。通过该配置,信息处理系统1可以利于进一步提高用户U11的积极性。在AR图像AR21中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB24至OB26,但另外,也可以将附图标记分配给包括在AR图像AR21中的其他虚拟对象。接下来,响应于指示者的操作,信息处理系统1以AR表示显示使在预测的收获时间预测的未来植被生长可视化的虚拟对象(S19)。通过该配置,指示者可以使用户U11更容易地确定收获时间。随后,用户U11进行到指示“在收获时间将生长为这样。生长为该尺寸时可以进行收获”的指示场景GS22。
动作图像UR22是指示用户U11观察整个农田的场景的图像。AR图像AR22是指示在终端装置20上显示的AR表示的图像。响应于指示者的操作,AR图像AR21以AR表示显示使在收获时间预测的植被生长可视化的虚拟对象OB27等。通过该配置,信息处理系统1可以利于进一步提高用户U11对收获的积极性。在AR图像AR22中,为了便于描述,作为虚拟对象的示例,由附图标记表示虚拟对象OB27,但另外,也可以将附图标记分配给包括在AR图像AR22中的其他虚拟对象。注意,场景FS4是指示场景GS19至GS22的组合。
上面参照场景FS1至FS4描述了信息处理系统1的实现示例。
<<3.信息处理系统的功能>>
接下来,将描述信息处理系统1的功能。
<3.1.功能概述>
图5是示出根据实施方式的信息处理系统1的功能概述的图。例如,图5示出了用户U11接近农田的工作地点的情况。注意,显示范围HP11指示农田中显示的整个虚拟对象的显示范围。工作范围PP11至PP13指示在显示范围HP11中包括的显示范围中与农田中的工作地点对应的工作范围(预定区域)。工作地点例如由指示者确定。具体地,信息处理系统1具有以下配置:指示者选择工作范围以将所选择的工作范围确定为工作地点。位置AA11和位置AA12是与距显示范围HP11的一侧的最短距离对应的位置。具体地,位置AA11和位置AA12与距显示范围HP11的中心的线与显示范围HP11的一侧相交的点的距离对应。位置AA12是与基于显示视场角GK11可以显示整个显示范围HP11的最小距离对应的位置。位置AA11是离开位置AA12预定距离的位置。此处,预定距离例如是用户U11通过其可以认知虚拟对象的转变的距离。具体地,预定距离是用户U11通过其可以根据虚拟对象的转变来改变动作的距离。例如,预定距离是用户U11的若干步的步幅长度的移动距离。
用户U11首先朝向农田移动到位置AA11(S21)。AR图像AR21是指示当用户U11移动到位置AA11时在终端装置20上显示的AR表示的图像。AR图像AR21显示整个显示范围HP11。接下来,用户U11朝向农田移动到位置AA12(S22)。信息处理系统1基于根据终端装置20的显示视场角和显示范围HP11的距离来确定虚拟对象的转变的定时。例如,信息处理系统1将位置AA11设置为转变的定时的起点,并且将位置AA12设置为转变的定时的终点。AR图像AR22是指示当用户U11移动到位置AA12时在终端装置20上显示的虚拟对象的转变之前的AR表示的图像。AR图像AR22显示整个显示范围HP11。AR图像AR23是指示当用户U11移动到位置AA12时在终端装置20上显示的虚拟对象的转变之后的AR表示的图像。AR图像AR23显示该显示范围HP11的一部分。通过提供位置AA12,信息处理系统1可以使用户U11能够容易地注意到转变的改变并且准确地掌握工作地点。例如,信息处理系统1可以使用户能够准确地掌握工作地点的位置和范围。随后,用户U11在位置AA12内朝向农田移动(S23)。AR图像AR23显示与每个工作地点对应的工作范围。例如,AR图像AR23显示工作范围PP11。通过该配置,通过执行从显示整个显示范围HP11的位置到每个工作范围的显示转变,信息处理系统1可以防止用户U11看不见工作地点的情况。此外,通过根据显示转变使要显示的工作地点变窄,信息处理系统1可以自然地将用户U11引导到工作地点。以该方式,通过在每个工作地点从可以掌握整个农田的状态离开显示视场角的视场角之前的定时,使要显示的信息变窄,信息处理系统1使用户可以准确地掌握包括在整个农田中的每个工作地点的位置。
图6是示出终端装置20的显示视场角与距显示范围HP11的距离之间的关系的视图。图6的(A)示出了整个显示范围HP11被包括在终端装置20的显示视场角中的情况。显示视场角HG12是当用户U11处于与显示范围HP11分开距离DS21的位置时的显示视场角。在该情况下,整个显示范围HP11显示在终端装置20上。图6的(B)示出了当用户U11从距离DS21向显示范围HP11接近距离DS23时,终端装置20的显示视场角与距显示范围HP11的距离之间的关系。图6的(B)示出了显示范围HP11的一部分被包括在终端装置20的显示视场角中的情况。显示视场角HG13是当用户U11处于与显示范围HP11分开距离DS22的位置时的显示视场角。在该情况下,显示范围HP11的一部分显示在终端装置20上。例如,在工作范围PP11至PP13中,在终端装置20上仅显示包括在显示视场角HG13中的工作范围PP11。通过该配置,信息处理系统1可以突出显示工作范围PP11。这使信息处理系统1可以根据距显示范围HP11的距离来突出显示工作范围。
<3.2.功能配置示例>
图7是示出根据实施方式的信息处理系统1的功能配置示例的框图。
(1)信息处理装置10
如图7所示,信息处理装置10包括通信单元100、控制单元110和存储单元120。注意,信息处理装置10至少包括控制单元110。
(1-1)通信单元100
通信单元100具有与外部装置进行通信的功能。例如,在与外部装置进行通信时,通信单元100将从外部装置接收的信息输出至控制单元110。具体地,通信单元100将从信息提供装置30接收的信息输出至控制单元110。例如,通信单元100将关于虚拟对象的信息输出至控制单元110。
例如,在与外部装置进行通信时,通信单元100将从控制单元110输入的信息发送至外部装置。具体地,通信单元100将关于获取从控制单元110输入的关于虚拟对象的信息的信息发送至信息提供装置30。
(1-2)控制单元110
控制单元110具有控制信息处理装置10的操作的功能。例如,控制单元110执行用于基于根据显示视场角和虚拟对象的显示范围的距离来控制待输出的虚拟对象的转变的处理。
为了实现上述功能,控制单元110包括获取单元111、处理单元112和输出单元113,如图7所示。
·获取单元111
获取单元111具有获取用于控制虚拟对象的转变的信息的功能。获取单元111例如经由通信单元100获取从终端装置20发送的传感器信息。例如,获取单元111获取关于终端装置20的移动和位置的传感器信息,例如加速度信息、陀螺仪信息、全球定位系统(GPS)信息和地磁信息。
获取单元111例如经由通信单元100获取从信息提供装置30发送的关于虚拟对象的信息。例如,获取单元111获取关于虚拟对象的显示范围的信息。此外,例如,获取单元111获取关于包括在虚拟对象的显示范围中的预定区域的信息。
·处理单元112
处理单元112具有用于控制信息处理装置10的处理的功能。如图7所示,处理单元112包括步幅长度控制单元1121、位置控制单元1122、呈现控制单元1123和呈现创建单元1124。
·步幅长度控制单元1121
步幅长度控制单元1121具有执行确定关于具有终端装置20的用户的移动的信息的处理的功能。例如,步幅长度控制单元1121基于关于终端装置20的移动的信息来确定诸如步幅长度和步行速度的关于用户的移动的信息。例如,步幅长度控制单元1121基于加速度信息和陀螺仪信息中的至少一个来确定关于用户的移动的信息。作为具体示例,步幅长度控制单元1121通过将用户的移动距离除以该移动距离所花费的步数来确定用户的步幅长度。此外,步幅长度控制单元1121确定关于用户的行进方向的信息。例如,步幅长度控制单元1121确定关于用户的行进方向与从用户到虚拟对象的显示范围的中心的方向之间的关系的信息。
·位置控制单元1122
位置控制单元1122具有执行确定关于具有终端装置20的用户的位置的信息的处理的功能。位置控制单元1122例如基于关于终端装置20的位置的信息来确定关于用户的位置的信息。例如,位置控制单元1122确定关于用户相对于虚拟对象的显示范围的位置的信息。具体地,位置控制单元1122基于GPS信息、地磁信息或关于用户的移动的信息中的至少一个来确定关于用户的位置的信息。此外,位置控制单元1122例如基于关于虚拟对象的显示范围的位置的信息以及关于显示视场角的角度的信息,从虚拟对象的显示范围确定关于用户的位置的信息。例如,位置控制单元1122从虚拟对象的显示范围的一侧确定关于用户的位置的信息。具体地,位置控制单元1122从连接虚拟对象的显示范围的中心和用户的直线与虚拟对象的显示范围的一侧相交的点确定关于用户的位置的信息。
·呈现控制单元1123
呈现控制单元1123具有执行确定关于虚拟对象的转变的定时的信息的处理的功能。例如,呈现控制单元1123基于关于用户的位置的信息确定显示视场角。此外,呈现控制单元1123例如基于根据显示视场角以及根据虚拟对象的显示范围的距离来确定关于虚拟对象的转变的定时的信息。例如,呈现控制单元1123基于针对显示视场角的用户与虚拟对象的显示范围之间的距离来确定关于虚拟对象的转变的定时的信息。
例如,呈现控制单元1123基于虚拟对象的显示范围落入显示视场角的视场角内的最小距离来确定虚拟对象的转变的定时。具体地,呈现控制单元1123将等于或大于虚拟对象的显示范围落入显示视场角的视场角内的最小距离的距离确定为虚拟对象的转变的定时。注意,呈现控制单元1123可以将等于或大于虚拟对象的显示范围落入显示视场角的视场角内的最小距离的距离确定为虚拟对象的转变的定时的起点或终点。
例如,呈现控制单元1123基于针对显示视场角的用户可以认知虚拟对象的转变的最大距离来确定虚拟对象的转变的定时。具体地,呈现控制单元1123将等于或小于针对显示视场角的用户可以认知虚拟对象的转变的最大距离的距离确定为虚拟对象的转变的定时。注意,呈现控制单元1123可以将等于或小于针对显示视场角的用户可以认知虚拟对象的转变的最大距离的距离确定为虚拟对象的转变的定时的起点或终点。
·呈现创建单元1124
呈现创建单元1124具有执行控制待输出的虚拟对象的转变的处理的功能。具体地,呈现创建单元1124基于由呈现控制单元1123确定的定时来控制虚拟对象的转变。例如,呈现创建单元1124执行控制,使得逐渐执行虚拟对象的转变。例如,呈现创建单元1124执行控制,使得虚拟对象从虚拟对象的转变的定时的起点到终点逐渐转变。
呈现创建单元1124根据指示者的操作来控制虚拟对象的转变。例如,呈现创建单元1124执行控制,使得将输出关于由指示者选择的虚拟对象的信息。此外,例如,呈现创建单元1124执行控制,使得将输出关于用户可以在预定时间内对其工作的虚拟对象的信息。
呈现创建单元1124确定构成虚拟对象的每个虚拟对象的复杂度。例如,呈现创建单元1124基于彼此相邻的虚拟对象的属性来确定构成虚拟对象的每个虚拟对象的复杂度。具体地,在彼此相邻的虚拟对象具有相似属性的情况下,呈现创建单元1124降低具有相似属性的每个虚拟对象的复杂度。作为另一示例,呈现创建单元1124降低具有少量相邻虚拟对象的虚拟对象的复杂度。
·输出单元113
输出单元113具有输出关于虚拟对象的信息的功能。具体地,输出单元113基于由呈现创建单元1124控制的虚拟对象的转变来输出关于虚拟对象的信息。例如,输出单元113将转变之后的虚拟对象输出至在虚拟对象的显示范围中包括的预定区域。
输出单元113将与工作相关的转变之后的虚拟对象输出至作为工作地点的预定区域。例如,输出单元113将与工作相关的转变之后的虚拟对象输出至预定区域,该预定区域是由远程指示工作的指示者确定的工作地点。
输出单元113输出使与目标对象相关的复杂度可视化的可视化信息,目标对象是虚拟对象的显示范围的目标。例如,输出单元113通过网格三维图输出指示复杂度的可视化信息。
输出单元113提供关于虚拟对象的信息。具体地,输出单元113经由通信单元100提供输出信息。
(1-3)存储单元120
存储单元120由诸如随机存取存储器(RAM)和闪存驱动器的半导体存储元件、或者诸如硬盘或光盘的存储装置来实现。存储单元120具有存储与信息处理装置10中的处理有关的数据的功能。
图8示出了存储单元120的示例。图8所示的存储单元120存储关于虚拟对象的信息。如图8所示,存储单元120可以包括诸如“虚拟对象ID”、“虚拟对象”、“显示范围”、“工作范围”和“工作信息”的条目。
“虚拟对象ID”指示用于识别虚拟对象的标识信息。“虚拟对象”指示关于虚拟对象的信息。图8所示的示例示出了其中诸如“虚拟对象#1”和“虚拟对象#2”的概念信息被存储在“虚拟对象”中的示例。然而,实际上,存储了指示构成虚拟对象的每个虚拟对象的形状、属性等的信息或坐标信息。“显示范围”指示虚拟对象的显示范围。尽管图8所示的示例是诸如“显示范围#1”和“显示范围#2”的概念信息被存储在“显示范围”中的情况,但是实际上坐标信息被存储在“显示范围”中。“工作范围”指示在虚拟对象的显示范围中需要工作的工作范围。尽管图8所示的示例是诸如“工作范围#1”和“工作范围#2”的概念信息被存储在“工作范围”中的情况,但是实际上坐标信息被存储在“工作范围”中。“工作信息”指示每个工作范围中的工作信息。图8所示的示例示出了其中诸如“工作信息#1”和“工作信息#2”的概念信息被存储在“工作信息”中的示例。然而,实际上,由指示者输入的输入信息被存储。
(2)终端装置20
如图7所示,终端装置20包括通信单元200、控制单元210、输出单元220和传感器单元230。
(2-1)通信单元200
通信单元200具有与外部装置进行通信的功能。例如,在与外部装置进行通信时,通信单元200将从外部装置接收的信息输出至控制单元210。具体地,通信单元200将从信息处理装置10接收的关于虚拟对象的信息输出至控制单元210。
(2-2)控制单元210
控制单元210具有控制终端装置20的整体操作的功能。例如,控制单元210执行控制关于虚拟对象的信息的输出的处理。
(2-3)输出单元220
输出单元220具有输出关于虚拟对象的信息的功能。例如,输出单元220以AR表示显示关于虚拟对象的信息。
(2-4)传感器单元230
传感器单元230具有获取由每个测量仪器测量的传感器信息的功能。例如,传感器单元230获取诸如加速度信息、陀螺仪信息、GPS信息和地磁信息的传感器信息。如图7所示,传感器单元230可以包括加速度传感器单元231、陀螺仪传感器单元232、GPS接收单元233和地磁传感器单元234。
(3)信息提供装置30
如图7所示,信息提供装置30包括通信单元300、控制单元310和存储单元320。
(3-1)通信单元300
通信单元300具有与外部装置进行通信的功能。例如,在与外部装置进行通信时,通信单元300将从外部装置接收的信息输出至控制单元310。具体地,通信单元300将从信息处理装置10接收的信息输出至控制单元310。例如,通信单元300将关于获取关于虚拟对象的信息的信息输出到控制单元310。
(3-2)控制单元310
控制单元310具有控制信息提供装置30的操作的功能。例如,控制单元310经由通信单元300将关于虚拟对象的信息发送至信息处理装置10。例如,控制单元310将通过访问存储单元320获取的关于虚拟对象的信息发送至信息处理装置10。
(3-3)存储单元320
存储单元320存储与存储单元120中存储的信息类似的信息。因此,省略了对存储单元320的描述。
<3.3.信息处理系统的处理>
上面已经描述了根据实施方式的信息处理系统1的功能。接下来,将描述信息处理系统1的处理。
(1)信息处理装置10中的处理
图9是示出根据实施方式的信息处理装置10中的处理的流程的流程图。首先,信息处理装置10获取关于虚拟对象的显示范围的信息(S101)。例如,信息处理装置10获取关于虚拟对象的显示范围的中心坐标、宽度和深度的信息。接下来,信息处理装置10获取关于显示视场角的信息(S102)。例如,信息处理装置10获取关于显示视场角的角度的信息。
接下来,信息处理装置10计算虚拟对象的显示范围落入显示视场角的视场角内的最小距离(S103)。例如,信息处理装置10基于关于显示范围的宽度的信息以及关于显示视场角的角度的信息来计算虚拟对象的显示范围落入显示视场角的视场角内的最小距离。然后,信息处理装置10获取关于用户的移动的信息(S104)。例如,信息处理装置10获取关于用户的步幅长度的信息。随后,信息处理装置10计算用户可以认知虚拟对象的转变的距离(S105)。例如,基于关于用户的步幅长度的信息,信息处理装置10计算用户的步幅长度的若干步作为可以认知虚拟对象的转变的距离。然后,信息处理装置10计算从用户到虚拟对象的显示范围的距离(S106)。例如,信息处理装置10基于用户的坐标信息和虚拟对象的显示范围的坐标信息来计算从用户到虚拟对象的显示范围的距离。
接下来,信息处理装置10确定从用户到虚拟对象的显示范围的距离是否等于或大于预定阈值(S107)。例如,信息处理装置10确定从用户到虚拟对象的显示范围的距离是否为零或更小。在从用户到虚拟对象的显示范围的距离小于预定阈值的情况下,信息处理装置10结束信息处理。此外,在从用户到虚拟对象的显示范围的距离为预定阈值或更大的情况下,信息处理装置10确定该距离是否等于或大于可以认知虚拟对象的转变的距离(S108)。在从用户到虚拟对象的显示范围的距离等于或大于可以认知虚拟对象的转变的距离的情况下,信息处理装置10显示虚拟对象的整个显示范围(S109)。此外,在从用户到虚拟对象的显示范围的距离小于可以认知虚拟对象的转变的距离的情况下,信息处理装置10显示每个工作范围(S110)。然后,信息处理装置10更新关于用户的位置信息(S111)。处理返回到S106的处理。
<3.4.处理的变型>
上面已经描述了本公开内容的实施方式。接下来,将描述本公开内容的实施方式的处理的变型。注意,下面描述的处理的变型可以单独地应用于本公开内容的实施方式,或者可以组合地应用于本公开内容的实施方式。此外,可以代替本公开内容的实施方式中描述的配置而应用处理的变型,或者可以将处理的变型附加地应用于本公开内容的实施方式中描述的配置。
(1)显示引导信息
上述实施方式是输出单元113基于由处理单元112确定的关于转变的信息输出虚拟对象的情况。此处,输出单元113可以输出引导信息,该引导信息是用于将用户的视线引导到不同于视线方向的方向的显示信息。例如,输出单元113可以输出指示用户的视线的方向以及要引导用户的视线的方向的引导信息。通过该配置,信息处理系统1可以将用户准确地引导到指示者期望指示的工作地点。此外,即使当用户没有将视线指向虚拟对象的显示范围的方向时,信息处理系统1也可以将用户准确地引导到虚拟对象的显示范围的方向。
图10示出了将用户U11的视线引导到不同于视线方向的方向的示例性情况。图10的(A)示出了用户U11的视线的方向以及用户U11的视线要指向的方向的示例。在图10的(A)中,用户U11的视线从用户U11将视线实际指向的方向引导到显示范围HP11的方向。显示视场角HG13是在用户U11将视线指向的方向上的显示视场角。显示视场角HG14是在用户U11的视线要被引导的方向上的显示视场角。图10的(B)示出了待输出的引导信息的示例。如图10的(B)所示,输出单元113可以输出指示用户U11的视线的方向以及用户U11的视线将被雷达引导的方向的雷达视图。此外,输出单元113可以向终端装置20提供关于引导信息的控制信息,使得引导信息将被输出至终端装置20。通过该配置,用户U11可以经由终端装置20准确地掌握指示者引导的方向。通过该配置,信息处理系统1可以利于可用性的进一步改进。注意,图10的(B)中示出的引导信息是示例,并且可以以任何模式输出任何引导信息,只要其是用于引导用户U11的视线的引导信息。
(2)显示俯视图信息
输出单元113可以输出俯视图信息,该俯视图信息是通过观看用户的显示视场角而获得的显示信息。例如,输出单元113可以输出指示用户的显示视场角相对于虚拟对象的整个显示范围的关系(例如,位置关系)的俯视图信息。通过该配置,信息处理系统1可以准确地允许用户掌握用户相对于虚拟对象的整个显示范围的位置。此外,例如,即使在用户太靠近虚拟对象的显示范围的一部分的情况下,信息处理系统1也可以允许用户准确地掌握虚拟对象的整个显示范围。此外,输出单元113可以输出例如指示用户的显示视场角相对于每个工作范围的关系的俯视图信息。通过该配置,信息处理系统1可以允许用户准确地掌握工作地点的位置。此外,例如,即使在用户太靠近虚拟对象的显示范围的一部分的情况下,信息处理系统1也可以允许用户准确地掌握工作地点的位置。
将参照图11描述待输出的俯视图信息。显示视场角HG15和显示视场角HG16指示关于用户U11的显示视场角。显示视场角HG15是在用户U11处于直立状态的情况下的显示视场角。显示视场角HG16是在用户U11处于就座状态的情况下的显示视场角。图11的(B)示出了通过从正上方观察图11的(A)所示的显示视场角HG15的俯视图而得到的俯视图信息。图11的(D)示出了通过从正上方观察图11的(C)所示的显示视场角HG16的俯视图而得到的俯视图信息。如图11的(B)和图11的(D)所示,输出单元113可以输出俯视图信息。此外,输出单元113可以向终端装置20提供关于俯视图信息的控制信息,从而将俯视图信息输出至终端装置20。通过该配置,用户U11可以经由终端装置20准确地掌握用户U11的显示视场角、工作范围PP11至PP13以及显示范围HP11之间的关系。通过该配置,信息处理系统1可以利于可用性的进一步改进。注意,图11的(B)和图11的(D)所示的俯视图信息是示例,并且可以以任何模式输出任何类型的俯视图信息,只要俯视图信息是具有关于用户U11的显示视场角的俯视图的俯视图信息即可。
(3)使用VR、MR或XR输出信息
尽管上述实施方式是信息处理系统1使用能够以AR表示输出图像的透视眼镜作为终端装置20的情况,但是输出的目的地不限于该示例。例如,信息处理系统1可以将输出信息输出至用于虚拟现实(VR)、混合现实(MR)或X现实(XR)的终端装置。注意,XR是AR、VR、MR等的通用术语。例如,信息处理系统1可以将输出信息输出至用于VR、MR和XR的头戴式显示器。此外,信息处理系统1可以输出用于移动AR的输出信息,该移动AR可以通过作为终端装置20的诸如智能电话的终端装置来体验。通过该配置,信息处理系统1可以使用智能电话向用户提供AR体验,使得可以利于可用性的进一步改进。
(4)使用投影仪输出信息
尽管上述实施方式是信息处理系统1将输出信息输出至终端装置20的情况,但是输出的方法不限于该示例。信息处理系统1可以使用例如投影仪输出该输出信息。例如,信息处理系统1可以通过将虚拟对象投影在特定地点或特定目标对象上来输出该输出信息。在该情况下,投影在特定地点或特定目标对象上的投影范围例如是虚拟对象的显示范围。此外,信息处理系统1可以使用例如能够获取关于用户的位置信息的终端装置(例如智能电话或移动装置)和投影仪来输出该输出信息。
(5)使用信标或AR标记的位置定位
尽管上述实施方式是信息处理系统1使用GPS信息来测量用户的位置的情况,但是位置的确定不限于该示例。信息处理系统1可以使用诸如信标或AR标记的与位置的测量有关的其他方法来确定与用户的位置有关的信息。例如,信息处理系统1可以通过使用诸如信标或AR标记的与位置的测量有关的其他方法来确定关于用户与特定地点或特定目标对象之间的距离的信息。
(6)输出音频信息和触觉信息
上述实施方式是这样一种情况:当用户太靠近特定地点或特定目标对象时,或者当用户的视线在不同于指示者所期望的方向的方向上时,通过输出诸如雷达视图的引导信息来引导用户的位置和取向。以该方式,在上述实施方式中,信息处理系统1输出用于引导用户的位置和取向的视觉信息。此处,信息处理系统1可以将音频信息(例如,语音信息或声音信息)和触觉信息(例如,振动信息)与视觉信息一起输出。此外,信息处理系统1可以输出音频信息或触觉信息而不输出视觉信息。例如,信息处理系统1可以输出与视觉信息所指示的内容对应的音频信息或触觉信息。
(7)掌握虚拟对象的显示范围
当难以掌握虚拟对象的整个显示范围时,例如当用户太靠近特定地点或特定目标对象时,或者当视线由于用户处于就座状态而降低时,信息处理系统1可以被配置成能够基于由移动对象(例如,无人机)捕获的成像信息、由特定位置处的成像装置(例如,摄像装置)捕获的成像信息等来掌握虚拟对象的整个显示范围。
(8)转变的定时
尽管上述实施方式是信息处理系统1基于虚拟对象的显示范围和到用户的距离来控制虚拟对象的转变的情况,但是转变的控制方法不限于该示例。例如,信息处理系统1可以基于虚拟对象的显示范围的方向和用户的视线的方向来控制虚拟对象的转变。例如,信息处理系统1可以确定用户的视线是否在虚拟对象的显示范围的方向上,并且控制虚拟对象的转变,使得虚拟对象仅在用户的视线在虚拟对象的显示范围的方向上时转变。
(9)移动对象
上述实施方式是作为虚拟对象的显示范围的目标的目标对象是固定在特定位置的目标对象的情况。此处,作为虚拟对象的显示范围的目标的目标对象可以是不固定在特定位置的移动对象。此外,信息处理系统1可以确定虚拟对象的显示范围,使得虚拟对象被显示在移动对象上。在该情况下,虚拟对象的显示范围根据移动对象的移动而动态地改变。信息处理系统1可以基于虚拟对象的显示范围与用户之间的相对距离来执行用于控制虚拟对象的转变的处理。
(10)用户属性
信息处理系统1可以根据用户的属性来改变虚拟对象的显示范围。例如,信息处理系统1可以使指示者能够针对用户的每个属性预先限定虚拟对象的显示范围,并且根据用户的属性输出虚拟对象的显示范围。例如,在用户是管理作为虚拟对象的显示范围的目标的目标对象的管理者的情况下,信息处理系统1可以输出虚拟对象的整个显示范围。作为另一示例,在用户是负责作为虚拟对象的显示范围的目标的目标对象的一部分的作业者的情况下,信息处理系统1可以仅输出虚拟对象的显示范围中负责作业者的工作范围的一部分。
(11)基于透光率和音量的控制
信息处理系统1可以通过改变虚拟对象的透光率来控制虚拟对象的转变。例如,信息处理系统1可以控制虚拟对象的转变,使得虚拟对象通过逐渐地改变转变之后输出的虚拟对象的透光率而平滑地转变。注意,在信息处理系统1输出音频信息的情况下,信息处理系统1可以通过改变音量来控制虚拟对象的转变。此外,信息处理系统1可以通过由不限于音量的立体声效果(例如,三维音频)改变声音的三维位置、方向、距离等来控制虚拟对象的转变。
(12)基于音频信息和触觉信息的控制
信息处理系统1可以通过结合视觉信息改变音频信息和触觉信息来控制虚拟对象的转变。例如,信息处理系统1可以通过根据虚拟对象的转变,结合视觉信息改变音频信息和触觉信息来控制虚拟对象的转变。
(13)移动离开时的转变的定时
以上实施方式通过用户接近虚拟对象的显示范围的示例性情况描述了信息处理系统1控制虚拟对象的转变的处理。此处,即使当用户移动离开虚拟对象的显示范围时,信息处理系统1也可以基于类似的处理来控制虚拟对象的转变。此外,当用户移动离开虚拟对象的显示范围时,信息处理系统1可以将与用户接近虚拟对象的显示范围的情况不同的定时设置为虚拟对象的转变的定时。
(14)基于用户状况(状态)的控制
信息处理系统1可以根据用户的状况来控制虚拟对象的转变。信息处理系统1可以通过相互关联地预定义用户的状况和与虚拟对象的转变的控制相关的信息来根据用户的状况控制虚拟对象的转变。例如,在用户具有作业工具的情况下,信息处理系统1可以根据用户的状况来控制虚拟对象的转变。此外,例如,在用户具有作业工具的情况下,信息处理系统1可以估计用户是作业者,并且根据用户的属性来控制虚拟对象的转变。
(15)其他限制
尽管上述实施方式是用户是作为农田中的作业者经历AR体验的人的情况,但用户不限于该示例,并且用户可以是任何人,只要该人是指示者的指示目标。用户可以是例如在城镇、办公室、仓库等中经历AR体验的人。此外,用户可以是经历VR、MR或XR体验的人。
尽管上述实施方式是指示者是指示作为农田中的作业者经历AR体验的用户的指示者或指示主体的情况,但指示者不限于该示例,并且任何指示者或指示对象是可允许的,只要指示者是指示用户的指示者或指示对象。
尽管上述实施方式是输出单元113输出其中由网格三维图指示植被的复杂度的虚拟对象的情况,但是输出不限于该示例。输出单元113可以以任何形式输出任何可视化信息,只要该可视化信息指示作为虚拟对象的显示范围的目标的目标对象的复杂度。例如,输出单元113可以输出其中通过除网格之外的形状的三维图来指示植被的复杂度的虚拟对象。
尽管上述实施方式是输出单元113输出使指示者的手的移动可视化的可视化信息的情况,但是可视化信息的输出不限于该示例。输出单元113可以以任何形式输出任何信息,只要该信息是使基于指示者的操作的细节和模型行为可视化的可视化信息。例如,输出单元113可以输出不仅使指示者的手的移动可视化而且使指示者的整个身体移动可视化的可视化信息。
<<4.应用示例>>
上面已经描述了本公开内容的实施方式。接下来,将描述根据本公开内容的实施方式的信息处理系统1的应用示例。
<4.1.农田以外的目标对象>
上述实施方式也可以应用于除农田之外的目标对象。例如,上述实施方式还可以应用于在诸如城镇、办公室或仓库的空间中存在多个目标对象的情况。例如,为了使用户能够认知特定地点或特定目标对象,信息处理系统1可以在用户离开空间之前的定时执行变窄。在该情况下,呈现控制单元1123可以基于到特定地点或特定目标对象的距离以及直到用户离开空间的距离来将用户离开空间之前的定时确定为虚拟对象的转变的定时。图12的(A)示出了城镇的示例。例如,信息处理系统1可以执行用于将用户引导到特定商店或特定建筑物的处理。图12的(B)示出了办公室的示例。例如,信息处理系统1可以执行用于将用户引导到特定部门、特定人员或特定座位(例如,空座)的处理。图12的(C)示出了仓库的内部的示例。例如,信息处理系统1可以执行用于将用户引导到特定产品或特定类型的物品的处理。注意,图12所示的示例是示例,而不限于该示例。
<<5.硬件配置示例>>
最后,将参照图13描述根据本实施方式的信息处理装置的硬件配置示例。图13是示出根据本实施方式的信息处理装置的硬件配置示例的框图。注意,图13所示的信息处理装置900可以实现例如图7所示的信息处理装置10、终端装置20和信息提供装置30。由根据实施方式的信息处理装置10、终端装置20和信息提供装置30实现的信息处理与下面描述的软件和硬件协同实现。
如图13所示,信息处理装置900包括中央处理单元(CPU)901、只读存储器(ROM)902和随机存取存储器(RAM)903。此外,信息处理装置900包括主机总线904a、桥接器904、外部总线904b、接口905、输入装置906、输出装置907、存储装置908、驱动器909、连接端口910和通信装置911。注意,此处示出的硬件配置是示例,并且可以省略一些部件。另外,硬件配置还可以包括除了此处示出的部件之外的部件。
CPU 901用作例如算术处理装置或控制装置,并且基于记录在ROM 902、RAM 903或存储装置908中的各种程序来控制部件中的每个部件的操作的全部或部分。ROM 902是存储由CPU 901加载的程序、用于计算的数据等的装置。RAM 903临时或永久地存储例如由CPU901加载的程序、在程序执行时适当改变的各种参数等。这些通过包括CPU总线等的主机总线904a互连。CPU 901、ROM 902和RAM 903可以例如与软件协作来实现参照图7描述的控制单元110、控制单元210和控制单元310的功能。
CPU 901、ROM 902和RAM 903例如经由能够进行高速数据传输的主机总线904a互连。另一方面,主机总线904a例如经由桥接器904连接至具有相对低的数据传输速度的外部总线904b。此外,外部总线904b经由接口905连接至各种部件。
输入装置906由收听者向其输入信息的装置例如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆来实现。此外,输入装置906例如可以是使用红外线或其他无线电波的远程控制装置,或者可以是诸如支持信息处理装置900的操作的移动电话或PDA的外部连接装置。此外,输入装置906可以包括例如输入控制电路,该输入控制电路使用上述输入装置基于输入信息生成输入信号,并且将该输入信号输出至CPU 901。通过操作输入装置906,信息处理装置900的管理员可以向信息处理装置900输入各种数据并且给出关于处理操作的指示。
另外,输入装置906可以由检测用户的移动和位置的装置形成。例如,输入装置906可以包括各种传感器,例如,图像传感器(例如,相机)、深度传感器(例如,立体相机)、加速度传感器、陀螺仪传感器、地磁传感器、光学传感器、声音传感器、距离测量传感器(例如,飞行时间(ToF)传感器)和力传感器。此外,传感器906可以获取关于信息处理装置900的自身状态的信息,例如信息处理装置900的姿势和移动速度,以及关于信息处理装置900的周围空间的信息,例如信息处理装置900周围的亮度和噪声。此外,输入装置906可以包括全球导航卫星系统(GNSS)模块,其接收来自GNSS卫星的GNSS信号(例如,来自全球定位系统(GPS)卫星的GPS信号),并且测量包括装置的纬度、经度和高度的位置信息。此外,关于位置信息,输入装置906可以通过Wi-Fi(注册商标)、使用移动电话、PHS、智能电话等的传送和接收、近场通信等来检测位置。输入装置906可以实现例如参照图7描述的传感器单元230的功能。
输出装置907由能够可视地或可听地向用户通知所获取的信息的装置形成。这样的装置的示例包括显示装置(例如,CRT显示装置、液晶显示装置、等离子体显示装置、EL显示装置、激光投影仪、LED投影仪和灯)、语音输出装置(例如,扬声器和头戴式耳机)和打印机装置。输出装置907例如输出通过由信息处理装置900执行的各种处理获得的结果。具体地,显示装置以诸如文本、图像、表和图的各种格式可视地显示通过由信息处理装置900执行的各种处理获得的结果。音频输出装置将包括再现的音频数据、声学数据等的音频信号转换成模拟信号,并且可听地输出该信号。输出装置907例如可以实现参照图7描述的输出单元220的功能。
存储装置908是作为信息处理装置900的存储单元的示例而形成的数据存储装置。存储装置908例如由磁存储装置(例如,HDD)、半导体存储装置、光存储装置、磁光存储装置等来实现。存储装置908可以包括存储介质、在存储介质上记录数据的记录装置、从存储介质读取数据的读取装置、删除记录在存储介质上的数据的删除装置等。该存储装置908存储由CPU 901执行的程序、各种数据以及从外部获取的各种数据等。存储装置908例如可以实现参照图7描述的存储单元120的功能。
驱动器909是用于存储介质的读取器/写入器,并且被内置在信息处理装置900中或者外部连接至信息处理装置900。驱动器909读取记录在可移除存储介质(例如,已安装的磁盘、光盘、磁光盘或半导体存储器)上的信息,并且将读取的信息输出至RAM 903。驱动器909还可以将信息写入可移除存储介质。
连接端口910例如是用于连接外部连接装置的端口,例如通用串行总线(USB)端口、IEEE 1394端口、小型计算机系统接口(SCSI)、RS-232C端口或光学音频端子。
通信装置911例如是由用于连接至网络920的通信装置等形成的通信接口。通信装置911例如是用于有线或无线局域网(LAN)、长期演进(LTE)、蓝牙(注册商标)、无线USB(WUSB)等的通信卡。此外,通信装置916可以是光学通信路由器、非对称数字用户线(ADSL)路由器、用于各种通信的调制解调器等。通信装置916可以根据诸如TCP/IP的预定协议通过因特网与其他通信装置交换信号等。通信装置911例如可以实现参照图7描述的通信单元100、通信单元200和通信单元300的功能。
网络920是用于从连接至网络920的装置发送的信息的有线或无线传输路径。例如,网络920可以包括:诸如因特网、电话网络和卫星通信网络的公共网络、或者包括以太网(注册商标)的各种局域网(LAN)、广域网(WAN)等。此外,网络920可以包括诸如因特网协议-虚拟专用网络(IP-VPN)的专用网络。
上面已经描述了能够实现根据实施方式的信息处理装置900的功能的硬件配置的示例。上述部件中的每一个可以通过使用通用构件来实现,或者可以通过专用于各个部件的功能的硬件装置来实现。因此,可以根据在实现实施方式时的技术水平适当地改变要使用的硬件配置。
<<6.总结>>
如上所述,根据实施方式的信息处理装置10执行用于基于根据显示视场角和虚拟对象的显示范围的距离来控制待输出的虚拟对象的转变的处理。通过该配置,信息处理装置10可以使用户能够准确地掌握关于虚拟对象的转变的信息。此外,信息处理装置10可以根据虚拟对象的转变自然地引导用户。
这使得可以提供能够允许用户准确地掌握关于虚拟对象的转变的信息的新颖且改进的信息处理装置、信息处理方法和信息处理程序。
上文中已经参照附图详细描述了本公开内容的优选实施方式。
然而,本公开内容的技术范围不限于这样的示例。显然,在本公开内容的技术领域中具有普通知识的人可以在权利要求中描述的技术构思的范围内提出各种改变或修改,并且这些当然被理解为属于本公开内容的技术范围。
例如,可以将本说明书中描述的每个装置实现为独立的装置,或者可以将装置中的一些或全部实现为单独的装置。例如,可以将图7所示的信息处理装置10、终端装置20和信息提供装置30实现为独立的装置。此外,例如,其可以被实现为经由网络等连接至信息处理装置10、终端装置20和信息提供装置30的服务器装置。替选地,包括在信息处理装置10中的控制单元110的功能可以包括在经由网络等连接的服务器装置中。
此外,可以通过使用软件、硬件或软件和硬件的组合中的任何来实现要由本说明书中描述的各个装置执行的一系列处理。将构成软件的程序预先存储在例如被设置在装置中的每一个内部或外部的记录介质(非暂态介质)中。然后,程序中的每一个在由计算机执行时被读入RAM中并且由处理器例如CPU来执行。
此外,使用本说明书中的流程图描述的处理不一定必须以示出的顺序执行。可以并行执行一些处理步骤。另外,可以采用附加的处理步骤,并且可以省略一些处理步骤。
此外,本说明书中描述的效果仅是说明性或示例性的,并且不受限制。即,除了上述效果之外或代替上述效果,根据本公开内容的技术可以表现出根据本说明书的描述对本领域技术人员明显的其他效果。
注意,以下配置也属于本公开内容的技术范围。
(1)
一种信息处理装置,包括:
呈现控制单元,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建单元,其基于由所述呈现控制单元确定的定时来控制待输出的虚拟对象的转变。
(2)
根据(1)所述的信息处理装置,
其中,所述呈现控制单元基于作为所述距离的、针对所述显示视场角的用户与所述虚拟对象的显示范围之间的距离来确定所述虚拟对象的转变的定时。
(3)
根据(1)或(2)所述的信息处理装置,
其中,所述呈现控制单元基于所述虚拟对象的显示范围落入所述显示视场角的视场角内的最小距离来确定所述虚拟对象的转变的定时。
(4)
根据(1)至(3)中任一项所述的信息处理装置,
其中,所述呈现控制单元将等于或大于所述虚拟对象的显示范围落入所述显示视场角的视场角内的最小距离的距离确定为所述虚拟对象的转变的定时。
(5)
根据(1)至(4)中任一项所述的信息处理装置,
其中,所述呈现控制单元将等于或小于针对所述显示视场角的用户能够认知所述转变的最大距离的距离确定为所述虚拟对象的转变的定时。
(6)
根据(1)至(5)中任一项所述的信息处理装置,还包括
输出单元,其基于由所述呈现创建单元控制的虚拟对象的转变,将转变之后的虚拟对象输出至包括在所述虚拟对象的显示范围中的预定区域。
(7)
根据(6)所述的信息处理装置,
其中,所述输出单元向所述预定区域输出与所述工作相关的所述转变之后的虚拟对象,所述预定区域作为针对所述显示视场角的用户的工作的工作地点。
(8)
根据(7)所述的信息处理装置,
其中,所述输出单元将与所述工作相关的所述转变之后的虚拟对象输出至所述预定区域,所述预定区域作为所述工作地点并且作为由远程指示所述工作的指示者确定的工作地点。
(9)
根据(6)所述的信息处理装置,
其中,所述输出单元输出可视化信息,所述可视化信息使基于构成所述虚拟对象的各个虚拟对象中彼此相邻的虚拟对象的属性而确定的所述各个虚拟对象的复杂度可视化。
(10)
根据(9)所述的信息处理装置,
其中,所述输出单元输出所述可视化信息,所述可视化信息基于显示高度的差异使指示所述各个虚拟对象的丰富度的所述复杂度可视化。
(11)
根据(1)至(10)中任一项所述的信息处理装置,
其中,所述呈现创建单元控制作为所述虚拟对象的、与植被相关的虚拟对象的转变。
(12)
根据(1)至(11)中任一项所述的信息处理装置,
其中,所述呈现创建单元执行控制,使得逐渐地执行所述虚拟对象的转变。
(13)
一种由计算机执行的信息处理方法,所述信息处理方法包括:
呈现控制步骤,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建步骤,其基于由所述呈现控制步骤确定的定时来控制待输出的虚拟对象的转变。
(14)
一种信息处理程序,所述信息处理程序使计算机执行:
呈现控制过程,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建过程,其基于由所述呈现控制过程确定的定时来控制待输出的虚拟对象的转变。
附图标记列表
1 信息处理系统
10 信息处理装置
20 终端装置
30 信息提供装置
100 通信单元
110 控制单元
111 获取单元
112 处理单元
1121 步幅长度控制单元
1122 位置控制单元
1123 呈现控制单元
1124 呈现创建单元
113 输出单元
120 存储单元
200 通信单元
210 控制单元
220 输出单元
300 通信单元
310 控制单元
320 存储单元

Claims (14)

1.一种信息处理装置,包括:
呈现控制单元,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建单元,其基于由所述呈现控制单元确定的定时来控制待输出的虚拟对象的转变。
2.根据权利要求1所述的信息处理装置,
其中,所述呈现控制单元基于作为所述距离的、针对所述显示视场角的用户与所述虚拟对象的显示范围之间的距离来确定所述虚拟对象的转变的定时。
3.根据权利要求1所述的信息处理装置,
其中,所述呈现控制单元基于所述虚拟对象的显示范围落入所述显示视场角的视场角内的最小距离来确定所述虚拟对象的转变的定时。
4.根据权利要求1所述的信息处理装置,
其中,所述呈现控制单元将等于或大于所述虚拟对象的显示范围落入所述显示视场角的视场角内的最小距离的距离确定为所述虚拟对象的转变的定时。
5.根据权利要求1所述的信息处理装置,
其中,所述呈现控制单元将等于或小于针对所述显示视场角的用户能够认知所述转变的最大距离的距离确定为所述虚拟对象的转变的定时。
6.根据权利要求1所述的信息处理装置,还包括:
输出单元,其基于由所述呈现创建单元控制的虚拟对象的转变,将转变之后的虚拟对象输出至包括在所述虚拟对象的显示范围中的预定区域。
7.根据权利要求6所述的信息处理装置,
其中,所述输出单元向所述预定区域输出与所述工作相关的所述转变之后的虚拟对象,所述预定区域作为针对所述显示视场角的用户的工作的工作地点。
8.根据权利要求7所述的信息处理装置,
其中,所述输出单元将与所述工作相关的所述转变之后的虚拟对象输出至所述预定区域,所述预定区域作为所述工作地点并且作为由远程指示所述工作的指示者确定的工作地点。
9.根据权利要求6所述的信息处理装置,
其中,所述输出单元输出可视化信息,所述可视化信息使基于构成所述虚拟对象的各个虚拟对象中彼此相邻的虚拟对象的属性而确定的所述各个虚拟对象的复杂度可视化。
10.根据权利要求9所述的信息处理装置,
其中,所述输出单元输出所述可视化信息,所述可视化信息基于显示高度的差异使指示所述各个虚拟对象的丰富度的所述复杂度可视化。
11.根据权利要求1所述的信息处理装置,
其中,所述呈现创建单元控制作为所述虚拟对象的、与植被相关的虚拟对象的转变。
12.根据权利要求1所述的信息处理装置,
其中,所述呈现创建单元执行控制,使得逐渐地执行所述虚拟对象的转变。
13.一种由计算机执行的信息处理方法,所述信息处理方法包括:
呈现控制步骤,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建步骤,其基于由所述呈现控制步骤确定的定时来控制待输出的虚拟对象的转变。
14.一种信息处理程序,所述信息处理程序使计算机执行:
呈现控制过程,其基于根据显示视场角和作为虚拟地呈现的对象的虚拟对象的显示范围的距离来确定所述虚拟对象的转变的定时;以及
呈现创建过程,其基于由所述呈现控制过程确定的定时来控制待输出的虚拟对象的转变。
CN202180009306.1A 2020-03-06 2021-02-26 信息处理装置、信息处理方法和信息处理程序 Pending CN114981847A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-038390 2020-03-06
JP2020038390 2020-03-06
PCT/JP2021/007530 WO2021177186A1 (ja) 2020-03-06 2021-02-26 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
CN114981847A true CN114981847A (zh) 2022-08-30

Family

ID=77613374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180009306.1A Pending CN114981847A (zh) 2020-03-06 2021-02-26 信息处理装置、信息处理方法和信息处理程序

Country Status (5)

Country Link
US (1) US20230135993A1 (zh)
EP (1) EP4116937A4 (zh)
JP (1) JPWO2021177186A1 (zh)
CN (1) CN114981847A (zh)
WO (1) WO2021177186A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230133026A1 (en) * 2021-10-28 2023-05-04 X Development Llc Sparse and/or dense depth estimation from stereoscopic imaging

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60043259D1 (de) * 1999-03-17 2009-12-17 Komatsu Mfg Co Ltd Kommunikationsanordnung einer mobilen einheit
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
EP3188132B1 (en) * 2014-08-27 2021-05-05 Sony Corporation Display control device, display control method, and program
US11058065B2 (en) 2015-10-08 2021-07-13 Sony Corporation Information processing device and information processing method
US10489981B2 (en) * 2015-12-10 2019-11-26 Sony Corporation Information processing device, information processing method, and program for controlling display of a virtual object
JP6693223B2 (ja) * 2016-03-29 2020-05-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
IL298181B1 (en) * 2016-04-21 2024-04-01 Magic Leap Inc A visual aura around the field of vision
US11156844B2 (en) * 2017-12-27 2021-10-26 Sony Corporation Information processing apparatus, information processing method, and program
JP6743080B2 (ja) * 2018-03-20 2020-08-19 東芝インフォメーションシステムズ株式会社 表示制御システム及び表示制御方法
US11620800B2 (en) * 2019-03-27 2023-04-04 Electronic Arts Inc. Three dimensional reconstruction of objects based on geolocation and image data

Also Published As

Publication number Publication date
WO2021177186A1 (ja) 2021-09-10
JPWO2021177186A1 (zh) 2021-09-10
US20230135993A1 (en) 2023-05-04
EP4116937A1 (en) 2023-01-11
EP4116937A4 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
US11120628B2 (en) Systems and methods for augmented reality representations of networks
US11798203B2 (en) Methods for generating soil maps and application prescriptions
US20230017128A1 (en) Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
US10181211B2 (en) Method and apparatus of prompting position of aerial vehicle
EP2749843A1 (en) Method for filtering and selecting geographical points of interest and mobile unit corresponding thereto
WO2018094741A1 (zh) 一种航线编辑方法、装置及控制设备
WO2019100188A1 (zh) 无人机作业航线的规划方法及地面端设备
Zheng et al. Location-based augmented reality in-situ visualization applied for agricultural fieldwork navigation
CN114981847A (zh) 信息处理装置、信息处理方法和信息处理程序
CN104501797A (zh) 一种基于增强现实ip地图的导航方法
WO2021093703A1 (zh) 基于光通信装置的交互方法和系统
US20230123786A1 (en) Information processing apparatus, information processing method, and information processing program
JP2011039130A (ja) 連携表示装置、連携表示方法、及びプログラム
JP2022095589A (ja) 仮想情報がオーバーレイされたポータブルディスプレイデバイス
CN106802712A (zh) 交互式扩增实境系统
CN112154389A (zh) 终端设备及其数据处理方法、无人机及其控制方法
JP7409497B2 (ja) 位置合わせ支援装置、位置合わせ支援方法およびプログラム
Sekimoto et al. Development of interface of hydroponic culture management system using AR
WO2023276215A1 (ja) 情報処理装置、情報処理方法及びプログラム
RU2702495C1 (ru) Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени
JP5864448B2 (ja) 栽培サポート方法および情報処理装置
Satheesan Real-Time Augmented Reality based Operator Assistance for Driving Cut-to-Length Forest Machines
JP6239581B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2021163007A (ja) 計測システム、計測方法および計測用プログラム
JP2009223880A (ja) 電子ノモグラム、電子インプットグラム、電子ノモグラム表示方法、電子インプットグラム表示方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination