CN103793360A - 信息处理系统、信息处理设备和存储介质 - Google Patents
信息处理系统、信息处理设备和存储介质 Download PDFInfo
- Publication number
- CN103793360A CN103793360A CN201310506767.7A CN201310506767A CN103793360A CN 103793360 A CN103793360 A CN 103793360A CN 201310506767 A CN201310506767 A CN 201310506767A CN 103793360 A CN103793360 A CN 103793360A
- Authority
- CN
- China
- Prior art keywords
- user
- current location
- content
- controller
- information handling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及信息处理系统、信息处理设备和存储介质。信息处理系统包括:数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;位置识别部,被配置为识别当前位置;确定部,被配置为确定与所述当前位置对应的内容是否存在于所述数据库中;通知部,被配置为当所述确定部确定与所述当前位置对应的内容存在时,向用户发送有关与所述当前位置对应的内容存在的通知;以及控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
Description
相关申请的交叉参考
本申请要求于2012年10月31日提交的日本优先权专利申请JP2013-240693的权益,其全部内容通过引用结合于此。
技术领域
本公开涉及信息处理系统、信息处理设备和存储介质。
背景技术
近年来,在移动终端的通信速度、存储容量和显示屏幕精度等等的技术上的卓越发展已使得用户能够容易地将包括电影和戏剧在内的视频内容条目下载到移动终端并观看这些视频内容条目。例如,公开了以下技术作为与管理这种视频内容条目有关的技术。
例如,JP 2002-325241A提出了通过在数据库中累积已经位于屏幕上并且已经被广播的电视节目和电影来使用由专业人员创建的电影或电视节目的高清高音质数据。更具体地,在JP 2002-325241A中记载的下载系统使得用户能够访问并下载视频作品的运动图像数据和音频数据中的任何部分,并且用户能够将该部分用于通信终端的待机屏幕或铃声(ringtonemelody)等等。
此外,JP 2007-528056T公开了一种用于使场景内容数据自动包含与其相关的链接信息的技术。此外,JP 2007-528056T还描述了使场景内容数据(拍摄的图像,shot image)与GPS位置信息(拍摄位置信息)相关联。
发明内容
然而,JP 2002-325241A或JP 2007-528056T均没有特别具有对观看视频内容的地点的限制,也没有提到与向用户提供与真实世界相关联的视频内容的著名场景的世界有关的任何信息。
鉴于前述内容,在本公开中期望提供新的改进的、能够向用户通知与当前位置对应的内容的信息处理系统、信息处理设备和存储介质。
根据本公开的实施例,提供了一种信息处理系统,包括:数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;位置识别部,被配置为识别当前位置;确定部,被配置为确定与所述当前位置对应的内容是否存在于所述数据库中;通知部,被配置为当所述确定部确定与所述当前位置对应的内容存在时,向用户发送有关与所述当前位置对应的内容存在的通知;以及控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
根据本公开的另一实施例,提供了一种信息处理设备,包括:位置识别部,被配置为识别当前位置;通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
根据本公开的另一实施例,提供了一种非瞬时计算机可读存储介质,其中存储有程序,所述程序使计算机用作:位置识别部,被配置为识别当前位置;通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
根据如上所述的本公开的一个或多个实施例,变得能够向用户通知与当前位置对应的内容。
附图说明
图1是示出根据本公开的实施例的通知系统的概况的图;
图2是示出根据第一实施例的HMD的内部配置示例的框图;
图3是示出根据第一实施例的操作控制器的配置的框图;
图4是示出根据第一实施例的服务器的配置的框图;
图5是示出根据第一实施例的内容DB中存储的数据的示例的图;
图6是示出根据第一实施例的由HMD执行的通知处理的流程图;
图7是示出根据第一实施例的获取相关场景列表的处理的流程图;
图8是示出根据第一实施例的AR显示的特定示例的图;
图9是示出通过眼控输入来开始相关场景的播放的情况的图;
图10是示出根据第二实施例的操作控制器的配置的框图;
图11是示出根据第二实施例的由HMD执行的通知处理的流程图;
图12是示出根据第二实施例的优先顺序确定处理的流程图;
图13是示出根据第二实施例的AR显示的特定示例的图;以及
图14是示出通过音频输入来开始播放期望的相关场景的情况的图。
具体实施方式
在下文中,将参照附图来详细描述本公开的优选实施例。要注意,在本说明书和附图中,用相同的参考标号表示基本具有相同功能和结构的结构元件,并且省略对这些结构元件的重复阐述。
此外,将按照以下顺序给出描述。
1.根据本公开的一个实施例的通知系统的概况。
2.实施例
2-1.第一实施例
2-1-1.HMD的内部配置示例
2-1-2.服务器的配置
2-1-3.通知处理
2-2.第二实施例
2-2-1.操作控制器的配置
2-2-2.通知处理
3.结论
<1.根据本公开的一个实施例的通知系统的概况>
图1是示出根据本公开的实施例的通知系统(信息处理系统)的概况的图。如图1所示,根据本实施例的通知系统包括当作用户终端的一个示例的头戴式显示器(head mounted display)1、以及服务器30。
如图1所示的HMD被称作眼镜式显示器或通透头戴式显示器(HMD)。具体而言,例如,HMD1包括固定单元,固定单元具有框架的结构,该框架从头两侧到头后部半环绕该头部安装,并且通过用户将HMD1戴在他/她的外耳上来安装到用户上,如图1所示。然后,在图1所示的固定状态中,HMD1具有以下结构:用于右眼和左眼的成对的显示部2a和2b被放置在与用户双眼前方紧邻的位置,即放置普通眼镜的镜片的位置。例如,液晶面板被设置在各显示部2(显示部2a和2b)上,并且HDM1可以控制液晶面板的透射率,因此可以使液晶面板处于图1所示的通透状态,即,处于透明状态或半透明状态。通过使显示部2处于通透状态,即使在用户始终佩戴HMD1的情况下,也不会对日常生活造成不便,就如同用户佩戴眼镜的情况。
此外,显示部2可以通过在显示部2处于透明或半透明状态的同时显示图像如文本或图片,将增强现实(AR)信息覆盖在真实空间场景上。
此外,显示部2还可以通过在显示部2上显示成像镜头3a捕获的真实空间的拍摄图像,并将增强现实(AR)信息覆盖在真实空间的拍摄图像上。此外,显示部2还可以对HMD1从外部装置接收的内容或在HMD1的存储介质中存储的内容执行播放显示。除了图1所示的服务器30之外,外部装置还包括信息处理设备,如数码相机、数码摄像机、移动电话终端或个人计算机。
作为要在显示部2上播放的内容,例如,可以存在给定的运动图像内容(如电影和视频片段)、数码静态相机等成像的静态图像内容、以及电子书的数据。此外,这种内容可以包括要被显示的各种数据,如:用户在个人计算机上创建的供计算机使用的数据,包括图像数据、文本数据、总分析表数据等等;以及基于游戏程序的游戏图像。
此外,成像镜头3a被放置在前方,以使得将用户在佩戴HMD1的状态下在视觉上辨认对象的方向作为对象方向来对对象成像。此外,设置了发光部4a,发光部4a照射成像镜头3a的成像方向。例如,由发光二极管(LED)来构成发光部4a。
此外,尽管在图1中仅示出了左耳侧,实际上设置了一对耳机扬声器5a,在安装状态下这对耳机扬声器5a可以插入用户的右耳孔和左耳孔。
此外,采集外部声音的麦克风6a和6b分别被放置在用于右眼的显示部2a的右方和用于左眼的显示部2b的左方。
要注意到,图1所示的HMD1的外观是个示例,而可以存在用户佩戴HMD1的各种结构。一般而言,HMD1可以是眼镜式或头戴式的固定单元,并且至少在本实施例中,显示部2可以被紧密地设置在用户眼睛的前方。此外,可以针对双眼设置一对显示部2,而HMD1也可以具有针对双眼之一设置的一个显示部。
此外,耳机扬声器5a可以不是左右的立体声耳机,而可以是由双耳之一佩戴的单耳扬声器5a。此外,作为麦克风,可以设置麦克风6a和6b中的任一个。
此外,可以存在不包括麦克风6a和6b以及耳机扬声器5a的结构。此外,可以存在不设置发光部4a的结构。
此处,如上所述,JP2002-325241A和JP2007-528056T均没有具体限制观看视频内容的位置,也根本没有提到向用户提供与真实世界相关联的视频内容的著名场景的世界。
然而,如果可以向用户提供与用户实际当前所在的位置(真实世界)相关联的视频内容的著名场景的世界,则会增加视频内容的娱乐属性。
因此,鉴于上述情况,创建了根据本公开的各实施例的通知系统。根据本公开的各实施例的通知系统可以确定HMD1的当前位置,并在HMD1上向用户通知与当前位置对应的内容。此外,HMD1还可以根据用户针对该通知的动作来控制内容的播放。以该方式,用户可以欣赏与真实世界相关联的视频内容的著名场景。
在下文中,将依次描述本公开的这些实施例。要注意,在图1所示的示例中,尽管眼镜式显示器(通透HMD)被用作用户终端(信息处理设备)的示例,但是根据本公开的实施例的用户终端不限于此。例如,用户终端可以是除了眼镜式之外的HMD、数码相机、数码摄像机、个人数字助理(PDA)、个人计算机(PC)、笔记本PC、平板终端、移动电话终端、智能电话、移动音乐播放装置、移动视频处理装置或移动游戏控制台。
<2.实施例>
<2-1.第一实施例>
[2-1-1.HMD的内部配置示例]
图2是示出图1所示的HMD1的内部配置示例的框图。如图2所示,HMD1包括显示部2、成像部3、照明部4、音频输出部5、音频输入部6、系统控制器10、成像控制器11、显示图像处理部12、显示驱动部13、显示控制器14、成像信号处理部15、音频信号处理部16、图像分析部17、照明控制器18、外围环境传感器19、成像目标传感器20、GPS接收器21、日期/时间计算部22、存储器25、通信部26、图像输入/输出控制器27、音频输入/输出控制器28和音频合成部29。
(系统控制器)
可以由微型计算机来配置系统控制器10,微型计算机包括例如中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)、非易失性存储器和接口部,并且系统控制器10控制HMD1的各个结构元件。
此外,如图2所示,系统控制器10用作用于识别HMD1的位置的位置识别部10a、和用于控制HMD1的操作的操作控制器10b。
-位置识别部
位置识别部10a基于从GPS接收器21、图像分析部17或音频信号处理部16输出的数据来识别HMD1的当前位置(当前点)。具体而言,例如,位置识别部10a将实时地从GPS接收器21接收的当前位置信息(如经度/维度)识别为当前位置。此外,位置识别部10a可以将成像部3实时地拍摄且图像分析部17分析的拍摄图像识别为当前位置。此外,位置识别部10a还可以将音频输入部6实时地采集的且音频信号处理部16处理的声音所表示的名称识别为当前位置。要注意,该名称是地址、地名、设施名称(包括公园的名称)或建筑名称等等。
–操作控制器
操作控制器10b控制HMD1的各操作。在下文中,参照图3,将描述操作控制器10b的功能配置。
图3是示出图2所示的操作控制器10b的功能配置的框图。如图3所示,操作控制器10b用作相关场景获取部100、通知部110和播放控制器120。
相关场景获取部100从服务器30获取与位置识别部10a识别的HMD1的当前位置对应的内容(相关场景)。与当前位置对应的内容包括:在当前位置捕获的运动图像(视频,如电影、戏剧、广告或音乐视频)和静态图像;以及均将当前位置作为作品发生地(原型)的视频、动画和小说等。此外,相关场景获取部100还可以从服务器30获取与当前位置对应的内容。在该情况下,相关场景获取部100可以将位置识别部10a识别的当前位置发送给服务器30并且首先获取相关场景列表,并且然后在用户输入播放命令的情况下,可以从服务器30下载与所发出的播放指令对应的相关场景。
在服务器30确定存在相关场景的情况下,通知部110通知该用户存在与该当前位置对应的内容。服务器30确定存在相关场景的情况包括:从服务器30接收到表示存在相关场景的确定结果的情况、或者相关场景获取部100从服务器30接收到相关场景列表或相关场景数据的情况。此外,通知部110所执行的特定通知方法的示例包括屏幕显示、音频、振动、压力、发光和温度改变。
例如,通知部110在显示部2的一部分上显示相关场景的一个画面、或包括相关场景的视频作品的标题和开始屏幕,并从音频输出部5播放包括相关场景的视频作品的主题音乐。此外,通知部110可以从音频输出部5播放报警声或铃声。此外,通知部110还可以利用振动部(未示出)振动HMD1,并且可以通过弯曲压电元件(未示出)并使外耳上佩戴的框架部件变形来将压力施加于用户的头部。
此外,通知部110还通过使HMD1上放置的发光部4a或LED(未示出)或显示部2闪烁以使得LED或发光部4a在用户的视野内,来通知用户。此外,通知部110可以通过控制为改变与用户接触的部分(如,HMD1的佩戴在外耳上的框架部分)的温度的目的而设置的热/冷材料并使温度改变,来通知用户。
播放控制器120根据用户针对通知部110的通知而进行的动作,开始与当前位置对应的相关场景的播放。用户的动作的示例包括眼控输入、音频输入、姿势输入和按钮/开关操作。
可以由放置在HMD1内部的成像镜头(未示出)来检测眼控输入,以使得成像镜头对用户的眼睛成像。用户可以通过眨眼或者将视线转向在显示部2上示出的相关场景的缩略图等来发出播放指令。在利用摄像头检测视线时,通过跟踪瞳孔的运动而计算视线的方向来识别用户凝视的地方。
此外,可以通过音频输入部6采集声音并通过音频信号处理部16辨别声音,来检测音频输入。例如,用户可以通过发出“开始播放”等的声音来发出播放指令。
此外,可以通过成像镜头3a对用户的手的姿势成像并通过图像分析部17辨别该姿势,来检测姿势输入。或者,可以通过设置于HMD1的加速度传感器或回转仪传感器来检测用户头部的姿势。
此外,可以通过设置于HMD1的物理按钮/开关(未示出)来检测按钮/开关操作。用户可以通过按下“确认”按钮/开关来发出播放指令。
(成像部)
成像部3包括:包括成像镜头3a、光圈、变焦镜头和聚焦镜头等等的镜头系统;使镜头系统执行聚焦操作和变焦操作的驱动系统;以及通过对镜头系统中获得的成像光执行光电转换来生成成像信号的固态图像传感器阵列;等等。例如,固态图像传感器阵列可以是电荷耦合器件(CCD)传感器阵列或互补金属氧化物半导体(CMOS)传感器阵列。如图1所示,由于成像镜头3a被放置在正向上,以使得将用户在佩戴HMD1的状态下在视觉上辨别对象的方向作为对象方向来对对象成像,因而成像镜头3a可以对包括用户通过显示部2看见的范围(视野)在内的范围进行成像。
(图像信号处理部)
成像信号处理部15包括用于使成像部3中的固态图像传感器获得的信号受到增益调节或波形整形的采样保持/自动增益控制(AGC)电路、以及视频模/数(A/D)转换器。通过利用这些,成像信号处理部15获得成像信号作为数字数据。此外,成像信号处理部15还对成像信号执行白平衡处理、亮度处理、颜色信号处理、模糊校正处理等等。
(成像控制器)
基于从系统控制器10发出的指令,成像控制器11控制成像部3和成像信号处理部15的操作。例如,成像控制器11控制成像部3和成像信号处理部15的操作的开/关。此外,成像控制器11执行控制(电机控制),用于使成像部3执行诸如自动聚焦、自动曝光调节、光圈调节或变焦的操作。成像控制器11包括定时发生器,并利用定时发生器生成的定时信号来控制由图像信号处理部15中的固态图像传感器、采样保持/AGC电路和视频A/D转换器执行的图像信号处理操作。此外,这种定时控制使得能够调节成像帧率。
此外,成像控制器11控制固态图像传感器和成像信号处理部15中的成像敏感度和信号处理。例如,作为对成像敏感度的控制,成像控制器11能够对从固态图像传感器读取的信号执行增益控制,并能够执行黑色电平设置的控制、在处理数字形式的成像信号时的各种系数的控制和模糊校正处理时的校正值的控制等等。例如,关于对成像敏感度的控制,不与任何特定波长范围有关的总体敏感度调整、以及调整特定波长范围(诸如红外范围或紫外范围)的成像敏感度的敏感度调整(例如,涉及剪切特定波长范围的成像)是可行的。通过在成像镜头系统中插入波长滤波器或者对成像信号执行的波长滤波器操作处理来实现与波长对应的敏感度调整。在这些情况中,成像控制器11通过控制波长滤波器的插入或滤波器操作系数的规格等等来实现敏感度控制。
(图像输入/输出控制器)
通过成像部3进行的成像以及成像信号处理部15进行的处理而获得的成像信号(通过成像获得的图像数据)被提供给图像输入/输出控制器27。在系统控制器10的控制下,图像输入/输出控制器27控制图像数据的传送。即,图像输入/输出控制器27控制成像系统(成像信号处理部15)、显示系统(显示图像处理部12)、存储器25和通信部26之间的图像数据的传送。
例如,图像输入/输出控制器27执行将作为在成像信号处理部15中处理的成像信号的图像数据提供给显示图像处理部12、给存储器25以及给通信部26的操作。
此外,例如,图像输入/输出控制器27执行将由存储器25播放的图像数据提供给显示图像处理部12以及给通信部26的操作。此外,例如,图像输入/输出控制器27执行将通信部26接收的图像数据提供给显示图像处理部12以及给存储器25的操作。
(显示图像处理部)
显示图像处理部12是所谓的视频处理器,并且是能够对所提供的图像数据执行各种显示处理的单元。例如,显示图像处理部12例如可以对图像数据执行亮度水平调整、颜色校正、对比度调整和锐度(边缘增强)调整。
(显示驱动部)
显示驱动部13是由使得从显示图像处理部12提供的图像数据被显示在显示部2上的像素驱动电路构成的,显示部2例如是液晶显示器。即,显示驱动部13以指定的水平/竖直驱动定时将基于视频信号的驱动信号提供给在显示部2中按照矩阵布置的像素,从而执行显示。此外,显示驱动部13能够控制显示部2中的每个像素的透射率,以使像素进入通透状态。此外,显示驱动部13可以使显示部2进入通透状态,并且可以使AR信息被显示在显示部2的一部分上。
(显示控制器)
显示控制器14基于系统控制器10的控制来控制显示图像处理部12的处理操作和显示驱动部13的操作。具体而言,显示控制器14控制显示图像处理部12如上所述那样对图像数据执行亮度水平调整等。此外,显示控制器14控制显示驱动部13执行显示部2的通透状态和图像显示状态之间的切换。
(音频输入部)
音频输入部6包括图1所示的麦克风6a和6b、用于放大麦克风6a和6b获得的音频信号的麦克风放大器部、以及A/D转换器,并将音频数据输入到音频输入/输出控制器28。
(音频输入/输出控制器)
在系统控制器10的控制下,音频输入/输出控制器28控制音频数据的传送。具体而言,音频输入/输出控制器28控制音频信号在音频输入部6、音频信号处理部16、存储器25和通信部26之间的传送。例如,音频输入/输出控制器28执行将音频输入部6获得的音频数据提供给音频信号处理部16、给存储器25以及给通信部26的操作。
此外,例如,音频输入/输出控制器28执行将存储器25播放的音频数据提供给音频信号处理部16以及给通信部26的操作。此外,例如,音频输入/输出控制器28执行将通信部26接收的音频数据提供给音频信号处理部16以及给存储器25的操作。
(音频信号处理部)
例如,音频信号处理部16是由数字信号处理器和D/A转换器等构成的。经由音频输入/输出控制器28向音频信号处理部16提供音频输入部6获得的音频数据以及来自存储部25或通信部26的音频数据。在系统控制器10的控制下,音频信号处理部16对所提供的音频数据执行诸如音量调整、声调调整、或音效施加的处理。然后,音频信号处理部16将经处理的音频信号转换为模拟信号,并将模拟信号提供给音频输出部5。要注意,音频信号处理部16不限于执行数字信号处理的单元,而可以是利用模拟放大器或模拟滤波器等执行信号处理的单元。
(音频输出部)
音频输出部5包括图1所示的一对耳机扬声器5a和用于耳机扬声器5a的放大器电路。此外,音频输出部5可以通过所谓的骨传导扬声器来构成。音频输出部5使得用户能够听见外部声音、存储器播放的音频以及通信部26接收的音频。
(存储器)
存储器25是用于将数据记录并播放到预定记录介质、或者记录并播放来自预定记录介质的数据的单元。例如,存储器25由硬盘驱动器(HDD)构成。当然,作为记录介质,可以采用各种记录介质,如:诸如闪存的固态存储器;包含固定存储器的存储器卡;光盘;磁光盘;和全息存储器。因此,存储器25能够根据所采用的记录介质来记录和播放数据。
经由图像输入/输出控制器27向存储器25提供作为通过成像部3成像的且通过成像信号处理部15处理的成像信号的图像数据、以及通信部26接收的图像数据。此外,经由音频输入/输出控制器28将音频输入部6获得的音频数据以及通信部26接收的音频数据提供给存储器25。
在系统控制器10的控制下,存储器25对所提供的图像数据和音频数据进行编码以使得该数据可以被记录在记录介质上,并且将经编码的数据记录在记录介质上。此外,在系统控制器10的控制下,存储器25播放来自记录介质的图像数据和音频数据。所播放的图像数据被输出到图像输入/输出控制器27,并且所播放的音频数据被输出到音频输入/输出控制器28。
(通信部)
通信部26将数据发送到外部装置以及接收来自外部装置的数据。通信部26是用于获取外界信息的单元的示例。例如,通信部26可以被配置为根据无线LAN或蓝牙等系统经由用于网络接入点的短程无线通信来执行网络通信。或者,通信部26可以直接与具有相应通信能力的外部装置执行无线通信。
作为外部装置,各具有信息处理功能和通信功能的各种电子装置均是可接受的,如计算机装置、PDA、移动电话终端、智能电话、视频装置、音频装置和收音机装置。此外,连接到网络如互联网的终端装置和服务器装置作为用作通信目标的外部装置也是可接受的。此外,内嵌有IC芯片的非接触通信IC卡、如QR码(注册商标)的二维条码和全息存储器等均可以用作外部装置,通信部26可以是从这些外部装置读取信息的单元。此外,其他HMD1作为外部装置也是可接受的。
经由图像输入/输出控制器27向通信部26提供用作经成像部3成像的并经成像信号处理部15处理的成像信号的图像数据、以及由存储器25播放的图像数据。此外,经由音频输入/输出控制器28将音频输入部6获得的音频数据和通过存储器25播放的音频数据提供给通信部。
在系统控制器10的控制下,通信部26对所提供的图像数据和音频数据执行用于传送的编码处理和调制处理等,并将得到的数据传送给外部装置。此外,通信部26执行接收来自外部装置的数据的操作。接收到的解调图像数据被输出到图像输入/输出控制器27,并且接收到的解调音频数据被输出给音频输入/输出控制器28。
此外,根据当前实施例,位置识别部10a所识别的当前位置的数据被提供给通信部26,并且通信部26将当前位置的数据传送给用作外部装置的服务器30,并查询与当前位置对应的内容。此外,通信部26从服务器30接收与当前位置对应的内容。
(音频合成部)
在系统控制器10的控制下,音频合成部29执行音频合成,并输出音频信号。从音频合成部29输出的音频信号经由音频输入/输出控制器28提供给音频信号处理部16并被处理,之后,经处理的音频信号被提供给音频输出部5,并以音频的形式输出给用户。
(照明部、照明控制器)
照明部4包括图1所示的发光部4a和用于使发光部4a(例如,LED)发光的发光电路。在系统控制器10的控制下,照明控制器18使照明部4执行发光操作。用于执行照明的照明部4中的发光部4a被附接到正向上,如图1所示,因此,照明部4在用户的视野方向上执行照明操作。
(外围环境传感器)
外围环境传感器19是用于获取外界信息的单元的示例。作为外围环境传感器19,具体而言光强度传感器、温度传感器、湿度传感器和压力传感器等是可接受的。外围环境传感器19是用于获得检测亮度、温度、湿度或周围天气作为HMD1的外围环境的信息的传感器。
(成像目标传感器)
成像目标传感器20是用于获取外界信息的单元的示例。具体而言,成像目标传感器20是用于检测与成像目标有关的信息的传感器,成像目标是成像部3中的成像操作的对象。例如,用于检测成像目标发射的特定红外射线波长的信息和能量的传感器是可接受的,如包括用于检测从HMD1到成像目标的距离的信息的距离传感器的红外传感器或热释电传感器等。在热释电传感器的情况下,例如,可以检测到成像对象是否为活体如人或动物。此外,用于检测成像目标发射的特定紫外线波长的信息和能量的传感器也是可接受的,如各种紫外(UV)传感器。在该情况下,例如,可以检测成像目标是否为荧光材料和荧光物质,可以检测防止晒伤所需要的外界紫外线量。
(GPS接收器)
GPS接收器21是用于获取外界信息的单元的示例。具体而言,GPS接收器21接收来自全球定位系统(GPS)卫星的无线电波,并输出经度/纬度信息作为当前位置。
(日期/时间计算部)
日期/时间计算部22是用于获取外界信息的单元的示例。日期/时间计算部22用作所谓的时钟部来计算日期和时间(年、月、日、小时、分钟、秒),并输出当前日期和时间的信息。
(图像分析部)
图像分析部17是用于获取外界信息的单元的示例。具体而言,图像分析部17分析图像数据,并获得在图像数据中包括的图像的信息。经由图像输入/输出控制器27向图像分析部17提供图像数据。作为图像分析部17中的图像分析的目标的图像数据是作为通过成像部3和成像信号处理部15获得的拍摄图像的图像数据、通信部26接收的图像数据或者来自记录介质的由存储器25播放的图像数据。
到目前为止,已经详细描述了根据本实施例的HMD1的内部配置。要注意,作为用于获取外界信息的配置,示出了外围环境传感器19、成像目标传感器20、GPS接收器21、日期/时间计算部22、图像分析部17和通信部26,但是HMD1不一定包括这些部件的全部。此外,可以设置其他传感器,如用于检测和分析周围音频的音频分析部。
[2-1-2.服务器的配置]
接下来,将参照图4来描述服务器30的配置。图4是示出根据本实施例的服务器30的配置的框图。如图4所示,服务器30包括中央处理单元(CPU)31、只读存储器(ROM)32、随机存取存储器(RAM)33、确定部34、内容DB35和通信部36。
(内容DB)
内容DB35是其中标识预定地点的名称、位置信息、图像中的至少一个与特定内容相关联的数据库。更具体而言,特定视频内容、照片内容或文本内容等与拍摄视频或照片的地点、或者具有该作品发生(模型)的场所的内容的位置相关联。此处,图5示出了在内容DB35中存储的数据的示例。如图5所示,例如,各条视频内容(电影和戏剧等)的著名场景(场景1到场景4)与各条位置信息(位置信息1到位置信息4)相关联,每条位置信息均标识拍摄该场景的地点、名称(名称1到名称4)、以及图像(图像1到图像4)。要注意,例如,标识地点的位置信息是经度/纬度信息。此外,例如,标识地点的名称是地址、地名、设施名称、或建筑名称。此外,标识地点的图像是该地点的拍摄图像、或者该地点周围的地标建筑或场景的拍摄图像。
此外,每个场景均与包括该场景的视频内容的标题、标题图像、或主题音乐相关联。
(确定部)
确定部34确定在内容DB35中是否存在与从HMD1传送来的当前位置对应的内容。具体而言,确定部34对HMD1传送来的标识当前位置的经度/纬度信息、拍摄图像或名称等与内容DB35中存储的与每个场景(视频内容)相关联的位置信息、图像或表示特定地点的名称进行比较。然后,在当前位置与特定地点匹配的情况下,确定部34确定在内容DB35中存在与HMD1的当前位置对应的内容。确定部34将确定结果从通信部36传送到HMD1。
(通信部)
通信部36是用于将数据传送到HMD1以及接收来自HMD1的数据的通信模块。例如,根据本实施例的通信部36从HMD1接收当前位置的数据。此外,通信部36向HMD1传送确定部34获得的确定结果以及CPU31从内容DB35提取的与HMD1的当前位置对应的内容。
(CPU、ROM和RAM)
CPU10是控制服务器30的每个结构元件的控制器。CPU10根据存储在ROM11中的软件程序来控制每个结构元件。更具体而言,在确定部34确定在内容DB35中存在与当前位置对应的内容的情况下,例如,CPU10按照从内容DB35提取相关内容(相关场景)并从通信部36向HMD1传送该内容的方式来执行控制。
此外,ROM11存储用于CPU10执行各控制的软件程序等。此外,当CPU10根据在ROM11中存储的软件程序来执行各控制时,RAM12用作工作区。
[2-1-3.通知处理]
随后,参照图6至图9,将描述根据本实施例的由HMD1执行的通知处理。在本实施例中,将给出向用户通知与当前位置对应的一条内容并根据用户的动作来播放内容的情况下的操作处理的描述。
图6是示出根据本实施例的由HMD1执行的通知处理的流程图。如图6所示,首先,在步骤S100中,HMD1的相关场景获取部100从服务器20获取与当前位置对应的相关场景列表。在图7中示出了该处理的详情。图7是示出根据本实施例的获取相关场景列表的处理的流程图。
如图7所示,在步骤S103中,HMD1的位置识别部10a识别当前位置。此外,HMD1将识别的当前位置的数据传送给服务器30,并发送对与当前位置对应的相关场景的请求。
接下来,在步骤S106中,服务器30的确定部34基于从HMD1接收的当前位置的数据来检查内容DB35,并确定是否存在与当前位置对应的相关场景。
接下来,在确定部34确定存在相关场景的情况下(S109/是),在步骤S112中,CPU31创建相关场景列表。具体而言,CPU31创建包括一个或更多个相关场景的视频的标题图像列表、或者一个或更多个相关场景的缩略图列表作为相关场景列表。此外,CPU31将创建的相关场景列表从通信部36传送到HMD1。
另一方面,在确定部34确定不存在相关场景的情况下(S109/否),在步骤S115中,CPU31可以向HMD1通知不存在相关场景列表。
然后,在步骤S118中,HMD1连续地重复S103到S115的处理,直到存在操作完成指令。
至此,已经详细描述了获取与当前位置对应的相关场景列表的处理。要注意,尽管此处给出了获取相关场景列表作为示例,但是除了相关场景列表之外,HMD1的相关场景获取部100还可以获取表示是否存在相关场景的确定结果、或者相关场景的数据本身。
接下来,在图6的步骤S123中,HMD1重复S100的处理,直到HMD1获取相关场景列表为止。
接下来,在获取到相关场景列表的情况下(S123/是),HMD1的通知部110向用户通知存在与当前位置对应的内容(相关场景)。如上所述,通知用户的方法的示例包括利用屏幕显示器、音频、振动或压力的通知。此处,作为其示例,通过使用音频和屏幕显示来执行通知。具体而言,在步骤S126中,例如,通知部110可以从音频输出部5以低音量播放包括相关场景的作品的主题音乐。相应地,当用户佩戴着HMD1在城市中行走并经过戏剧的影院地点时,用户能够听到来自音频输出部5的戏剧的主题歌曲,并且能够发现有用户当前所在地点处演出的戏剧。
接下来,在步骤S129中,通知部110可以通过按照例如将包括相关场景的作品的标题图像或相关场景的缩略图叠加在显示部2的一部分处的真实空间上的方式执行AR显示来通知用户。此处,图8示出了根据本实施例的AR显示的特定示例。图8示出了佩戴HMD1的用户在用户的视线方向能够看见的视图。如图8的上图所示,在HMD1的显示部2处于通透状态的情况下,由于用户能够通过显示部2的看见真实空间的视图,用户能够像佩戴眼镜的情况那样连续地佩戴HMD1。如图8的下图所示,当用户佩戴着HMD1移动并经过戏剧的演出地点时,演出地点是当前点的戏剧的标题图像200在显示部2上受到AR显示。以该方式,用户发现存在用户当前所在地点处演出的戏剧。
接下来,在S132中,HMD1的播放控制器120接受用户对通知部110的通知的动作,并检测播放命令(播放指令)。用户的动作的示例包括眼控输入、音频输入以及按钮/开关操作。此处,将参照图9来描述例如利用眼控输入来播放相关场景的情况。
图9是示出通过眼控输入来开始播放相关场景的情况的图。利用在HMD1内部设置的成像镜头(未示出)执行对用户的视线的检测,以使得成像镜头对用户的眼睛成像,如上所述。
然后,如图9的上图所示,HMD1在显示部2上将对用户视线的检测结果显示为标记E。用户通过注视在显示部2上显示的与当前位置对应的内容的标题图像200达预定时长来输入播放命令。即,在作为视线的检测结果的标记E被叠加在受到显示部2上的AR显示的标题图像200上达预定时长或更长的情况下,HMD1的播放控制器120检测到播放命令被发出。
接下来,在检测到播放命令的情况下(S132/是),在S135中,HMD1的播放控制器120播放与当前位置对应的相关场景。例如,如图9的下图所示,播放控制器120按照在显示部2上播放在当前位置处演出的戏剧的一个场景(运动图像210)的方式来执行控制。此外,播放控制器120还可以从音频输入部5以高音量播放该场景的音频。
然后,在步骤S138中,重复S100到S135的处理,直到存在操作完成指令为止。
另一方面,在未检测到播放命令的情况下(S132/否),该处理返回到步骤S100。未检测到播放命令的情况表示在通知之后的预定时长内没有用户的动作的情况、或者检测到取消命令的情况。存在各种取消命令,例如,取消命令可以是在正向上挥手的姿势、或者用嘴吹口哨的姿势(例如,可以用音频识别来检测口哨)。在该情况下,播放控制器120不播放所通知的相关场景。此外,操作控制器10b可以示出动画,在该动画中,受到通知部110的AR显示的相关场景的标题图像200根据该取消命令而被扔远,从而更明了地示出已接受该取消命令。
至此,已经详细描述了根据第一实施例的通知处理。要注意,在图9中示出的示例中,利用眼控输入来输入播放命令,而本实施例不限于此,可以使用多种操作输入方法的结合,如眼控输入和姿势或按钮操作的结合。例如,在作为对用户的视线的检测结果而被显示的标记E被叠加在期望的标题图像200上并且存在通过姿势或按钮操作发出的确认指令的情况下,播放控制器120可以检测到发出了播放命令。
此外,在图9中示出的示例中,标题图像200受到AR显示,此外,通知部110可以使标题受到文本显示。
此外,即使当用户正在观看相关场景时,在用户移动、识别新的当前位置并且存在与该新的当前位置对应的内容的情况下,通知部110仍向用户发出通知。例如,要通知的相关场景的音频(主题音乐等)可以被叠加在要播放的相关场景的音频上,并且要通知的相关场景的显示(标题图像等)可以被叠加在要播放的相关场景的显示上。
<2-2.第二实施例>
在上述的第一实施例中,已经做出向用户通知一条与当前位置对应的内容的情况的描述。然而,本公开不限于此,而例如可以向用户通知多条内容。在下文中,参照图10至图14,将给出作为第二实施例的向用户通知多条内容的情况下的操作处理的描述。
[2-2-1.操作控制器的配置]
除了系统控制器10具有操作控制器10b’之外,根据第二实施例的HMD的配置与参照图1和图2描述的根据第一实施例的HMD1的配置相同。在下文中,将参照图8来描述根据第二实施例的操作控制器10b’的配置。
图10是示出根据第二实施例的操作控制器10b’的配置的图。如图10所示,操作控制器10b’包括相关场景获取部100、通知部110、播放控制器120和优先顺序确定部130。
按照与第一实施例相同的方式,相关场景获取部100从服务器30获取相关场景,该相关场景是与位置识别部10a识别的HMD1的当前位置对应的内容。此外,相关场景获取部100将获取的相关场景输出到通知部110以及到优先顺序确定部130。
在存在多个相关场景的情况下,优先顺序确定部130确定这些相关场景的优先顺序。具体而言,例如,优先顺序确定部130可以预先基于在存储器25中存储的用户的偏好信息,来确定从与用户的偏好匹配的相关场景开始的优先顺序。或者,优先顺序确定部130还可以基于用户的观看历史,来确定从还未观看的相关场景开始的优先顺序。
或者,优先顺序确定部130还可以基于用户的观看历史和偏好信息,来确定从用户还未观看的相关场景开始的优先顺序。例如,优先顺序确定部130可以将更高的优先级分配给出现用户喜欢的演员并且用户还未观看的电影或戏剧。
然后,优先顺序确定部130将确定的优先顺序的数据输出到通知部110。
按照与第一实施例相同的方式,在服务器30确定存在相关场景的情况下(包括相关场景获取部100获取的相关场景的情况),通知部110向用户通知存在与当前位置对应的内容。此处,在存在多个相关场景的情况下,通知部110可以根据优先顺序确定部130确定的优先顺序,按照优先顺序上优先级更高(具有高优先顺序)的相关场景开始的顺序向用户通知相关场景。
按照与第一实施例相同的方式,播放控制器120根据用户对通知部110的通知的动作,开始播放与当前位置对应的相关场景。此外,播放控制器120还可以根据用户的动作,按照从具有高优先顺序的相关场景开始的顺序,播放与当前位置对应的多个相关场景。
至此,已经详细描述了根据本实施例的HMD1的操作控制器10b’。要注意,根据本实施例的服务器与已经参照图4描述的根据第一实施例的服务器30相同。随后,将参照图11至图14描述根据第二实施例的通知处理。
[2-2-2.通知处理]
图11是示出根据第二实施例的通过HMD1执行的通知处理的流程图。如图11所示,首先,在步骤S100和S123中,执行与图6中示出的步骤S100和S123的处理相同的处理。
接下来,在步骤S200中,HMD1的优先顺序确定部130确定相关场景的优先顺序。在图12中示出了优先顺序确定处理的详情。图12是示出根据本实施例的优先顺序确定处理的流程图。
如图12所示,在步骤S203中,HMD1的优先顺序确定部130从相关场景获取部100获取相关场景列表。
接下来,在步骤S206中,优先顺序确定部130检查用户的偏好信息或观看历史以确定在该列表中包括的相关场景的优先顺序。要注意,用户的偏好信息和观看历史可以是在HMD1的存储器25中存储的数据、或者从外部装置获取的数据。
然后,在步骤S209,优先顺序确定部130确定在列表中包括的相关场景的优先顺序。此外,优先顺序确定部130将确定的优先顺序的数据输出到通知部110。
接下来,在图11的步骤S127和S130中,HMD1的通知部110根据优先顺序向用户通知与当前位置对应的相关场景。具体而言,在步骤S127中,例如,通知部110可以从音频输出部5以低音量顺序地播放包括优先顺序上优先级高的相关场景的作品的各首主题音乐。
此外,在步骤S130中,通知部110通过按照将包括各个相关场景的缩略图和相关场景的各个作品的标题图像在显示部2的一部分处叠加在真实空间上的方式执行AR显示,来通知用户。此处,图13示出了根据本实施例的AR显示的特定示例。图13按照与图8和图9相同的方式示出了佩戴HMD1的用户在用户的视线方向上能够看到的视图。如图13的上图所示,在HMD1的显示部2处于通透状态的情况下,由于用户能够通过显示部2看到真实空间的视图,因而用户能够像佩戴眼镜的情况那样连续地佩戴HMD1。如图13的下图所示,当用户佩戴着HMD1移动时,演出地点是当前点的戏剧的标题图像200A到200C、电影和商业消息(CM)等在显示部2上受到AR显示。以该方式,用户发现存在用户当前所在地点演出的戏剧、电影和CM等。
要注意,在该情况下,通知部110根据优先顺序确定部130确定的相关场景的优先顺序向用户通知预定数量的相关场景,预定数量是从最高的优选顺序数的。在图13所示的示例中,显示上三个相关场景的标题图像200A到200C。
此外,通知部110可以自动地或者当用户发出要发送下一相关场景的通知的指令时,向用户通知具有下一最高优先顺序的相关场景。
随后,在步骤S132中,HMD1的播放控制器120接受用户对通知部110的通知的动作,并检测播放命令(播放指令)。此处,参照图14,将描述例如利用音频输入来播放期望的相关场景的情况。
图14是示出通过音频输入来开始播放期望的相关场景的情况的图。用户的音频被HMD1的音频输入部6采集,并经由音频输入/输出控制器28输出到音频信号处理部16,并受到音频信号处理部16的处理。此处,音频信号处理部16可以辨别用户的音频并且能够将该音频检测作为命令。
相应地,如图14的上图所示,在显示部2显示相关场景的标题图像200A到200C的情况下,例如,HMD1的通知部110可以通过用户发出“播放第3号”的声音来输入播放命令。即,在音频信号处理部16对音频输入部6采集的用户音频执行音频辨别并且辨别出播放特定相关场景的指令的情况下,HMD1的播放控制器120检测到发出了播放命令。
接下来,在检测到播放命令的情况下(S132/是),在S135中,HMD1的播放控制器120播放与当前位置对应的相关场景。例如,如图14的下图所示,播放控制器120按照在显示部2上播放用户指定的第3号(标题图像200C)的CM(运动图像220)(正在当前位置演出的CM)的方式来执行控制。此外,播放控制器120还可以从音频输出部5以高音量播放CM的音频。
然后,在步骤S138中,重复S100到S135的处理,直到存在操作完成指令为止。
另一方面,在未检测到播放命令的情况(S132/否),处理返回到步骤S100。未检测到播放命令的情况表示在通知之后的预定时长内没有用户的动作的情况、或者检测到取消命令的情况。
至此,已经详细描述了根据第二实施例的通知处理。要注意,在用户在S132中发出“连续播放”的声音并且该话音被检测作为播放命令的情况下,在S135中,播放控制器120可以根据优先顺序,来顺序地且连续地播放所通知的相关场景。
此外,尽管在图14中的示例中描述了利用音频来输入播放命令的情况,但是用户输入播放命令(用户的动作)的方法不限于此,并且如图9所示的示例,可以通过眼控输入来输入播放命令。此外,在该情况下,在作为对用户视线的检测结果而被显示的标记E被叠加在期望的标题图像200上并且存在通过姿势或按钮操作发出的确认命令的情况下,播放控制器120可以检测到发出了播放命令。
<<3.结论>>
如上所述,根据本实施例的通知系统(信息处理系统)按照与特定地点相关联的内容(运动图像、静止图像、文本等)检查HMD1(用户终端)的当前位置,从而能够执行与当前位置对应的内容的通知。此外,由于该通知能够向用户提供与视频内容的著名场景的世界相关联的用户实际当前所在地点(真实世界),增加了视频内容的娱乐属性。
本领域技术人员应当理解到,可以取决于设计要求和其他因素来进行各种修改、组合、子组合和替换,只要它们处于所附权利要求及其等同物的范围内就可以。
例如,在附近存在与著名场景的内容相关联的特定地点的情况下,本实施例的HMD1可以通过在显示部2上执行AR显示来沿该特定地点的方向引导用户。
此外,在通过成像镜头3a拍摄真实空间的照片的情况下,HMD1可以从服务器30获取与拍摄地点(当前位置)对应的内容,并且可以向用户通知该内容。
此外,当HMD1的通知部110通过振动或压力等向用户发送通知时,播放控制器120可以根据用户的动作开始播放相关场景。当明了地示出相关场景然后输入播放命令时,播放控制器120也可以开始播放相关场景。明了地示出相关场景的意思是例如显示相关场景的作品的标题并播放相关场景的作品的主题音乐。
此外,在通知相关场景或播放相关场景之后,HMD1访问内容分发业务或向用户示出到内容分发业务的入口,因此能够促进对相关场景的作品(视频内容等)的购买。
此外,HMD1还能够引导用户以使得用户的视野能够接近与当前位置对应的相关场景的视角。具体而言,例如,HMD1利用音频或AR显示,基于GPS接收器21获取的当前位置信息(经度/纬度/海拔)并基于成像镜头3a在用户的视线上捕获的拍摄图像,来引导用户以使得用户的视野能够接近相关场景的视角。利用音频和AR显示的引导可以包括表示引导方向(前/后、左/右、上/下)的引导,除此之外,还可以包括对显示部2上的相关场景中示出的主要建筑等的轮廓执行AR显示。用户按照在显示部2上的轮廓的AR显示与真实空间中的目标建筑的轮廓匹配的方式,他/她自己移动,因此,用户的视野能够接近相关场景的视角。
此外,由于HMD1不仅可以通过拍摄图像还可以通过位置信息和名称等等来识别当前位置,因而HMD1还可以向用户通知已经消失或者目前已改变的过去在街景(streetscape)中演出过的戏剧或电影的著名场景。
此外,上述的各实施例向用户通知在当前位置拍摄的内容(视频、照片、文本)、或者当前位置为作品发生地的内容,作为与当前位置对应的内容,但是根据本公开的各实施例的通知处理不限于此。例如,在存在要在当前位置成像的内容的情况下,HMD1可以向用户通知该内容(标题等)。
此外,在上述的各实施例中,已经给出了包括HMD1和服务器30的通知系统的描述,但是根据本公开的各实施例的通知系统不限于此,HMD1还可以包括服务器30的主配置,并且可以执行根据本公开的各实施例的通知系统。即,如果HMD1还包括确定部34和内容DB35,则HMD1能够在不特别地从外部装置获取内容的情况下执行与当前位置赌赢的内容的通知处理。
此外,还可以如下那样配置本技术。
(1)一种信息处理系统,包括:
数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;
位置识别部,被配置为识别当前位置;
确定部,被配置为确定与所述当前位置对应的内容是否存在于所述数据库中;
通知部,被配置为当所述确定部确定与所述当前位置对应的内容存在时,向用户发送有关与所述当前位置对应的内容存在的通知;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
(2)根据(1)所述的信息处理系统,
其中,所述控制器使得播放与所述当前位置相关联的内容的至少一个场景。
(3)根据(1)或(2)所述的信息处理系统,
其中,所述控制器使得连续播放与所述当前位置相关联的内容的多个场景。
(4)根据(1)至(3)中任一项所述的信息处理系统,
其中,基于所述用户的观看历史和偏好信息中的至少一个,所述控制器向多个场景中的每个场景分配优先顺序,并使得从具有高优先级的场景起顺序地播放所述场景。
(5)根据(1)至(4)中任一项所述的信息处理系统,
其中,即使在正通过所述控制器播放所述内容时,在与所述位置识别部识别的新的当前位置对应的内容存在的情况下,所述通知部仍向所述用户发送与所述新的当前位置对应的内容存在的通知。
(6)根据(1)至(5)中任一项所述的信息处理系统,
其中,所述内容是运动图像、静态图像或文本中的一个。
(7)根据(1)至(6)中任一项所述的信息处理系统,
其中,所述位置识别部基于当前点的名称、位置信息和图像中的至少一个来识别当前位置。
(8)根据(7)所述的信息处理系统,
其中,所述名称是地址、地名、设施名称和建筑名称之一。
(9)根据(7)所述的信息处理系统,
其中,所述位置信息是利用全球定位系统(GPS)来测量的。
(10)根据(7)所述的信息处理系统,
其中,所述图像是成像部捕获的拍摄图像。
(11)根据(1)至(10)中任一项所述的信息处理系统,
其中,所述通知部通过屏幕显示、音频、振动、压力、发光和温度改变中的至少一种来发送通知。
(12)根据(1)至(11)中任一项所述的信息处理系统,
其中,所述用户针对所述通知的动作是眼控输入、音频输入、姿势输入和按钮/开关操作之一。
(13)根据(1)至(12)中任一项所述的信息处理系统,还包括:
服务器;以及
用户终端,
其中,所述服务器具有所述数据库和所述确定部,以及
其中,所述用户终端具有所述位置确定部、所述通知部和所述控制器。
(14)根据(13)所述的信息处理系统,
其中,所述用户终端是移动电话终端、智能电话、移动游戏控制台、平板终端、个人数字助理(PDA)、笔记本计算机、数码相机和数码摄像机之一。
(15)根据(13)所述的信息处理系统,
其中,所述用户终端是头戴式显示器和眼镜式显示器之一。
(16)一种信息处理设备,包括:
位置识别部,被配置为识别当前位置;
通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
(17)一种非瞬时计算机可读存储介质,其中存储有程序,所述程序使计算机用作:
位置识别部,被配置为识别当前位置;
通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
Claims (17)
1.一种信息处理系统,包括:
数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;
位置识别部,被配置为识别当前位置;
确定部,被配置为确定与所述当前位置对应的内容是否存在于所述数据库中;
通知部,被配置为当所述确定部确定与所述当前位置对应的内容存在时,向用户发送有关与所述当前位置对应的内容存在的通知;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
2.根据权利要求1所述的信息处理系统,
其中,所述控制器使得播放与所述当前位置相关联的内容的至少一个场景。
3.根据权利要求1所述的信息处理系统,
其中,所述控制器使得连续播放与所述当前位置相关联的内容的多个场景。
4.根据权利要求3所述的信息处理系统,
其中,基于所述用户的观看历史和偏好信息中的至少一个,所述控制器向多个场景中的每个场景分配优先顺序,并使得从具有高优先级的场景起顺序地播放所述场景。
5.根据权利要求1所述的信息处理系统,
其中,即使在正通过所述控制器播放所述内容时,在与所述位置识别部识别的新的当前位置对应的内容存在的情况下,所述通知部仍向所述用户发送与所述新的当前位置对应的内容存在的通知。
6.根据权利要求1所述的信息处理系统,
其中,所述内容是运动图像、静态图像或文本中的一个。
7.根据权利要求1所述的信息处理系统,
其中,所述位置识别部基于当前点的名称、位置信息和图像中的至少一个来识别当前位置。
8.根据权利要求7所述的信息处理系统,
其中,所述名称是地址、地名、设施名称和建筑名称之一。
9.根据权利要求7所述的信息处理系统,
其中,所述位置信息是利用全球定位系统(GPS)来测量的。
10.根据权利要求7所述的信息处理系统,
其中,所述图像是成像部捕获的拍摄图像。
11.根据权利要求1所述的信息处理系统,
其中,所述通知部通过屏幕显示、音频、振动、压力、发光和温度改变中的至少一种来发送通知。
12.根据权利要求1所述的信息处理系统,
其中,所述用户针对所述通知的动作是眼控输入、音频输入、姿势输入和按钮/开关操作之一。
13.根据权利要求1所述的信息处理系统,还包括:
服务器;以及
用户终端,
其中,所述服务器具有所述数据库和所述确定部,以及
其中,所述用户终端具有所述位置确定部、所述通知部和所述控制器。
14.根据权利要求13所述的信息处理系统,
其中,所述用户终端是移动电话终端、智能电话、移动游戏控制台、平板终端、个人数字助理(PDA)、笔记本计算机、数码相机和数码摄像机之一。
15.根据权利要求13所述的信息处理系统,
其中,所述用户终端是头戴式显示器和眼镜式显示器之一。
16.一种信息处理设备,包括:
位置识别部,被配置为识别当前位置;
通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
17.一种非瞬时计算机可读存储介质,其中存储有程序,所述程序使计算机用作:
位置识别部,被配置为识别当前位置;
通知部,被配置为当服务器确定与所述当前位置对应的内容存在于数据库中时,向用户发送有关与所述当前位置对应的内容存在的通知,所述服务器具有所述数据库,在所述数据库中,标识预定地点的名称、位置信息和图像中的至少一个与特定内容相关联;以及
控制器,被配置为根据用户针对所述通知部的通知的动作,开始所述内容的播放。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240693A JP2014090386A (ja) | 2012-10-31 | 2012-10-31 | 情報処理システム、情報処理装置、およびプログラム |
JP2012-240693 | 2012-10-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103793360A true CN103793360A (zh) | 2014-05-14 |
Family
ID=50548663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310506767.7A Pending CN103793360A (zh) | 2012-10-31 | 2013-10-24 | 信息处理系统、信息处理设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20140123015A1 (zh) |
JP (1) | JP2014090386A (zh) |
CN (1) | CN103793360A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016082063A1 (zh) * | 2014-11-24 | 2016-06-02 | 潘有程 | 一种3d显示头盔控制装置 |
WO2017202023A1 (zh) * | 2016-05-25 | 2017-11-30 | 青岛歌尔声学科技有限公司 | 一种虚拟现实头盔及其使用方法 |
CN109152954A (zh) * | 2016-05-25 | 2019-01-04 | 株式会社光荣特库摩游戏 | 游戏装置及游戏控制方法 |
CN109407312A (zh) * | 2018-09-27 | 2019-03-01 | 深圳奇迹智慧网络有限公司 | 一种头戴式显示设备 |
CN111133762A (zh) * | 2017-09-29 | 2020-05-08 | 本田技研工业株式会社 | 信息提供系统、信息提供方法以及信息提供系统用管理装置 |
CN112313641A (zh) * | 2019-03-29 | 2021-02-02 | 艾思益信息应用技术股份公司 | 信息提供系统和信息提供方法 |
US11283915B2 (en) | 2016-10-07 | 2022-03-22 | Sony Corporation | Server, client terminal, control method, and storage medium |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2619749A4 (en) * | 2010-09-21 | 2017-11-15 | 4IIII Innovations Inc. | Head-mounted peripheral vision display systems and methods |
CN105659310B (zh) | 2013-08-13 | 2021-02-26 | 飞利斯有限公司 | 电子显示区域的优化 |
WO2015031426A1 (en) | 2013-08-27 | 2015-03-05 | Polyera Corporation | Flexible display and detection of flex state |
CN105793781B (zh) | 2013-08-27 | 2019-11-05 | 飞利斯有限公司 | 具有可挠曲电子构件的可附接装置 |
WO2015038684A1 (en) * | 2013-09-10 | 2015-03-19 | Polyera Corporation | Attachable article with signaling, split display and messaging features |
WO2015100224A1 (en) | 2013-12-24 | 2015-07-02 | Polyera Corporation | Flexible electronic display with user interface based on sensed movements |
EP3087559B1 (en) | 2013-12-24 | 2021-05-05 | Flexterra, Inc. | Support structures for a flexible electronic component |
CN106031308B (zh) | 2013-12-24 | 2019-08-09 | 飞利斯有限公司 | 用于附接式二维挠性电子装置的支撑结构 |
US20150227245A1 (en) | 2014-02-10 | 2015-08-13 | Polyera Corporation | Attachable Device with Flexible Electronic Display Orientation Detection |
WO2015184045A2 (en) | 2014-05-28 | 2015-12-03 | Polyera Corporation | Device with flexible electronic components on multiple surfaces |
WO2016138356A1 (en) | 2015-02-26 | 2016-09-01 | Polyera Corporation | Attachable device having a flexible electronic component |
JP6421670B2 (ja) * | 2015-03-26 | 2018-11-14 | 富士通株式会社 | 表示制御方法、表示制御プログラム、及び情報処理装置 |
WO2018131238A1 (ja) | 2017-01-16 | 2018-07-19 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6699944B2 (ja) * | 2017-03-27 | 2020-05-27 | 東芝情報システム株式会社 | 表示システム |
US20180300916A1 (en) * | 2017-04-14 | 2018-10-18 | Facebook, Inc. | Prompting creation of a networking system communication with augmented reality elements in a camera viewfinder display |
CN107229448A (zh) * | 2017-06-30 | 2017-10-03 | 联想(北京)有限公司 | 音频播放方法及电子设备 |
CN110709839A (zh) | 2017-07-17 | 2020-01-17 | 谷歌有限责任公司 | 用于呈现媒体内容预览的方法、系统和介质 |
JP6366808B1 (ja) * | 2017-11-10 | 2018-08-01 | 株式会社NewsTV | 拡張現実映像提供システム |
WO2021079407A1 (ja) * | 2019-10-21 | 2021-04-29 | マクセル株式会社 | 情報表示装置 |
WO2021084756A1 (ja) * | 2019-11-01 | 2021-05-06 | 日本電信電話株式会社 | 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム |
CN114489556B (zh) * | 2021-05-21 | 2022-12-09 | 荣耀终端有限公司 | 一种播放声音的方法及设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100306825A1 (en) * | 2009-05-27 | 2010-12-02 | Lucid Ventures, Inc. | System and method for facilitating user interaction with a simulated object associated with a physical location |
KR101657565B1 (ko) * | 2010-04-21 | 2016-09-19 | 엘지전자 주식회사 | 증강 원격제어장치 및 그 동작 방법 |
US20120212484A1 (en) * | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content placement using distance and location information |
JP2011217197A (ja) * | 2010-03-31 | 2011-10-27 | Sony Corp | 電子機器、再生制御システム、再生制御方法及びプログラム |
GB201108709D0 (en) * | 2011-05-24 | 2011-07-06 | Corethree Ltd | Core engine |
-
2012
- 2012-10-31 JP JP2012240693A patent/JP2014090386A/ja active Pending
-
2013
- 2013-10-24 CN CN201310506767.7A patent/CN103793360A/zh active Pending
- 2013-10-24 US US14/062,191 patent/US20140123015A1/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016082063A1 (zh) * | 2014-11-24 | 2016-06-02 | 潘有程 | 一种3d显示头盔控制装置 |
WO2017202023A1 (zh) * | 2016-05-25 | 2017-11-30 | 青岛歌尔声学科技有限公司 | 一种虚拟现实头盔及其使用方法 |
CN109152954A (zh) * | 2016-05-25 | 2019-01-04 | 株式会社光荣特库摩游戏 | 游戏装置及游戏控制方法 |
US11283915B2 (en) | 2016-10-07 | 2022-03-22 | Sony Corporation | Server, client terminal, control method, and storage medium |
US11825012B2 (en) | 2016-10-07 | 2023-11-21 | Sony Group Corporation | Server, client terminal, control method, and storage medium |
CN111133762A (zh) * | 2017-09-29 | 2020-05-08 | 本田技研工业株式会社 | 信息提供系统、信息提供方法以及信息提供系统用管理装置 |
CN111133762B (zh) * | 2017-09-29 | 2021-08-10 | 本田技研工业株式会社 | 信息提供系统、信息提供方法以及信息提供系统用管理装置 |
CN109407312A (zh) * | 2018-09-27 | 2019-03-01 | 深圳奇迹智慧网络有限公司 | 一种头戴式显示设备 |
CN112313641A (zh) * | 2019-03-29 | 2021-02-02 | 艾思益信息应用技术股份公司 | 信息提供系统和信息提供方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2014090386A (ja) | 2014-05-15 |
US20140123015A1 (en) | 2014-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103793360A (zh) | 信息处理系统、信息处理设备和存储介质 | |
CN103869468A (zh) | 信息处理设备和记录介质 | |
JP6256339B2 (ja) | 制御装置および記憶媒体 | |
CN106255866B (zh) | 通信系统、控制方法以及存储介质 | |
US10110805B2 (en) | Head mountable camera system | |
US8733928B1 (en) | Enhanced optical and perceptual digital eyewear | |
US8294776B2 (en) | Imaging apparatus and imaging method | |
CN101512632B (zh) | 显示设备和显示方法 | |
CN109495613B (zh) | 信息处理装置、信息处理方法和计算机可读记录介质 | |
CN109582141A (zh) | 根据眼球焦点控制显示屏的方法和头戴电子设备 | |
JP2008258733A (ja) | 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法 | |
EP3153976A1 (en) | Information processing device, photographing device, image sharing system, information processing method, and program | |
CN101184166A (zh) | 成像系统和方法 | |
KR20190035116A (ko) | Ar 객체를 표시하기 위한 장치 및 방법 | |
WO2014030312A2 (en) | Control system, control method and computer program product | |
KR20190076360A (ko) | 증강 현실을 위한 객체를 표시하기 위한 전자 장치 및 그의 동작 방법 | |
CN113609387A (zh) | 播放内容推荐方法、装置、电子设备及存储介质 | |
CN104184943A (zh) | 图像拍摄方法与装置 | |
US20230169723A1 (en) | Electronic device for providing contents in connection with external electronic device and method of the same | |
US20220311979A1 (en) | Wearable apparatus for projecting information | |
US20230386104A1 (en) | Information display device and information display method | |
WO2016121049A1 (ja) | 情報表示端末および情報表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140514 |