CN109074240A - 信息处理设备、信息处理方法和程序 - Google Patents
信息处理设备、信息处理方法和程序 Download PDFInfo
- Publication number
- CN109074240A CN109074240A CN201780024799.XA CN201780024799A CN109074240A CN 109074240 A CN109074240 A CN 109074240A CN 201780024799 A CN201780024799 A CN 201780024799A CN 109074240 A CN109074240 A CN 109074240A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- audio
- aloud
- processing equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 94
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 235000019580 granularity Nutrition 0.000 claims abstract description 47
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 22
- 230000000694 effects Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012163 sequencing technique Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 239000000725 suspension Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000001351 cycling effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010045178 Tunnel vision Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了使得可以更加方便地验证已被朗读的音频信息的信息处理设备、信息处理方法和程序。信息处理设备包括输出控制单元,该输出控制单元输出用于显示画面的信息,该显示画面按照时间顺序以下述信息粒度显示用于获取的音频信息的文本,该信息粒度基于音频信息的朗读历史中包括的在朗读音频信息时的用户操作来确定。
Description
技术领域
本公开内容涉及信息处理设备、信息处理方法和程序。
背景技术
随着近年来信息处理和信息通信技术的发展,计算机得到了广泛的应用,计算机甚至在日常生活中也得到了积极的应用。例如,诸如智能手机或移动电话终端的移动通信终端的使用使得可以通过访问网络来浏览信息,在外出时享受到目的地的导航服务等。
用户从连接到网络的信息处理终端获取的信息大致分为视觉信息和声音信息。特别地,视觉信息具有高图像质量和高分辨率,并且随着图形表示的进步和视频显示技术的发展,可以以直观、容易的视图呈现信息。然而,在视觉信息的情况下,用户的视野狭窄并且在移动期间浏览显示画面存在危险。另一方面,在声音信息的情况下,即使在移动期间也可以接收信息的呈现,而不会缩小用户的视野。
关于上述具有声音的信息呈现方法,根据例如下面的专利文献1,描述了一种信息处理设备,该信息处理设备基于预定条件对声音信息进行过滤、定向和输出,并且用户所需的信息被直观地理解为声音信息。
引用列表
专利文献
专利文献1:JP 2013-5021A
发明内容
技术问题
在本文中,通过使用音频进行的信息呈现,即使在日常生活中“做其他事情”时(在步行、骑自行车、做家务等时),也可以理解所呈现的信息而不被占用视觉。然而,在音频信息的情况下,难以在以后参考丢失的信息或者查看详细信息。
因此,根据本公开内容,提出了可以提高在查看被朗读的音频信息时的便利性的信息处理设备、信息处理方法和程序。
问题的解决方案
根据本公开内容,提出了一种信息处理设备,该信息处理设备包括输出控制部,该输出控制部按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,该信息粒度基于获取的音频信息的朗读历史中包括的在朗读音频信息时的用户操作来确定。
根据本公开内容,提出了一种信息处理方法,包括:由处理器按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,该信息粒度基于获取的音频信息的朗读历史中包括的在朗读音频信息时的用户操作来确定。
根据本公开内容,提出了一种使计算机用作输出控制部的程序,该输出控制部按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,该信息粒度基于获取的音频信息的朗读历史中包括的在朗读音频信息时的用户操作来确定。
本发明的有益效果
如上所述,根据本公开内容,可以提高在查看已朗读音频信息时的便利性。
注意,上述效果不一定是限制性的。利用或代替上述效果,可以实现本说明书中描述的效果中的任何一种效果或者可以从本说明书掌握的其他效果。
附图说明
[图1]图1是用于描述根据本实施方式的信息处理设备的概述的图。
[图2]图2是示出根据本实施方式的信息处理设备的配置的示例的框图。
[图3]图3是示出根据本实施方式的服务器的配置的示例的框图。
[图4]图4是示出根据本实施方式的朗读历史数据的示例的图。
[图5]图5是示出利用根据本实施方式的信息处理设备1的朗读处理的流程图。
[图6]图6是示出通过根据本实施方式的服务器的时间线UI生成处理的流程图。
[图7]图7是示出通过根据本实施方式的显示装置的时间线UI生成处理的流程图。
[图8]图8是示出根据实施方式的第一示例的画面显示示例的图。
[图9]图9是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图10]图10是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图11]图11是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图12]图12是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图13]图13是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图14]图14是示出根据实施方式的第一示例的时间线UI的画面转换的图。
[图15]图15是示出根据第一示例的修改的时间线UI的图。
[图16]图16是示出根据本实施方式的第二示例的画面显示示例的图。
[图17]图17是示出根据本实施方式的第三示例的画面显示示例的图。
[图18]图18是示出根据本实施方式的第四示例的画面显示示例的图。
[图19]图19是示出根据本实施方式的第五示例的画面显示示例的图。
[图20]图20是示出根据本实施方式的另一时间线UI的图。
[图21]图21是示出根据本实施方式的另一时间线UI的图。
[图22]图22是示出根据本实施方式的另一时间线UI的图
具体实施方式
在下文中,将参照附图详细描述本发明的一个或更多个优选实施方式。注意,在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记表示,并且省略对这些结构元件的重复说明。
此外,将按以下顺序给出描述。
1.根据本公开内容的实施方式的信息处理系统的概述
2.配置
2-1.信息处理设备1的配置
2-2.服务器2的配置
3.操作处理
3-1.朗读处理
3-2.时间线UI生成处理
3-3.时间线UI显示处理
4.画面显示示例
4-1.第一实施方式
4-2.第二实施方式
4-3.第三实施方式
4-4.第四实施方式
4-5.第五实施方式
4-6.其他
5.结论
<<1.根据本公开内容的实施方式的信息处理系统的概述>>
首先,将参照图1给出对根据本公开内容的实施方式的信息处理系统的概述的描述。图1是示出根据本实施方式的信息处理系统的概述的图。
如图1所示,根据本实施方式的信息处理系统包括附接到用户的信息处理设备1、服务器2和显示装置3。信息处理设备1、服务器2和显示装置3可以经由网络4互相接收和发送数据。注意,显示装置3可以是诸如智能电话、移动电话、平板终端、笔记本电脑等的用户便携式的信息处理终端。此外,在显示装置3与处于无线通信连接的信息处理设备1配对的情况下,信息处理设备1可以经由显示装置3从服务器2接收/向服务器2发送数据。
信息处理设备1是例如挂在用户颈部上的颈带式信息处理终端。颈带式信息处理设备1包括可穿戴单元(可穿戴部),该可穿戴单元的形状被设置成从颈部的两侧到后侧(背侧)围绕颈部的一半延伸。颈带式信息处理设备1由用户穿戴,围绕用户的颈部悬挂。本说明书使用上、下、左、右、前和后等词汇来指示方向,但是假设这些方向指示当用户直立时从用户身体的中心(例如,胃的位置)观察时的方向。例如,假设“右”指示朝向用户身体的右半部分的方向,而“左”指示朝向用户身体的左半部分的方向。“上”指示朝向用户头部的方向,而“下”指示朝向用户脚部的方向。另外,假设“前”指示用户的身体面对的方向,而“后”指示用户的背侧的方向。
如图1所示,可穿戴单元可以与用户的颈部紧密接触地穿戴或者距用户的颈部有一些空间地穿戴。注意,作为围绕颈部悬挂的可穿戴单元的其他形状,可以是例如由用户穿戴的具有颈带的悬挂式可穿戴单元以及包括在颈部的后侧上延伸的颈带而不是戴在头上的头带的耳机可穿戴单元。
另外,可穿戴单元的使用形式可以是通过直接穿戴在人体上来使用可穿戴单元的形式。通过直接穿戴来使用可穿戴单元的形式是指在可穿戴单元与人体之间没有任何东西的情况下使用可穿戴单元的形式。例如,图1中所示的可穿戴单元被穿戴成与用户的颈部皮肤接触的情况对应于这种形式。此外,可以是使用直接穿戴在头上的各种形式,例如耳机可穿戴单元和眼镜可穿戴单元。替选地,可穿戴单元的使用形式可以是通过间接地穿戴在人体上来使用可穿戴单元的形式。通过间接地穿戴可穿戴单元来使用的形式是指在可穿戴单元与人体之间有东西的情况下使用可穿戴单元的形式。例如,图1所示的可穿戴单元隔着衣服与用户接触——比如可穿戴单元被穿戴并隐藏在衬衫的衣领等下面的情况——对应于这种形式。此外,可以是诸如用户穿戴具有颈带的悬挂式可穿戴单元以及通过别针等附接到衣服的胸针式可穿戴单元的各种形式。
另外,根据本实施方式的信息处理设备1包括多个麦克风、多个摄像装置和多个扬声器。麦克风获取诸如用户语音或周围环境声音的音频数据。摄像装置对周围情况进行成像并且获取捕获的数据。另外,扬声器再现音频数据。对这些麦克风、摄像装置和扬声器的安装位置和数目没有特别限制。例如,可以设置一个或多个麦克风(例如麦克风阵列)、摄像装置和扬声器。
(背景)
这里,存在如下问题:当附接可穿戴设备时,不可能在日常生活中“做其他事情”的同时查看每天接收并且以视觉信息呈现的信息搜索服务、娱乐信息、行为支持信息呈现服务等。例如,在步行、骑自行车或做家务等的同时查看视觉信息是危险的,因为暂时失去了视觉感。
相反,在听觉信息呈现或声音信息呈现的情况下,即使在日常生活中“做其他事情”时,也可以在不使用手或眼睛的情况下进行查看。
另外,作为要呈现的信息,可以构想拉取信息和推送信息。拉取信息是当用户希望知道时所请求和呈现的信息,并且拉取信息根据按钮操作、画面操作和语音操作来激活。另外,推送信息是在没有用户意识的情况下自动呈现的信息,并且其示例包括电子邮件通知、来电、来自应用的调用、通知、电池剩余电量的警告等。
推送音频通知的优点是信息是自动呈现的,并且也存在缺点,即查看详细信息需要更长的时间。此外,存在以下缺点:不能参考文本、图像等的视觉信息,并且不能在以后容易地参考丢失的信息。
因此,根据本实施方式,可以提高在查看已朗读音频信息时的便利性。
具体地,例如,当呈现音频信息时,用户位置(地名等)被链接到行为并且被记录,并且用于呈现所呈现(已朗读)音频信息的文本的时间线用户界面(UI)连同用户行为和位置被生成。音频信息的呈现时间和地点被容易地存储在存储器中。因此,在以后当用户查看丢失的信息时,可以通过跟踪用户的行为来容易地搜索目标信息。此外,在存在诸如想要知道信息的细节等的关注信息的情况下,设置成当呈现音频时通过语音操作等启用书签。在这种情况下,通过在音频信息的时间线UI处放大显示加书签的信息等或者显示详细信息(如果有图像,则连同图像一起显示),用户可以在以后容易地查看所关注的音频信息。
以上描述给出了根据本实施方式的信息处理设备1的概述。随后,将参照图2给出对根据本实施方式的信息处理设备1的配置的描述。
<<2.配置>>
<2-1.信息处理设备1的配置>
接下来,将参照图2描述根据本实施方式的信息处理设备1的配置。图2是示出根据本实施方式的信息处理设备1的配置的示例的框图。如图2所示,信息处理设备1包括控制部10、通信部11、麦克风12、摄像装置13、9轴传感器14、扬声器15、位置测量部16和存储部17。
(控制部10)
控制部10用作算术处理设备和控制设备,并且根据各种程序控制信息处理设备1的整体操作。控制部10例如由诸如中央处理单元(CPU)和微处理器的电子电路实现。另外,控制部10可以包括存储程序、要使用的操作参数等的只读存储器(ROM)以及临时存储适当变化的参数等的随机存取存储器(RAM)。
此外,如图2所示,根据本实施方式的控制部10用作朗读信息获取部10a、朗读控制部10b、用户状况识别部10c、操作识别部10d和朗读历史发送控制部10e。
朗读信息获取部10a获取以音频呈现(朗读)给用户的信息。朗读信息可以由通信部11从外部装置(例如,智能电话)或者在网络上(例如,服务器2)接收,或者从存储部17获取,或者从由信息处理设备1启动的应用程序获取。此外,朗读信息获取部10a可以通过RSS读取器从网站获取信息。
朗读控制部10b进行控制以从扬声器15输出由朗读信息获取部10a获取的朗读信息的音频。例如,朗读控制部10b基于朗读信息(文本信息)来组合音频,将朗读信息设置成音频,从扬声器15输出所生成的音频信息,并且将该信息呈现给用户。此外,朗读控制部10b进行控制以朗读所获取的朗读信息的一部分(仅标题、从标题到摘要、从标题到正文中的第一句话等)(即,输出音频),在基于用户操作确定需要额外朗读的情况下,进一步控制朗读信息的输出。
用户状况识别部10c基于各种传感器信息来识别用户状况。具体地,用户状况识别部10c通过使用下述中的至少一个来识别用户的位置或行为(跑步、步行、骑自行车等):由麦克风12收集的用户语音或周围环境声音、由摄像装置13捕获的图像周围捕获图像、由9轴传感器14检测到的传感器值(加速度传感器值、陀螺仪传感器值、地磁传感器值等)以及由位置测量部16获取的位置信息。此外,用户状况识别部10c不仅可以识别步行、骑行、跑步、静止、乘车等的行为(低背景),而且可以识别行为的高背景。行为的高背景是具体识别行动内容的结果,例如,在家、回家、上班路上、在办公室、外出等。
操作识别部10d识别用户的操作输入。例如,操作识别部10d对由麦克风12收集的用户的语音执行语音识别,并且接收具有用户语音的操作指令。作为用户的语音操作,例如,可以构想“跳过、更多、书签、再次、上一个”。“跳过”表示前进到下一个音频信息的指令,“更多”表示用于请求更具体的信息的指令,“书签”表示用于将标记放入当前音频信息的指令,“再次”表示用于从最初开始再次再现当前音频信息的指令(重复指令),并且“上一个”表示用于返回先前信息的指令。
朗读历史发送控制部10e进行控制以从通信部11向服务器2发送其音频输出由朗读控制部10b控制的朗读的信息的历史(在下文中称为“朗读历史”)。朗读历史包括朗读时的状况(时间、位置、行为(高背景、低背景))、操作、朗读信息、已朗读信息(从朗读信息中实际输出音频的部分)。
(通信部11)
通信部11是用于以有线/无线方式向另一设备发送以及从另一设备接收数据的通信模块。通信部11与外部设备直接进行无线通信或者经由网络接入点以例如有线局域网(LAN)、无线LAN、无线保真(Wi-Fi)(注册商标)、红外通信、Bluetooth(注册商标)、短程/非接触式通信等方案进行无线通信。
(麦克风12)
麦克风12拾取用户语音或周围环境声音,并且将用户语音或周围环境声音作为音频数据输出到控制部10。
(摄像装置13)
摄像装置13包括:镜头系统,其包括成像镜头、光圈、变焦镜头、聚焦镜头等;驱动系统,其使镜头系统执行聚焦操作和变焦操作;固态图像传感器阵列,其用于从镜头系统中获得的成像光的光电转换生成成像信号,等等。固态图像传感器阵列可以例如通过电荷耦合器件(CCD)传感器阵列和互补金属氧化物半导体(CMOS)传感器阵列来实现。例如,摄像装置13被设置成能够利用用户穿戴的信息处理设备1(可穿戴单元)对用户前方的区域进行成像。在这种情况下,摄像装置13变得能够对用户周围的风景或用户正在看的方向的风景进行成像。另外,摄像装置13还可以被设置成能够利用用户穿戴的信息处理设备1对用户的脸部进行成像。在这种情况下,信息处理设备1变得能够从捕获图像中识别用户的视线方向或表情。另外,摄像装置13将被转换为数字信号的捕获图像的数据输出到控制部10。
(9轴传感器14)
9轴传感器14包括三轴陀螺仪传感器(其检测角速度(旋转速度))、三轴加速度传感器(其也被称为G传感器,并且在移动时检测加速度)以及三轴地磁传感器(其为罗盘并且检测绝对方向(方位角))。9轴传感器14具有对穿戴信息处理设备1的用户的状态或周围状态执行感测的功能。注意,9轴传感器14是传感器部的示例。本实施方式不限于此。例如,还可以使用速度传感器、振动传感器等。可以使用加速度传感器、陀螺仪传感器和地磁传感器中的至少任何一个。另外,传感器部可以被设置成与信息处理设备1(可穿戴单元)不同的设备,或者被分配给多个设备。例如,加速度传感器、陀螺仪传感器和地磁传感器可以被设置成穿戴在头上的装置(例如,耳机),并且速度传感器和振动传感器可以被设置成智能手机。9轴传感器14将指示感测结果的信息(传感器信息)输出到控制部10。
(扬声器15)
扬声器15在控制部10的控制下再现由朗读控制部10b处理的音频信号。扬声器15可以具有方向性。
(位置测量部16)
位置测量部16具有基于外部获取的信号来检测信息处理设备1的当前位置的功能。具体地,例如,位置测量部16由全球定位系统(GPS)测量部实现,从GPS卫星接收无线电波,检测信息处理设备1的位置,并且将检测到的位置信息输出到控制部10。此外,信息处理设备1可以例如根据除了GPS之外的Wi-Fi(注册商标)、Bluetooth(注册商标)、向移动电话/PHS/智能电话发送以及从移动电话/PHS/智能电话接收等、短程通信等来感测位置。
(存储部17)
存储部17存储用于通过上述控制部10执行功能的程序或参数。此外,根据本实施方式的存储部17可以存储要发送到服务器2的朗读历史。
以上具体描述了根据本实施方式的信息处理设备1的内部配置示例。
<2-2.服务器2的配置>
接下来,将参照图3给出对根据本实施方式的服务器2的配置的描述。图3是示出根据本实施方式的服务器2的配置的框图。如图3所示,服务器2具有控制部20、通信部21和存储部22。
(控制部20)
控制部20用作算术处理设备和控制设备,并且根据各种程序控制服务器2的整体操作。控制部20例如由诸如CPU和微处理器的电子电路实现。另外,控制部20可以包括存储要使用的程序,操作参数等的ROM以及临时存储适当变化的参数等的RAM。
此外,如图3所示,根据本实施方式的控制部20用作存储控制部20a、时间线UI生成部20b和发送控制部20c。
存储控制部20a进行控制以将从信息处理设备1发送并由通信部21接收的朗读历史存储到存储部22。
时间线UI生成部20b基于存储在存储部22中的朗读历史,生成在用户以后查看朗读信息时呈现的时间线UI。将参照图8至图22给出对时间线UI的示例的描述。
发送控制部20c进行控制以将所生成的时间线UI从通信部21发送到显示装置3(例如,用户的智能手机)。
(通信部21)
通信部21是用于通过有线/无线方式向另一装置发送以及从另一装置接收数据的通信模块。例如,通信部21经由网络4连接到信息处理设备1以接收朗读历史。此外,通信部21经由网络4连接到显示装置3,以发送由控制部20生成的时间线UI。
(存储部22)
存储部22存储用于由上述控制部20执行功能的程序或参数。此外,根据本实施方式的存储部22存储从信息处理设备1发送的朗读历史。在本文中,将参照图4给出对朗读历史的数据示例的描述。
图4是示出根据本实施方式的朗读历史数据的示例的图。如图4所示,朗读历史数据与例如朗读日期和时间、位置(例如,纬度/经度信息)、位置名称、行为的高背景、行为的低背景、操作(用户输入的操作)、朗读信息和已朗读信息对应地存储。位置名称可以通过基于例如纬度/经度信息参考地图数据来获取。位置名称可以由信息处理设备1中的用户状况识别部10c识别或者在服务器2侧进行识别。
此外,“朗读信息”指示朗读信息的获取源(例如,在网络上获取的情况下为其URL)。实际朗读的信息被存储为“已朗读信息”。
以上描述了根据本实施方式的服务器2的配置示例。
注意,根据本实施方式的信息处理系统的配置不限于图1所示的示例,可以将上述服务器2的配置设置为用于由诸如智能手机的信息处理终端实现的显示装置3,以形成具有信息处理设备1和显示装置3的系统配置。
随后,将参照图5至图7给出对根据本实施方式的操作处理的描述。
<<3.操作加工>>
<3-1.朗读处理>
图5是示出根据本实施方式的信息处理设备1的朗读处理的流程图。如图5所示,首先,发生朗读事件(步骤S100),并且信息处理设备1通过用户状况识别部10c识别用户状况(步骤S103)。在获取新信息的情况下,朗读事件在预设时间处、周期性地、非周期性地发生。例如,最新的新闻或活动信息的朗读事件可以在一天中的确定时间处发生。此外,可以在连续识别用户状况并且识别结果满足预定条件的情况下发生朗读事件。如上所述,可以基于从麦克风12、摄像装置13、9轴传感器14(加速度传感器、陀螺仪传感器、地磁传感器等)、位置测量部16(GPS等)获取的各种信息来识别用户状况。例如,用户状况识别部10c识别用户位置、行为的高背景或低背景等。
随后,信息处理设备1获取朗读信息(步骤S106)。
随后,信息处理设备1执行对信息的朗读控制(即,从扬声器15的音频输出控制)(步骤S109)。
随后,在朗读信息期间识别到用户操作的情况下(步骤S112/是),信息处理设备1中的朗读控制部10b确定是否执行额外朗读(步骤S115)。如上所述,朗读信息期间的用户操作包括例如跳过、更多、书签、再次和上一个。此外,“更多”是用于请求更具体的信息的指令,并且因此信息处理设备1执行额外朗读。
此外,朗读完成,并且信息处理设备1向服务器2发送朗读历史,朗读历史包括朗读日期和时间和位置、行为的高背景和低背景、朗读期间的用户操作(跳过、更多、书签、再次、上一个)、朗读信息和已朗读信息(步骤S118)。
<3-2.时间线UI生成处理>
图6是示出根据本实施方式的服务器2的时间线UI生成处理的流程图。如图6所示,首先,服务器2从外部装置接收用于获取时间线UI的请求(在本文中,使用显示装置3)(步骤S120),并且获取存储在存储部17中的目标用户的朗读历史(步骤S123)。
随后,服务器2的时间线UI生成部20b基于朗读历史中包括的行为信息(高背景和低背景)来确定用户负荷(步骤S126)。在说明书中,用户负荷指示用户难以收听音频信息(难以专注于音频信息)的情况的程度。例如,由于用户在跑步或骑行期间专注于跑步或骑行,因此这样的情况被确定为用户负荷高,即难以收听音频信息。此外,确定步行期间的用户负荷不高于跑步或骑行期间的用户负荷。此外,确定这样的情况:乘车期间的用户负荷低于步行期间的用户负荷,即更容易收听音频信息。
随后,时间线UI生成部20b基于朗读历史中包括的操作信息来确定用户对音频信息的偏好(步骤S129)。例如,在执行“跳过”操作的情况下,执行否定确定(确定用户不喜欢(不关注)该信息)。在执行“更多”、“书签”或“再次”操作的情况下,执行肯定确定(确定用户喜欢(关注)该信息)。此外,在执行“前一个”操作的情况下,或者在不执行操作的情况下,既不执行否定确定,也不执行肯定确定。
随后,时间线UI生成部20b基于用户负荷或偏好确定结果来计算显示信息的粒度(步骤S132)。信息的粒度指示在时间线UI上如何具体地显示音频信息(仅显示标题、显示标题和正文文本,等等)。例如,在用户负荷高或者执行肯定确定的情况下,时间线UI生成部20b确定粒度为“大”,在用户负荷中等或者不存在偏好确定的情况下粒度为“中”,并且在用户负荷低或者执行否定确定的情况下粒度为“小”。
随后,时间线UI生成部20b基于计算出的粒度信息或朗读历史中包括的各种信息来生成时间线UI(步骤S135)。例如,时间线UI生成部20b按照时间顺序排列图标、位置名称和指示用户在朗读时间的行为的高背景的时间以及朗读信息。此外,时间线UI生成部20b根据所计算的粒度信息来控制如何具体地显示朗读信息。例如,在粒度为“大”的情况下,显示标题和全部正文。在粒度为“中”的情况下,显示标题和正文的第一句话。在粒度为“小”的情况下,可以仅显示标题。给出了在图6所示的操作处理中对基于用户负荷、偏好确定结果和粒度信息来生成时间线UI的情况下的处理的描述。实施方式不限于此。例如,可以按照时间顺序显示朗读信息或者在朗读时间处捕获的捕获图像。将给出对上述各种时间线UI的示例的描述。
随后,在存在未处理数据的情况下,处理返回到步骤S123(步骤S138)。例如,重复上述步骤S123至S135,直到在一天内执行朗读历史的全部处理为止。
此外,服务器2将所生成的时间线UI发送到用于获取时间线UI的请求的源例如显示装置3上的外部装置(步骤S141)。
<3-3.时间线UI显示处理>
图7是示出根据本实施方式的显示装置3的时间线UI显示处理的流程图。如图7所示,首先,显示装置3向服务器2发出用于获取时间线UI的请求(步骤S150)。
随后,显示装置3从服务器2获取时间线UI(步骤S153/是),并且在显示部上显示时间线UI(步骤S156)。
随后,在对时间线UI执行用户操作的情况下(步骤S159/是),显示装置3确定是否要用用户操作来更新显示(步骤S162)。
此外,在执行确定更新显示的情况下(步骤S162/是),显示装置3返回到步骤S156,并且更新时间线UI的显示。例如,在用户在显示装置3的触摸面板显示器上点击与时间线UI一起显示的地图的情况下,显示装置3通过滚动时间线UI来更新显示以显示在点击位置处朗读的音频信息。
<<4.画面显示示例>>
随后,将给出对根据本实施方式的具有多个示例的时间线UI的画面显示的示例的描述。
<4-1.第一示例>
图8是示出根据本实施方式的第一示例的画面显示示例的图。首先,根据本实施方式的时间线UI显示包括针对用户行为(高背景)的每次切换的单时间线地图图像(示出时间线轨迹的地图图像)的显示栏。例如,在图8所示的示例中,显示栏“6:50-7:30在你的回家路上”和显示栏“7:45-8:30外出”按照时间顺序被显示在显示画面30上。在图8所示的示例中,仅显示“在你的回家路上”和“外出”两个显示栏。通过滚动画面,显示另一个行为时间的显示栏。
显示栏“外出”包括指示时间和行为的高背景的“7:45-8:30外出”的显示图像301、地图图像302、关于朗读的信息的显示303以及朗读信息的显示304。显示在关于朗读的信息的显示303和朗读信息的显示304上的朗读信息是在地图上的时间线轨迹(对应行为的时间处的移动路径,这里是“外出”时间处的移动路径)的各点中任意点击的点附近朗读的信息。在时间线轨迹上,在用于朗读信息的点处显示大头针。此外,显示任意点击的点附近的捕获图像(当用户移动到该点时由信息处理设备1中的摄像装置13捕获的捕获图像)。此外,当用户通过用手指跟踪来滑动时间线轨迹时,可以顺序显示每个点处的捕获图像。用户例如希望再次查看在停留在该地点时听到的信息时,可以容易地搜索具有风景的信息作为线索,同时在捕获图像上反映出风景。
随后,将给出对所显示的朗读信息的描述。关于朗读的信息的显示303包括朗读时间的显示、朗读信息的类型(新闻、活动等),行为的低背景(跑步、步行、骑自行车,乘车等)以及地点(位置名称)。此外,在朗读信息的显示304上,显示朗读信息的文本。例如,在新闻信息的情况下,如图8所示,显示标题显示305、信息呈现源和正文306。标题显示305被链接到例如信息呈现源(例如,新闻站点)。用户点击标题显示305,并且画面转换到新闻站点。
此外,关于图8所示的正文306,已朗读句子(已朗读信息)被显示得小,而未朗读句子被显示得大。例如,在朗读时仅朗读标题和正文的第一句话的情况下,第二句话或后面的句子被显示得大。如上所述,未朗读信息被强调显示。在本文中,同样作为强调显示的示例,还使用放大字符的显示形式。然而,实施方式不限于此,并且可以通过将颜色设置成不同的颜色、改变字体、改变背景、添加动画等来执行强调显示。用户以后查看音频信息的这种情况导致如下假设:用户对所呈现的音频信息关注并且想要了解更多细节。因此,当查看音频信息时,通过直观地识别从哪里开始未听到信息,进一步提高了便利性。
显示栏“在你的回家路上”被类似地显示,即,包括指示时间和行为的高背景的“7:45-8:30外出”的显示图像307、地图图像308、关于朗读的信息的显示309以及朗读信息的显示310。关于朗读信息的显示310,在例如作为朗读信息的文本的事件信息的情况下,如图8所示,标题显示311、信息呈现源和正文312被类似地显示。关于正文312,未朗读信息(正文中的第二句话或者以后的句子)被强调显示(字符大小被显示为大)。
随后,将参照图9至图14给出对根据本实施方式的时间线UI的画面转换的描述。图9至图14是示出根据本实施方式的时间线UI的画面转换的图。
如图9所示,作为“今天的时间线”,指示今天全天的用户行为的高背景的项目按照时间顺序被首先显示在画面31上。用户点击项目中的任何项目,并且显示指示行为时间处的时间线轨迹的地图图像。例如,如图9所示,在项目中点击“7:45-8:30pm:外出”(外出),并且如图9中右侧的画面32所示,显示指示外出时间处的时间线轨迹的地图图像314。
随后,如图10中左侧的画面33所示,用户点击时间线轨迹上的任意点。立在时间线轨迹上的大头针指示信息被朗读的点。用户点击任意点,并且如图10中右侧的画面34所示,显示所点击的点处的已朗读信息(包括关于朗读的信息的显示315以及朗读信息的显示316)。
随后,如图11中左侧的画面35所示,点击地图图像314的时间线轨迹上另一个点,并且如图11中右侧的画面36所示,画面右侧的音频信息呈现画面被切换到所点击的点的信息(关于朗读的信息的显示321以及朗读信息的显示322)。在本文中,作为示例,显示8:25时在公园中跑步时已朗读的天气预报信息。
随后,例如如图12中左侧的画面37所示,点击另一个高背景的项目324(“下午6:50-7:30:在你的回家路上”(回家)),并且如图12中右侧的画面38所示,显示指示回家时的时间线轨迹的地图图像325。
随后,如图13中左侧的画面39所示,点击地图图像325中所示的回家时的时间线轨迹上的任意点,并且如图13的右侧所示,显示所点击的点处的已朗读信息(包括关于朗读的信息的显示326以及关于朗读的信息的显示327)。在本文中,作为示例,显示在7:10时在第二大街骑行时的已朗读事件信息。
随后,在查看在另一个行为时间处呈现的音频信息的情况下,用户在画面上执行滚动操作,允许另一个高背景的项目330(“下午3:30-4:05:外出”(外出))被显示,如图14中左侧的画面41所示。点击项目330,并且如图14中右侧的画面42所示,显示示出外出时间处的时间线轨迹的地图图像331。与上述情况类似,点击地图图像331的时间线轨迹上的任意点,并且该点处的已朗读信息被显示在地图图像331的右侧上。
以上给出了对根据本实施方式的时间线UI的画面转换的具体描述。在下文中,将给出对本实施方式的修改的描述。
(修改)
将参照图15给出对在用指示时间线轨迹的地图图像显示音频信息的文本的情况下的修改的描述。根据该修改,再现呈现该音频时的情况,从而支持用户对信息的搜索。
具体地,如图15中左侧的画面43所示,首先,在地图图像上示出时间线轨迹,用户点击任意点,并且显示所点击的点处的风景(捕获图像)。此外,显示在同一点处的已朗读信息的文本,并且在同一点处朗读的信息再次以音频输出。此外,这里显示的文本可以是已朗读的音频信息的文本。此外,多个高背景的时间线轨迹被显示在地图图像上。此外,指示信息被朗读的点处的大头针、已朗读信息的类型、时间和行为(低背景)在地图上被一起显示。
此外,用户点击时间线轨迹上的点,如图15中右侧的画面44所示,并且所点击的点处的风景(捕获图像)被显示在地图图像上。此外,显示该点处的已朗读信息的文本,并且在该点处朗读的信息再次被作为音频输出。
如上所述,通过以音频再次输出已朗读信息以及输出时间线轨迹和朗读点处的捕获图像(风景)并且再现朗读时的情况,可以支持提醒用户要专门收听哪个音频信息。
<4-2.第二示例>
随后,将参照图16给出对根据第二示例的画面显示示例的描述。根据第二示例,针对每个用户行为在行为时间处显示已朗读音频信息。在这种情况下,通过根据基于朗读时的用户操作的用户偏好改变音频信息的显示粒度,支持用户对信息的搜索。
例如,如图16中的画面45所示,作为“今天的时间线”,按照时间顺序显示示出今天全天的用户行为(在本文中为作为示例的低背景)的项目450和454,并且行为时间处的已朗读信息被显示在项目下方。
指示在朗读时的用户操作的图标451、457和459与朗读信息一起被显示。例如,对于当用户在7:45在公园中跑步时朗读的事件信息,在用户说出用于指示“书签”的语音操作的情况下(说出“书签”),服务器2的时间线UI生成部20b确定执行肯定反馈。结果,由于该事件信息被用户关注,因此以信息粒度“大”来控制显示。也就是说,显示朗读信息的标题452和全部正文453。注意,假设在朗读时朗读标题和正文的第一句话。在用户收听标题或者正文的第一句话并且对其关注的情况下,用户说出“书签”,并且设置成在以后查看信息时容易查看。此外,如图16所示,与事件信息一起显示指示执行“书签”的语音操作的预定图标451。
此外,例如,图标459示出了执行“更多”的语音操作。在这种情况下,肯定反馈操作被确定,并且以大粒度显示新闻信息。即,例如,如图16所示,在对当用户在7:10在车上时朗读的第三条新闻信息执行“更多”的语音操作的情况下,显示标题460和全部正文461。
如上所述,被确定为肯定反馈操作的用户操作是例如“更多”、“再次”或“书签”。这些情况可以以大粒度显示。
另一方面,“跳过”的语音操作被确定为否定反馈操作。在这种情况下,信息以“小”粒度显示。例如,如图16所示,在对当用户在7:10在车上时朗读的第二条新闻信息执行“跳过”的语音操作的情况下,服务器2的时间线UI生成部20b确定执行否定反馈,并且仅显示标题458。此外,一起显示指示执行“跳过”的语音操作的预定图标457。如上所述,由于假设用户不关注的信息不是搜索目标,因此减少了显示量,从而支持搜索用户要查看的信息。
此外,在从不执行语音操作的情况下或者在语音操作是“上一个”的情况下,偏好不确定,并且以“中”粒度控制显示。例如,如图16所示,在对当用户在7:10在车上时朗读的第一新闻信息不执行任何操作的情况下,显示标题455和正文的第一句话456。
<4-3.第三示例>
随后,将参照图17给出对根据第三示例的画面显示示例的描述。根据上述第二示例,根据基于用于朗读信息的用户操作的用户偏好改变信息显示的粒度。实施方式不限于此,并且可以根据基于例如朗读信息时的用户行为的用户负荷改变信息显示的粒度。在第三示例中,将给出对取决于用户负荷的信息显示的粒度变化的描述。
如图17所示,指示今天全天的用户行为(在本文中为作为示例的低背景)的项目461、462、463和464按照“今天的时间线”的时间顺序被显示为画面46上,并且在采取行为时朗读的各条音频信息的文本被显示在各个项目下方。
与用户行为对应的用户负荷指示用户难以收听上述音频信息(难以专注于音频信息)的情况的程度,并且例如确定在跑步或骑行时用户负荷高(即难以收听音频信息)。因此,如图17所示,例如,用户很可能没有听到当用户在7:45跑步时朗读的活动信息(项目461)。因此,以信息粒度“大”来控制显示。具体地,例如,显示标题和全部正文。结果,提高了在跑步时朗读了信息但是难以听到的情况下在以后查看朗读信息时的便利性(注意,根据本实施方式,前提是朗读信息(未执行“更多”的语音操作)包括标题和正文的第一句话)。
此外,确定步行期间的用户负荷不高于跑步或骑行期间的用户负荷,并且以信息粒度“中”来控制朗读信息的显示。例如,如图17所示,当用户在7:10步行时朗读的新闻信息(项目462)在某种程度上有很高的可能性被收听了。以信息粒度“中”来控制显示。具体地,例如,显示标题和第一句话。
此外,确定在车上时的用户负荷低于步行期间的用户负荷,并且以信息粒度“小”来控制朗读信息的显示。例如,如图17所示,清楚地收听当用户在7:12在车上时朗读的新闻信息(项目463)的可能性很高。因此,以信息粒度“小”来控制显示。具体地,例如,仅显示标题。由于在车上时肯定会听到朗读信息,因此以后重新查看的可能性很低。通过减少音频信息的显示量,可以防止在用户查看另一条朗读信息时的干扰。
<4-4.第四示例>
随后,将参照图18给出对根据第四示例的画面显示示例的描述。已经给出了对根据上述第二示例和第三示例的根据基于朗读信息时的用户操作的偏好确定结果或者基于朗读信息时的用户行为的用户负荷来改变时间线UI中的信息粒度的显示的情况的描述。然而,实施方式不限于此,例如,可以根据偏好确定结果或者用户负荷来进一步改变显示信息的字体大小。
如图18所示,指示今天全天的用户行为(在本文中为作为示例的低背景)的项目471和474按照“今天的时间线”的时间顺序显示在画面47上,并且在采取行动时朗读的各条音频信息的文本被显示在相应的项目下方。
例如,如图18所示,当用户在7:45在公园中跑步(项目471)(说出“书签”)并且执行用于指示朗读事件信息的“书签”的语音操作时,服务器2的时间线UI生成部20b确定执行肯定反馈。结果,由于事件信息被用户关注,因此以信息粒度“大”来控制显示,此外,以字体大小“大”来执行显示。也就是说,朗读信息的标题和全部正文以大于后面将描述的否定反馈的音频信息以及其偏好未被确定的音频信息的字体大小的字体大小来显示。此外,一起显示指示已经执行了“书签”的语音操作的预定图标472。结果,提高了以后在查看用户关注的音频信息时的便利性。
此外,对用户在7:10在车上(项目474)时朗读的新闻信息执行用于指示“更多”的语音操作的情况下,类似地,确定执行肯定反馈,并且朗读信息的标题和正文文本以字体大小“大”来显示。此外,一起显示指示执行“更多”的语音操作的预定图标475。结果,提高了以后在查看用户关注的音频信息时的便利性。
此外,如图18所示,关于当用户在7:45在公园中跑步(项目471)时朗读的第二条事件信息没有执行操作。关于第三条事件信息,在执行用于指示“跳过”的语音操作的情况下(图标473表示执行了“跳过”操作),以字体大小“小”来控制任何显示。如上所述,用户不关注的音频信息以小尺寸显示,并且当用户通过滚动时间线UI搜索信息时,可以防止干扰。
注意,在图18所示的示例中,给出了对根据用户偏好改变字体大小的描述作为示例。实施方式不限于此,并且可以根据基于用户行为的用户负荷来改变字体大小。在这种情况下,例如,在用户负荷高的情况下,以大的字体大小来执行显示,而在用户负荷低的情况下,以小的字体大小来执行显示。
<4-5.第五示例>
随后,将参照图19给出对根据第五示例的画面显示示例的描述。根据本实施方式,在根据用户行为的背景中断并且重新开始朗读信息的情况下,在时间线UI上,连同关于中断并且重新开始的信息一起显示使用户能够容易地提醒在用户收听朗读信息时出现的情况并且支持对信息的搜索。
如图19所示,指示今天全天的用户行为(在本文中为作为示例的低背景)的项目481、483和486按照“今天的时间线”的时间顺序被显示在画面48上,并且在采取行为时朗读的各条音频信息的文本被显示在相应项目下方。在本文中,在根据用户行为的背景显示朗读音频信息并且中断朗读的情况下,显示“暂停”(显示482和显示485)。在重新开始的情况下,显示“继续”(显示484、显示487)。例如,信息处理设备1的朗读控制部10b可以考虑到基于用户行为的用户负荷(容易收听)来执行控制,使得在用户由于信号等待等原因而停止的情况下朗读信息,并且信息处理设备1的朗读控制部10b还可以执行控制,使得当用户开始移动时朗读被中断,并且当用户再次停止时重新开始朗读。上述朗读控制信息(“中断”和“重新开始”)被包括在朗读历史中,并被发送到服务器2。
此外,以后在查看音频信息的时间线UI处,如图19中的画面48所示,朗读音频信息的文本与诸如“中断”和“重新开始”的朗读控制信息一起显示。结果,当用户在7:10骑自行车(项目481)时由于例如信号等待等原因停止时,用户可以直观地了解到,已朗读新闻信息中途被中断,并且当用户在7:15骑自行车并且由于信号等待等原因再次停止(项目483)时,朗读了随后的信息。
<4-6.其他>
已经通过多个示例给出了对根据本实施方式的时间线UI的以上描述。注意,根据本实施方式的时间线UI不限于上述,并且还可以如下。
(基于风景来配置的时间线UI)
图20是示出根据本实施方式的另一时间线UI的图。如图20所示,反映在朗读今天的信息的点处的风景的捕获图像491、492和493(例如,由信息处理设备1的摄像装置13在朗读信息时捕获的捕获边界图像,或者在各点处准备的捕获图像)按照“今天的时间线”的时间顺序被显示在画面49上。由于关于呈现音频信息的现有地点的记忆容易保留,因此可以在以后当用户查看丢失的信息等时,容易地使用用户看到的风景来搜索目标信息,例如图20中的画面49。此外,在该地点处朗读的音频信息(朗读信息)的文本和时间、信息的类型等可以显示在画面49上的捕获图像显示上。
(时间线轨迹与朗读信息显示区域之间的同步)
图21是示出根据本实施方式的另一时间线UI的图。如图21中左侧所示,在画面50上的地图图像501中显示用户行为的时间线轨迹(移动路径的轨迹)作为“今天的时间线”。用户点击时间线轨迹上的任意点,并且在朗读显示区域中显示该点处的朗读信息的文本(或图像)。在画面50上,例如在所点击的点处朗读的天气预报信息(项目502)被显示在朗读显示区域中(在图21中所示的示例中的地图图像501的下方)。
随后,用户执行用于跟踪时间线轨迹的操作,并且滚动与该操作同步显示在朗读显示区域中的朗读信息的项目,并且显示对应项目的内容。例如,如在图21中右侧所示的画面51上,随着用于跟踪时间线轨迹的用户操作来滚动朗读信息显示区域中的画面,并且显示下一个项目503的内容(活动信息)。在本文中,例如,显示朗读的音频信息的文本。此外,在地图图像511中显示对应点的风景。
注意,地图图像511可以通过捏拉来改变比例,并且朗读信息显示区域也被同步。
(关键字的强调显示)
图22是示出根据本实施方式的另一时间线UI的图。如图22所示,指示今天全天的用户行为(在本文中为作为示例的低背景)的项目521和522按照“今天的时间线”的时间顺序被显示在画面52上。行为时间处的已朗读音频信息的文本被显示在项目下方。
在图22所示的示例中,画面52上显示的文本实际上是已朗读音频信息(已朗读信息),并且已朗读信息的预定关键字被进一步强调和显示(例如,以大字体显示)。作为预定关键字,假设诸如专有名词或者标题中使用的名词之类的词汇可以容易地保留在收听朗读信息的用户的记忆中。
如上所述,通过呈现用于强调和显示朗读信息的关键字的时间线UI,当用户搜索信息时,利用关键字作为线索容易地搜索信息。
<<5.结论>>
如上所述,利用根据本公开内容的实施方式的信息处理设备1,可以提高在查看已朗读音频信息时的便利性。具体地,通过呈现用于使得能够基于朗读信息时的日期和时间,位置,行为,操作或风景来搜索的UI,可以容易地在以后搜索用户未听到的信息或者用户关注的信息。
以上已经参照附图描述了本公开内容的优选实施方式,而本公开内容不限于上述示例。本领域技术人员可以在所附权利要求书的范围内找到各种替换和修改,并且应该理解,这些替换和修改将本质上落入本公开内容的技术范围内。
例如,还可以创建用于使诸如内置在上述信息处理设备1中的CPU、ROM和RAM的硬件执行信息处理设备1的功能的计算机程序。此外,还提供了其中存储有计算机程序的计算机可读存储介质。
另外,在本说明书中描述的效果仅仅是说明性或示例性的效果,而不是限制性的。也就是说,利用或代替上述效果,根据本公开内容的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果
另外,本技术还可以如下配置。
(1)
一种信息处理设备,包括:
输出控制部,所述输出控制部按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
(2)
根据(1)所述的信息处理设备,
其中,所述信息粒度是信息量并且被控制为下述中的任何一种:仅标题、所述标题和正文的一部分的集合以及所述标题和全部正文的集合。
(3)
根据(2)所述的信息处理设备,
其中,所述用户操作是指示跳过指令、重复指令、具体再现指令、书签指令或返回指令的音频输入操作。
(4)
根据(1)至(3)中任一项所述的信息处理设备,
其中,所述输出控制部还输出关于显示画面的信息,在所述显示画面中,根据基于所述用户操作估计的用户偏好来改变所述音频信息的字体大小。
(5)
根据(1)至(4)中任一项所述的信息处理设备,
其中,所述音频信息的信息粒度根据基于所述朗读历史中包括的在朗读所述音频信息时的用户行为估计的用户负荷来控制。
(6)
根据(1)至(5)中任一项所述的信息处理设备,
其中,所述显示画面还包括以下中的至少一个:所述朗读历史中包括的在朗读所述音频信息时的用户行为的识别结果,朗读时的日期、时间和地点,以及已被朗读的信息的类型。
(7)
根据(1)至(6)中任一项所述的信息处理设备,
其中,关于在所述显示画面上显示的朗读信息,强调并显示未被朗读部分的文本而不是已被朗读的信息的文本。
(8)
根据(1)至(7)中任一项所述的信息处理设备,
其中,基于所述朗读历史记录中包括的在朗读每条音频信息时用户的位置历史的移动轨迹被显示在所述显示画面中包括的地图图像上,并且还显示在由所述用户指定的移动轨迹的任意点附近的已被朗读的音频信息。
(9)
根据(8)所述的信息处理设备,
其中,在所述显示画面上还显示在由所述用户指定的移动轨迹的任意点附近的情景的捕获图像。
(10)
一种信息处理方法,包括:
由处理器按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
(11)
一种程序,所述程序使计算机用作:
输出控制部,其按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
附图标记列表
1 信息处理设备
10 控制部
10a 朗读信息获取部
10b 朗读控制部
10c 用户状况识别部
10d 操作识别部
10e 朗读历史发送控制部
11 通信部
12 麦克风
13 摄像装置
14 9轴传感器
15 扬声器
16 位置测量部
17 存储部
2 服务器
20 控制部
20a 存储控制部
20b 时间线UI生成部
20c 发送控制部20c
21 通信部
22 存储部
3 显示装置
4 网络
Claims (11)
1.一种信息处理设备,包括:
输出控制部,所述输出控制部按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
2.根据权利要求1所述的信息处理设备,
其中,所述信息粒度是信息量并且被控制为下述中的任何一种:仅标题、正文的一部分和标题的集合以及全部正文和标题的集合。
3.根据权利要求2所述的信息处理设备,
其中,所述用户操作是指示跳过指令、重复指令、详细再现指令、书签指令或返回指令的音频输入操作。
4.根据权利要求1所述的信息处理设备,
其中,所述输出控制部还输出关于显示画面的信息,在所述显示画面中,根据基于所述用户操作估计的用户偏好来改变所述音频信息的字体大小。
5.根据权利要求1所述的信息处理设备,
其中,所述音频信息的信息粒度根据基于所述朗读历史中包括的在朗读所述音频信息时的用户行为估计的用户负荷来控制。
6.根据权利要求1所述的信息处理设备,
其中,所述显示画面还包括以下中的至少一个:所述朗读历史中包括的在朗读所述音频信息时的用户行为的识别结果;朗读时的日期、时间和地点;以及已被朗读的信息的类型。
7.根据权利要求1所述的信息处理设备,
其中,关于在所述显示画面上显示的朗读信息,与已被朗读的信息的文本相比,强调显示未被朗读部分的文本。
8.根据权利要求1所述的信息处理设备,
其中,基于所述朗读历史中包括的在朗读每条音频信息时用户的位置历史的移动轨迹被显示在所述显示画面中包括的地图图像上,并且还在由所述用户指定的移动轨迹的任意点附近显示已被朗读的音频信息。
9.根据权利要求8所述的信息处理设备,
其中,在所述显示画面上还显示拍摄在由所述用户指定的移动轨迹的任意点附近的情景而获得的捕获图像。
10.一种信息处理方法,包括:
由处理器按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
11.一种程序,所述程序使计算机用作:
输出控制部,其按照时间顺序以下述信息粒度输出关于用于显示音频信息的文本的显示画面的信息,所述信息粒度基于获取的所述音频信息的朗读历史中包括的在朗读所述音频信息时的用户操作来确定。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-089227 | 2016-04-27 | ||
JP2016089227 | 2016-04-27 | ||
PCT/JP2017/002309 WO2017187678A1 (ja) | 2016-04-27 | 2017-01-24 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109074240A true CN109074240A (zh) | 2018-12-21 |
CN109074240B CN109074240B (zh) | 2021-11-23 |
Family
ID=60161278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780024799.XA Expired - Fee Related CN109074240B (zh) | 2016-04-27 | 2017-01-24 | 信息处理设备、信息处理方法和程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11074034B2 (zh) |
EP (1) | EP3451149A4 (zh) |
JP (1) | JP6891879B2 (zh) |
CN (1) | CN109074240B (zh) |
WO (1) | WO2017187678A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021114004A (ja) * | 2018-04-11 | 2021-08-05 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
US11363953B2 (en) * | 2018-09-13 | 2022-06-21 | International Business Machines Corporation | Methods and systems for managing medical anomalies |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006023860A (ja) * | 2004-07-06 | 2006-01-26 | Sharp Corp | 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム |
US20070005616A1 (en) * | 2001-05-30 | 2007-01-04 | George Hay | System and method for the delivery of electronic books |
US20110137836A1 (en) * | 2008-09-19 | 2011-06-09 | Hiroyuki Kuriyama | Method and system for generating history of behavior |
CN102099778A (zh) * | 2008-07-18 | 2011-06-15 | 夏普株式会社 | 内容显示装置、内容显示方法、程序以及记录介质 |
CN102324191A (zh) * | 2011-09-28 | 2012-01-18 | Tcl集团股份有限公司 | 一种有声读物逐字同步显示方法及系统 |
CN102349087A (zh) * | 2009-03-12 | 2012-02-08 | 谷歌公司 | 自动提供与捕获的信息例如实时捕获的信息关联的内容 |
JP2012063526A (ja) * | 2010-09-15 | 2012-03-29 | Ntt Docomo Inc | 端末装置、音声認識方法および音声認識プログラム |
US20120310649A1 (en) * | 2011-06-03 | 2012-12-06 | Apple Inc. | Switching between text data and audio data based on a mapping |
CN103198726A (zh) * | 2013-04-23 | 2013-07-10 | 李华 | 英语学习设备 |
CN103365988A (zh) * | 2013-07-05 | 2013-10-23 | 百度在线网络技术(北京)有限公司 | 对移动终端的图片文字朗读的方法、装置和移动终端 |
CN103516711A (zh) * | 2012-06-27 | 2014-01-15 | 三星电子株式会社 | 显示设备、用于控制显示设备的方法和交互系统 |
GB2518002A (en) * | 2013-09-10 | 2015-03-11 | Jaguar Land Rover Ltd | Vehicle interface system |
CN104902065A (zh) * | 2014-03-06 | 2015-09-09 | 歌乐株式会社 | 对话历史记录管理装置、对话装置和对话历史记录管理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005634A (ja) | 1999-06-24 | 2001-01-12 | Hitachi Ltd | 電子メール受信装置 |
JP5821307B2 (ja) | 2011-06-13 | 2015-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20150120648A1 (en) * | 2013-10-26 | 2015-04-30 | Zoom International S.R.O | Context-aware augmented media |
US9794511B1 (en) * | 2014-08-06 | 2017-10-17 | Amazon Technologies, Inc. | Automatically staged video conversations |
CN107193841B (zh) * | 2016-03-15 | 2022-07-26 | 北京三星通信技术研究有限公司 | 媒体文件加速播放、传输及存储的方法和装置 |
-
2017
- 2017-01-24 EP EP17788968.0A patent/EP3451149A4/en not_active Withdrawn
- 2017-01-24 US US16/085,419 patent/US11074034B2/en active Active
- 2017-01-24 CN CN201780024799.XA patent/CN109074240B/zh not_active Expired - Fee Related
- 2017-01-24 JP JP2018514113A patent/JP6891879B2/ja active Active
- 2017-01-24 WO PCT/JP2017/002309 patent/WO2017187678A1/ja active Application Filing
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070005616A1 (en) * | 2001-05-30 | 2007-01-04 | George Hay | System and method for the delivery of electronic books |
JP2006023860A (ja) * | 2004-07-06 | 2006-01-26 | Sharp Corp | 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム |
CN102099778A (zh) * | 2008-07-18 | 2011-06-15 | 夏普株式会社 | 内容显示装置、内容显示方法、程序以及记录介质 |
US20110137836A1 (en) * | 2008-09-19 | 2011-06-09 | Hiroyuki Kuriyama | Method and system for generating history of behavior |
CN102349087A (zh) * | 2009-03-12 | 2012-02-08 | 谷歌公司 | 自动提供与捕获的信息例如实时捕获的信息关联的内容 |
JP2012063526A (ja) * | 2010-09-15 | 2012-03-29 | Ntt Docomo Inc | 端末装置、音声認識方法および音声認識プログラム |
US20120310649A1 (en) * | 2011-06-03 | 2012-12-06 | Apple Inc. | Switching between text data and audio data based on a mapping |
CN102324191A (zh) * | 2011-09-28 | 2012-01-18 | Tcl集团股份有限公司 | 一种有声读物逐字同步显示方法及系统 |
CN103516711A (zh) * | 2012-06-27 | 2014-01-15 | 三星电子株式会社 | 显示设备、用于控制显示设备的方法和交互系统 |
CN103198726A (zh) * | 2013-04-23 | 2013-07-10 | 李华 | 英语学习设备 |
CN103365988A (zh) * | 2013-07-05 | 2013-10-23 | 百度在线网络技术(北京)有限公司 | 对移动终端的图片文字朗读的方法、装置和移动终端 |
GB2518002A (en) * | 2013-09-10 | 2015-03-11 | Jaguar Land Rover Ltd | Vehicle interface system |
CN104902065A (zh) * | 2014-03-06 | 2015-09-09 | 歌乐株式会社 | 对话历史记录管理装置、对话装置和对话历史记录管理方法 |
Non-Patent Citations (1)
Title |
---|
韩超: "基于E-ink的电子阅读器的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
US11074034B2 (en) | 2021-07-27 |
JP6891879B2 (ja) | 2021-06-18 |
WO2017187678A1 (ja) | 2017-11-02 |
EP3451149A4 (en) | 2019-04-17 |
JPWO2017187678A1 (ja) | 2019-02-28 |
EP3451149A1 (en) | 2019-03-06 |
CN109074240B (zh) | 2021-11-23 |
US20190073183A1 (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110019929B (zh) | 网页内容的处理方法、装置及计算机可读存储介质 | |
EP2400733B1 (en) | Mobile terminal for displaying augmented-reality information | |
CN110531850A (zh) | 可穿戴设备以及控制其的方法 | |
CN110248236B (zh) | 视频播放方法、装置、终端及存储介质 | |
CN109151044B (zh) | 信息推送方法、装置、电子设备及存储介质 | |
CN110377195B (zh) | 展示交互功能的方法和装置 | |
CN113411680B (zh) | 多媒体资源播放方法、装置、终端及存储介质 | |
CN110341627B (zh) | 控制车内行为的方法和装置 | |
CN114205324A (zh) | 消息显示方法、装置、终端、服务器及存储介质 | |
CN111596830A (zh) | 消息提醒方法及装置 | |
CN111836069A (zh) | 虚拟礼物赠送方法、装置、终端、服务器及存储介质 | |
CN109917988B (zh) | 选中内容显示方法、装置、终端及计算机可读存储介质 | |
CN111459363A (zh) | 信息展示方法、装置、设备及存储介质 | |
CN113613028A (zh) | 直播数据处理方法、装置、终端、服务器及存储介质 | |
CN110493635B (zh) | 视频播放方法、装置及终端 | |
CN109074240A (zh) | 信息处理设备、信息处理方法和程序 | |
CN113609358A (zh) | 内容分享方法、装置、电子设备以及存储介质 | |
CN112839107A (zh) | 推送内容的确定方法、装置、设备及计算机可读存储介质 | |
CN112770177A (zh) | 多媒体文件生成方法、多媒体文件发布方法及装置 | |
CN112004134B (zh) | 多媒体数据的展示方法、装置、设备及存储介质 | |
CN112860046A (zh) | 选择运行模式的方法、装置、电子设备及介质 | |
CN110808985B (zh) | 歌曲点播方法、装置、终端、服务器及存储介质 | |
CN114186083A (zh) | 信息显示方法、装置、终端、服务器及存储介质 | |
CN114118408A (zh) | 图像处理模型的训练方法、图像处理方法、装置及设备 | |
CN113256440A (zh) | 虚拟自习室的信息处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211123 |