CN107209019A - 信息处理系统和控制方法 - Google Patents
信息处理系统和控制方法 Download PDFInfo
- Publication number
- CN107209019A CN107209019A CN201580074142.5A CN201580074142A CN107209019A CN 107209019 A CN107209019 A CN 107209019A CN 201580074142 A CN201580074142 A CN 201580074142A CN 107209019 A CN107209019 A CN 107209019A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- emotion
- relation
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 13
- 230000008451 emotion Effects 0.000 claims description 179
- 230000003993 interaction Effects 0.000 claims description 45
- 230000007613 environmental effect Effects 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000008921 facial expression Effects 0.000 claims description 5
- 210000004556 brain Anatomy 0.000 claims description 4
- 210000004243 sweat Anatomy 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000010195 expression analysis Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 claims description 2
- 238000007405 data analysis Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 32
- 230000002996 emotional effect Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 25
- 230000002452 interceptive effect Effects 0.000 description 21
- 238000004458 analytical method Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000037213 diet Effects 0.000 description 2
- 235000005911 diet Nutrition 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000018199 S phase Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3617—Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/101—Collaborative creation, e.g. joint development of products or services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/006—Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
- G09B29/007—Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Tourism & Hospitality (AREA)
- Ecology (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Marketing (AREA)
- Mathematical Physics (AREA)
- Educational Administration (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
为了提供一种能够根据多个用户的关系生成更优化的引导信息的信息处理系统和控制方法。一种信息处理系统配备有:用户指定单元,其被配置成指定一起执行动作的多个用户;估计单元,其被配置成估计多个指定用户的关系;以及生成单元,其被配置成根据估计的多个用户的关系生成多个用户的引导信息。
Description
技术领域
本公开涉及一种信息处理系统和一种控制方法。
背景技术
在过去,已经提出了自动搜索并提供到指定目的地的路线的引导的导航系统。这种导航系统搜索从当前位置到指定目的地具有最短行进距离和时间的路线并向用户呈现搜索结果,或者基于搜索结果向用户提供路线引导。
例如,关于这种导航系统的技术,在专利文献1中公开了基于用户的偏好和设施信息的推荐度提出中途停留点的导航设备。
引文列表
专利文献
专利文献1:JP 2008-3027A
发明内容
技术问题
然而,在相关技术的导航系统中,由于仅搜索到指定目的地的路线,所以用户需要搜索路线附近的其他中途停留点。
另一方面,在专利文献1中公开的导航设备中,从对应于用户的偏好度的类型的设施提出了中途停留点,但是没有提及当存在多个用户时的最佳路线引导。
在这方面,在本公开中,提出了能够根据多个用户的关系生成更优化的引导信息的信息处理系统和控制方法。
问题的解决方案
根据本公开,提供一种信息处理系统,包括:用户指定单元,其被配置成指定一起执行动作的多个用户;估计单元,其被配置成估计多个指定用户的关系;以及生成单元,其被配置成根据估计的多个用户的关系生成多个用户的引导信息。
根据本公开,提供一种控制方法,包括:指定一起执行动作的多个用户;估计多个指定用户的关系;以及根据估计的多个用户的关系生成多个用户的引导信息。
发明的有益效果
如上所述,根据本公开,可能根据多个用户的关系生成更优化的引导信息。
应注意,上述效果不一定是限制性的。使用或代替上述效果,可以实现本说明书中描述的任何一种效果或可以从本说明书中掌握的其他效果。
附图说明
[图1]图1是图示根据本公开的一个实施方案的信息处理系统的概述的图解。
[图2]图2是图示根据本实施方案的信息处理系统的整体配置的图解。
[图3]图3是图示根据本实施方案的引导服务器的配置的实例的方框图。
[图4]图4是图示根据本实施方案的车辆的配置的实例的方框图。
[图5]图5是图示根据本实施方案的情感服务器的配置的实例的方框图。
[图6]图6是图示根据本实施方案的信息处理系统中的引导信息生成处理的流程图。
[图7]图7是图示由根据本实施方案的环境信息图生成单元生成的环境信息图的实例的图解。
[图8]图8是图示由根据本实施方案的情感热图生成单元生成的情感热图的实例的图解。
[图9]图9是图示存储在根据本实施方案的对象DB中的详细对象信息的实例的图解。
[图10]图10是图示从根据本实施方案的情感信息DB提取的交互信息的实例的图解。
[图11]图11是图示从根据本实施方案的情感信息DB提取的交互信息的实例的图解。
[图12]图12是图示根据本实施方案的集成热图的实例的图解。
[图13]图13是图示根据本实施方案的估计多个用户的关系的处理的细节的流程图。
具体实施方式
在下文中,将参考附图详细描述本公开的优选实施方案。在本说明书和附图中,具有大体上相同的功能和结构的结构元件用相同的参考数字表示,并且省略对这些结构元件的重复说明。
此外,描述将按照以下顺序进行。
1.根据本公开的一个实施方案的信息处理系统的概述
2.基本配置
2-1.引导服务器的配置
2-2.车辆的配置
2-3.情感服务器的配置
3.操作处理
4.结论
<<根据本公开的一个实施方案的信息处理系统的概述>>
首先,将参考图1描述根据本公开的一个实施方案的信息处理系统的概述。根据本实施方案的信息处理系统基于从各种传感器获取的信息,从多个用户的气氛、属性、对话、面部识别、情感、情感值等估计多个用户的关系,并且呈现适合于估计关系的引导信息。要呈现的引导信息是到达目的地的路线的信息或通过路线中间的中途停留点的路线的信息(例如,通过图1中右侧所示的中途停留点1、中途停留点2和中途停留点3到达目的地的路线的信息)。此外,引导信息的呈现可以通过用户拥有的信息处理终端(例如,智能电话、移动电话终端、平板电脑终端、可穿戴终端等)中的显示输出或音频输出来执行,或可以通过用户乘坐的车辆中的显示输出或音频输出来执行。此外,当用户乘坐的车辆是自主巡航车辆时,可以执行根据用作引导信息的路线信息的自主巡航。
(背景)
这里,在相关技术的导航系统中,自动搜索具有到由用户输入的目的地的最短时间/距离的路线,并且执行根据该路线的导航。另一方面,一般来说,当在旅行等中有足够的时间前往目的地时,假定用户在移动到目的地时在游览点、餐馆、纪念品商店等停车。然而,如上所述,在搜索并且仅呈现到目的地的路线的导航系统中,用户必须沿着路线搜索中途停留点,并将中途停留点重新设置为新的目的地。搜索中途停留点是用户的繁重任务,并且根据用户的搜索能力,很难充分搜索最佳的地方。
此外,当存在多个用户时,假定最佳导航根据多个用户的关系而不同。例如,在家庭的情况下,包括在家庭导向地点停止的路线是最佳的,但是在一对夫妇的情况下,包括在夫妇导向地点停止的路线是最佳的。此外,在业务关系的情况下,以最短距离到达目的地而不停止的路线是最佳的。
在这方面,鉴于上述几点,在根据本公开的信息处理系统中,可能根据多个用户的关系生成更优化的引导信息。具体来说,在根据本实施方案的信息处理系统中,自动搜索根据多个用户的关系到指定目的地的路线附近的中途停留点,并且生成包括中途停留点的引导信息并呈现给用户。
用户关系的实例包括图1中所示的夫妇、朋友、家庭成员、配偶、父母和孩子、兄弟姐妹和业务关系。如上所述,基于从各种传感器获得的信息,可以从多个用户的气氛、属性、对话、面部识别、情感、情感值等估计多个用户的关系。
更具体来说,在根据本实施方案的信息处理系统中,例如,基于由信息处理终端的相机或车辆的车载摄像头捕获的用户面部的捕获图像,由麦克风收集的用户的音频数据,以及由生物传感器检测的用户的生物信息来估计多个用户的性别和大概年龄,并且根据用户的性别和大概年龄的组合来估计关系。在根据本实施方案的信息处理系统中,也可能根据基于音频数据、语音声调、基于捕获图像的面部表情识别、生物信息等的对话内容的分析来估计气氛,并且从气氛估计关系。
此外,根据本实施方案的信息处理系统也可以参考使用基于捕获图像的面部识别,基于音频数据的说话者识别或基于生物信息的生物认证预先登记的个人信息来执行多个用户的个体识别。在这种情况下,可能获取预先登记为与识别的人相关联的属性(年龄、性别、职业等),并且根据该属性来估计多个用户的关系。
此外,当执行个体识别时,可能基于预先登记为与识别的人相关联的对象ID来估计多个用户的情感值,并且根据情感值来估计多个用户的关系。在本说明书中,情感值是基于在包括人或物体的多个对象之间发生的交互的评估值来计算并且被积累(对象之间发生的动作,诸如对象处理、关怀、服务提供和对话),并通过量化对象的性质、性格和个性来获得的指标。例如,具有低情感值的人可以被确定为具有低可靠性的人,不慎处理对象的人或粗心的人,并且具有高情感值的人可以被确定为具有高可靠性的人,慎重处理对象的人或好人。此外,当计算情感值时,使用与目标的对象ID相关联地积累的交互的评估值,但是使用的交互历史的范围根据情感值的使用目的而不同。例如,当根据本实施方案使用情感值来估计多个用户的关系时,使用在使用对应于多个指定用户的对象ID的多个用户中发生的先前交互的评估值来计算情感值。因此,可能估计多个用户的更详细的关系(例如,一对夫妇正在争吵)。
上面已经描述了根据本公开的一个实施方案的信息处理系统的概述。接着,将参考图2描述根据本实施方案的信息处理系统的整体配置。
图2图示根据本实施方案的信息处理系统的整体配置。如图2中所示,根据本实施方案的信息处理系统包括生成引导信息的引导服务器1,以及向用户呈现从引导服务器1接收的引导信息的信息处理设备(例如,车辆2a或智能电话2b)。引导服务器1例如经由图2中所示的互联网7与车辆2a或智能电话2b连接。在下文中,车辆2a用作呈现引导信息的信息处理设备。
引导服务器1估计乘坐车辆2a的多个用户的关系,并且根据估计关系生成引导信息。基于由传感器检测并从车辆2a传输的关于用户的信息(例如,捕获图像、音频数据、生物信息等)来估计多个用户的关系。引导信息可以包括例如根据如上所述的估计关系的到指定目的地的路线的信息和中途停留点信息。具体来说,例如,当多个用户是一对夫妇时,包括夫妇导向地点作为中途停留点信息,并且当多个用户是家庭时,包括家庭导向地点作为中途停留点信息。
引导服务器1经由互联网7将生成的引导信息传输到车辆2a。车辆2a在安装在车辆2a中的显示设备(例如,汽车导航设备)上显示接收的引导信息,或通过从扬声器输出的声音向用户呈现接收的引导信息。此外,当车辆2a是自主巡航车辆时,执行控制,使得根据包括在接收的引导信息中的路线信息执行自主巡航。因此,车辆2a的乘客可以根据关系经由合适的中途停留点前往目的地,并且更多地享受旅行和驾驶。
此外,由引导服务器1生成的引导信息不限于车辆2a的汽车导航信息,并且可以是用于通过步行、自行车、火车或公共汽车行驶的导航信息。
上面已经描述了根据本实施方案的信息处理系统的整体配置。接着,将详细说明包括在本实施方案的信息处理系统中的每个设备的基本配置。
<<2.基本配置>>
<2-1.引导服务器>
图3是图示根据本实施方案的引导服务器1的配置的实例的方框图。如图3中所示,根据本实施方案的引导服务器1包括控制单元10、通信单元11和存储单元12。
(控制单元)
控制单元10包括引导服务器1的各自的组件。控制单元10由包括中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)和非易失性存储器的微型计算机来实施。如图3中所示,根据本实施方案的控制单元10也用作用户指定单元10a、关系估计单元10b、引导信息生成单元10c、情感热图生成单元10d和环境信息图生成单元10e。
用户指定单元10a基于由传感器检测并经由通信单元11从车辆2a接收的与用户相关的信息,指定乘坐车辆2a的多个用户(一起执行动作)。由传感器检测的与用户相关的信息的实例包括由安装在车辆2a中的车载摄像头捕获的用户的捕获图像,由麦克风收集的用户的音频数据,以及由生物传感器检测的用户的生物信息(例如,心率、出汗率、脑电波、体动、指纹等)。关于用户的信息也可以包括终端间通信数据。终端间通信数据是指可以由车辆2a通过与用户的信息处理终端(智能电话、移动电话终端、平板电脑终端、可穿戴终端等)进行通信(红外通信、Wi-Fi(注册商标)、蓝牙(注册商标)等)而获取的用户的识别信息(姓名、年龄、性别、用户ID等)。
用户指定单元10a分析乘客的面部图像、音频数据和生物信息,并且在可能的情况下对乘客(多个用户)的性别和大概年龄执行估计和个体识别。参考面部图像等的分析结果和先前登记在个人DB服务器6中的个人信息来执行个体识别。此外,可以参考从社交网络服务(SNS)服务器5获取的个人信息来执行个体识别。用户指定单元10a可以新登记通过对无法在个人DB服务器6中识别的人执行面部图像分析、语音识别、对话识别、生物识别等而获取的个人信息(性别、大概年龄、姓名、爱好/偏好、职业、他们不喜欢的东西等)。当指定与用户一起执行动作的除人以外的动物时,用户指定单元10a可以登记动物(狗、猫等)的类型被分配的动物信息作为个人DB中的属性。当乘坐车辆2a的用户手动输入关于乘客的信息,并且从车辆2a传输信息时,用户指定单元10a也可以基于手动输入信息来指定多个用户。用户指定单元10a将关于多个指定用户的信息输出到关系估计单元10b。
关系估计单元10b估计由用户指定单元10a指定的多个用户的关系。例如,关系估计单元10b基于由用户指定单元10a指定的多个用户的性别或大概年龄的组合来估计亲子关系、兄弟姊妹关系、朋友关系、夫妇关系等。关系估计单元10b也可以通过基于性别或大概年龄的组合设置多个关系候选来估计多个用户的关系,并且基于音频数据进一步分析和识别对话内容。
此外,关系估计单元10b可以通过识别基于面部图像的面部表情,分析和识别基于音频数据的对话内容,并且分析语音声调或生物信息,获取车辆内的气氛,并且根据获取的气氛估计汽车上多个用户的关系。
此外,关系估计单元10b也可以基于与多个用户的情感相关的信息估计多个用户的关系。与情感相关的信息可以例如通过基于面部图像的面部表情识别,分析和识别基于音频数据的对话内容,语音声调或生物信息来获取。
此外,当能够执行多个用户的个体识别时,关系估计单元10b可以从情感服务器3获取用户的情感值作为与多个用户的情感相关的信息,并且基于情感值估计多个用户的关系。具体来说,关系估计单元10b从个人DB服务器6获取多个识别用户的对象ID,并且请求情感服务器3使用对象ID来传输情感值。情感服务器3响应于该请求而传输使用指定对象之间的先前交互的评估值计算的对象的情感值。
此外,当能够执行多个用户的个体识别时,关系估计单元10b也可以根据从个人DB服务器6获取的个人信息(性别、年龄、姓名、职业等)中包括的多个用户的属性,估计多个用户的关系。
关系估计单元10b将多个用户的估计关系输出到引导信息生成单元10c。在车辆2a中可能存在几种类型的关系,但是在这种情况下,关系估计单元10b可以选择具有最多人数的关系。例如,当五个用户(具体来说,包括四个家庭成员和一个孩子的朋友在内的总共五人)乘坐车辆2a时,两个人是朋友,两个人是兄弟姐妹,两个人是丈夫和妻子,并且四个人处于家庭关系,则关系估计单元10b选择具有最多人数的家庭关系作为乘坐车辆2a的多个用户的关系。关系估计单元10b也可以在诸如车辆2a的所有者或最老的人的多个用户中选择具有最强影响力的人的关系。此外,当乘坐车辆2a的用户手动输入与关系相关的信息,并且从车辆2a传输信息时,关系估计单元10b可以基于手动输入信息来估计多个用户的关系。
引导信息生成单元10c根据由关系估计单元10b估计的多个用户的关系生成多个用户的引导信息。例如,引导信息生成单元10c提取对应于到指定目的地的路线附近的多个用户的关系的一个或多个中途停留点,并且生成通过中途停留点的路线信息作为引导信息。具体来说,当多个用户具有家庭关系时,引导信息生成单元10c提取家庭导向地点作为中途停留点,并且当多个用户具有夫妇关系时,提取夫妇导向地点作为中途停留点。
此外,引导信息生成单元10c可以使用由情感热图生成单元10d生成的情感热图和由环境信息图生成单元10e生成的环境信息图生成针对多个用户的关系而最优的引导信息。稍后将参考图7至图12描述使用情感热图和环境信息图生成引导信息。
情感热图生成单元10d生成情感热图,其中与情感相关的信息与地图形式的位置相关联。与情感相关的信息包括由生物传感器等检测的传感器值或从情感服务器3获取的情感值。在情感服务器3中积累的交互信息中,除了每个交互的日期和时间之外,位置信息可以相关联(参见图10和图11),并且可以计算基于在到目的地的路线周围的区域中执行的交互历史的情感值,或地点(中途停留点)的情感值。稍后将参考图8至图11详细描述情感热图的生成。
环境信息图生成单元10e生成环境信息图,其中环境相关信息与地图形式的位置相关联。环境相关信息包括从地点信息服务器4获取的地点信息(观光景点、餐馆、商店、休息站、公园等的信息)。存储在地点信息服务器4中的地点信息包括指示与用户关系相关的一种类型的地点(家庭导向地点、夫妇导向地点、朋友导向地点、大群体导向地点等)的信息,以及除了基本信息(诸如每个地点的位置、营业时间、入场费等)之外,地点(具有美丽夜景的地点、允许婴儿的地点、露台座位、允许宠物的地点以及孩子们可以享受的地点)的特征信息。此外,环境信息图生成单元10e根据来自引导信息生成单元10c的指令提取匹配过滤条件(诸如多个用户的关系、属性(年龄、性别、爱好/偏好等)、时间、天气,或在基本路线周围的预定范围内的地点类别)的地点,并且生成环境信息图。稍后将参考图7详细描述环境信息图的生成。
(通信单元)
通信单元11利用外部设备执行数据的传输和接收。例如,通信单元11连接到情感服务器3、地点信息服务器4、SNS服务器5和个人DB服务器6,并且执行各种数据的传输和接收。通信单元11连接到车辆2a,并且从车辆2a接收由传感器检测的关于用户的信息或导航设置信息(目的地、预期到达时间、优选道路的选择等),或将由引导信息生成单元10c生成的引导信息传输到车辆2a。
(存储单元)
存储单元12存储通过控制单元10执行各种处理的程序。存储单元12也可以存储由情感热图生成单元10d生成的情感热图和由环境信息图生成单元10e生成的环境信息图。
上面已经具体描述了引导服务器1的配置。图3中所示的引导服务器1的配置是实例,并且根据本实施方案的引导服务器1的配置不限于此。例如,存储在地点信息服务器4中的地点信息和存储在个人DB服务器6中的个人信息可以存储在引导服务器1中的存储区域(即,存储单元12)中。
<2-2.车辆的配置>
接着,将描述车辆2a的配置,车辆2a是向用户呈现引导信息的信息处理设备的实例。图4是图示根据本实施方案的车辆2a的配置的实例的方框图。如图4中所示,车辆2a具有控制单元20、通信单元21、车辆位置获取单元22、车载摄像头23、麦克风24、操作输入单元25、显示单元26、生物传感器27、自主巡航控制单元28和存储单元29。
(控制单元)
控制单元20通过例如包括CPU、ROM、RAM、非易失性存储器和接口单元的微型计算机来实施,并且控制车辆2a的组件。控制单元20执行控制,使得由车载摄像头23捕获的捕获图像、由麦克风收集的音频数据或由生物传感器27检测的生物信息作为由传感器检测的与乘客相关的信息通过通信单元21传输到引导服务器1。控制单元20也可以执行控制,使得从操作输入单元25输入的乘客的识别信息(性别、年龄、姓名、爱好/偏好、用户ID、对象ID等)传输到引导服务器1。控制单元20也可以执行控制,使得从操作输入单元25输入的导航设置信息(具体来说,与目的地、预期到达时间、优选的道路等相关的信息)传输到引导服务器1。
此外,控制单元20可以执行控制,使得通过通信单元21从引导服务器1接收的引导信息被显示在显示单元26上或以语音输出方式从扬声器(未图示)输出。控制单元20也可以指示自主巡航控制单元28自主巡航到从引导服务器1接收的引导信息中包含的路线。
(通信单元)
通信单元21利用外部设备执行数据的传输和接收。例如,通信单元21连接到引导服务器1,并且传输由传感器检测的与乘客相关的信息或导航设置信息,或者接收由引导服务器1生成的引导信息。
(车辆位置获取单元)
车辆位置获取单元22具有基于来自外部的获取信号来检测车辆2a的当前位置的功能。具体来说,例如,车辆位置获取单元22由全球定位系统(GPS)单元实施,并且从GPS卫星接收无线电波,检测车辆2a的位置,并将检测位置信息输出到控制单元20。此外,车辆位置获取单元22可以通过例如除了GPS之外的Wi-Fi(注册商标)或蓝牙(注册商标)或近场通信等的传输和接收来检测位置。
(车载摄像头)
车载摄像头23是对车辆2a的内部(例如,坐在各自的座椅上的乘客的面部)进行成像的摄像头。车载摄像头23的位置和车载摄像头23的数量没有特别限定。
(麦克风)
麦克风24具有在车辆2a内收集声音(例如,乘客的对话)的功能。麦克风24的位置和麦克风24的数量没有特别限定。
(操作输入单元)
操作输入单元25接受用户操作的输入,并且将输入信息输出到控制单元20。例如,操作输入单元25可以是与安装在车辆2a的驾驶员座椅附近的显示单元26集成的触控面板。此外,操作输入单元25可以分析由车载摄像头23成像的用户的捕获图像以启用手势输入,或分析由麦克风24收集的用户的语音以启用语音输入。
(显示单元)
显示单元26显示菜单屏幕或导航屏幕并且通过例如液晶显示器来实施。此外,显示单元26安装在驾驶员座椅附近。显示单元26也显示从引导服务器1传输的引导信息。显示单元26也可以通过将图像投影到车辆2a的前玻璃上的投影单元来实施。
(生物传感器)
生物传感器27检测乘坐车辆2a的用户的生物信息。例如,一个或多个生物传感器27可以安装在车辆2a的手柄部分、门的旋钮部分、窗户打开/关闭操作部分、座椅部分、头枕部分等中,并且检测乘客的体温、排汗量、心率、脑电波、指纹等。
(自主巡航控制单元)
自主巡航控制单元28具有控制车辆2a的行驶并且实施不依赖于驾驶员的操作的自动驾驶的功能。具体来说,自主巡航控制单元28控制车辆2a,使得车辆2a根据从引导服务器1接收的引导信息行驶。当引导信息是通过中途停留点到达目的地的路线的引导时,自主巡航控制单元28控制车辆2a,使得车辆2a沿着通过由引导信息指示的中途停留点的路线行驶。此外,当执行自主巡航时,自主巡航控制单元28根据获取的外部情况(例如,周围区域的捕获图像、对象检测信息等)执行车辆2a的加速器控制、制动控制、手动控制等。
(存储单元)
存储单元29存储通过控制单元20执行处理的程序。存储单元29也可以存储与车辆2a的乘客相关的信息和从引导服务器1传输的引导信息。
上面已经描述了根据本实施方案的车辆2a的具体配置。图4中所示的车辆2a的配置是实例,并且本实施方案不限于此。例如,可以不提供自主巡航控制单元28,并且可以安装用于获取与乘客有关的信息的任何其他传感器(例如,红外相机、深度相机等)。
<2-3.情感服务器的配置>
接着,将描述根据本实施方案的情感服务器3的配置。图5是图示根据本实施方案的情感服务器3的配置的实例的方框图。如图5中所示,情感服务器3包括控制单元30、通信单元31、对象DB 32和情感信息DB 34。
(通信单元)
通信单元31经由网络连接到引导服务器1,并且传输从引导服务器1请求的对象的情感值。通信单元31从安装在每个对象(包括人和物)上的传感设备(未图示)接收交互信息。
(控制单元)
控制单元30控制情感服务器3的组件。控制单元30通过包括CPU、ROM、RAM和非易失性存储器的微型计算机来实施。根据本实施方案的控制单元30用作如图5中所示的交互存储控制单元30a、评估单元30b、对象管理单元30c、关联对象搜索单元30d和情感值计算单元30e。
交互存储控制单元30a执行控制,使得从安装在对象上的传感设备接收的交互信息存储在情感信息DB 34中。传感设备通过湿度传感器、温度传感器、振动传感器、红外传感器、相机、触觉传感器或陀螺仪传感器来实施,并且检测与来自其他对象的对象的交互。交互是动作,并且人和人之间交互的实例包括对话、电话、邮件、一起出去和赠送礼物,而人和事物之间交互的实例包括处理、存储、清洁、查看和佩戴事物。
评估单元30b评估存储在情感信息DB 34中的交互。评估交互的方法没有特别限定,并且例如评估单元30b执行评估,使得对于接收交互的对象所期望的交互被评估为高,具体来说,给出-1.0至1.0的等级。评估结果与交互相关联地存储在情感信息DB 34中。
对象管理单元30c管理与存储在对象DB 32中的对象相关的信息的登记、修改、删除等。
关联对象搜索单元30d从对象DB 32或情感信息DB 34搜索与请求的对象ID进行交互的另一对象作为关联对象。
情感值计算单元30e基于与目标用户的对象ID相关联的交互评估来计算目标用户的情感值。例如,情感值计算单元30e可以基于交互评估值的总和来计算目标用户的总情感值,或可以基于交互评估值的平均值来计算目标用户的总情感值。
此外,情感值计算单元30e可以通过仅使用预定的交互或通过根据请求源中的情感值的使用目的加权预定的交互来计算情感值。例如,当使用情感值来估计引导服务器1中的多个用户的关系时,情感值计算单元30e使用指定对象(即,多个用户)之前的先前交互历史来计算情感值。
(对象DB)
对象DB 32是存储对象的对象ID的存储单元。对象DB 32存储信息,诸如姓名、年龄、性别、服务类型、服务公司、产品名称、产品类型、制造商ID、型号,以及与对象ID相关联的对象的制造日期和时间。
(情感信息DB)
情感信息DB 34是存储对象之间的交互信息和评估值的存储单元。具体来说,情感信息DB 34存储执行交互的日期和时间和位置、指示已经进行交互的另一方的关联对象ID、交互类型、交互的细节,以及与对象ID相关联的交互评估。
上面已经详细描述根据本实施方案的情感服务器3的配置。情感服务器3的配置不限于图5中所示的实例,并且例如对象DB 32和情感信息DB 34可以存储在网络上的外部存储设备中。情感服务器3的情感值计算单元30e可以安装在引导服务器1中,并且引导服务器1可以基于从情感服务器3获取的多个用户之间的交互评估来计算情感值。
<<3.操作处理>>
接着,将参考图6描述根据本实施方案的信息处理系统的操作处理。图6是图示根据本实施方案的信息处理系统中的引导信息生成处理的流程图。
如图6中所示,首先,在步骤S103中,引导服务器1的用户指定单元10a基于由传感器检测并从车辆2a传输的与乘客相关的信息(具体来说,捕获图像、音频数据、生物信息等),指定乘坐车辆2a的多个用户。
然后,在步骤S106中,关系估计单元10b估计由用户指定单元10a指定的多个用户的关系。稍后将参考图13详细描述多个用户的关系的估计。
然后,在步骤S109中,引导信息生成单元10c确定多个用户的旅行目的是否适合于中途停留。可以根据多个用户的关系、属性、指定目的地等来估计多个用户的旅行目的。例如,当多个用户的关系是亲子关系或兄弟姊妹关系,并且目的地是有点遥远的旅游景点时,引导信息生成单元10c估计旅行目的是家庭旅行。此外,当多个用户的关系是夫妇关系,并且目的地是有点遥远的旅游景点时,引导信息生成单元10c估计旅行目的是约会。此外,当多个用户的关系是朋友关系,并且目的地是有点遥远的旅游景点时,引导信息生成单元10c估计旅行目的是朋友旅行。此外,当多个用户的关系是业务关系,并且目的地是公司或商店时,引导信息生成单元10c估计旅行目的是业务。当目的地是附近的商店(诸如商业设施或商店)时,引导信息生成单元10c估计旅行目的是购物,并且当目的地是附近的餐饮地点(诸如餐馆或饮食设施)时,估计旅行目的是用餐。此外,当多个用户的关系是家庭关系,并且目的地是婚礼大厅、殡仪馆或医院时,引导信息生成单元10c估计旅行目的是正式场合。此外,当旅行目的是“业务”、“购物”、“正式场合”等时,引导信息生成单元10c确定旅行目的不适合于中途停留点,因此需要提早到达目的地。此外,当旅行目的是“家庭旅行”、“朋友旅行”或“约会”时,引导信息生成单元10c确定旅行目的适合于中途停留点,因此到目的地的旅行也应该是愉快的。当用户明确地输入车辆2a的旅行目的作为导航设置信息时,引导信息生成单元10c基于输入的移动目的来确定是否适合于中途停留。
然后,当确定旅行目的不适合于中途停留(S109中的“否”)时,根据本实施方案的生成包括中途停留点的引导信息的处理结束。在这种情况下,引导信息生成单元10c可以仅以最短时间/距离搜索到达目的地的基本路线,并且向车辆2a提供通过搜索找到的基本路线。
另一方面,当确定旅行目的适合于中途停留(S109中的“是”)时,在步骤S112中,引导信息生成单元10c确定在到用户指定的目的地的途中是否有空闲时间。可以基于例如由用户输入的期望的目的地到达时间和前往目的地所花费的时间来计算到目的地的途中的空闲时间。空闲时间是在中途停留点停止诸如一个小时或更多的空闲时间,并且用户可以指定阈值。
然后,当确定没有空闲时间(S112中的“否”)时,根据本实施方案的生成包括中途停留点的引导信息的处理结束。在这种情况下,引导信息生成单元10c可以仅以最短时间/距离搜索到达目的地的基本路线,并且向车辆2a提供通过搜索找到的基本路线。此外,根据本实施方案的生成包括中途停留点的引导信息的处理结束的情况不限于上述实例,并且例如可以根据从车辆2a获取的捕获图像、音频数据、生物信息等检测的车辆内部的情况来确定根据本实施方案的生成包括中途停留点的引导信息的处理是否结束。具体来说,例如,当检测到有人睡觉或身体不好的人在车辆中,或根据对话内容需要提早到达目的地的情况,生成引导信息的处理可以结束。此外,当用户明确地输入指示中途停留点的引导是不必要的信息时,引导信息生成处理可以结束。
另一方面,当确定到目的地的途中有空闲时间(S112中的“是”)时,引导信息生成单元10c在步骤S115中搜索从当前位置到目的地的基本路线。例如,引导信息生成单元10c根据用户输入的条件(收费优先、一般道路优先、距离优先、拥堵信息等),以最短时间/距离搜索到达目的地的基本路线。可以在步骤S109和S112之前,即在步骤S106之后执行步骤S115的处理。
然后,在步骤S118中,引导信息生成单元10c从环境信息图生成单元10e获取沿着通过搜索找到的基本路线的一定范围的区域的环境信息图。具体来说,引导信息生成单元10c将沿着基本路线的一定范围的区域的指定和根据多个用户的关系的过滤条件以及生成环境信息图的指令提供给环境信息图生成单元10e。引导信息生成单元10c可以指定沿着基本路线的一定范围的区域,以在从出发点起经过预定时间之后通过。例如,当孩子乘坐车辆2a时,由于孩子预期在出发后一小时将变得无聊,所以可能搜索在出发后一小时内通过的区域附近的中途停留点,并且向用户呈现最佳引导信息。
此外,引导信息生成单元10c设置根据多个用户的关系的过滤条件,例如,当多个用户的关系是“家庭关系”时将“家庭导向”设置为过滤条件,并且当多个用户的关系是“夫妇关系”时将“夫妇导向”设置为过滤条件。因此,可能获取从中提取根据多个用户的关系的合适的地点的指定区域的环境信息图。此外,在环境信息图生成单元10e中指定的过滤条件不限于根据多个用户的关系的条件,并且例如可以添加多个用户的属性(年龄、性别、爱好/偏好、职业等)、时间和天气的条件。时间条件和天气条件是用户预期通过指定区域的时间或指定区域的天气(在当前时间的天气或在用户预期通过的时间的天气)。此外,当宠物乘坐车辆2a时,可以添加诸如“允许宠物”的过滤条件,并且当从对话识别结果中识别出诸如“我饿了”的对话内容时,或当用户指定的用餐时间接近时,可以添加诸如“餐馆”或“饮食设施”的过滤条件。
这里,在图7中图示根据本实施方案的环境信息图的实例。例如通过基于根据多个用户的关系的“夫妇导向”的过滤条件以及“雨,温度18度,下午9点”的日期和时间和天气的过滤条件进行过滤,生成图7中所示的环境信息图40。具体来说,环境信息图生成单元10e从地点信息服务器4获取指定区域(沿着基本路线的一定范围)中的地点的信息,并且参考在地点信息中包括的地点的基本信息、特征信息等提取匹配诸如“夫妇导向”的条件的地点。此外,环境信息图生成单元10e根据“天气:雨”的条件提取下雨期间开放营业的地点。此外,环境信息图生成单元10e由于室外温度较冷而根据“温度:摄氏18度”的条件提取室内地点。此外,环境信息图生成单元10e根据“时间:下午9点”的条件提取作为餐馆或酒吧并在下午9点或以后开放的商店。然后,例如,如图7中所示,提取匹配“夫妇导向,雨,温度18度,下午9点”的过滤条件的地点400、401和402。环境信息图40可以由图3中所示的引导服务器1的环境信息图生成单元10e生成,或可以经由网络从外部信息提供服务器(未图示)获取。
然后,在步骤S121中,引导信息生成单元10c从情感热图生成单元10d获取沿着通过搜索找到的基本路线的一定范围的区域的情感热图。可能参考情感热图来检测在每个地点或周围区域执行动作的人的情感值。具体来说,引导信息生成单元10c将沿着基本路线的一定范围的区域的每个地点(通过生成环境信息图提取的每个地点)或一定范围的区域的指定以及生成情感热图的指令提供给情感热图生成单元10d。
这里,在图8中图示根据本实施方案的情感热图的实例。使用沿着基本路线的一定范围的区域中的每个地点的情感值来生成图8的左侧所示的情感热图42。引导信息生成单元10c可以参考情感热图42,根据每个地点的情感值的等级来选择适合于多个用户的中途停留点。
此外,用于生成情感热图42的每个地点的情感值可以是基于具有与多个用户的属性(年龄、性别、职业、爱好/偏好等)相同属性的人和地点之间的交互计算的情感值。例如,在图8的左侧所示的情感热图42中,多个用户的属性例如是成年(年龄:20岁或以上),并且使用基于具有与多个用户的属性(即,成人)相同属性的人和每个站点(通过生成环境信息图来提取的站点400、401和402)之间发生的交互计算的情感值。因此,可能根据情感值的等级来检测具有与提供引导信息的用户相似的属性的人可以愉悦地和舒适地停留的地点。
可以从情感服务器3获取每个地点的情感值。具体来说,情感热图生成单元10d从地点信息服务器4获取每个地点的对象ID(例如,餐馆“○○○○”和酒吧“◇◇◇◇”),将获取的对象ID和多个用户的属性信息一起传输到情感服务器3,并且请求获取情感值。在情感服务器3侧,情感值计算单元30e使用关于根据来自引导服务器1的请求指定的对象ID和具有指定属性的人之间发生的交互的先前交互历史来计算情感值,并且将计算的情感值传输到引导服务器1。
具体来说,情感值计算单元30e首先参考存储在对象DB 32中的详细对象信息来提取具有指定属性的人的对象ID。在图9中图示详细对象信息的实例。如图9中所示,详细对象信息包括对象ID、对象名称(名称、商店名称、产品名称等)、对象类型(人、餐馆、酒吧等)和属性信息(年龄、性别、职业、爱好/偏好、商店类别、商店营业时间、商店位置等)。当从引导服务器1指定的属性是“成人(年龄:20岁或以上)”时,情感值计算单元30e将人AAA(对象ID:384)、人BBB(对象ID:465)和人CCC(对象ID:679)设置为具有相应属性的对象。然后,情感值计算单元30e从情感信息DB 34中仅提取人的提取对象ID和从引导服务器1请求的对象ID(地点的对象ID)之间发生的先前交互的信息。或者,情感值计算单元30e可以通过提取被检测为与地点的对象ID进行交互的人并且在人中提取具有指定属性的人,来提取具有预定属性的人和地点之间生成的先前交互信息。此外,引导服务器1侧可以具备搜索与预定地点进行交互的具有预定属性的人的功能,并且情感服务器3侧可以执行提取从引导服务器1指定的人和预定地点之间的交互信息的处理。图10图示从情感信息DB 34提取的交互信息的实例。如图10中所示,提取作为具有预定属性(这里是成人(年龄:20岁或以上)作为实例)的人的对象和作为指定地点的对象(在这种情况下,提供或消费食物/酒精的动作)之间交互的评估值。情感值计算单元30e基于提取的交互信息计算每个地点的情感值。计算情感值的方法没有特别限定,并且例如可以使用交互评估值的平均值来计算情感值,或可以根据执行交互的日期和时间来执行加权,使得最新交互的影响增加。
情感热图生成单元10d使用上述每个地点的情感值来生成如图8的左侧所示的情感热图42。在图8的左侧所示的情感热图42中,指示地点(地点400、401和402)的情感值,使得具有较高情感值的地点具有较浅的颜色。换句话说,地点402的情感值最高,地点401的情感值次高,并且地点400的情感值最低。
此外,除了使用上述每个地点的情感值的情感热图42之外,根据本实施方案的情感热图生成单元10d也可以使用在周围区域中执行动作的人的情感值来生成情感热图43,如图8的右侧所示。引导信息生成单元10c参考情感热图43来检测情感值高的区域(即,聚集有良好背景的人的区域)和情感值低的区域(即,聚集有不好背景的人的区域),并且选择适合于多个用户的中途停留点。
使用基于与基本路线的周围区域相关联的交互评估计算的情感值来生成图8的右侧所示的情感热图43。具体来说,情感热图生成单元10d将基本路线的周围区域的指定提供给情感服务器3,并且请求情感服务器提供情感值。情感服务器3的情感值计算单元30e根据来自引导服务器1的请求仅从情感信息DB 34中提取在指定区域中执行的交互评估,并且计算在该区域中执行动作的人的情感值。图11图示从情感信息DB 34提取的交互信息的实例。如图11中所示,交互信息包括指示执行(接收)交互的对象的对象ID,执行交互的日期和时间,以及指示接收(执行)交互的对象的关联对象ID,交互类型,细节和评估值。如上所述,由于交互信息包括指示交互的位置的信息,所以情感值计算单元30e可以提取关于在指定区域中执行的交互的信息。此外,情感值计算单元30e基于提取的交互的评估值来计算预定区域的情感值(其可以是在预定区域中执行动作的人的情感值)。计算情感值的方法没有特别限定,并且例如可以使用交互评估值的平均值来计算情感值。此外,可以根据执行交互的日期和时间来执行加权,使得最新交互的影响增加。
情感热图生成单元10d使用通过情感服务器3的情感值计算单元30e计算的在预定区域中执行动作的人的情感值,生成图8的右侧所示的情感热图43。在图8的右侧所示的情感热图43中,指示情感值,使得具有较高情感值的区域具有较浅的颜色。换句话说,区域410的情感值最高,区域411的情感值次高,并且区域412的情感值最低。
上面已经详细描述了由情感热图生成单元10d生成情感热图。情感热图不限于由引导服务器1的情感热图生成单元10d生成的情感热图,而是可以经由网络从外部信息提供服务器(未图示)获取。
然后,返回参考图6中所示的流程图,在步骤S124中,引导信息生成单元10c获取将环境信息图和情感热图集成在一起的集成热图。将参考图12描述根据本实施方案的集成热图。
图12是图示根据本实施方案的集成热图的实例的图解。通过合成图7中所示的环境信息图40、图8的左侧所示的情感热图42和图8的右侧所示的情感热图43,生成图12中所示的集成热图45。引导信息生成单元10c可以参考集成热图45来检测作为适合于沿着基本路线的一定范围内的多个用户的关系的中途停留点候选的每个地点的位置,每个地点的情感值的等级,以及周围区域的情感值的等级。例如,在图12中所示的实例中,在作为适合于多个用户的关系的中途停留点候选的地点400、401和402中的地点401的情感值高于地点400的情感值,但是周围区域412的情感值较低,因此应理解,即使是具有良好的气氛、良好的食物等的商店在公共安全方面也可能是坏的。根据本实施方案的集成热图可以通过将情感热图42和情感热图43合成来生成,或可以通过将环境信息图40和情感热图42或情感热图43合成来生成。
然后,在步骤S127中,引导信息生成单元10c在集成热图中提取总分等于或大于预定阈值的地点。例如,当地点匹配生成环境信息图40时使用的过滤条件时,基于情感热图42中指示的地点的情感值和情感热图43中指示的站点的周围区域的情感值来计算地点的总分。具体来说,例如,通过考虑除了地点的情感值之外,周围区域412的情感值低,计算图12中所示的集成热图45的地点401的总分。
然后,在步骤S130中,引导信息生成单元10c通过以地点的总分的降序对地点进行排序来生成中途停留点候选列表。
然后,在步骤S133中,引导信息生成单元10c获取生成的中途停留点候选列表中具有最高总分的地点。
然后,在步骤S136中,引导信息生成单元10c确定获取的地点的类别是否与多个用户在一段时间内停止的站点的类别(餐馆、酒吧、动物园等)相同。可以从地点信息服务器4获取地点的类别。
然后,当获取的地点的类别与多个用户在一段时间内停止的站点的类别相同(S136中的“是”)时,在步骤S139中,引导信息生成单元10c从中途停留点候选列表中删除获取的地点。
然后,在步骤S142中,引导信息生成单元10c确定其他地点是否保留在中途停留点候选列表中。
然后,当其他地点保留(S142中的“是”)时,处理返回到S133,并且从剩余的中途停留点候选列表中再次获取总分最高的地点。因此,可能防止用户再次被引导到与用户在一段时间内停止的地点相同类别的地点。
另一方面,当没有其他地点保留(S142中的“否”)时,在步骤S145中,引导信息生成单元10c将用于提取地点的预定阈值减少预定值,然后处理返回到S127,并且使用新的阈值提取地点。
当获取的地点的类别与用户在一段时间内停止的站点的类别不相同(S136中的“是”)时,在步骤S148中,引导信息生成单元10c生成将获取的地点设置为中途停留点的引导信息。具体来说,引导信息生成单元10c生成用于在经由中途停留点到达目的地的路线上提供引导的引导信息。或者,引导信息生成单元10c可以生成用于呈现中途停留点的详细信息并且允许用户选择路线是否改变的引导信息,或可以生成用于呈现作为中途停留点候选的多个地点并且允许用户选择中途停留点的引导信息。此外,当用户指定所需的目的地到达时间时,引导信息生成单元10c可以生成包括从剩余时间和行驶时间获得的中途停留点的最大停留时间的引导信息。
然后,在步骤S151中,引导服务器1将生成的引导信息传输到车辆2a。在车辆2a中,引导信息被显示在显示单元26上或以语音输出方式从扬声器(未图示)输出。即使用户不在中途停留点处停止,当用户在游览点或感兴趣的地点附近旅行时,车辆2a可以通过音频或视频向用户通知与该地点相关的信息。此外,当车辆2a是自主巡航车辆时,可以执行根据引导信息(经由中途停留点到达目的地的路线的信息)的自主巡航。
上面已经描述了根据本实施方案的生成包括中途停留点的引导信息的处理。接着,将参考图13详细描述在S106中描述的估计多个用户的关系的处理。
图13是图示根据本实施方案的估计多个用户的关系的处理的细节的流程图。如图13中所示,首先,在步骤S203中,引导服务器1的用户指定单元10a确定人是否乘坐车辆2a。具体来说,乘坐车辆2a的人的面部被车辆2a的车载摄像头23拍摄,并且从车辆2a传输捕获图像,因此用户指定单元10a基于捕获图像通过面部识别来确定人是否乘坐车辆。此外,用户指定单元10a也可以除了基于从车辆2a传输的捕获图像之外,还基于从车辆2a传输的乘客的音频数据或生物信息的分析来确定人是否乘坐车辆。
然后,当人乘坐车辆2a(S203中的“是”)时,在步骤S208中,用户指定单元10a执行该人的个体识别。具体来说,用户指定单元10a参考捕获的面部图像的分析结果和先前登记在个人DB服务器6中的个人信息来执行乘客的个体识别。或者,用户指定单元10a可以参考乘客的语音识别结果,生物信息的分析结果以及登记在个人DB服务器6中的个人信息来执行个体识别。
然后,当能够执行乘客的个体识别(S206中的“是”)时,在步骤S209中,关系估计单元10b从个人DB服务器6获取识别的人的属性。在个人DB服务器6中登记的人的属性的实例包括年龄、性别、职业、爱好/偏好、对象ID等。
然后,在步骤S212中,关系估计单元10b基于识别的乘客之间(多个用户之间)的交互评估从情感服务器3获取情感值。
另一方面,当无法执行乘客的个体识别(S206中的“否”)时,在步骤S215中,关系估计单元10b确定乘客是否输入(或改变)目的地。
然后,当输入目的地(S215中的“是”)时,在步骤S218中,关系估计单元10b估计乘客的旅行目的。例如,当目的地是游览点时,乘客的旅行目的估计是“休闲”;当目的地是与公司或业务相关的地方时,乘客的旅行目的估计是“业务”;当目的地是超市或商店时,乘客的旅行目的估计是“购物”;以及当目的地是诸如公寓或寓所的个人住所时,乘客的旅行目的估计是“乐趣/差事”。关系估计单元10b可以参考一周中的一天和时间进一步增加旅行目的的估计精度。
另一方面,当没有输入目的地(S215中的“否”)时,在步骤S221中,用户指定单元10a获取由车辆2a的车载摄像头23、麦克风24、生物传感器27等检测的与用户相关的信息(捕获图像、音频数据、生物信息等)。
然后,在步骤S224中,即使当使用与获取的用户相关的信息通过面部识别、语音分析和生物信息分析无法执行个体识别时,用户指定单元10a也可以指定乘客的性别和年龄。此外,当在车辆2a中安装深度传感器(未图示)时,可能使用通过深度传感器检测的传感器值来获取乘客的体型数据,并且增加性别或年龄的估计精度。
然后,在步骤S227中,当能够执行个体识别时,关系估计单元10b使用基于人的属性或多个用户之间的交互评估的情感值来估计乘坐车辆2a的多个用户的关系,并且当无法执行个体识别时,使用估计的旅行目的或乘客的性别/年龄来估计乘坐车辆2a的多个用户的关系。
例如,在通过个体识别将坐在驾驶员座椅中的人识别为预先登记为车主的人的情况下,获取人的属性“28岁男性”,并且通过面部识别将一个人估计为20多岁的女性,尽管考虑到无法执行坐在乘客座椅中的人的个体识别。在这种情况下,关系估计单元10b将多个用户的关系缩小为诸如夫妇、朋友、公司的老板和下属以及家人的候选者。此外,关系估计单元10b可以根据日期和时间、目的地、旅行目的等,在假期前往观光景点时估计夫妇关系,并且在工作日前往业务相关的地方时估计业务关系。关系估计单元10b可以根据从音频数据识别的对话内容来估计多个用户的关系。
此外,多个用户的关系的估计不限于使用属性、情感值、旅行目的或性别/年龄的估计,并且例如可以根据基于由相机、麦克风、生物传感器、语音声调、车内的气氛或亲密度检测的数据的对话内容来执行多个用户的关系的估计。
然后,在步骤S230中,引导信息生成单元10c确定是否更新关系。连续执行乘坐车辆2a的多个用户的关系的估计,并且当新人上车时,当目的地改变时,当车内的气氛改变时等,估计多个用户的关系。当关系估计单元10b新估计多个用户的关系时,引导信息生成单元10c确定已更新关系。
然后,当更新关系(S230中的“是”)时,在步骤S233中,引导信息生成单元10c生成(更新)包括中途停留点的引导信息。在引导信息生成处理中,主要执行图6中的S109至S151的处理。
然后,在步骤S236中,引导服务器1确定车辆2a是否到达目的地,并且重复S203至S233的处理,直到车辆2a到达目的地。
上面已经描述了根据本实施方案的估计多个用户的关系的更具体的处理。本实施方案不限于上述处理,并且例如,由于用户不想在出差旅行时停留,所以预先准备“中途停留许可模式”,并且当用户选择该模式时,引导服务器1的控制单元10可以执行根据本实施方案的引导信息生成处理。
此外,引导服务器1的控制单元10确定用户是否实际上停留在他或她被引导到的中途停留点,并且当用户实际上停留在他或她被引导到的中途停留点时,引导服务器1的控制单元10基于停留时间、返回到车辆2a后的微笑程度、对话量的变化等来确定估计关系或用户被引导到的中途停留点的选择是否正确。此外,当需要根据其结果重新估计关系时,关系估计单元10b重新估计多个用户的关系。
此外,当能够执行个体识别时,引导信息生成单元10c能够基于SNS的历史或邮件内容来检测个人的爱好/偏好或个性,并且建议更优化的中途停留点。具体来说,引导信息生成单元10c提供当将生成环境信息图的指令提供给环境信息图生成单元10e时反映个人的爱好/偏好或个性的过滤条件。
此外,由于可能基于乘客之间的先前交互从情感服务器3获取情感值并且估计更详细的关系(诸如“夫妇正在争吵”),所以可能使用详细的关系来选择中途停留点。例如,当估计诸如“夫妇正在争吵”的关系时,由于提供非凡体验的地方(诸如游乐园)更适合和解,所以当将生成环境信息图的指令提供给环境信息图生成单元10e时,引导信息生成单元10c提供“非凡体验”的过滤条件。
<<4.结论>>
如上所述,在根据本公开的实施方案的信息处理系统中,可能根据多个用户的关系生成更优化的引导信息。具体来说,在本实施方案的信息处理系统中,根据多个用户的关系提取到目的地的基本路线附近的地点(中途停留点),并且生成包括中途停留点的引导信息。
上面已经参考附图描述了本公开的优选实施方案,而本公开不限于上述实例。本领域技术人员可以在所附权利要求的范围内发现各种改变和修改,并且应当理解,这些改变和修改将自然地落入本公开的技术范围内。
例如,可能创建计算机程序,其使安装在引导服务器1、车辆2a、智能电话2b或情感服务器3中的诸如CPU、ROM和RAM的硬件执行引导服务器1、车辆2a、智能电话2b或情感服务器3的功能。此外,也提供其中存储有计算机程序的计算机可读存储介质。
此外,本说明书中描述的效果仅仅是说明性或示例性的效果,并且不是限制性的。即,使用或代替上述效果,根据本公开的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果。
另外,本技术也可以被配置如下。
(1)
一种信息处理系统,包括:
用户指定单元,其被配置成指定一起执行动作的多个用户;
估计单元,其被配置成估计所述多个指定用户的关系;以及
生成单元,其被配置成根据所述估计的所述多个用户的关系生成所述多个用户的引导信息。
(2)
根据(1)所述的信息处理系统,
其中所述用户指定单元基于由传感器检测的与所述用户相关的信息指定一起执行动作的所述多个用户。
(3)
根据(1)或(2)所述的信息处理系统,
其中所述估计单元根据基于由传感器检测的与所述用户相关的信息获取的每个所述用户的性别或年龄来估计所述多个用户的所述关系。
(4)
根据(1)至(3)中任一项所述的信息处理系统,
其中所述估计单元根据基于由传感器检测的与所述用户相关的信息获取的气氛来估计所述多个用户的所述关系。
(5)
根据(2)至(4)中任一项所述的信息处理系统,
其中由所述传感器检测的与所述用户相关的所述信息是捕获图像、音频数据、生物信息和终端间通信数据中的至少一个。
(6)
根据(1)至(5)中任一项所述的信息处理系统,
其中所述估计单元根据与所述用户的情感相关的信息来估计所述多个用户的所述关系。
(7)
根据(6)所述的信息处理系统,
其中基于由传感器检测的与所述用户相关的信息生成与所述用户的所述情感相关的所述信息。
(8)
根据(7)所述的信息处理系统,
其中使用基于所述用户的面部的面部图像的面部表情分析,基于音频数据的对话内容的分析,语音声调,以及基于生物信息的心率、排汗量、脑电波或体动中的至少一个,生成与所述用户的所述情感相关的所述信息。
(9)
根据(6)所述的信息处理系统,
其中所述估计单元从通过积累对象之间的交互的评估值建构的情感值数据库获取基于对应于所述多个用户的对象之间的交互评估值计算的情感值,作为与所述用户的所述情感相关的所述信息,并且基于所述情感值估计所述多个用户的所述关系。
(10)
根据(1)至(9)中任一项所述的信息处理系统,
其中所述估计单元根据所述多个用户的属性来估计所述多个用户的所述关系。
(11)
根据(1)至(10)中任一项所述的信息处理系统,
其中所述生成单元根据由所述估计单元估计的所述多个用户的所述关系来决定要包括在所述引导信息中的中途停留点。
(12)
根据(1)至(9)中任一项所述的信息处理系统,
其中所述生成单元使用其中与情感相关的信息与地图形式的位置相关联的情感热图来生成所述引导信息。
(13)
根据(12)所述的信息处理系统,
其中所述生成单元使用其中与环境相关的信息与地图形式的位置相关联的环境信息图以及所述情感热图来生成所述引导信息。
(14)
根据(13)所述的信息处理系统,
其中与所述环境相关的所述信息是地点信息。
(15)
根据(1)至(14)中任一项所述的信息处理系统,进一步包括
传输单元,其被配置成将所述生成的引导信息传输到自主巡航车辆,
其中所述自主巡航车辆根据作为所述引导信息的到目的地的路线的信息来执行自主巡航控制。
(16)
根据(15)所述的信息处理系统,
其中所述路线的信息包括到达目的地的途中的中途停留点。
(17)
根据(1)至(16)中任一项所述的信息处理系统,进一步包括
传输单元,其被配置成将所述生成的引导信息传输到信息处理终端,
其中所述信息处理终端向所述用户呈现所述引导信息。
(18)
一种控制方法,包括:
通过指定单元指定一起执行动作的多个用户;
通过估计单元估计所述多个指定用户的关系;以及
通过生成单元根据所述估计的所述多个用户的关系,生成所述多个用户的引导信息。
参考符号列表
1 引导服务器
10 控制单元
10a 用户指定单元
10b 关系估计单元
10c 引导信息生成单元
10d 情感热图生成单元
10e 环境信息图生成单元
11 通信单元
12 存储单元
2a 车辆
20 控制单元
21 通信单元
22 车辆位置获取单元
23 车载摄像头
24 麦克风
25 操作输入单元
26 显示单元
27 生物传感器
28 自主巡航控制单元
29 存储单元
2b 智能电话
3 情感服务器
4 地点信息服务器
5 SNS服务器
6 个人DB服务器
7 互联网
40 环境信息图
42、43 情感热图
45 集成热图
400-402 地点。
Claims (18)
1.一种信息处理系统,包含:
用户指定单元,其被配置成指定一起执行动作的多个用户;
估计单元,其被配置成估计所述多个指定用户的关系;以及
生成单元,其被配置成根据所述估计的所述多个用户的关系生成所述多个用户的引导信息。
2.根据权利要求1所述的信息处理系统,
其中所述用户指定单元基于由传感器检测的与所述用户相关的信息指定一起执行动作的所述多个用户。
3.根据权利要求1所述的信息处理系统,
其中所述估计单元根据基于由传感器检测的与所述用户相关的信息获取的每个所述用户的性别或年龄来估计所述多个用户的所述关系。
4.根据权利要求1所述的信息处理系统,
其中所述估计单元根据基于由传感器检测的与所述用户相关的信息获取的气氛来估计所述多个用户的所述关系。
5.根据权利要求2所述的信息处理系统,
其中由所述传感器检测的与所述用户相关的信息是捕获图像、音频数据、生物信息和终端间通信数据中的至少一个。
6.根据权利要求1所述的信息处理系统,
其中所述估计单元根据与所述用户的情感相关的信息来估计所述多个用户的所述关系。
7.根据权利要求6所述的信息处理系统,
其中基于由传感器检测的与所述用户相关的信息生成与所述用户的情感相关的信息。
8.根据权利要求7所述的信息处理系统,
其中使用基于所述用户的面部的面部图像的面部表情分析,基于音频数据的对话内容的分析,语音声调,以及基于生物信息的心率、排汗量、脑电波或体动中的至少一个,生成与所述用户的情感相关的信息。
9.根据权利要求6所述的信息处理系统,
其中所述估计单元从通过积累对象之间的交互的评估值建构的情感值数据库获取基于对应于所述多个用户的对象之间的交互评估值计算的情感值,作为与所述用户的情感相关的信息,并且基于所述情感值估计所述多个用户的所述关系。
10.根据权利要求1所述的信息处理系统,
其中所述估计单元根据所述多个用户的属性来估计所述多个用户的所述关系。
11.根据权利要求1所述的信息处理系统,
其中所述生成单元根据由所述估计单元估计的所述多个用户的所述关系来决定要包括在所述引导信息中的中途停留点。
12.根据权利要求1所述的信息处理系统,
其中所述生成单元使用其中与情感相关的信息以地图形式与位置相关联的情感热图来生成所述引导信息。
13.根据权利要求12所述的信息处理系统,
其中所述生成单元使用其中与环境相关的信息以地图形式与位置相关联的环境信息图以及所述情感热图来生成所述引导信息。
14.根据权利要求13所述的信息处理系统,
其中与所述环境相关的信息是地点信息。
15.根据权利要求1所述的信息处理系统,进一步包含
传输单元,其被配置成将所述生成的引导信息传输到自主巡航车辆,
其中所述自主巡航车辆根据作为所述引导信息的到目的地的路线的信息来执行自主巡航控制。
16.根据权利要求15所述的信息处理系统,
其中所述路线的信息包括到达目的地的途中的中途停留点。
17.根据权利要求1所述的信息处理系统,进一步包含
传输单元,其被配置成将所述生成的引导信息传输到信息处理终端,
其中所述信息处理终端向所述用户呈现所述引导信息。
18.一种控制方法,包含:
通过指定单元指定一起执行动作的多个用户;
通过估计单元估计所述多个指定用户的关系;以及
通过生成单元根据所述估计的所述多个用户的关系,生成所述多个用户的引导信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011563140.1A CN112762956A (zh) | 2015-01-30 | 2015-10-21 | 信息处理系统和控制方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-016666 | 2015-01-30 | ||
JP2015016666 | 2015-01-30 | ||
PCT/JP2015/079708 WO2016121174A1 (ja) | 2015-01-30 | 2015-10-21 | 情報処理システムおよび制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011563140.1A Division CN112762956A (zh) | 2015-01-30 | 2015-10-21 | 信息处理系统和控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107209019A true CN107209019A (zh) | 2017-09-26 |
CN107209019B CN107209019B (zh) | 2021-01-15 |
Family
ID=56542812
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011563140.1A Pending CN112762956A (zh) | 2015-01-30 | 2015-10-21 | 信息处理系统和控制方法 |
CN201580074142.5A Active CN107209019B (zh) | 2015-01-30 | 2015-10-21 | 信息处理系统和控制方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011563140.1A Pending CN112762956A (zh) | 2015-01-30 | 2015-10-21 | 信息处理系统和控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10302444B2 (zh) |
JP (1) | JP6607198B2 (zh) |
CN (2) | CN112762956A (zh) |
WO (1) | WO2016121174A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287422A (zh) * | 2018-03-19 | 2019-09-27 | 本田技研工业株式会社 | 信息提供装置及其控制方法 |
CN110619033A (zh) * | 2018-06-19 | 2019-12-27 | 丰田自动车株式会社 | 信息处理装置、信息处理方法、信息处理系统 |
CN112866326A (zh) * | 2019-11-12 | 2021-05-28 | 现代自动车株式会社 | 通信终端、服务器、包括其的多移动性服务系统及其方法 |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10788235B2 (en) * | 2014-11-07 | 2020-09-29 | Sony Corporation | Control system, control method, and storage medium |
JP6892258B2 (ja) * | 2016-12-15 | 2021-06-23 | 株式会社東芝 | 運転状態制御装置および運転状態制御方法 |
JP6728029B2 (ja) * | 2016-12-20 | 2020-07-22 | ヤフー株式会社 | 提供装置、提供方法および提供プログラム |
JP2018100936A (ja) * | 2016-12-21 | 2018-06-28 | トヨタ自動車株式会社 | 車載装置及び経路情報提示システム |
US11237009B2 (en) | 2016-12-28 | 2022-02-01 | Honda Motor Co., Ltd. | Information provision system for route proposition based on emotion information |
US11302106B2 (en) | 2016-12-28 | 2022-04-12 | Honda Motor Co., Ltd. | Information provision system |
JP7030062B2 (ja) | 2016-12-28 | 2022-03-04 | 本田技研工業株式会社 | 情報処理システム、及び情報処理装置 |
JP6790842B2 (ja) * | 2017-01-11 | 2020-11-25 | トヨタ自動車株式会社 | 経路情報提供装置 |
US10388282B2 (en) * | 2017-01-25 | 2019-08-20 | CliniCloud Inc. | Medical voice command device |
JP6702217B2 (ja) * | 2017-02-06 | 2020-05-27 | 株式会社デンソー | 自動運転装置 |
JP6552118B2 (ja) | 2017-03-17 | 2019-07-31 | 本田技研工業株式会社 | ナビゲーションシステム、ナビゲーション方法、および、プログラム |
US10974619B2 (en) * | 2017-03-28 | 2021-04-13 | Ts Tech Co., Ltd. | Vehicle seat and passenger selection system |
JP7060779B2 (ja) * | 2017-03-28 | 2022-04-27 | テイ・エス テック株式会社 | 組み合わせ選定システム |
JP6722347B2 (ja) * | 2017-03-31 | 2020-07-15 | 本田技研工業株式会社 | 行動支援システム、行動支援装置、行動支援方法およびプログラム |
US10303961B1 (en) | 2017-04-13 | 2019-05-28 | Zoox, Inc. | Object detection and passenger notification |
JP6866741B2 (ja) * | 2017-04-14 | 2021-04-28 | 富士通株式会社 | ユーザ関係抽出装置、ユーザ関係抽出方法及びプログラム |
WO2018230461A1 (ja) * | 2017-06-16 | 2018-12-20 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、及びプログラム |
US20200202474A1 (en) * | 2017-06-23 | 2020-06-25 | Sony Corporation | Service information providing system and control method |
US10795356B2 (en) * | 2017-08-31 | 2020-10-06 | Uatc, Llc | Systems and methods for determining when to release control of an autonomous vehicle |
WO2019049491A1 (ja) * | 2017-09-08 | 2019-03-14 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2019070530A (ja) * | 2017-10-05 | 2019-05-09 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法、及びプログラム |
EP3466761B1 (en) * | 2017-10-05 | 2020-09-09 | Ningbo Geely Automobile Research & Development Co. Ltd. | A display system and method for a vehicle |
JP6319506B1 (ja) * | 2017-11-02 | 2018-05-09 | オムロン株式会社 | 評価装置、評価システム、車両、およびプログラム |
JP6958255B2 (ja) | 2017-11-07 | 2021-11-02 | トヨタ自動車株式会社 | 情報処理装置及び情報処理方法 |
RU2768509C2 (ru) * | 2017-11-17 | 2022-03-24 | Ниссан Мотор Ко., Лтд. | Устройство помощи в управлении транспортным средством |
JP7081132B2 (ja) * | 2017-12-12 | 2022-06-07 | 日産自動車株式会社 | 情報処理方法及び情報処理装置 |
US11273836B2 (en) * | 2017-12-18 | 2022-03-15 | Plusai, Inc. | Method and system for human-like driving lane planning in autonomous driving vehicles |
JP2019109739A (ja) * | 2017-12-19 | 2019-07-04 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP7080078B2 (ja) * | 2018-03-19 | 2022-06-03 | 本田技研工業株式会社 | 情報提供システム、情報提供方法、及びプログラム |
JP7053325B2 (ja) * | 2018-03-19 | 2022-04-12 | 本田技研工業株式会社 | 情報提供装置およびその制御方法 |
JP7127804B2 (ja) * | 2018-04-27 | 2022-08-30 | 株式会社ピーケア | 飲食店舗システム |
JP7082008B2 (ja) * | 2018-08-20 | 2022-06-07 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
EP3850563A1 (en) * | 2018-09-14 | 2021-07-21 | Philippe Laik | Interaction generation device |
EP3850573A1 (en) * | 2018-09-14 | 2021-07-21 | Philippe Laik | Interaction recommendation system |
JP7192380B2 (ja) * | 2018-10-12 | 2022-12-20 | トヨタ自動車株式会社 | 運転支援装置、車両、運転支援システム、運転支援方法、及び運転支援用コンピュータプログラム |
JP7155927B2 (ja) * | 2018-11-19 | 2022-10-19 | トヨタ自動車株式会社 | 情報処理システム、プログラム、及び情報処理方法 |
JP7239807B2 (ja) * | 2018-11-29 | 2023-03-15 | テイ・エス テック株式会社 | シートシステム |
US12005811B2 (en) | 2018-11-29 | 2024-06-11 | Ts Tech Co., Ltd. | Seat system |
JP6667863B1 (ja) * | 2019-07-18 | 2020-03-18 | 株式会社MaaS Tech Japan | プログラム及び情報処理装置 |
JP7161782B2 (ja) * | 2020-01-04 | 2022-10-27 | 株式会社MaaS Tech Japan | プログラム及び情報処理装置 |
JP2022054820A (ja) * | 2020-09-28 | 2022-04-07 | マツダ株式会社 | 走行経路設定装置 |
JP7568556B2 (ja) * | 2021-03-18 | 2024-10-16 | Lineヤフー株式会社 | 提供装置、提供方法及び提供プログラム |
US12055404B2 (en) * | 2021-05-04 | 2024-08-06 | At&T Intellectual Property I, L.P. | Sentiment-based navigation |
WO2023095318A1 (ja) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | 案内装置、システム及び方法、並びに、コンピュータ可読媒体 |
US20240078732A1 (en) * | 2022-09-07 | 2024-03-07 | Qualcomm Incorporated | Avatar facial expressions based on semantical context |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1871499A (zh) * | 2003-09-30 | 2006-11-29 | 株式会社建伍 | 引导路线搜索装置和引导路线搜索方法 |
CN101363737A (zh) * | 2007-08-08 | 2009-02-11 | 株式会社查纳位资讯情报 | 路线探索方法、路线探索系统及导航装置 |
JP2010237134A (ja) * | 2009-03-31 | 2010-10-21 | Equos Research Co Ltd | 目的地提示システム及びナビゲーションシステム |
JP2011117905A (ja) * | 2009-12-07 | 2011-06-16 | Pioneer Electronic Corp | ルート選択支援装置及びルート選択支援方法 |
KR20120039444A (ko) * | 2010-10-15 | 2012-04-25 | 한국전자통신연구원 | 다중 사용자 관계 기반 내비게이션 장치 및 이를 이용한 내비게이션 관리 방법 |
CN102538810A (zh) * | 2010-12-14 | 2012-07-04 | 国际商业机器公司 | 用于导航规划和地图的人类情感度量的方法和系统 |
CN102693725A (zh) * | 2011-03-25 | 2012-09-26 | 通用汽车有限责任公司 | 依赖于文本信息语境的语音识别 |
JP2013088409A (ja) * | 2011-10-24 | 2013-05-13 | Nissan Motor Co Ltd | 車両用走行支援装置 |
CN103189817A (zh) * | 2010-11-02 | 2013-07-03 | Nec卡西欧移动通信株式会社 | 信息处理系统和信息处理方法 |
JP2013164664A (ja) * | 2012-02-09 | 2013-08-22 | Denso Corp | 情報出力装置 |
WO2014054152A1 (ja) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | 車載情報処理装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4566844B2 (ja) * | 2005-07-01 | 2010-10-20 | 株式会社デンソー | ナビゲーションシステム、および、そのナビゲーションシステムに用いる記憶装置 |
JP2008003027A (ja) | 2006-06-26 | 2008-01-10 | Fujitsu Ten Ltd | ナビゲーション装置 |
JP4960167B2 (ja) * | 2007-08-02 | 2012-06-27 | パイオニア株式会社 | ドライブプラン作成装置、ドライブプラン作成方法、ドライブプラン作成プログラムおよび記録媒体 |
US20090031877A1 (en) * | 2007-08-03 | 2009-02-05 | Les Produits Gilbert Inc. | Saw blade assembly for a cutting saw |
JP4609527B2 (ja) * | 2008-06-03 | 2011-01-12 | 株式会社デンソー | 自動車用情報提供システム |
JP5528473B2 (ja) * | 2009-12-02 | 2014-06-25 | 三菱電機株式会社 | ナビゲーション装置 |
US8509982B2 (en) * | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US8775059B2 (en) * | 2011-10-26 | 2014-07-08 | Right There Ware LLC | Method and system for fleet navigation, dispatching and multi-vehicle, multi-destination routing |
US8642241B2 (en) * | 2011-12-21 | 2014-02-04 | Xerox Corporation | Mixer apparatus and method of making developer |
US9043133B2 (en) * | 2011-12-29 | 2015-05-26 | Intel Corporation | Navigation systems and associated methods |
JP6012729B2 (ja) * | 2012-07-03 | 2016-10-25 | 三菱電機株式会社 | ナビゲーション装置 |
WO2014129042A1 (ja) * | 2013-02-21 | 2014-08-28 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR102043637B1 (ko) * | 2013-04-12 | 2019-11-12 | 한국전자통신연구원 | 감성 기반 경로 안내 장치 및 방법 |
-
2015
- 2015-10-21 US US15/542,720 patent/US10302444B2/en active Active
- 2015-10-21 CN CN202011563140.1A patent/CN112762956A/zh active Pending
- 2015-10-21 WO PCT/JP2015/079708 patent/WO2016121174A1/ja active Application Filing
- 2015-10-21 JP JP2016571673A patent/JP6607198B2/ja active Active
- 2015-10-21 CN CN201580074142.5A patent/CN107209019B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1871499A (zh) * | 2003-09-30 | 2006-11-29 | 株式会社建伍 | 引导路线搜索装置和引导路线搜索方法 |
CN101363737A (zh) * | 2007-08-08 | 2009-02-11 | 株式会社查纳位资讯情报 | 路线探索方法、路线探索系统及导航装置 |
JP2010237134A (ja) * | 2009-03-31 | 2010-10-21 | Equos Research Co Ltd | 目的地提示システム及びナビゲーションシステム |
JP2011117905A (ja) * | 2009-12-07 | 2011-06-16 | Pioneer Electronic Corp | ルート選択支援装置及びルート選択支援方法 |
KR20120039444A (ko) * | 2010-10-15 | 2012-04-25 | 한국전자통신연구원 | 다중 사용자 관계 기반 내비게이션 장치 및 이를 이용한 내비게이션 관리 방법 |
CN103189817A (zh) * | 2010-11-02 | 2013-07-03 | Nec卡西欧移动通信株式会社 | 信息处理系统和信息处理方法 |
CN102538810A (zh) * | 2010-12-14 | 2012-07-04 | 国际商业机器公司 | 用于导航规划和地图的人类情感度量的方法和系统 |
CN102693725A (zh) * | 2011-03-25 | 2012-09-26 | 通用汽车有限责任公司 | 依赖于文本信息语境的语音识别 |
JP2013088409A (ja) * | 2011-10-24 | 2013-05-13 | Nissan Motor Co Ltd | 車両用走行支援装置 |
JP2013164664A (ja) * | 2012-02-09 | 2013-08-22 | Denso Corp | 情報出力装置 |
WO2014054152A1 (ja) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | 車載情報処理装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287422A (zh) * | 2018-03-19 | 2019-09-27 | 本田技研工业株式会社 | 信息提供装置及其控制方法 |
CN110287422B (zh) * | 2018-03-19 | 2024-03-26 | 本田技研工业株式会社 | 信息提供装置及其控制方法 |
CN110619033A (zh) * | 2018-06-19 | 2019-12-27 | 丰田自动车株式会社 | 信息处理装置、信息处理方法、信息处理系统 |
CN110619033B (zh) * | 2018-06-19 | 2023-12-08 | 丰田自动车株式会社 | 信息处理装置、信息处理方法、信息处理系统 |
CN112866326A (zh) * | 2019-11-12 | 2021-05-28 | 现代自动车株式会社 | 通信终端、服务器、包括其的多移动性服务系统及其方法 |
Also Published As
Publication number | Publication date |
---|---|
US10302444B2 (en) | 2019-05-28 |
JP6607198B2 (ja) | 2019-11-20 |
JPWO2016121174A1 (ja) | 2017-11-09 |
WO2016121174A1 (ja) | 2016-08-04 |
CN107209019B (zh) | 2021-01-15 |
US20170370744A1 (en) | 2017-12-28 |
CN112762956A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107209019A (zh) | 信息处理系统和控制方法 | |
US11763580B2 (en) | Information processing apparatus, information processing method, and program | |
EP2687998B1 (en) | Information terminal, information providing server, and control program | |
JP6169826B2 (ja) | 情報処理装置、情報処理方法、プログラム及び情報処理システム | |
US8914079B2 (en) | Mobile information terminal, information management device, and mobile information terminal information management system | |
JP2018100936A (ja) | 車載装置及び経路情報提示システム | |
US20170229045A1 (en) | Information processing device, control method, and program | |
KR20190000400A (ko) | 서비스 분배 시스템 및 방법 | |
US20180025283A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019020784A (ja) | 情報提供装置 | |
CN105759954A (zh) | 信息处理装置、信息处理方法以及程序 | |
CN111095240A (zh) | 信息处理设备、信息处理方法和程序 | |
US11885629B2 (en) | Personalized experience journeys | |
US20220412766A1 (en) | Sentiment-based autonomous vehicle user interaction and routing recommendations | |
JP2019021336A (ja) | サーバ装置、端末装置、情報提示システム、情報提示方法、情報提示プログラムおよび記録媒体 | |
CN113111252A (zh) | 用于在导航期间向用户推荐信息的装置和方法 | |
US12055404B2 (en) | Sentiment-based navigation | |
JP2015230691A (ja) | 情報提供装置 | |
JP7223513B2 (ja) | 移送モビリティサービスの提案方法及び移送モビリティサービスの提案装置 | |
CN110514214A (zh) | 车辆导航系统 | |
JP2020086763A (ja) | 情報提供装置、情報提供方法、及びプログラム | |
JP7226233B2 (ja) | 車両、情報処理システム、プログラム及び制御方法 | |
JP2023170927A (ja) | 端末装置、情報処理方法、および情報処理プログラム | |
JP2023170926A (ja) | 端末装置、情報処理方法、および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |