CN111176434A - 视线检测装置、计算机可读存储介质以及视线检测方法 - Google Patents
视线检测装置、计算机可读存储介质以及视线检测方法 Download PDFInfo
- Publication number
- CN111176434A CN111176434A CN201911075247.9A CN201911075247A CN111176434A CN 111176434 A CN111176434 A CN 111176434A CN 201911075247 A CN201911075247 A CN 201911075247A CN 111176434 A CN111176434 A CN 111176434A
- Authority
- CN
- China
- Prior art keywords
- unit
- gaze
- eye
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 134
- 238000005259 measurement Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 47
- 230000004044 response Effects 0.000 description 250
- 238000004891 communication Methods 0.000 description 235
- 239000003795 chemical substances by application Substances 0.000 description 148
- 210000001508 eye Anatomy 0.000 description 143
- 238000000034 method Methods 0.000 description 70
- 238000012546 transfer Methods 0.000 description 56
- 238000007726 management method Methods 0.000 description 53
- 208000004350 Strabismus Diseases 0.000 description 36
- 230000004913 activation Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 33
- 238000012937 correction Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 30
- 230000036544 posture Effects 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 15
- 230000010365 information processing Effects 0.000 description 14
- 230000003993 interaction Effects 0.000 description 13
- 238000013500 data storage Methods 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000003786 synthesis reaction Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 8
- 241001465754 Metazoa Species 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000000977 initiatory effect Effects 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
Abstract
一种视线检测装置、计算机可读存储介质以及视线检测方法,解决在均等地考虑左右的视线的方向来推定注视点的情况下,随着左右的视线的方向的不同增大,推定的注视点以及实际的注视点的偏差增大至在实用上成为问题的程度的课题。该视线检测装置具备:决定第1方向的第1方向决定部;决定第2方向的第2方向决定部;基于(i)针对配置有计测被验者的视线的视线计测装置的设备的被验者的操作、(ii)设备的状态以及(iii)被验者的面部的朝向的至少1个,假定被验者的注视方向的假定部;对假定的注视方向、第1方向以及第2方向进行比较,判定第1眼以及第2眼的哪个是主视眼的第1判定部。
Description
技术领域
本发明涉及视线检测装置、计算机可读存储介质以及视线检测方法。
背景技术
已知有对用户的视线进行检测,并推定用户的注视点的技术(例如参照专利文献1)。
专利文献1:日本特开平05-199996号公报
发明内容
存在在检测用户的视线时,左右的视线的方向不同的情况。在均等地考虑左右的视线的方向来推定注视点的情况下,随着左右的视线的方向的不同增大,推定出的注视点以及实际的注视点的偏差增大至在实用上成为问题的程度。
在本发明的第1方式中,提供一种视线检测装置。上述的视线检测装置例如具备决定被验者的第1眼的视线的方向亦即第1方向的第1方向决定部。上述的视线检测装置例如具备决定被验者的第2眼的视线的方向亦即第2方向的第2方向决定部。上述的视线检测装置例如具备基于(i)针对配置有计测被验者的视线的视线计测装置的设备的被验者的操作、(ii)设备的状态、以及(iii)被验者的面部的朝向的至少1个,假定被验者的注视方向的假定部。上述的视线检测装置例如具备对假定的注视方向、第1方向以及第2方向进行比较,判定第1眼以及第2眼的哪个是主视眼的第1判定部。在上述的视线检测装置中,第1判定部例如在假定的注视方向和第1方向所成的角度的绝对值小于假定的注视方向和第2方向所成的角度的绝对值的情况下,判定第1眼是主视眼。在上述的视线检测装置中,第1判定部例如在假定的注视方向和第2方向所成的角度的绝对值小于假定的注视方向和第1方向所成的角度的绝对值的情况下,判定第2眼是主视眼。
在上述的视线检测装置中,上述的视线计测装置可以搭载于设备。在上述的视线检测装置中,设备可以是被验者驾驶的移动体。在上述的视线检测装置中,假定部可以在(i)移动体的移动速度相关的操作量满足预先设定的第1速度条件,且(ii)移动体的转向操纵角相关的操作量满足预先设定的转向操纵条件的情况下,将移动体的前进方向假定为被验者的注视方向。
在上述的视线检测装置中,上述的视线计测装置可以搭载于设备。在上述的视线检测装置中,设备可以是被验者驾驶的移动体。在上述的视线检测装置中,假定部可以在(i)移动体的移动速度满足预先设定的第2速度条件,且(ii)移动体的侧倾角速度、俯仰角速度以及偏航角速度的至少1个满足预先设定的角速度条件的情况下,将移动体的前进方向假定为被验者的注视方向。
在上述的视线检测装置中,上述的视线计测装置可以具备对(i)用于操作设备的物理操作按钮、或(ii)显示于设备的图像输出装置并用于操作设备的操作图标被被验者按下这一情形进行检测的操作检测部。在上述的视线检测装置中,上述的视线计测装置可以搭载于设备。在上述的视线检测装置中,假定部在操作检测部检测出操作按钮或操作图标被被验者按下这一情形时,可以将被验者注视操作按钮或操作图标的方向假定为被验者的注视方向。
在上述的视线检测装置中,上述的视线计测装置可以具备检测被验者的面部的朝向的面部方向检测部。在上述的视线检测装置中,假定部可以将面部方向检测部检测出的被验者的面部的朝向假定为被验者的注视方向。
上述的视线检测装置可以具备基于第1方向以及第2方向,决定对被验者的注视方向进行推定的注视方向推定部中的推定处理所利用的推定参数的推定参数决定部。在上述的视线检测装置中,推定参数决定部可以以使得第1判定部判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响比另一个眼睛的视线的方向对注视方向的推定带来的影响大的方式,决定推定参数。
上述的视线检测装置可以具备对第1方向以及第2方向进行比较,判定所述第1方向和第2方向所成的角度是否满足预先设定的方向条件的第2判定部。在上述的视线检测装置中,推定参数决定部在第2判定部判定为所述第1方向和第2方向所成的角度满足方向条件的情况下,可以以使得第1判定部判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响比另一个眼睛的视线的方向对注视方向的推定带来的影响大的方式,决定推定参数。
在上述的视线检测装置中,推定参数决定部在第2判定部判定为所述第1方向和第2方向所成的角度满足方向条件的情况下,可以以使得第1判定部判定为不是主视眼的眼睛的视线的方向不被用于注视方向的推定的方式,决定推定参数。在上述的视线检测装置中,推定参数决定部在第2判定部判定为所述第1方向和第2方向所成的角度不满足方向条件的情况下,可以以使得第1判定部判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响与另一个眼睛的视线的方向对注视方向的推定带来的影响大致相等的方式,决定推定参数。上述的视线检测装置可以具备视线计测装置。
在本发明的第2方式中,提供一种程序。也可以提供一种保存上述的程序的非暂时性的计算机可读介质。上述的程序可以是使计算机作为上述的视线检测装置发挥功能的程序。上述的程序可以是用于使计算机执行上述的视线检测装置中的信息处理方法的程序。
在本发明的第3方式中,提供一种视线检测方法。上述的视线检测方法例如具有决定被验者的第1眼的视线的方向亦即第1方向的第1方向决定步骤。上述的视线检测方法例如具有决定被验者的第2眼的视线的方向亦即第2方向的第2方向决定步骤。上述的视线检测方法例如具有基于(i)针对配置有计测被验者的视线的视线计测装置的设备的被验者的操作、(ii)设备的状态、以及(iii)被验者的面部的朝向的至少1个,假定被验者的注视方向的假定步骤。上述的视线检测方法例如具有对假定的注视方向、第1方向以及第2方向进行比较,判定第1眼以及第2眼的哪个是主视眼的第1判定步骤。在上述的视线检测方法中,第1判定步骤例如包括在假定的注视方向和第1方向所成的角度的绝对值小于假定的注视方向和第2方向所成的角度的绝对值的情况下,判定第1眼是主视眼的步骤。在上述的视线检测方法中,第1判定步骤例如包括在假定的注视方向和第2方向所成的角度的绝对值小于假定的注视方向和第1方向所成的角度的绝对值的情况下,判定第2眼是主视眼的步骤。
另外,上述的发明的概要并未例举本发明的所有必要技术特征。另外,这些特征组的子组合也可以成为发明。
附图说明
图1简要示出对话型智能体系统100的系统构成的一例。
图2简要示出车辆110的内部构成的一例。
图3简要示出输入输出控制部272的内部构成的一例。
图4简要示出事件检测部340的内部构成的一例。
图5简要示出启动事件检测部430的内部构成的一例。
图6简要示出响应管理部350的内部构成的一例。
图7简要示出智能体信息保存部360的内部构成的一例。
图8简要示出辅助服务器120的内部构成的一例。
图9简要示出请求决定部842的内部构成的一例。
图10简要示出响应信息生成部846的内部构成的一例。
图11简要示出用户20的视线方向的一例。
图12简要示出用户20的视线方向的一例。
图13简要示出校正部414的内部构成的一例。
图14简要示出判定部1246的内部构成的一例。
具体实施方式
以下,通过发明的实施方式对本发明进行说明,但以下的实施方式不对权利要求书涉及的发明进行限定。另外,实施方式中说明的所有特征的组合对于发明的解决手段未必是必须的。另外,在附图中,对相同或类似的部分赋予相同的附图标记,有时省略重复的说明。
[对话型智能体系统100的概要]
图1简要示出对话型智能体系统100的系统构成的一例。在本实施方式中,对话型智能体系统100具备车辆110和辅助服务器120。在本实施方式中,车辆110具有响应系统112和通信系统114。
对话型智能体系统100可以是请求处理装置的一例。搭载于车辆110或车辆110的信息输出设备可以是智能体装置的一例。响应系统112可以是智能体装置的一例。辅助服务器120可以是中继装置的一例。
在本实施方式中,车辆110以及辅助服务器120能够经由通信网络10相互收发信息。另外,车辆110和车辆110的用户20所利用的通信终端30可以经由通信网络10收发信息,辅助服务器120和通信终端30可以经由通信网络10收发信息。
在本实施方式中,通信网络10可以是有线通信的传输路径,可以是无线通信的传输路径,也可以是无线通信的伝送路径以及有线通信的传输路径的组合。通信网络10可以包含无线分组通信网、互联网、P2P网络、专用线路、VPN、电线通信线路等。通信网络10可以包含(i)手机线路网等移动通信网,也可以包含(ii)无线MAN(例如,是WiMAX(注册商标)。)、无线LAN(例如,是WiFi(注册商标)。)、Bluetooth(注册商标)、Zigbee(注册商标)、NFC(NearField Communication)等无线通信网。
在本实施方式中,用户20可以是车辆110的利用者。用户20可以是车辆110的驾驶者,也可以是该驾驶者的同乘者。用户20可以是车辆110的所有者,也可以是车辆110的占有者。车辆110的占有者可以是车辆110的租赁服务或共享服务的利用者。
在本实施方式中,通信终端30只要能够和车辆110以及辅助服务器120的至少一方收发信息即可,对于其细节没有特别的限定。作为通信终端30,例举个人计算机、移动终端等。作为移动终端,例举手机、智能电话、PDA,平板电脑、笔记本电脑或手提计算机、可穿戴计算机等。
通信终端30可以与1个或多个通信方式对应。作为通信方式,例举移动体通信方式、无线MAN方式、无线LAN方式、无线PAN方式等。作为移动体通信方式,例举GSM(注册商标)方式、3G方式、LTE方式、4G方式、5G方式等。作为无线MAN方式,例举WiMAX(注册商标)。作为无线LAN方式,例举WiFi(注册商标)。作为无线PAN方式,例举Bluetooth(注册商标)、Zigbee(注册商标)、NFC(Near Field Communication)等。
在本实施方式中,对话型智能体系统100获取由用户20的语音以及姿态的至少一方表示的请求,执行与该请求对应的处理。作为姿态,例举动作、手势、举止、面部朝向、视线朝向、面部表情等。另外,对话型智能体系统100将上述的处理的结果向用户20传递。对话型智能体系统100可以经由作为对话型智能体系统100的接口发挥功能的智能体和用户20之间的对话型的指令,执行上述的请求的获取以及结果的传递。
智能体被利用于向用户20传递信息。通过用户20和智能体的交互,不仅能够传递语言信息,也能够传递非语言信息。由此,能够实现更加流畅的信息传递。智能体可以是软件智能体,也可以是硬件智能体。另外,智能体有时也称为AI助理。
软件智能体可以是通过计算机实现的拟人化智能体。上述的计算机可以是搭载于通信终端30以及车辆110的至少一方的计算机。拟人化智能体例如能够被显示或投影至计算机的显示装置或投影装置上,实现与用户20的交流。拟人化智能体也可以通过语音,实现与用户20的交流。硬件智能体可以是机器人。机器人可以是人型机器人,也可以是宠物型机器人。
智能体可以具有面部。“面部”中不仅包含人类或动物的面部,还可以包含面部的等同物。面部的等同物可以具有与面部同样的功能。作为面部的功能,例举传递感情的功能、表示注视点的功能等。
智能体可以具有眼部。“眼部”中不仅包含人类或动物的眼,也可以包含眼的等同物。眼的等同物可以具有与眼同样的功能。作为眼的功能,例举传递感情的功能、表示注视点的功能等。
另外,“对话”中不仅包含基于语言信息的交流,也可以包含基于非语言信息的交流。作为基于语言信息的交流,例举(i)会话、(ii)手语、(iii)将姿态和基于该姿态的传递内容预先定义的信号或信号音等。作为基于非语言信息的交流,例举动作、手势、举止、面部的朝向、视线的朝向、面部的表情等。
在本实施方式中,对话型智能体系统100利用安装于辅助服务器120的对话引擎(未图示。有时称为云端型对话引擎。),针对用户20的请求进行响应。另外,在其他的实施方式中,对话型智能体系统100可以具备安装于响应系统112的对话引擎(未图示。有时称为本地型对话引擎。)和安装于辅助服务器120的云端型对话引擎。
本地型对话引擎以及云端型对话引擎可以是在物理上不同的对话引擎。本地型对话引擎以及云端型对话引擎也可以是性能不同的对话引擎。在一个实施方式中,本地型对话引擎能够识别的请求的种类的数量比云端型对话引擎能够识别的请求的种类的数量少。在其他的实施方式中,本地型对话引擎能够处理的请求的种类的数量比云端型对话引擎能够识别的处理的种类的数量少。
对话型智能体系统100可以基于车辆110以及辅助服务器120之间的通信状态,决定利用本地型对话引擎以及云端型对话引擎中的哪一个对话引擎。例如,在通信状态比较良好的情况下,对话型智能体系统100利用云端型对话引擎来响应用户20的请求。另一方面,在通信状态比较差的情况下,对话型智能体系统100利用本地型对话引擎响应用户20的请求。由此,能够根据车辆110以及辅助服务器120之间的通信状态,切换本地型对话引擎和云端型对话引擎。
对话型智能体系统100可以基于响应系统112的状态,决定智能体的模式。由此,能够根据响应系统112的状态来切换智能体的模式。作为响应系统112的状态,例举(i)响应系统112停止的状态(有时称为OFF状态),(ii)响应系统112工作的状态(有时称为ON状态)且等待用于开始基于对话引擎的响应处理的请求(有时称为启动请求。)的状态(有时称为待机状态。),(iii)ON状态且基于对话引擎的响应处理被执行的状态(有时称为启动状态。)等。
待机状态可以是用于受理启动请求并对该启动请求进行处理的状态。启动状态可以是用于经由智能体来处理启动请求以外的请求的状态。
启动请求可以是用于启动智能体的请求,可以是用于开始经由智能体的响应处理的请求,也可以是用于使对话引擎的语音识别功能或姿态识别功能启动或有效化的请求。启动请求可以是用于将响应系统112的状态从待机状态变更成启动状态的请求。启动请求有时被称为启动词、触发短语等。启动请求不限于语音。启动请求可以是预先设定的姿态,也可以是进行了用于输入启动请求的操作。
上述的响应系统112的状态的至少1个也可以被进一步细分化。例如,基于对话引擎的响应处理被执行的状态可以被细分化成本地型对话引擎处理用户20的请求的状态、和云端型对话引擎处理用户20的请求的状态。由此,例如,对话型智能体系统100在本地型对话引擎处理用户20的请求的情况下、和云端型对话引擎处理用户20的请求的情况下,可切换智能体的模式。
作为智能体的模式,例举作为智能体而被利用的角色的种类、该角色的外观、该角色的声音、以及交互模式的至少1个。作为角色,例举将实际存在的人物、动物或物体模型化的角色、将历史上的人物、动物或物体模型化的角色、将幻想的或虚拟的人物、动物或物体模型化的角色等。上述的物体可以是有形物,也可以是无形物。角色可以是将上述的人物、动物或物体的一部分模型化的角色。
作为外观,例举(i)形状、模样、色彩以及它们的组合、(ii)变形、夸张或改装的手法以及程度、以及(iii)图像的画风的至少1个。作为形状,例举容姿、发型、服装、配饰、表情以及姿势的至少1个。作为变形的手法,例举头身比率的变更、零件的配置的变更、零件的简化等。作为画风,例举图像整体的调色、笔触等。作为笔触,例举写实的笔触、插图风格的笔触、漫画风格的笔触、美式漫画风格的笔触、戏剧风格的笔触、严肃的笔触、喜剧风格的笔触等。
例如,即使是同一角色,也存在因年龄的不同而外观不同的情况。在少年期、青年期、壮年期、中年期、老年期以及晩年期的至少2个中,角色的外观也可以不同。另外,即使是同一角色,随着变形的程度的加大,存在外观看起来显幼小的情况。例如,若对同一角色的外观的图像且头身比率不同的2个图像进行比较,则头身比率小的图像中的角色比头身比率大的图像中的角色看起来幼小。
作为声,例举音质、音色(有时称为音调)、以及声音高低(有时称为音高)的至少1个。作为交互模式,例举响应时的说话方式以及举止的至少一方。作为说话方式,例举音量、语气、语速、每1回的说话时长、停顿方式、声调方式、强弱方式、附和方式、语言习惯、以及话题的展开方法的至少1个。另外,在用户20以及智能体之间的交互通过手语实现的情况下的说话方式的具体例可以与用户20以及智能体之间的交互通过会话实现的情况下的说话方式的具体例相同。
另外,在本实施方式中,以响应系统112是安装于车辆110的对话型的车辆用驾驶辅助装置的情况为例,对对话型智能体系统100的细节进行说明。但是,对话型智能体系统100不限于本实施方式。在其他的实施方式中,安装有响应系统112的设备不限于车辆。响应系统112可以安装于固定式的设备、移动式的设备(有时称为移动体)、或便携式以及可搬运式的设备。响应系统112优选安装于具备输出信息的功能和通信功能的设备。例如,响应系统112可以安装于通信终端30。安装有响应系统112的设备可以是智能体装置、控制装置以及请求处理装置的一例。
作为固定式的设备,例举台式机型PC、电视、音响、冰箱等的电气产品。作为移动式的设备,例举车辆、机床、工作设备、飞行器等。作为便携式或可搬运式的设备,例举手机、智能电话、PDA、平板电脑、笔记本电脑或手提计算机、可穿戴计算机、移动电源等。
[对话型智能体系统100的各单元的概要]
在本实施方式中,车辆110被用于用户20的移动。作为车辆110,例举汽车、自动二轮车等。作为自动二轮车,例举(i)摩托车、(ii)三轮摩托车、(iii)摄位车(注册商标)、带有动力单元的脚踏板(注册商标)、带有动力单元的滑板那样的具有动力单元的站立式二轮车等。
在本实施方式中,响应系统112获取由用户20的语音以及姿态的至少一方表示的请求。响应系统112执行与上述的请求对应的处理。另外,响应系统112将上述的处理的结果向用户20传递。
在一实施方式中,响应系统112获取(i)用户20向搭载于车辆110的设备输入的请求、或(ii)用户20向搭载于通信终端30的设备输入的请求。响应系统112可以经由通信系统114获取用户20向搭载于通信终端30的设备输入的请求。响应系统112经由搭载于车辆110的信息输出设备,将针对上述的请求的响应向用户20提示。
在其他的实施方式中,响应系统112获取(i)用户20向搭载于车辆110的设备输入的请求,或(ii)用户20向搭载于通信终端30的设备输入的请求。响应系统112可以经由通信系统114获取用户20向搭载于通信终端30的设备输入的请求。响应系统112将针对上述的请求的响应经由通信系统114向通信终端30发送。通信终端30将从响应系统112获取的信息向用户20提示。
响应系统112可以利用本地型对话引擎以及云端型对话引擎的至少一方对来自用户20的请求进行响应。响应系统112可以决定利用本地型对话引擎以及云端型对话引擎的哪一个对话引擎对上述的请求进行响应。例如,响应系统112基于车辆110以及辅助服务器120之间的通信状态,决定利用本地型对话引擎以及云端型对话引擎的哪一个对话引擎。
响应系统112可以作为本地型对话引擎的用户界面发挥功能。响应系统112可以作为云端型对话引擎的用户界面发挥功能。
在本实施方式中,通信系统114经由通信网络10在车辆110和辅助服务器120之间收发信息。通信系统114也可以通过有线通信或近距离无线通信,在车辆110和通信终端30之间收发信息。
例如,通信系统114将响应系统112从用户20获取的用户20相关的信息向辅助服务器120发送。通信系统114可以将通信终端30从用户20获取的用户20相关的信息向辅助服务器120发送。通信系统114可以从搭载于车辆110的设备获取车辆110相关的信息,将车辆110相关的信息向辅助服务器120发送。通信系统114也可以从通信终端30获取通信终端30相关的信息,将通信终端30相关的信息向辅助服务器120发送。
另外,通信系统114从辅助服务器120接收云端型对话引擎输出的信息。通信系统114将云端型对话引擎输出的信息转送至响应系统112。通信系统114也可以将响应系统112输出的信息向通信终端30发送。
在本实施方式中,辅助服务器120执行用于使辅助服务器120的计算机作为云端型对话引擎发挥功能的程序。由此,在辅助服务器120上,云端型对话引擎进行动作。
在本实施方式中,辅助服务器120经由通信网络10,获取由用户20的语音以及姿态的至少一方表示的请求。辅助服务器120执行与上述的请求对应的处理。另外,辅助服务器120经由通信网络10,将上述的处理的结果向响应系统112通知。
[对话型智能体系统100的各单元的具体的构成]
对话型智能体系统100的各单元可以由硬件实现,可以由软件实现,也可以由硬件以及软件实现。对话型智能体系统100的各单元的至少一部分可以由单一的服务器实现,也可以由多个服务器实现。对话型智能体系统100的各单元的至少一部分可以在虚拟机上或云端系统上实现。对话型智能体系统100的各单元的至少一部分可以由个人计算机或移动终端实现。作为移动终端,例举手机、智能电话、PDA、平板电脑、笔记本电脑或手提计算机、可穿戴计算机等。对话型智能体系统100的各单元可以利用区块链等的分散型记账技术或分散型网络来保存信息。
在构成对话型智能体系统100的构成要素的至少一部分由软件实现的情况下,由该软件实现的构成要素在通常构成的信息处理装置中,可以通过启动规定了与该构成要素相关的动作的程序来实现。上述的信息处理装置例如具备:(i)具有CPU、GPU等处理器、ROM、RAM、通信接口等的数据处理装置、(ii)键盘、触摸屏、摄像头、麦克风、各种传感器、GPS接收器等的输入装置、(iii)显示装置、扬声器、振动装置等的输出装置、(iv)存储器、HDD等的存储装置(包含外部存储装置。)。
在上述的信息处理装置中,上述的数据处理装置或存储装置可以存储程序。上述的程序可以存储在非挥发性计算机可读记录介质中。上述的程序通过被处理器执行,而使上述的信息处理装置执行由该程序规定的动作。
程序可以被存储至CD-ROM、DVD-ROM、存储器、硬盘等计算机可读的介质中,也可以存储至与网络连接的存储装置中。程序可以从计算机可读的介质或与网络连接的存储装置安装至构成对话型智能体系统100的至少一部分的计算机中。通过执行程序,计算机可以作为对话型智能体系统100的各单元的至少一部分发挥功能。
使计算机作为对话型智能体系统100的各单元的至少一部分发挥功能的程序可以具备规定对话型智能体系统100的各单元的动作的模块。这些程序或模块在数据处理装置、输入装置、输出装置、存储装置等中工作,使计算机作为对话型智能体系统100的各单元发挥功能,或者使计算机执行对话型智能体系统100的各单元中的信息处理方法。
对于程序中记述的信息处理而言,通过将该程序读入计算机,作为该程序相关联的软件和对话型智能体系统100的各种硬件资源协作的具体的手段发挥功能。并且,通过由上述的具体的手段实现与本实施方式中的计算机的使用目的对应的信息的运算或加工,而构建与该使用目的对应的对话型智能体系统100。
[车辆110的各单元的概要]
图2简要示出车辆110的内部构成的一例。在本实施方式中,车辆110具备输入部210、输出部220、通信部230、传感部240、驱动部250、附属装置260、控制部270。在本实施方式中,控制部270具有输入输出控制部272、车辆控制部274、通信控制部276。在本实施方式中,响应系统112由输入部210、输出部220以及输入输出控制部272构成。另外,通信系统114由通信部230以及通信控制部276构成。
输出部220可以是图像输出部的一例。通信部230可以是请求发送部的一例。控制部270可以是控制装置以及求处理装置的一例。输入输出控制部272可以是控制装置的一例。
在本实施方式中,输入部210受理信息的输入。例如,输入部210受理来自用户20的请求。输入部210可以经由通信终端30,受理来自用户20的请求。
在一个实施方式中,输入部210受理车辆110的操作相关的请求。作为车辆110的操作相关的请求,例举传感部240的操作或设定相关的请求、驱动部250的操作或设定相关的请求、附属装置260的操作或设定相关的请求等。作为设定相关的请求,例举用于变更设定的请求、用于确认设定的请求等。在其他的实施方式中,输入部210受理由用户20的语音以及姿态的至少一方表示的请求。
作为输入部210,例举键盘、指针设备、触摸屏、操作按钮、麦克风、摄像头、传感器、三维扫描仪、视线计测器、方向盘、加速器、制动器、换挡杆等。输入部210可以构成导航装置的一部分。
在本实施方式中,输出部220输出信息。输出部220例如将针对来自用户20的请求的对话型智能体系统100的响应向用户20提示。输出部220可以经由通信终端30,将上述的响应向用户20提示。作为输出部220,例举图像输出装置、语音输出装置、振动产生装置、超声波产生装置等。输出部220可以构成导航装置的一部分。
图像输出装置对智能体的图像进行显示或投影。图像可以是静止图像,也可以是动态图像(有时成为影像。)。图像可以是平面图像,也可以是立体图像。立体图像的方式没有特别的限定,例举2眼立体方式、积分方式、全息方式等。
作为图像输出装置,例举显示装置、投影装置、打印装置等。作为语音输出装置,例举扬声器、头戴式耳机、耳塞等。扬声器可以具有指向性,可以具有对指向性的朝向进行调整或变更的功能。
在本实施方式中,通信部230经由通信网络10,在车辆110和辅助服务器120之间收发信息。通信部230可以通过有线通信或近距离无线通信,在车辆110和通信终端30之间收发信息。通信部230可以与1个或多个通信方式对应。
在本实施方式中,传感部240包含对车辆110的状态进行检测或监视的1个或多个传感器。1个或多个传感器分别可以是任意的内部传感器,也可以是任意的外部传感器。1个或多个传感部240的至少一部分可以被利用为输入部210。例如,传感部240包含拍摄车辆110的内部的摄像头、收集车辆110的内部的语音的麦克风、拍摄车辆110的外部的摄像头、以及收集车辆110的外部的语音的麦克风的至少1个。上述的摄像头或麦克风可以被利用为输入部210。
作为车辆110的状态,例举速度、加速度、倾斜、振动、噪音、驱动部250的工作状况、附属装置260的工作状况、安全装置的工作状况、自动驾驶装置的工作状况、异常的产生状况、当前位置、移动路径、外部环境的温度、外部环境的湿度、外部环境的压力、内部空间的温度、内部空间的湿度、内部空间的压力、与周围的物体的相对位置、与周围的物体的相对速度等。作为安全装置,例举ABS(Antilock Brake System)、安全气囊、自动制动、避撞装置等。
在本实施方式中,驱动部250驱动车辆110。驱动部250可以根据来自控制部270的指令,驱动车辆110。驱动部250可以由内燃机来产生动力,也可以由电动机来产生动力。
在本实施方式中,附属装置260可以是搭载于车辆110的设备中的驱动部250以外的设备。附属装置260可以按照来自控制部270的指令工作。附属装置260也可以按照用户20的操作进行工作。作为附属装置260,例举保安设备、座席调整设备、锁门管理设备、车窗开闭设备、照明设备、空调设备、导航设备、音响设备、影像设备等。
在本实施方式中,控制部270控制车辆110的各单元。控制部270可以控制响应系统112。控制部270也可以控制通信系统114。控制部270可以控制输入部210、输出部220、通信部230、传感部240、驱动部250以及附属装置260的至少1个。另外,控制部270的各单元可以相互收发信息。
在本实施方式中,输入输出控制部272控制车辆110中的信息的输入输出。例如,输入输出控制部272控制用户20和车辆110之间的信息的传递。输入输出控制部272可以控制输入部210以及输出部220的至少一方的动作。输入输出控制部272可以控制响应系统112的动作。
例如,输入输出控制部272经由输入部210,获取包含来自用户20的请求的信息。输入输出控制部272决定针对上述的请求的响应。输入输出控制部272可以决定响应的内容以及方式的至少一方。输入输出控制部272输出与上述的响应有关的信息。在一个实施方式中,输入输出控制部272经由输出部220,将包含上述的响应的信息向用户20提示。在其他的实施方式中,输入输出控制部272经由通信部230,将包含上述的响应的信息向通信终端30发送。通信终端30将包含上述的响应的信息向用户20提示。
输入输出控制部272可以利用本地型对话引擎以及云端型对话引擎的至少一方,决定针对上述的请求的响应。由此,输入输出控制部272能够使响应系统112作为本地型对话引擎的用户界面发挥功能。另外,输入输出控制部272能够使响应系统112作为云端型对话引擎的用户界面发挥功能。
输入输出控制部272可以基于表示车辆110以及辅助服务器120之间的通信状态的信息(有时称为通信信息。),决定基于本地型对话引擎以及云端型对话引擎中的哪一个对话引擎中的处理的执行结果进行响应。另外,输入输出控制部272可以利用多个本地型对话引擎,也可以利用多个云端型对话引擎。此时,输入输出控制部272可以至少基于通信信息,决定基于哪个对话引擎中的处理的执行结果进行响应。输入输出控制部272也可以根据说话者或驾驶者,决定基于哪个对话引擎中的处理的执行结果进行响应。输入输出控制部272也可以根据同乘者的有无,决定基于哪个对话引擎中的处理的执行结果进行响应。
输入输出控制部272例如从通信控制部276获取通信信息。另外,通信信息可以是(i)表示通信部230、输入输出控制部272或通信控制部276与辅助服务器120之间的通信状态的信息,可以是(ii)表示通信部230、输入输出控制部272或通信控制部276与通信网络10之间的通信状态的信息,可以是(iii)表示通信网络10的通信状态的信息,可以是(iv)表示通信网络10和辅助服务器120之间的通信状态的信息,也可以是(v)表示车辆110以及辅助服务器120的至少一方中的通信故障的有无的信息。
输入输出控制部272可以对1个或多个事件的产生进行检测,基于检测出的事件的种类,控制响应系统112的动作。在一个实施方式中,输入输出控制部272检测启动请求的输入。在检测到启动请求的输入的情况下,输入输出控制部272例如决定将响应系统112的状态从待机状态向启动状态变更。
在其他的实施方式中,输入输出控制部272检测要向用户20的通信终端30发送消息的事件(有时称为留言事件。)的产生。在检测出留言事件的产生的情况下,输入输出控制部272例如决定经由通信网络10向用户20的通信终端30发送语音消息。
在一个实施方式中,利用语音通话服务或IP电话服务向通信终端30发送语音消息。在其他的实施方式中,利用电子邮件服务、社交网络服务、信使服务等,将语音消息作为语音数据的电子文件向通信终端30发送。
输入输出控制部272可以控制对来自用户20的请求进行响应时的智能体的模式。在一个实施方式中,输入输出控制部272基于通信信息控制智能体的模式。例如,输入输出控制部272在车辆110以及辅助服务器120之间的通信状态满足预先设定的条件的情况下、和车辆110以及辅助服务器120之间的通信状态不满足上述的条件的情况下,切换智能体的模式。预先设定的条件可以是通信状态比预先设定的特定的状态好这样的条件。
在其他的实施方式中,输入输出控制部272基于表示对来自用户20的请求进行处理的对话引擎的信息,控制智能体的模式。例如,输入输出控制部272在基于本地型对话引擎中的处理的执行结果进行响应的情况下、和基于云端型对话引擎中的处理的执行结果进行响应的情况下,切换智能体的模式。另外,如上所述,也可以基于通信信息,决定基于哪个对话引擎中的处理的执行结果进行响应。
在其他的实施方式中,输入输出控制部272基于(i)表示基于用户20的请求的传递手段的信息、(ii)表示基于用户20的请求的传递方式的信息、以及(iii)表示请求传递时的用户20的心理状态、清醒状态以及健康状态的至少1个的信息的至少1个,控制智能体的模式。作为请求的传递手段,例举说话、手语、手语以外的姿态等。作为手语以外的姿态,例举通过手或手指的动作定义的信号、通过头部的动作定义的信号、通过视线定义的信号、通过面部表情定义的信号等。
作为请求的传递方式,例举请求传递时的用户20的样子、请求的传递所需的时长、请求的明确性的程度等。作为请求传递时的用户20的样子,例举(i)说话或手语的语气、习惯、语速、以及停顿方式,(ii)说话的口音、语调、以及音量,(iii)智能体或输出部220与用户的相对位置,以及(iv)注视点的位置的至少1个。作为请求的明确性的程度,例举是否简要地传递请求,用于传递请求的消息是否冗长等。
另外,在其他的实施方式中,输入输出控制部272基于表示车辆110的状态的信息,控制智能体的模式。车辆110的状态可以是车辆110的移动状态、车辆110的各单元的动作状态、以及车辆110的内部空间的状态的至少1个。
作为车辆110的移动状态,例举当前位置、移动路径、速度、加速度、倾斜、振动、噪音、拥堵的有无或程度、连续驾驶时间、急加速的有无或频度、急减速的有无或频度等。作为车辆110的各单元的动作状态,例举驱动部250的工作状况、附属装置260的工作状况、安全装置的工作状况、自动驾驶装置的工作状况等。作为工作状况,例举正常动作中、停止中、维护中、异常产生中等。工作状况中可以包含特定功能的工作的有无或频度。作为车辆110的内部空间的状态,例举内部空间的温度、湿度、压力、特定的化学物质的浓度、存在于内部空间的用户20的人数、存在于内部空间的多个用户20的人际关系等。表示存在于内部空间的用户20的人数的信息可以是表示同乘者的有无的信息的一例。
在本实施方式中,车辆控制部274控制车辆110的动作。例如,车辆控制部274获取传感部240输出的信息。车辆控制部274可以控制驱动部250以及附属装置260的至少一方的动作。车辆控制部274可以基于传感部240输出的信息,控制驱动部250以及附属装置260的至少一方的动作。
在本实施方式中,通信控制部276控制车辆110和外部的设备之间的通信。通信控制部276可以控制通信部230的动作。通信控制部276可以是通信接口。通信控制部276可以与1个或多个通信方式对应。通信控制部276可以对车辆110以及辅助服务器120之间的通信状态进行检测或监视。通信控制部276可以基于上述的检测或监视的结果,生成通信信息。例如,在由通信信息表示的通信状态满足预先设定的条件的情况下,可以判定为通信状态良好。另一方面,在由通信信息表示的通信状态不满足上述的预先设定的条件的情况下,可以判定为通信状态不良。作为预先设定的条件,例举能够通信这样的条件、电波状况比特定的状况好这样的条件、通信品质比特定的品质好这样的条件等。
作为通信信息,例举可否通信、电波状况、通信品质、通信方式的种类、以及通信载体的种类等相关的信息。作为电波状况,例举电波接收等级、电波強度、RSCP(ReceivedSignal Code Power)、CID(Cell ID)等。作为通信品质,例举通信速度、数据通信的通信量、数据通信的延迟时间等。
对于可否通信,例如在通信网络10、通信系统114以及辅助服务器120的至少1个中产生了通信故障的情况下,判断为无法通信(有时称为不可通信。)。在电波接收等级小于预先设定的等级的情况下(例如,在通信范围外的情况),判断为不可通信。对于可否通信,也可以基于对获取特定的电波状况或通信品质相关的信息的处理(有时称为试行。)反复进行多次的结果来判断。
根据一个实施方式,在进行预先设定的次数的试行中,电波状况或通信品质比预先设定的第1阈值好的试行的比例大于预先设定的第2阈值的情况下,判断为能够通信(有时称为可通信。)。除此之外的情况下,判断为不可通信。根据其他的实施方式,在进行预先设定的次数的试行中,电波状况或通信品质比预先设定的第1阈值差的试行的比例大于预先设定的第2阈值的情况下,判断为不可通信。除此之外的情况下,判断为可通信。
[输入输出控制部272的各单元的概要]
图3简要示出输入输出控制部272的内部构成的一例。在本实施方式中,输入输出控制部272具备语音信息获取部312、图像信息获取部314、操作信息获取部316、车辆信息获取部318、通信信息获取部322、转送部330、事件检测部340、响应管理部350和智能体信息保存部360。
事件检测部340可以是注视点确定部的一例。事件检测部340可以是事件检测部的一例。响应管理部350可以是状态决定部、消息控制部、面部控制部以及相对位置信息获取部的一例。响应管理部350可以是表情控制部、同乘者确定部、以及心理信息获取部的一例。响应管理部350可以是传递决定部、以及内容决定部的一例。响应管理部350可以是特征信息获取部、模式决定部、以及移动体信息获取部的一例。
在本实施方式中,语音信息获取部312从输入部210获取向输入部210输入的语音相关的信息(有时称为语音信息。)。语音信息获取部312也可以经由通信部230,获取向通信终端30的输入装置输入的语音相关的信息(有时称为语音信息。)。例如,语音信息获取部312获取用户20的语音相关的信息。作为语音信息,例举记录了语音的语音数据、表示记录该语音的时刻的信息等。语音信息获取部312可以将语音信息向转送部330输出。
在本实施方式中,图像信息获取部314从输入部210获取输入部210获取的图像相关的信息(有时称为图像信息。)。图像信息获取部314也可以经由通信部230,获取通信终端30的输入装置获取的图像相关的信息(有时称为图像信息。)。例如,图像信息获取部314获取对用户20拍摄得到的图像相关的信息。作为图像信息,例举记录了图像的图像数据、表示记录该图像的时刻的信息等。图像信息获取部314可以将图像信息向转送部330输出。
在本实施方式中,操作信息获取部316从输入部210获取基于用户20的车辆110的操作相关的信息(有时称为操作信息。)。作为车辆110的操作,例举驱动部250相关的操作、以及附属装置260相关的操作的至少一方。在一个实施方式中,操作信息获取部316将操作信息向转送部330输出。在其他的实施方式中,操作信息获取部316将操作信息向车辆控制部274输出。
作为驱动部250相关的操作,例举转向操作、加速操作、制动操作、驾驶模式的变更相关的操作等。作为附属装置260相关的操作,例举附属装置260的ON/OFF相关的操作、附属装置260的设定相关的操作、附属装置260的动作相关的操作等。更具体而言,例举方向指示器相关的操作、雨刮器相关的操作、车窗清洗液的排出相关的操作、车门上锁相关的操作、车窗开闭相关的操作、空调设备或照明设备的ON/OFF相关的操作,空调设备或照明设备的设定相关的操作、导航设备、音响设备或影像设备的ON/OFF相关的操作、导航设备、音响设备或影像设备的设定相关的操作、导航设备、音响设备或影像设备的动作的开始或结束相关的操作等。
在本实施方式中,车辆信息获取部318从传感部240获取表示车辆110的状态的信息(有时称为车辆信息。)。在一个实施方式中,车辆信息获取部318将车辆信息向转送部330输出。在其他的实施方式中,车辆信息获取部318可以将车辆信息向车辆控制部274输出。
在本实施方式中,通信信息获取部322从通信控制部276获取通信信息。在一个实施方式中,通信信息获取部322将通信信息向响应管理部350输出。在其他的实施方式中,通信信息获取部322可以将通信信息向转送部330或事件检测部340输出。
在本实施方式中,转送部330将语音信息、图像信息、操作信息以及车辆信息的至少1个向事件检测部340以及辅助服务器120的至少一方转送。转送部330可以按照来自响应管理部350的指令,决定各种信息的转送目的地。转送部330可以将操作信息向车辆控制部274转送。转送部330可以将操作信息以及车辆信息向车辆控制部274转送。
另外,在本实施方式中,以通信信息获取部322向响应管理部350输出通信信息,响应管理部350基于通信信息,决定语音信息、图像信息、操作信息、车辆信息等的转送目的地的情况为例,对输入输出控制部272的细节进行说明。但是,输入输出控制部272不限于本实施方式。在其他的实施方式中,也可以通信信息获取部322向转送部330输出通信信息,转送部330基于通信信息,决定语音信息、图像信息、操作信息、车辆信息等的转送目的地。
在本实施方式中,事件检测部340检测1个或多个事件的发生。事件检测部340可以检测预先设定的种类的事件的发生。在检测出事件的发生的情况下,事件检测部340可以将表示检测到的事件的种类的信息向响应管理部350输出。事件检测部340的细节后述。
在本实施方式中,响应管理部350管理针对来自用户20的请求的响应。响应管理部350可以管理本地型对话引擎以及云端型对话引擎的利用。例如,响应管理部350控制转送部330的动作,对本地型对话引擎以及云端型对话引擎的利用进行管理。响应管理部350可以管理响应的内容以及模式的至少一方。
例如,在来自用户20的请求是检索或调査相关的请求的情况下,响应管理部350对从输出部220输出的响应消息的内容进行管理。响应管理部350可以管理智能体输出响应消息时的智能体的模式。响应管理部350可以参照智能体信息保存部360中保存的信息,生成从输出部220输出的语音以及图像的至少一方。另外,在来自用户20的请求是车辆110的控制相关的请求的情况下,响应管理部350可以根据该请求将用于控制车辆110的指令向车辆控制部274输出。响应管理部350的细节后述。
在本实施方式中,智能体信息保存部360保存智能体相关的各种的信息。智能体信息保存部360的细节后述。
图4简要示出输入部210的一部分和事件检测部340的内部构成的一例。在本实施方式中,输入部210具备视线计测部412和校正部414。在本实施方式中,事件检测部340具备注视点检测部420、启动事件检测部430、用户数检测部440、留言事件检测部450。
注视点检测部420可以是注视点确定部的一例。用户数检测部440可以是同乘者判定部以及相对位置信息获取部的一例。留言事件检测部450可以是发送事件检测部的一例。
在本实施方式中,视线计测部412计测1个或多个用户20的视线。视线计测部412可以利用公知的眼球追踪技术或将来开发的任意的眼球追踪技术来计测视线。眼球追踪技术可以是探查线圈法、眼球电位法等的接触型技术,也可以是强膜反射法、角膜反射法等的非接触型技术。
视线计测部412优选是非接触型的视线计测装置。此时,视线计测部412例如具备向被验者的眼照射弱光(例如红外光。)的光照射部(未图示。)和拍摄被验者的眼的拍摄部(未图示。)。拍摄部也可以拍摄被验者的头部。视线计测部412例如配置于输出部220的附近。由此,在用户20注视智能体的情况下,用户20的注视点被高精度地测定。视线计测部412将被验者的视线相关的信息(有时称为眼球追踪数据。)向注视点检测部420输出。
在本实施方式中,校正部414校正视线计测部412。更具体而言,校正部414与被验者相匹配地调整视线计测部412的设定。在一个实施方式中,视线计测部412具有与追踪被验者的视线的工序或动作模式不同的、由校正部414与被验者相匹配地调整视线计测部412的设定的工序或动作模式。在其他的实施方式中,校正部414在视线计测部412追踪用户20的视线的期间,自动校正视线计测部412。
在本实施方式中,注视点检测部420从输入部210的视线计测部412获取眼球追踪数据。注视点检测部420可以对眼球追踪数据进行解析来确定用户20的注视点。注视点检测部420可以将表示确定的注视点的位置的信息向启动事件检测部430以及留言事件检测部450的至少一方输出。
在本实施方式中,启动事件检测部430检测各种启动请求。启动事件检测部430的细节后述。
在本实施方式中,用户数检测部440检测在智能体或输出部220的周围存在的用户20的人数。上述的周围的范围可以具有响应系统112能够判别在该范围内存在的用户的语音或姿态的程度的大小。用户数检测部440可以将表示用户20的人数的信息向响应管理部350输出。
用户数检测部440例如从输入部210的拍摄装置(未图示。)获取用户20拍摄的图像的图像数据。用户数检测部440可以对图像数据进行解析,检测在智能体或输出部220的周围存在的1个或多个用户20。由此,用户数检测部440能够检测在智能体或输出部220的周围存在的用户20的人数。
在本实施方式中,响应系统112搭载于作为移动体的一例的车辆110。于是,用户数检测部440可以将检测出的1个或多个用户20区分成车辆110的驾驶者和同乘者。由此,用户数检测部440能够判定车辆110的同乘者的有无。用户数检测部440可以将表示车辆110的同乘者的有无的信息向响应管理部350以及留言事件检测部450的至少一方输出。
另外,用户数检测部440也可以对图像数据进行解析,确定(i)智能体或(ii)输出部220与1个或多个用户20的各个的相对位置。智能体或输出部220和输入部210的拍摄装置的相对位置是已知的,因此注视点检测部420能够基于(i)对上述的图像数据进行解析得到的、输入部210的拍摄装置与用户20的相对位置、和(ii)智能体或输出部220与输入部210的拍摄装置的相对位置,确定或获取(i)智能体或(ii)输出部220和用户20的相对位置。用户数检测部440可以将表示(i)智能体或(ii)输出部220与用户20的相对位置的信息(有时称为相对位置信息。)向响应管理部350输出。
在本实施方式中,留言事件检测部450检测要向用户20的通信终端30发送消息的事件(有时称为留言事件。)的产生。留言事件检测部450可以在要向用户20传递消息且判定为难以利用输出部220向用户20传递消息的情况下,检测出留言事件的产生。
例如,留言事件检测部450从操作信息获取部316获取操作信息。留言事件检测部450监视操作信息,判定预先设定的种类的操作相关的信息的有无。在检测到预先设定的种类的操作的情况下,留言事件检测部450判定为要向用户20传递消息。
作为上述的操作,例举用于对车辆110的车门上锁或开门的动作,使车辆110起动的动作等。由此,例如,在对车辆110进行了不当的操作的情况下,可以向位于从车辆110在物理上离开的位置的用户20的通信终端30通知表示该意思的消息。
例如,留言事件检测部450从车辆信息获取部318获取车辆信息。留言事件检测部450监视车辆信息,判定车辆110是否处于预先设定的种类的状态。在判定为车辆110处于预先设定的种类的状态的情况下,留言事件检测部450判定为要向用户20传递消息。
作为上述的状态,例举车辆110的功能产生了异常的状态、车辆110的消耗品的替换时期接近的状态、特定的用户20以外的人物操作了车辆110的状态、车内的温度超过了预先设定的值的状态、与在车内人或动物是否存在无关而车内的温度超过了预先设定的值的状态等。由此,例如,在车辆110产生了某些异常的情况下,可以向位于从车辆110在物理上离开的位置的用户20的通信终端30通知表示该意思的消息。
例如,留言事件检测部450从用户数检测部440获取表示智能体或输出部220的周围的用户20的检测结果的信息。在用户数检测部440在智能体或输出部220的周围未检测出用户20的情况下,留言事件检测部450判定为难以利用输出部220向用户20传递消息。
例如,留言事件检测部450从通信控制部276获取表示能否在通信部230和通信终端30之间建立有线通信或近距离无线通信的信息。当在通信部230以及通信终端30之间无法建立有线通信或近距离无线通信时,留言事件检测部450判定为难以利用输出部220向用户20传递消息。
另外,在本实施方式中,以事件检测部340检测启动事件和留言事件的情况为例,对事件检测部340的细节进行了说明。但是,事件检测部340不限于本实施方式。在其他的实施方式中,事件检测部340可以检测启动事件或留言事件,或者代替启动事件或留言事件而检测其他的种类的事件。例如,检测用于中止或中断响应系统112中的响应处理的请求(有时称为中止请求)的输入。
图5简要示出启动事件检测部430的内部构成的一例。在本实施方式中,启动事件检测部430具备眼神交流检测部520、启动短语检测部530、启动操作检测部540。
在本实施方式中,眼神交流检测部520检测基于视线的启动请求。眼神交流检测部520从注视点检测部420获取表示用户20的注视点的位置的信息。眼神交流检测部520可以基于用户20的注视点的位置,检测启动请求。例如,在注视点位于(i)智能体的一部分或(ii)输出部220的一部分的情况下,眼神交流检测部520检测启动请求。在注视点位于(i)智能体的一部分或(ii)输出部220的一部分的时长大于预先设定的值的情况下,眼神交流检测部520可以检测出启动请求。
由此,用户20能够通过姿态输入启动请求。因此,即使在周围存在他人的情况下,用户20也不会感到犹豫,能够启动响应系统112或智能体来开始与智能体的交互。
智能体的一部分可以是智能体的面部的一部分。智能体的面部的一部分可以是眼部。由此,用户20能够通过用户20以及智能体的眼神交流,启动响应系统112或智能体。
在本实施方式中,启动短语检测部530通过语音检测启动请求。基于语音的启动请求可以是预先设定的启动词或启动短语。在本实施方式中,启动操作检测部540检测基于操作按钮或操作面板的操作的启动请求。操作面板可以是触摸面板。
图6简要示出响应管理部350的内部构成的一例。在本实施方式中,响应管理部350具备转送控制部620、响应决定部630、语音合成部642、图像生成部644、指令生成部650、留言管理部660。在本实施方式中,响应决定部630具有启动管理部632和响应信息获取部638。
启动管理部632可以是状态决定部的一例。响应信息获取部638可以是面部控制部、相对位置信息获取部的一例。响应信息获取部638可以是表情控制部的一例。语音合成部642可以是语音消息生成部的一例。留言管理部660可以是传递决定部、内容决定部以及请求发送部的一例。
在本实施方式中,转送控制部620控制转送部330的动作。转送控制部620可以生成用于控制转送部330的动作的指令,将该指令向转送部330发送。转送控制部620也可以生成用于变更转送部330的设定的指令,将该指令向转送部330发送。
例如,在本实施方式中,若响应系统112启动而转移至待机状态,则启动管理部632以使得事件检测部340能够检测启动请求的方式控制转送部330。具体而言,启动管理部632将表示响应系统112转移至待机状态的信息向转送控制部620输出。
转送控制部620若获取到表示响应系统112转移至待机状态的信息,将指示将语音信息、图像信息、操作信息以及车辆信息的至少1个向事件检测部340转送的指令向转送部330发送。转送控制部620也可以将指示将(i)语音信息以及图像信息的一方、(ii)语音信息以及图像信息的另一方、操作信息以及车辆信息的至少1个向事件检测部340转送的指令向转送部330发送。
另外,在启动事件检测部430检测到启动请求的情况下,转送控制部620将指示将语音信息、图像信息、操作信息以及车辆信息的至少1个向辅助服务器120转送的指令向转送部330发送。转送控制部620也可以将指示将(i)语音信息以及图像信息的一方、(ii)语音信息以及图像信息的另一方、操作信息以及车辆信息的至少1个向事件检测部340转送的指令向转送部330发送。
转送控制部620可以在操作信息被输入至转送部330的情况下,以使得该操作信息向车辆控制部274转送的方式,生成上述的指令。由此,针对车辆110的操作的响应得到提高。
在本实施方式中,响应决定部630管理基于响应系统112的响应处理。例如,响应决定部630决定响应处理开始或结束的时间点。另外,响应决定部630决定针对来自用户20的请求的响应。响应决定部630也可以经由转送控制部620来控制转送部330的动作。
在本实施方式中,启动管理部632管理基于响应系统112的响应处理开始或结束的时间点。具体而言,启动管理部632从启动事件检测部430获取表示检测出启动请求的信息。启动管理部632若获取到表示检测到启动请求的信息,则决定为将响应系统112的状态从待机状态变更至启动状态。
由此,在一个实施方式中,在智能体具有面部的情况下,在用户20的注视点位于智能体的面部的一部分时,启动管理部632能够决定为将响应系统112的状态从待机状态变更至启动状态。在其他的实施方式中,在智能体具有面部的情况下,当注视点位于智能体的面部的一部分的时长大于预先设定的值时,启动管理部632能够决定为将响应系统112的状态从待机状态变更至启动状态。面部的一部分可以是眼部。
同样,启动管理部632从启动事件检测部430获取表示检测出中止请求的信息。启动管理部632若获取到表示检测出启动请求的信息,则决定为将响应系统112的状态从启动状态变更至待机状态。
在本实施方式中,响应信息获取部638从辅助服务器120获取针对用户20的请求的响应相关的信息。响应相关的信息可以包含表示响应的内容的信息、以及表示响应的模式的信息的至少一方。表示响应的内容的信息可以包含表示从输出部220输出的信息的内容的信息、以及表示车辆110的操作的内容的信息的至少一方。
响应信息获取部638例如将上述的响应相关的信息中的、经由输出部220输出的信息相关的信息向语音合成部642以及图像生成部644的至少一方输出。响应信息获取部638例如将上述的响应相关的信息中的、车辆110的操作相关的信息向指令生成部650输出。
语音合成部642生成响应用户20的请求的语音消息。语音合成部642从响应信息获取部638获取针对用户20的请求的响应相关的信息。例如,语音合成部642基于表示响应的内容的信息,生成语音消息。语音合成部642也可以基于表示响应的内容的信息和表示响应的模式的信息,生成语音消息。语音合成部642可以将生成的语音消息向输出部220输出。
图像生成部644生成对用户20的请求进行响应的图像(有时称为响应图像。)。图像生成部644可以生成对用户20的请求进行响应的智能体的动画图像。图像生成部644从响应信息获取部638获取针对用户20的请求的响应相关的信息。例如,图像生成部644基于表示响应的内容的信息,生成响应图像。图像生成部644也可以基于表示响应的内容的信息和表示响应的模式的信息,生成响应图像。图像生成部644可以将生成的响应图像向输出部220输出。
另外,在本实施方式中,以智能体是软件智能体,图像生成部644生成智能体的动画图像的情况为例,对响应管理部350的细节进行了说明。但是,响应管理部350不限于本实施方式。在其他的实施方式中,在智能体是硬件智能体的情况下,响应管理部350可以具有控制智能体的各单元的驱动的驱动控制部,驱动控制部可以基于响应信息获取部638获取的表示响应的内容以及模式的至少一方的信息来驱动智能体。
指令生成部650生成用于操作车辆110的指令。指令生成部650从响应信息获取部638获取针对用户20的请求的响应相关的信息。例如,指令生成部650基于表示响应的内容的信息,决定车辆110的操作的种类。指令生成部650可以基于表示响应的模式的信息,界定操作量或操作模式。指令生成部650可以将生成的指令向车辆控制部274输出。
在本实施方式中,留言管理部660管理从车辆110或响应系统112向用户20的通信终端30发送的消息。例如,留言管理部660从留言事件检测部450获取表示检测到留言事件的信息。在检测到留言事件的产生的情况下,留言管理部660决定经由通信网络10向用户20的通信终端30发送语音消息。
留言管理部660可以决定上述的消息的内容。留言管理部660可以基于检测的留言事件的种类来决定消息的内容的至少一部分。
例如,留言管理部660具有将表示留言事件的种类的信息、和表示检测到该事件时发送的消息的内容的信息建立对应的数据库。留言管理部660可以参照上述的数据库中保存的信息,决定上述的消息的内容。留言管理部660可以利用内容被预先设定的1个或多个定型消息来决定上述的消息的内容。
在一个实施方式中,定型消息构成为能够对其一部分的内容进行动态编辑。留言管理部660对定型消息的一部分进行编辑,决定上述的消息的内容。在其他的实施方式中,留言管理部660组合多个定型消息来决定上述的消息的内容。可以将一些定型消息构成为能够对其一部分的内容进行动态编辑。
若决定了消息的内容,留言管理部660利用与车辆110或响应系统112建立了对应的角色的声音的语音信息来生成语音消息。例如,留言管理部660将表示消息的内容的信息向语音合成部642发送,请求将该消息转换成语音消息。
表示消息的内容的信息可以是表示消息的内容的文本信息,也可以是用于分别识别内容被预先设定的1个或多个定型消息的识别信息。语音合成部642例如对上述的角色的声音的语音信息和表示消息的内容的信息进行合成来生成语音消息。角色的声音的语音信息例如保存至智能体信息保存部360。
留言管理部660可以决定生成的语音消息的传递方法。作为语音消息的传递方法,例举(i)利用车辆110的通信部230以及通信终端30之间的有线通信或近距离无线通信进行传递的方法、(ii)经由辅助服务器120进行传递的方法等。
在语音消息经由辅助服务器120被传递的情况下,在一个实施方式中,留言管理部660将请求语音消息的发送的中继请求向辅助服务器120发送。留言管理部660可以将上述的中继请求和消息的语音数据一起向辅助服务器120发送。在其他的实施方式中,留言管理部660将请求语音消息的生成以及发送的中继请求向辅助服务器120发送。留言管理部660可以将上述的中继请求、表示消息的内容的信息和用于确定角色的信息一起向辅助服务器120发送。
留言管理部660可以决定为利用语音通话服务或IP电话服务来将语音消息向通信终端30发送。留言管理部660也可以决定利用电子邮件服务、社交网络服务、信使服务等的数据通信服务,将语音消息作为语音数据的电子文件向通信终端30发送。
图7简要示出智能体信息保存部360的内部构成的一例。在本实施方式中,智能体信息保存部360具备设定数据保存部722、语音数据保存部732、图像数据保存部734。语音数据保存部732可以是语音信息保存部的一例。
在本实施方式中,设定数据保存部722保存各智能体的设定相关的信息。作为设定,例举年龄、性別、性格、给予用户20的印象等。在本实施方式中,语音数据保存部732保存用于合成各智能体的语音的信息(有时称为语音信息。)。例如,语音数据保存部732按照每个角色,保存用于计算机利用该角色的声音读取消息的数据。在本实施方式中,图像数据保存部734保存用于生成各智能体的图像的信息。例如,图像数据保存部734按照每个角色,保存用于计算机动态生成该角色的动画图像的数据。
[辅助服务器120的各单元的概要]
图8简要示出辅助服务器120的内部构成的一例。在本实施方式中,辅助服务器120具备通信部820、通信控制部830、请求处理部840。在本实施方式中,请求处理部840具有请求决定部842、执行部844、响应信息生成部846、设定信息保存部848、留言服务提供部850。
响应信息生成部846可以是消息控制部的一例。设定信息保存部848可以是用户信息保存部以及历史保存部的一例。留言服务提供部850可以是中继装置的一例。
根据本实施方式的辅助服务器120,通过硬件和软件的协作,实现云端型对话引擎。另外,在本实施方式中,辅助服务器120提供对从智能体向用户20的留言进行中继的留言服务。
在本实施方式中,通信部820经由通信网络10,在车辆110以及通信终端30的至少一方和辅助服务器120之间收发信息。通信部820可以具有与通信部230相同的构成。
在本实施方式中,通信控制部830控制辅助服务器120和外部的设备之间的通信。通信控制部830可以控制通信部820的动作。通信控制部830可以具有与通信控制部276相同的构成。
在本实施方式中,请求处理部840获取来自用户20的请求,执行与该请求对应的处理。请求处理部840决定针对上述的请求的响应。例如,请求处理部840决定响应的内容以及模式的至少一方。请求处理部840基于上述的决定结果来生成响应相关的信息。请求处理部840可以将响应相关的信息向车辆110的响应管理部350输出。
在本实施方式中,请求处理部840提供对从车辆110的智能体向用户20的消息进行中继的留言服务。上述的消息可以通过被利用为车辆110的智能体的角色的声音进行读取。由此,在用户20受理了消息的情况下,用户20能够直观地判断是来自哪个设备的消息。例如,单一的用户20具有多个设备,在按照每个设备作为智能体设定了不同的角色的情况下,上述的特征实现了更大的效果。
在本实施方式中,请求决定部842经由通信网络10,从车辆110获取向车辆110的转送部330输入的信息的至少一部分。请求决定部842对从车辆110获取的信息进行解析,识别用户20的请求。请求决定部842可以在被识别的请求中留言请求被识别的情况下,将该留言请求向留言服务提供部850输出。请求决定部842在其他的请求被识别的情况下,可以将该请求向执行部844输出。请求决定部842的细节后述。
在本实施方式中,执行部844从请求决定部842获取表示被识别的请求的种类的信息。执行部844可以执行与被识别的请求的种类对应的处理。执行部844可以参照设定信息保存部848中保存的信息来决定上述的处理。执行部844例如将表示执行结果的信息向响应信息生成部846输出。执行部844也可以将表示处理被执行的信息向响应信息生成部846输出。
在本实施方式中,响应信息生成部846决定针对来自用户20的请求的响应。响应信息生成部846可以决定响应的内容以及模式的至少一方。响应信息生成部846可以生成表示决定的响应的内容以及模式的至少一方的信息(有时被称为响应信息。)。响应信息生成部846可以将生成的响应信息向车辆110的响应管理部350输出。
作为响应的内容,例举从输出部220输出的响应消息的种类或内容、向车辆控制部274发送的指令的种类或内容等。作为响应消息,在准备了1个或多个定型消息的情况下,响应消息的种类可以是用于识别1个或多个定型消息的各个的识别信息。指令的种类可以是用于识别在车辆控制部274中可执行的1个或多个指令的各个的识别信息。
作为响应的方式,例举输出部220输出响应消息时的智能体的模式、基于车辆控制部274的车辆110的控制的模式等。如上所述,作为智能体的模式,例举被利用为智能体的角色的种类、该角色的外观、该角色的声音、以及交互模式的至少1个。作为车辆110的控制的模式,例举抑制急加速、急减速、急转向等的急速操作的模式等。
在本实施方式中,设定信息保存部848保存在请求处理部840的各单元的处理中利用的各种的信息。在一个实施方式中,设定信息保存部848将用于识别用户20的请求的种类的识別信息和表示用于识别该请求的特征的特征信息对应起来进行保存。设定信息保存部848也可以将表示用户20的请求的种类以及内容的至少一方的信息、和表示与该请求对应的处理的内容以及模式的至少一方的信息对应起来进行保存。设定信息保存部848也可以将用于识别用户20的请求的种类的识別信息、表示用于识别该请求的特征的特征信息、和表示与该请求对应的处理的内容以及模式的至少一方的信息对应起来进行保存。
在其他的实施方式中,设定信息保存部848将(i)用于识别各用户的用户识別信息、和(ii)向各用户传递信息时利用的智能体的角色的声音的语音信息或用于确定该语音信息的信息对应起来进行保存。设定信息保存部848也可以将(i)用于识别各用户的用户识別信息、(ii)用于识别搭载有各智能体或响应系统112的各设备的设备识別信息、(iii)各智能体的角色的声音或各设备向用户传递信息时利用的智能体的角色的声音的语音信息或用于确定该语音信息的信息对应起来进行保存。
另外,在其他的实施方式中,设定信息保存部848将(i)表示消息的内容的信息、(ii)表示该消息被传递时的各用户的心理状态的信息对应起来进行保存。设定信息保存部848也可以将(i)用于识别各用户的用户识別信息、(ii)表示消息的内容的信息、(iii)表示该消息被传递时的各用户的心理状态的信息对应起来进行保存。
在本实施方式中,留言服务提供部850提供对从车辆110的智能体向用户20的消息进行中继的留言服务。
图9简要示出请求决定部842的内部构成的一例。在本实施方式中,请求决定部842具备输入信息获取部920、语音识别部932、姿态识别部934和推定部940。在本实施方式中,推定部940具有请求推定部942、用户状态推定部944、车辆状态推定部946。
用户状态推定部944可以是心理信息获取部以及特征信息获取部的一例。车辆状态推定部946可以是移动体信息获取部的一例。
在本实施方式中,输入信息获取部920获取成为请求处理部840的输入的信息。例如,输入信息获取部920获取语音信息获取部312所获取的语音信息、以及图像信息获取部314所获取的图像信息的至少一方。输入信息获取部920也可以获取语音信息获取部312所获取的语音信息、图像信息获取部314所获取的图像信息、操作信息获取部316所获取的操作信息、以及车辆信息获取部318所获取的车辆信息的至少1个。输入信息获取部920也可以获取(i)语音信息以及图像信息的一方、(ii)语音信息以及图像信息的另一方、操作信息以及车辆信息的至少1个。
在本实施方式中,输入信息获取部920将获取的语音信息向语音识别部932转送。输入信息获取部920将获取的图像信息向姿态识别部934转送。输入信息获取部920将获取的操作信息向推定部940转送。输入信息获取部920将获取的车辆信息向推定部940转送。输入信息获取部920也可以将获取的操作信息以及车辆信息的至少一方向语音识别部932以及姿态识别部的至少一方转送。
在本实施方式中,语音识别部932对语音信息进行解析,确定用户20的说话内容。语音识别部932将表示用户20的说话内容的信息向推定部940输出。语音识别部932可以执行对说话内容进行解析来识别请求的处理,也可以不执行该处理。
在本实施方式中,姿态识别部934对图像信息进行解析,提取由用户20表示的1个或多个姿态。姿态识别部934将表示提取出的姿态的信息向推定部940输出。姿态识别部934可以执行对提取的姿态进行解析来识别请求的处理,也可以不执行该处理。
在本实施方式中,推定部940对来自用户20的请求进行识别或推定。推定部940可以对用户20的状态进行识别或推定。推定部940可以对车辆110的状态进行识别或推定。
在本实施方式中,请求推定部942对来自用户20的请求进行识别或推定。在一个实施方式中,请求推定部942从语音识别部932获取表示用户20的说话内容的信息。请求推定部942对用户20的说话内容进行解析,来识别或推定用户20的请求。在其他的实施方式中,请求推定部942从姿态识别部934提取表示通过图像信息的解析提取的姿态的信息。请求推定部942对提取的姿态进行解析来识别或推定用户20的请求。
除了语音信息或图像信息之外,请求推定部942也可以利用语音信息以及图像信息以外的信息,对来自用户20的请求进行识别或推定。例如,请求推定部942从输入信息获取部920获取操作信息以及车辆信息的至少一方。请求推定部942也可以从用户状态推定部944获取表示用户20的状态的信息。请求推定部942也可以从车辆状态推定部946获取表示车辆110的状态的信息。通过利用这些信息,能够提高请求推定部942的识别或推定的精度。
请求推定部942可以将表示被识别的请求的种类的信息向执行部844输出。请求推定部942在即使解析了语音信息或图像信息也无法识别请求的情况下,可以将表示无法识别请求的信息向响应信息生成部846输出。
在本实施方式中,用户状态推定部944对用户20的状态进行识别或推定。用户状态推定部944基于语音信息、图像信息、操作信息以及车辆信息的至少1个,对用户20的状态进行识别或推定。由此,用户状态推定部944能够获取表示用户20的状态的信息。作为用户20的状态,例举用户20的心理状态、清醒状态以及健康状态的至少1个。
用户状态推定部944可以将表示用户20的状态的信息向请求推定部942输出。由此,请求推定部942例如能够缩小请求的候补的范围,因此可以提高请求推定部942的推定精度。
用户状态推定部944也可以将表示用户20的状态的信息向响应信息生成部846输出。例如,用户状态推定部944对语音信息、图像信息等进行解析,提取表示用户20传递请求时的用户20的样子的特征的信息(有时称为特征信息。)。特征信息可以是表示音量、语气、语速、每1回的说话时长、停顿方式、声调方式、强弱方式、附和方式、习惯、以及话题的展开方法的至少1个的特征的信息。用户状态推定部944可以将特征信息向响应信息生成部846输出。
在本实施方式中,车辆状态推定部946对车辆110的状态进行识别或推定。车辆状态推定部946基于语音信息、图像信息、操作信息以及车辆信息的至少1个,对车辆110的状态进行识别或推定。如上所述,车辆110的状态可以是车辆110的移动状态、车辆110的各单元的动作状态、以及车辆110的内部空间的状态的至少1个。车辆状态推定部946也可以执行与用户数检测部440相同的处理。
车辆状态推定部946可以将表示车辆110的状态的信息向请求推定部942输出。由此,请求推定部942例如能够缩小请求的候补的范围,因此可以提高请求推定部942的推定精度。
车辆状态推定部946可以将表示车辆110的状态的信息向用户状态推定部944输出。由此,用户状态推定部944能够考虑车辆110的状态来推定用户20的状态,因此可以提高推定精度。例如,在急加速、急减速、急转向等的频度大的情况下,推定为注意力不足、发怒、烦躁等的心理状态。另外,在车辆110蛇行的情况下,推定为清醒状态的下降、健康上的问题等。
图10简要示出响应信息生成部846的内部构成的一例。在本实施方式中,响应信息生成部846具备响应内容决定部1034和响应模式决定部1036。
响应内容决定部1034可以是消息控制部的一例。响应模式决定部1036可以是面部控制部、相对位置信息获取部、表情控制部、特征信息获取部、心理信息获取部、移动体信息获取部、以及模式决定部的一例。
在本实施方式中,响应内容决定部1034决定针对来自用户20的请求的响应的内容。作为响应的内容,例举根据请求要执行的处理的种类、交互的内容等。作为交互的内容,例举对话的具体的内容、智能体的动作的具体的内容等。响应内容决定部1034可以将表示响应的内容的信息向响应管理部350输出。
例如,响应内容决定部1034决定向用户20传递消息。响应内容决定部1034可以决定向位于输出部220的附件的1个或多个用户20传递消息。
消息的种类没有限定。作为消息,例举表示通过用户20的姿态表示的启动请求被受理的消息、表示用户20的当前的状态的消息、用于督促用户20注意的消息等。
另外,响应内容决定部1034可以决定(i)经由输出部220向用户20传递消息,或(ii)经由用户20的通信终端30向用户20传递消息。响应内容决定部1034可以决定(i)利用在通信部230以及通信终端30之间建立的有线通信或近距离无线通信向通信终端30发送消息,或(ii)经由通信网络10以及辅助服务器120,向通信终端30发送消息。
响应内容决定部1034在满足了特定的条件的情况下,可以决定向用户20传递消息。在该情况下,设定信息保存部848也可以将表示上述的条件的种类或内容的信息和表示消息的种类或内容的信息对应起来进行保存。
例如,响应内容决定部1034从响应系统112的事件检测部340获取表示用户20的注视点的位置的信息。响应内容决定部1034在注视点的位置或该位置的变动满足特定的条件的情况下,决定为将与该条件对应的消息向用户20传递。
在一个实施方式中,在注视点的位置位于智能体的面部的一部分的情况下,响应内容决定部1034决定传递用于督促用户20说话的消息。作为用于督促用户20说话的消息,例举“有什么要事?”、“有什么困难?”、“怎么了?”等的消息。用于督促用户20说话的消息可以是打招呼,也可以是表示受理了启动请求的消息。
如上所述,在注视点的位置位于智能体的面部的一部分的情况下,启动事件检测部430检测启动请求。于是,通过智能体输出用于督促用户20说话的消息,用户20能够理解受理了启动请求这一情形。
在其他的实施方式中,在注视点的位置满足预先设定的条件(有时称为注意提醒条件。)的情况下,响应内容决定部1034决定传递用于督促集中驾驶的消息。作为上述的条件,例举注视点位于特定的范围内这样的条件、在预先设定的期间内注视点停留在特定的范围内这样的条件等。上述的特定的范围可以是输入部210或输出部220的一部分或附近。上述的特定的范围可以是配置于车辆110的车内的显示器或其附近。
例如,在用户20是车辆110的驾驶者的情况下,作为注意提醒条件,例举(i)在车辆110的移动过程中,注视点不位于车辆110的前进方向前方的条件、(ii)在车辆110的移动过程中,注视点不位于车辆110的前进方向前方的时长比预先设定的阈值长的条件、(iii)在车辆110的移动过程中,注视点位于输出部220的显示装置的附近的条件、(iv)在车辆110的移动过程中,注视点位于输出部220的显示装置的附近的时长比预先设定的阈值长的条件等。
在该情况下,响应内容决定部1034可以从用户数检测部440获取表示同乘者的有无的信息。在判定为存在同乘者的情况下,当注视点的位置满足注意提醒条件时,响应内容决定部1034可以决定为将表示存在驾驶者的集中力下降的可能性的消息向同乘者传递。
响应内容决定部1034可以访问设定信息保存部848,获取表示在过去同种的消息被传递时的用户20的心理状态的信息。响应内容决定部1034可以参照表示上述的用户20的心理状态的信息,决定向作为驾驶者的用户20传递消息,或是向作为同乘者的其他的用户20传递消息。
在本实施方式中,响应模式决定部1036决定针对来自用户20的请求的响应的模式。如上所述,例举输出部220输出响应消息时的智能体的模式、基于车辆控制部274的车辆110的控制的模式等。响应模式决定部1036可以与用户20的动作或样子相对应地决定响应的模式。响应模式决定部1036可以将表示响应的模式的信息向响应管理部350输出。
[基于用户20的注视点的智能体的交互]
在本实施方式中,响应模式决定部1036在特定的条件被满足的情况下,决定控制智能体的面部或视线的朝向。同样,响应模式决定部1036在特定的条件被满足的情况下,可以决定控制智能体的表情。
例如,响应模式决定部1036在用户20的注视点的位置或该位置的变动满足特定的条件(有时称为方向变更条件。)的情况下,决定控制智能体的面部或视线的朝向,以使得智能体的面部或视线朝向用户20的方向。另外,响应模式决定部1036也可以在用户20的注视点位于(i)智能体的一部分(例如眼部)、或(ii)对智能体的图像进行显示或投影的输出部220的一部分的情况下,决定控制智能体的面部或视线的朝向,以使得智能体的面部或视线朝向用户的方向。
由此,用户20感到智能体感受到用户20的视线从而朝向了用户20的方向这样的感觉。另外,能够实现用户20以及智能体的眼神交流。并且,例如,即使在用户20通过姿态输入了启动请求的情况下,用户20也能够直观地理解该启动请求被受理这一情形。
同样,响应模式决定部1036在用户20的注视点的位置或该位置的变动满足特定的条件(有时称为表情变更条件。)的情况下,决定变更智能体的表情。另外,响应模式决定部1036也可以在用户20的注视点位于(i)智能体的一部分(例如眼部),或(ii)对智能体的图像进行显示或投影的输出部220的一部分的情况下,决定变更智能体的表情。
由此,例如,即使在用户20通过姿态输入了启动请求的情况下,用户20也能够直观地理解该启动请求被受理这一情形。另外,在启动请求被受理的情况下,响应系统112可以通过声音以及光的至少一方,提示启动请求被受理这一情形。
响应模式决定部1036例如从用户数检测部440获取表示(i)智能体或(ii)输出部220和用户20的相对位置的信息(有时称为相对位置信息。)。响应模式决定部1036可以基于相对位置信息,决定智能体的面部或视线的朝向。由此,响应模式决定部1036能够控制智能体的动作,以使得智能体的面部或视线朝向用户20的方向。
在智能体或输出部220的周围存在多个用户20的情况下,响应模式决定部1036可以按照预先设定的优先级,来决定以使得智能体的面部或视线朝向哪个用户20的方向的方式控制智能体的动作。响应模式决定部1036例如可以从用户数检测部440获取在智能体或输出部220的周围存在的1个或多个用户20相关的信息。
例如,响应模式决定部1036可以基于各用户的音量、各用户的面部的朝向、各用户的视线的朝向、车辆110的状态、以及各用户的座席配置的至少1个来决定上述的优先级。响应模式决定部1036可以决定使声音大的用户优先。响应模式决定部1036也可以决定使面部更朝向智能体的方向的用户优先。
例如,在车辆110处于移动中的情况下,响应模式决定部1036按照位于副驾驶席的用户20、位于驾驶席的用户20、位于后排座席的用户20的顺序决定优先级。另一方面,在车辆110处于停车中的情况下,响应模式决定部1036可以决定使位于驾驶席的用户20优先。
[基于对话时的用户20的样子的智能体的交互]
在本实施方式中,响应模式决定部1036基于用户20传递请求时的用户20的样子,决定响应时的智能体的模式。例如,响应模式决定部1036从用户状态推定部944获取特征信息。响应模式决定部1036可以通过特征信息,基于用户20的特征来决定智能体的模式。
在一个实施方式中,响应模式决定部1036将智能体控制为智能体连续多个会话、或连续一定期间以相同或类似的方式进行响应。在其他的实施方式中,响应模式决定部1036将智能体控制为智能体按照每个请求,以与该请求对应的模式进行响应。
如上所述,智能体的模式可以是响应时的智能体的交互模式。智能体的交互模式可以是音量、语气、语速、每1回的说话时长、停顿方式、声调方式、强弱方式、附和方式、语言习惯、以及话题的展开方法的至少1个。通过智能体以与用户20的样子相匹配的方式进行响应,实现了自然且亲密的会话。
响应模式决定部1036可以将智能体的模式决定为智能体的交互模式与由特征信息表示的用户20的样子相同或类似。例如,若用户20的语气缓慢,则以使得智能体以缓慢的语气进行响应的方式控制智能体。在基于用户20的指示是单词的情况下,或基于用户20的指示的文字数比预先设定的值少的情况下,以使得智能体简要地响应的方式控制智能体。
例如,在用户20请求乐曲ABC的播放时,若用户20有礼貌地请求“能为我播放ABC吗?”,则智能体也以“我知道了。对ABC进行播放。”的方式礼貌地响应。此时,根据用户20的心理状态的不同,存在智能体以“我知道了。对ABC进行播放。另外,最近XYZ这首歌曲也很受欢迎”的方式,推荐与用户20的心理状态对应的乐曲的情况。另一方面,若用户20以“播放ABC”的方式简要地请求,则智能体也以“对ABC进行播放”的方式简要地响应。
响应模式决定部1036也可以从用户状态推定部944获取表示用户20的心理状态的信息。响应模式决定部1036可以基于用户20的心理状态来决定智能体的模式。例如,在用户20发怒、烦躁、焦虑等抱有冷静程度比预先设定的值小的感情的情况下,以智能体冷静地响应的方式控制智能体。在用户20抱有快乐或高兴这样的感情的情况下,以智能体明快地响应的方式控制智能体。
在用户20是车辆110的驾驶者的情况下,响应模式决定部1036可以从车辆状态推定部946获取表示车辆110的动作的状态的信息。响应模式决定部1036也可以基于车辆110的动作的状态,决定智能体的模式。例如,响应模式决定部1036根据车辆110的速度,决定智能体的模式。响应模式决定部1036可以根据拥堵的程度,决定智能体的模式。
[视线检测方法的概要]
利用图11、图12、图13以及图14,对校正部414中的视线检测方法的一例进行说明。具体而言,对在被验者的左右的视线的方向的差别比较大的情况下(有时称为斜视。)推定被验者的注视方向的方法进行说明。
图11以及图12简要示出用户20驾驶车辆110时用户20的视线的方向的一例。图11示出用户20使用用户20的手1120操作搭载于车辆110的触摸面板显示器1110上显示的操作面板时的用户20的左眼1140的视线的方向1142以及用户20的右眼1150的视线的方向1152的一例。在操作面板上,例如配置有用于操作车辆110或搭载于车辆110的设备的操作图标。图12示出在用户20正驾驶车辆110的情况下,车辆110直行时的用户20的左眼1140的视线的方向1142以及用户20的右眼1150的视线的方向1152的一例。
另外,在图11以及图12中,头部1130表示用户20的头部。另外,注视点检测部420可以配置于车辆110的车内、或触摸面板显示器1110或者触摸面板显示器1110的附近。
如图11以及图12所示,在本实施方式中,用户20的左眼1140的视线的方向1142与用户20的右眼1150的视线的方向1152的差别比较大。在这种情况下,若均等地考虑左右的视线的方向来推定注视点,则存在推定的注视点和实际的注视点的偏差变大至在实用上成为问题的程度的可能性。
根据本实施方式,校正部414判定用户20的左右的视线方向的差别的程度(有时称为斜视的程度。)。另外,校正部414判定用户20的主视眼。校正部414也可以在用户20的斜视的程度超过预先设定的阈值的情况下,判定用户20的主视眼。
在本实施方式中,校正部414基于斜视相关的判定以及主视眼相关的判定的至少一方,决定注视点检测部420中的注视点的推定处理所利用的推定参数。推定参数可以是表示被验者的右眼的视线方向以及左眼的视线方向分别对被验者的注视方向的推定带来的影响的程度的参数。推定参数可以是权重参数。由此,即使在用户20的左右的视线方向的差别比较大的情况下,注视点检测部420也能够高精度地推定用户20的注视方向。
在一个实施方式中,校正部414如图11所示那样,基于用户20操作触摸面板显示器1110时的左眼1140的视线的方向1142与右眼1150的视线的方向1152,决定推定参数。例如,如图11所示那样,在用户20操作触摸面板显示器1110上显示的操作面板的情况下,用户20注视触摸面板显示器1110、操作面板、或被手1120按下的操作图标的可能性较高。另外,此时的用户20的注视方向由箭头1134示出。
在其他的实施方式中,如图12所示那样,校正部414基于用户20驾驶车辆110时的左眼1140的视线的方向1142与右眼1150的视线的方向1152,决定推定参数。例如,如图12所示那样,在用户20驾驶车辆110的情况下,在车辆110直行时,用户20的注视方向与车辆110的前进方向1102或用户20的面部的方向1132大致一致的可能性较高。
于是,校正部414例如比较(i)用户20注视的可能性较高的方向与左眼1140的视线的方向1142所成的角度、(ii)用户20注视的可能性较高的方向与右眼1150的视线的方向1152所成的角度,由此能够决定用户20的主视眼。校正部414例如判定上述的角度较小的眼是主视眼。
另外,校正部414例如也可以基于左眼1140的视线的方向1142和右眼1150的视线的方向1152所成的角度,决定用户20的斜视的程度。斜视的程度可以被连续地评价,也可以被阶段性地评价。
这里,“一个方向以及其他的方向所成的角度”(有时称为一个方向和其他的方向所成的角度。)可以意味着,在表示一个方向的平面向量的起点与表示其他的方向的平面向量的起点重合的情况下,由上述的2个向量形成的2个角度中的成为180度以下的那个角度。在分别示出2个方向的向量是3维向量的情况下,也同样地可以决定“一个方向和其他的方向所成的角度”。
在本实施方式中,以用户20按下触摸面板显示器1110上显示的操作面板上显示的操作图标的情况为例,对斜视或主视眼的判定方法进行了说明。但是,斜视或主视眼的判定方法不限于本实施方式。在其他的实施方式中,即使在被验者按下用于操作设备的物理的操作按钮的情况下,也可以通过同样的手法判定斜视或主视眼。
用户20可以是被验者的一例。注视点检测部420可以是注视方向推定部的一例。车辆110或搭载于车辆110的设备可以是设备的一例。车辆110可以是视线检测装置的一例。输入部210可以是视线检测装置的一例。校正部414可以是视线检测装置的一例。
触摸面板显示器1110可以是图像输出装置的一例。触摸面板显示器1110可以是输入部210以及输出部220的一例。左眼1140以及右眼1150的一方可以是第1眼以及第2眼的一方的一例。左眼1140以及右眼1150的另一方可以是第1眼以及第2眼的另一方的一例。方向1142以及方向1152的一方可以是第1方向以及第2方向的一例。方向1142以及方向1152的另一方可以是第1方向以及第2方向的另一例。
[校正部414的各单元的概要]
图13简要示出校正部414的内部构成的一例。在本实施方式中,校正部414具备用户认证部1222、设定信息保存部1224、行驶状态监视部1232、斜视设定部1240。在本实施方式中,斜视设定部1240具有样本信息获取部1242、样本信息存储部1244、判定部1246、设定信息生成部1248。
判定部1246可以是视线检测装置的一例。设定信息生成部1248可以是推定参数决定部的一例。
在本实施方式中,用户认证部1222对用户20进行认证。例如,用户认证部1222从输入部210获取对用户20的头部进行拍摄得到的图像的图像数据。用户认证部1222例如利用面部认证技术等的个人认证技术,对用户20进行确定或认证。用户认证部1222可以将用于识别被确定或认证的用户20的识別信息向设定信息保存部1224以及斜视设定部1240的至少一方输出。
在本实施方式中,设定信息保存部1224针对1个或多个用户20的各个,保存表示视线计测部412以及注视点检测部420的至少一方中的视线信息处理相关的每个用户的设定的设定信息。上述的设定信息可以是设定信息生成部1248生成的设定信息。设定信息保存部1224可以将用于识别各用户的识別信息与该用户的设定信息建立对应地保存。
在本实施方式中,行驶状态监视部1232监视车辆110的行驶状态。作为车辆110的行驶状态,例举车辆110的前进方向、行驶速度、加速度、角速度等。车辆110的行驶状态也可以是车辆110的行驶相关的各种的操作量。
行驶状态可以是移动体的移动状态的一例。行驶速度可以是移动体的移动速度的一例。行驶相关的各种的操作量可以是移动相关的各种的操作量的一例。
在本实施方式中,斜视设定部1240设定用户认证部1222所认证的用户20的斜视相关的各种的参数。斜视设定部1240可以将上述的设定相关的信息(有时称为设定信息。)保存至设定信息保存部1224。
在本实施方式中,样本信息获取部1242获取作为被验者的用户20的头部的图像的图像数据。上述的图像可以是包含用户20的面部的一部分的图像。上述的图像优选包含用户20的右眼以及左眼的至少一方的周边的图像。样本信息获取部1242可以将获取的图像数据保存至样本信息存储部1244。
在本实施方式中,判定部1246对作为被验者的用户20的头部的图像进行解析,判定用户20的斜视的程度。判定部1246判定用户20的主视眼。在一个实施方式中,判定部1246从样本信息获取部1242获取图像数据,几乎实时地执行上述的判定处理。在其他的实施方式中,判定部1246利用样本信息存储部1244中保存的图像数据,执行上述的判定处理。判定部1246的细节后述。
在本实施方式中,设定信息生成部1248生成设定信息。设定信息生成部1248可以将生成的设定信息保存至设定信息保存部1224。设定信息生成部1248可以将用于识别用户20的识別信息与用户20相关的设定信息建立对应地保存至设定信息保存部1224。
设定信息生成部1248例如决定注视点检测部420中的推定处理所利用的推定参数。如上所述,注视点检测部420基于用户20的左眼1140的视线的方向1142以及用户20的右眼1150的视线的方向1152,推定用户20的注视方向。
推定参数可以包含(i)表示方向1142对推定的注视方向带来的影响的程度的参数、以及(ii)表示方向1152对推定的注视方向带来的影响的程度的参数的至少一方。上述的参数分别可以是权重参数。
设定信息生成部1248可以基于判定部1246中的斜视相关的判定结果以及主视眼相关的判定结果的至少一方,决定推定参数。在一个实施方式中,设定信息生成部1248以使得在判定部1246中的主视眼相关的判定处理中被判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响比另一个眼睛的视线的方向对注视方向的推定带来的影响大的方式,决定推定参数。设定信息生成部1248也可以不利用不是主视眼的眼睛的视线方向来决定推定参数。
在其他的实施方式中,在判定部1246中的斜视相关的判定处理中,在判定为方向1142以及方向1152所成的角度满足预先设定的条件(有时称为方向条件。)的情况下,设定信息生成部1248可以以使得判定部1246中的主视眼相关的判定处理中被判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响比另一个眼睛的视线的方向对注视方向的推定带来的影响大的方式,决定推定参数。
作为方向条件,例举(i)方向1142以及方向1152所成的角度的绝对值在预先设定的数值范围的范围外这样的条件、(ii)方向1142以及方向1152所成的角度的绝对值比预先设定的阈值大这样的条件、(iii)方向1142以及方向1152所成的角度的绝对值在预先设定的阈值以上这样的条件等。由此,即使在方向1142以及方向1152的差别比较大的情况下,也抑制了注视方向的推定精度的降低。
在判定部1246中的斜视相关的判定处理中,在判定为方向1142以及方向1152所成的角度满足方向条件的情况下,设定信息生成部1248在第2判定部判定为所述第1方向以及第2方向所成的角度满足方向条件时,可以以使得在判定部1246中的主视眼相关的判定处理中被判定为不是主视眼的眼睛的视线的方向不被用于注视方向的推定的方式,决定推定参数。由此,即使在方向1142以及方向1152的差别比较大的情况下,进一步抑制注视方向的推定精度的降低。
另一方面,在判定部1246中的斜视相关的判定处理中,在判定为方向1142以及方向1152所成的角度不满足方向条件的情况下(即,判定为斜视的程度较小的情况),设定信息生成部1248可以以使得判定部1246中的主视眼相关的判定处理中被判定为主视眼的眼睛的视线的方向对注视方向的推定带来的影响与另一个眼睛的视线的方向对注视方向的推定带来的影响大致相等的方式,决定推定参数。由此,与总是仅考虑主视眼的视线方向的情况相比,能够高精度地推定注视方向。
图14简要示出判定部1246的内部构成的一例。在本实施方式中,判定部1246具备视线检测部1320、斜视判定部1330、注视方向假定部1340、主视眼判定部1350。在本实施方式中,视线检测部1320具有右眼方向检测部1322、左眼方向检测部1324。在本实施方式中,注视方向假定部1340具有设备操作检测部1342、前进方向检测部1344、面部方向检测部1346。
右眼方向检测部1322可以是第1方向决定部的一例。左眼方向检测部1324可以是第2方向决定部的一例。斜视判定部1330可以是第2判定部的一例。注视方向假定部1340可以是假定部的一例。设备操作检测部1342可以是操作检测部的一例。面部方向检测部1346可以是面部方向检测部的一例。主视眼判定部1350可以是第1判定部的一例。
在本实施方式中,视线检测部1320检测用户20的视线。在本实施方式中,右眼方向检测部1322决定用户20的右眼1150的视线的方向1152。在本实施方式中,左眼方向检测部1324决定用户20的左眼1140的视线的方向1142。右眼方向检测部1322以及左眼方向检测部1324可以将用户20的视线的方向相关的信息(有时称为视线信息。)向头部1130输出。
在本实施方式中,斜视判定部1330判定用户20的斜视的程度。具体而言,对视线检测部1320所决定的方向1142以及方向1152进行比较,判定方向1142以及方向1152所成的角度是否满足上述的方向条件。例如,在方向1142以及方向1152所成的角度满足上述的方向条件的情况下,判定为用户20的斜视的程度比较大。另一方面,在方向1142以及方向1152所成的角度不满足上述的方向条件的情况下,判定为用户20的斜视的程度比较小或不斜视。
斜视判定部1330将表示用户20的斜视相关的判定结果的信息例如向设定信息生成部1248输出。斜视判定部1330也可以将表示用户20的斜视相关的判定结果的信息向主视眼判定部1350输出。
在本实施方式中,注视方向假定部1340基于用户20的眼睛的动作以外的动作、起因于该动作的车辆110的状态等,假定用户20的注视方向。例如,注视方向假定部1340基于(i)针对车辆110或搭载于车辆110的设备的用户20的操作、(ii)车辆110或搭载于车辆110的设备的状态、以及(iii)用户20的面部的朝向的至少1个,假定用户20的注视方向。
搭载于车辆110的设备例如是触摸面板显示器1110。车辆110或搭载于车辆110的设备可以是配置有注视点检测部420的设备的一例。
在一个实施方式中,在(i)车辆110的行驶速度相关的操作量满足预先设定的条件(有时称为第1速度条件。)且(ii)车辆110的转向操纵角相关的操作量满足预先设定的条件(有时称为转向操纵条件。)的情况下,注视方向假定部1340将车辆110的前进方向假定为用户20的注视方向。车辆110的前进方向例如由前进方向检测部1344检测。第1速度条件以及转向操纵条件可以是用户20集中驾驶的可能性较高的条件。
作为第1速度条件,例举(i)是车辆110的行驶速度成为预先设定的数值范围的范围内那样的操作量的条件、(ii)是车辆110的行驶速度比预先设定的阈值大那样的操作量的条件、(iii)是车辆110的行驶速度在预先设定的阈值以上那样的操作量的条件等。对于数值范围而言,可以仅设定下限,也可以设定上限以及下限。
作为转向操纵条件,例举(i)是车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个成为预先设定的数值范围的范围内那样的操作量的条件、(ii)是车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个比预先设定的阈值大那样的操作量的条件、(iii)是车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个在预先设定的阈值以上那样的操作量的条件等。对于数值范围而言,可以仅设定下限,也可以设定上限以及下限。
侧倾角速度、俯仰角速度以及偏航角速度中,优选偏航角速度满足上述的条件。在是车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个成为预先设定的数值范围的范围内那样的操作量的情况下,可以判定为车辆110正在直行。
在其他的实施方式中,在(i)车辆110的行驶速度满足预先设定的条件(有时称为第2速度条件。)且(ii)车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个满足预先设定的条件(有时称为角速度条件。)的情况下,注视方向假定部1340将车辆110的前进方向假定为用户20的注视方向。车辆110的前进方向例如由前进方向检测部1344检测。第2速度条件以及角速度条件可以是用户20集中驾驶的可能性较高的条件。
作为第2速度条件,例举(i)车辆110的行驶速度是预先设定的数值范围的范围内这样的条件、(ii)车辆110的行驶速度比预先设定的阈值大这样的条件、(iii)车辆110的行驶速度在预先设定的阈值以上这样的条件等。对于数值范围而言,可以仅设定下限,也可以设定上限以及下限。
作为角速度条件,例举(i)车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个是预先设定的数值范围的范围内这样的条件、(ii)车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个比预先设定的阈值大这样的条件、(iii)车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个在预先设定的阈值以上这样的条件等。对于数值范围而言,可以仅设定下限,也可以设定上限以及下限。
侧倾角速度、俯仰角速度以及偏航角速度中,优选偏航角速度满足上述的条件。在车辆110的侧倾角速度、俯仰角速度以及偏航角速度的至少1个是预先设定的数值范围的范围内的情况下,可以判定为车辆110正在直行。
另外在其他的实施方式中,在设备操作检测部1342检测到车辆110或搭载于车辆110的设备的操作按钮或操作图标被用户20按下的情况下,注视方向假定部1340将用户20注视该操作按钮或该操作图标的方向假定为用户20的注视方向。另外在其他的实施方式中,注视方向假定部1340将面部方向检测部1346检测到的用户20的面部的朝向假定为用户20的注视方向。
在本实施方式中,设备操作检测部1342对(i)用于操作车辆110或搭载于车辆110的设备的物理的操作按钮、或(ii)显示于触摸面板显示器1110并用于操作车辆110或搭载于车辆110的设备的操作图标被用户20按下的情况进行检测。设备操作检测部1342可以确定用户20按下的操作按钮或操作图标的位置。设备操作检测部1342可以计算用户20按下的操作按钮或操作图标与用户20的各眼睛的相对位置。
在本实施方式中,前进方向检测部1344检测车辆110的前进方向。例如,前进方向检测部1344基于适当的种类的传感部240的输出,检测车辆110的前进方向。
在本实施方式中,面部方向检测部1346检测用户20的面部的朝向。例如,面部方向检测部1346基于车内摄像头或注视点检测部420所拍摄的用户20的头部的图像,检测用户20的面部的朝向。
在本实施方式中,主视眼判定部1350判定用户20的主视眼。具体而言,对由注视方向假定部1340假定的注视方向、左眼1140的视线的方向1142、以及右眼1150的视线的方向1152进行比较,判定左眼1140以及右眼1150的哪个是主视眼。例如,在假定的注视方向和方向1142所成的角度的绝对值比假定的注视方向和方向1152所成的角度的绝对值小的情况下,主视眼判定部1350判定左眼1140是主视眼。在假定的注视方向和方向1152所成的角度的绝对值比假定的注视方向和方向1142所成的角度的绝对值小的情况下,主视眼判定部1350判定为右眼1150是主视眼。
主视眼判定部1350可以与斜视判定部1330的判定结果无关地判定主视眼。主视眼判定部1350也可以在由斜视判定部1330判定为斜视的程度比较大的情况下判定主视眼。主视眼判定部1350将表示用户20的主视眼相关的判定结果的信息例如向设定信息生成部1248输出。
[校正部414的各单元的具体的构成]
校正部414的各单元可以由硬件实现,可以由软件实现,也可以由硬件以及软件实现。校正部414的各单元的至少一部分可以由单一的服务器实现,也可以由多个服务器实现。校正部414的各单元的至少一部分可以在虚拟机上或云端系统上实现。校正部414的各单元的至少一部分可以由个人计算机或便携终端实现。作为便携终端,例举手机、智能电话、PDA、平板电脑、笔记本电脑或手提计算机、可穿戴计算机等。校正部414的各单元也可以利用区块链等的分布式记账技术或分布式网络来保存信息。
构成校正部414的构成要素的至少一部分由软件实现的情况下,由该软件实现的构成要素可以通过在通常构成的信息处理装置中启动规定了该构成要素相关的动作的程序来实现。上述的信息处理装置例如具备(i)具有CPU、GPU等的处理器、ROM、RAM、通信接口等的数据处理装置、(ii)键盘、触摸面板、摄像头、麦克风、各种传感器、GPS接收器等的输入装置、(iii)显示装置、扬声器、振动装置等的输出装置、(iv)存储器、HDD等的存储装置(包含外部存储装置。)。
在上述的信息处理装置中,上述的数据处理装置或存储装置可以保存程序。上述的程序可以保存在非易失性计算机可读记录介质中。上述的程序通过被处理器执行,使上述的信息处理装置执行由该程序规定的动作。
程序可以存储在CD-ROM、DVD-ROM、存储器、硬盘等的计算机可读的介质中,也可以存储在与网络连接的存储装置中。程序可以从计算机可读的介质或与网络连接的存储装置安装至构成校正部414的至少一部分的计算机中。通过执行程序,计算机可以作为校正部414的各单元的至少一部分发挥功能。
使计算机作为校正部414的各单元的至少一部分发挥功能的程序可以具备规定了校正部414的各单元的动作的模块。这些程序或模块在数据处理装置、输入装置、输出装置、存储装置等中动作,使计算机作为校正部414的各单元发挥功能,或使计算机执行校正部414的各单元中的信息处理方法。
对于程序中记述的信息处理而言,通过将该程序读入计算机,作为该程序相关的软件和校正部414的各种的硬件资源相协作的具体的单元发挥作用。并且,通过由上述的具体的单元实现与本实施方式中的计算机的使用目的对应的信息的运算或加工,构建与该使用目的对应的校正部414。
上述的程序可以是用于使计算机作为校正部414发挥功能的程序。上述的程序可以是用于使计算机执行车辆110或校正部414中的视线检测方法的程序。
上述的视线检测方法例如具有决定被验者的第1眼的视线的方向亦即第1方向的第1方向决定步骤。上述的视线检测方法例如具有决定被验者的第2眼的视线的方向亦即第2方向的第2方向决定步骤。上述的视线检测方法例如具有基于(i)针对配置有对被验者的视线进行计测的视线计测装置的设备的被验者的操作、(ii)设备的状态、以及(iii)被验者的面部的朝向的至少1个,假定被验者的注视方向的假定步骤。上述的视线检测方法例如具有对假定的注视方向、第1方向以及第2方向进行比较,判定第1眼以及第2眼的哪个是主视眼的第1判定步骤。
在上述的视线检测方法中,上述的第1判定步骤可以包含在假定的注视方向和第1方向所成的角度的绝对值比假定的注视方向和第2方向所成的角度的绝对值小的情况下,判定第1眼是主视眼的步骤。在上述的视线检测方法中,上述的第1判定步骤可以包含在假定的注视方向和第2方向所成的角度的绝对值比假定的注视方向和第1方向所成的角度的绝对值小的情况下,判定第2眼是主视眼的步骤。
以上,利用实施方式对本发明进行了说明,但本发明的技术范围不限于上述实施方式所记载的范围。能够对上述实施方式进行各种各样的变更或改良对于本领域技术人员是显而易见的。另外,在没有技术矛盾的范围中,能够将针对特定的实施方式说明的事项适用于其他的实施方式。进行了这样的变更或改良的方式也能够包含于本发明的技术范围内从权利要求书的记载而言是显而易见的。
对于权利要求书、说明书以及附图中示出的装置、系统、程序以及方法中的动作、流程、步骤以及步骤等的各处理的执行顺序而言,应注意没有特别明示“之前”、“先行”等,另外,只要不是将之前的处理的输出在之后的处理中使用,就可以以任意的顺序实现。对于权利要求书、说明书以及附图中的动作流程而言,即使为了便利而使用了“首先”、“接着”等进行了说明,但并不意味着必须以这样的顺序来实施。
【附图标记的说明】
10通信网络,20用户,30通信终端,100对话型智能体系统,110车辆,112响应系统,114通信系统,120辅助服务器,210输入部,220输出部,230通信部,240传感部,250驱动部,260附属装置,270控制部,272输入输出控制部,274车辆控制部,276通信控制部,312语音信息获取部,314图像信息获取部,316操作信息获取部,318车辆信息获取部,322通信信息获取部,330转送部,340事件检测部,350响应管理部,360智能体信息保存部,412视线计测部,414校正部,420注视点检测部,430启动事件检测部,440用户数检测部,450留言事件检测部,520眼神交流检测部,530启动短语检测部,540启动操作检测部,620转送控制部,630响应决定部,632启动管理部,638响应信息获取部,642语音合成部,644图像生成部,650指令生成部,660留言管理部,722设定数据保存部,732语音数据保存部,734图像数据保存部,820通信部,830通信控制部,840请求处理部,842请求决定部,844执行部,846响应信息生成部,848设定信息保存部,850留言服务提供部,920输入信息获取部,932语音识别部,934姿态识别部,940推定部,942请求推定部,944用户状态推定部,946车辆状态推定部,1034响应内容决定部,1036响应模式决定部,1102前进方向、1110触摸面板显示器、1120手、1130头部、1132方向、1134箭头、1140左眼、1142方向、1150右眼、1152方向、1222用户认证部、1224设定信息保存部、1232行驶状态监视部、1240斜视设定部,1242样本信息获取部、1244样本信息存储部、1246判定部、1248设定信息生成部、1320视线检测部、1322右眼方向检测部、1324左眼方向检测部、1330斜视判定部、1340注视方向假定部、1342设备操作检测部、1344前进方向检测部、1346面部方向检测部、1350主视眼判定部。
Claims (12)
1.一种视线检测装置,其具备:
第1方向决定部,其决定第1方向,所述第1方向是被验者的第1眼的视线的方向;
第2方向决定部,其决定第2方向,所述第2方向是所述被验者的第2眼的视线的方向;
假定部,其基于(i)针对配置有计测所述被验者的视线的视线计测装置的设备所进行的所述被验者的操作、(ii)所述设备的状态、以及(iii)所述被验者的面部的朝向中的至少1个,假定所述被验者的注视方向;以及
第1判定部,对所述假定的注视方向、所述第1方向以及所述第2方向进行比较,判定所述第1眼以及所述第2眼的哪个是主视眼,
在所述假定的注视方向与所述第1方向所成的角度的绝对值小于所述假定的注视方向与所述第2方向所成的角度的绝对值的情况下,所述第1判定部判定所述第1眼是主视眼,
在所述假定的注视方向与所述第2方向所成的角度的绝对值小于所述假定的注视方向与所述第1方向所成的角度的绝对值的情况下,所述第1判定部判定所述第2眼是主视眼。
2.根据权利要求1所述的视线检测装置,其中,
所述视线计测装置搭载于所述设备,
所述设备是所述被验者驾驶的移动体,
在(i)所述移动体的移动速度相关的操作量满足预先设定的第1速度条件,且(ii)所述移动体的转向操纵角相关的操作量满足预先设定的转向操纵条件的情况下,所述假定部将所述移动体的前进方向假定为所述被验者的注视方向。
3.根据权利要求1所述的视线检测装置,其中,
所述视线计测装置搭载于所述设备,
所述设备是所述被验者驾驶的移动体,
在(i)所述移动体的移动速度满足预先设定的第2速度条件,且(ii)所述移动体的侧倾角速度、俯仰角速度以及偏航角速度中的至少1个满足预先设定的角速度条件的情况下,所述假定部将所述移动体的前进方向假定为所述被验者的注视方向。
4.根据权利要求1所述的视线检测装置,其中,
还具备操作检测部,该操作检测部对(i)用于操作所述设备的物理操作按钮或(ii)显示于所述设备的图像输出装置且用于操作所述设备的操作图标被所述被验者按下这一情形进行检测,
所述视线计测装置搭载于所述设备,
在所述操作检测部检测出所述操作按钮或所述操作图标被所述被验者按下这一情形时,所述假定部将所述被验者注视所述操作按钮或所述操作图标的方向假定为所述被验者的注视方向。
5.根据权利要求1所述的视线检测装置,其中,
还具备检测所述被验者的面部的朝向的面部方向检测部,
所述假定部将所述面部方向检测部检测出的所述被验者的面部的朝向假定为所述被验者的注视方向。
6.根据权利要求1至5中任一项所述的视线检测装置,其中,
还具备推定参数决定部,该推定参数决定部基于所述第1方向以及所述第2方向,决定对所述被验者的注视方向进行推定的注视方向推定部中的推定处理所利用的推定参数,
所述推定参数决定部以使得由所述第1判定部判定为主视眼的眼睛的视线的方向对所述注视方向的推定带来的影响比另一个眼睛的视线的方向对所述注视方向的推定带来的影响大的方式,决定所述推定参数。
7.根据权利要求6所述的视线检测装置,其中,
还具备第2判定部,该第2判定部对所述第1方向以及所述第2方向进行比较,判定所述第1方向与所述第2方向所成的角度是否满足预先设定的方向条件,
在所述第2判定部判定为所述第1方向与所述第2方向所成的角度满足所述方向条件的情况下,
所述推定参数决定部以使得由所述第1判定部判定为主视眼的眼睛的视线的方向对所述注视方向的推定带来的影响比另一个眼睛的视线的方向对所述注视方向的推定带来的影响大的方式,决定所述推定参数。
8.根据权利要求6所述的视线检测装置,其中,
还具备第2判定部,该第2判定部对所述第1方向以及所述第2方向进行比较,判定所述第1方向与所述第2方向所成的角度是否满足预先设定的方向条件,
在所述第2判定部判定为所述第1方向与所述第2方向所成的角度满足所述方向条件的情况下,
所述推定参数决定部以使得由所述第1判定部判定为并非主视眼的眼睛的视线的方向不被用于所述注视方向的推定的方式,决定所述推定参数。
9.根据权利要求6所述的视线检测装置,其中,
还具备第2判定部,该第2判定部对所述第1方向以及所述第2方向进行比较,判定所述第1方向与所述第2方向所成的角度是否满足预先设定的方向条件,
在所述第2判定部判定为所述第1方向与所述第2方向所成的角度不满足所述方向条件的情况下,
所述推定参数决定部以使得所述第1判定部判定为主视眼的眼睛的视线的方向对所述注视方向的推定带来的影响与另一个眼睛的视线的方向对所述注视方向的推定带来的影响大致相等的方式,决定所述推定参数。
10.根据权利要求1至9中任一项所述的视线检测装置,其中,
还具备所述视线计测装置。
11.一种计算机可读的存储介质,存储有程序,在该程序被处理器执行时,执行视线检测方法,其特征在于,
所述视线检测方法具有:
第1方向决定步骤,决定第1方向,所述第1方向是被验者的第1眼的视线的方向;
第2方向决定步骤,决定第2方向,所述第2方向是所述被验者的第2眼的视线的方向;
假定步骤,基于(i)针对配置有计测所述被验者的视线的视线计测装置的设备所进行的所述被验者的操作、(ii)所述设备的状态、以及(iii)所述被验者的面部的朝向中的至少1个,假定所述被验者的注视方向;以及
第1判定步骤,对所述假定的注视方向、所述第1方向以及所述第2方向进行比较,判定所述第1眼以及所述第2眼的哪个是主视眼,所述第1判定步骤包括:
在所述假定的注视方向与所述第1方向所成的角度的绝对值小于所述假定的注视方向与所述第2方向所成的角度的绝对值的情况下,判定所述第1眼是主视眼的步骤;以及
在所述假定的注视方向与所述第2方向所成的角度的绝对值小于所述假定的注视方向与所述第1方向所成的角度的绝对值的情况下,判定所述第2眼是主视眼的步骤。
12.一种视线检测方法,其中,具有:
第1方向决定步骤,决定第1方向,所述第1方向是被验者的第1眼的视线的方向;
第2方向决定步骤,决定第2方向,所述第2方向是所述被验者的第2眼的视线的方向;
假定步骤,基于(i)针对配置有计测所述被验者的视线的视线计测装置的设备所进行的所述被验者的操作、(ii)所述设备的状态、以及(iii)所述被验者的面部的朝向中的至少1个,假定所述被验者的注视方向;以及
第1判定步骤,对所述假定的注视方向、所述第1方向以及所述第2方向进行比较,判定所述第1眼以及所述第2眼的哪个是主视眼,
所述第1判定步骤包括:
在所述假定的注视方向与所述第1方向所成的角度的绝对值小于所述假定的注视方向与所述第2方向所成的角度的绝对值的情况下,判定所述第1眼是主视眼的步骤;以及
在所述假定的注视方向与所述第2方向所成的角度的绝对值小于所述假定的注视方向与所述第1方向所成的角度的绝对值的情况下,判定所述第2眼是主视眼的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213285A JP7146585B2 (ja) | 2018-11-13 | 2018-11-13 | 視線検出装置、プログラム、及び、視線検出方法 |
JP2018-213285 | 2018-11-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111176434A true CN111176434A (zh) | 2020-05-19 |
Family
ID=70550139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911075247.9A Pending CN111176434A (zh) | 2018-11-13 | 2019-11-06 | 视线检测装置、计算机可读存储介质以及视线检测方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10809802B2 (zh) |
JP (1) | JP7146585B2 (zh) |
CN (1) | CN111176434A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270864A (zh) * | 2020-11-05 | 2021-01-26 | 中电海康集团有限公司 | 一种基于第一人称视线位置调整的驾培教学方法及系统 |
CN112288855A (zh) * | 2020-10-29 | 2021-01-29 | 张也弛 | 一种操作者眼睛注视模型的建立方法及装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108428452B (zh) * | 2018-03-14 | 2019-12-13 | 百度在线网络技术(北京)有限公司 | 终端支架和远场语音交互系统 |
CN111243049B (zh) * | 2020-01-06 | 2021-04-02 | 北京字节跳动网络技术有限公司 | 人脸图像的处理方法、装置、可读介质和电子设备 |
CN111767821B (zh) * | 2020-06-23 | 2024-04-09 | 京东科技控股股份有限公司 | 对象被关注的识别方法、装置、设备及存储介质 |
JP7322862B2 (ja) * | 2020-11-04 | 2023-08-08 | トヨタ自動車株式会社 | 車外情報表示制御装置、車外情報表示制御方法及びプログラム |
US11776315B2 (en) * | 2020-11-04 | 2023-10-03 | Blink O.G. Ltd. | Appearance based dominant eye selector systems and methods for gaze estimation from passive imagery |
JP2022136843A (ja) * | 2021-03-08 | 2022-09-21 | 本田技研工業株式会社 | 較正装置及び較正方法 |
SE2151198A1 (en) * | 2021-09-30 | 2023-03-31 | Tobii Ab | Gaze defect compensation |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
JP2008213823A (ja) * | 2007-02-06 | 2008-09-18 | Denso Corp | 車両用制御装置 |
CN101677762A (zh) * | 2008-02-28 | 2010-03-24 | 松下电器产业株式会社 | 视线检测装置以及视线检测方法 |
JP2012055428A (ja) * | 2010-09-07 | 2012-03-22 | Honda Motor Co Ltd | 視線検出装置 |
CN104244807A (zh) * | 2012-07-31 | 2014-12-24 | 独立行政法人科学技术振兴机构 | 注视点检测装置、注视点检测方法、个人参数计算装置、个人参数计算方法、程序、以及计算机可读取的记录介质 |
CN104635338A (zh) * | 2013-11-07 | 2015-05-20 | 柯尼卡美能达株式会社 | 具有透过型hmd的信息显示系统以及显示控制方法 |
CN108139813A (zh) * | 2015-10-19 | 2018-06-08 | 鸥利研究所股份有限公司 | 视线输入装置、视线输入方法以及视线输入程序 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3289953B2 (ja) | 1991-05-31 | 2002-06-10 | キヤノン株式会社 | 視線方向検出装置 |
US6859144B2 (en) * | 2003-02-05 | 2005-02-22 | Delphi Technologies, Inc. | Vehicle situation alert system with eye gaze controlled alert signal generation |
JP2005138755A (ja) * | 2003-11-07 | 2005-06-02 | Denso Corp | 虚像表示装置およびプログラム |
JP2006293909A (ja) * | 2005-04-14 | 2006-10-26 | Denso Corp | 運転者の視線方向検出装置 |
US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
CN102656613B (zh) * | 2009-12-18 | 2015-02-11 | 本田技研工业株式会社 | 使用眼睛注视技术、盲点指示器和驾驶员经验的预测人机接口 |
CN102812420B (zh) * | 2010-03-18 | 2016-01-20 | 富士胶片株式会社 | 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法 |
FR2972339B1 (fr) * | 2011-03-11 | 2013-04-19 | Essilor Int | Procede de determination de l'oeil directeur |
JP5367037B2 (ja) * | 2011-09-26 | 2013-12-11 | 本田技研工業株式会社 | 顔向き検出装置 |
US9319662B2 (en) * | 2013-01-16 | 2016-04-19 | Elwha Llc | Systems and methods for differentiating between dominant and weak eyes in 3D display technology |
US9463132B2 (en) * | 2013-03-15 | 2016-10-11 | John Castle Simmons | Vision-based diagnosis and treatment |
US9552060B2 (en) * | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
JP2016171402A (ja) * | 2015-03-11 | 2016-09-23 | 日本電信電話株式会社 | 眼鏡型装置 |
JP6707823B2 (ja) * | 2015-09-03 | 2020-06-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、及び、プログラム |
US10162412B2 (en) * | 2015-03-27 | 2018-12-25 | Seiko Epson Corporation | Display, control method of display, and program |
NL2016085B1 (en) * | 2016-01-13 | 2017-07-24 | Stichting Vu-Vumc | Method, system and computer readable medium to determine a strabismus angle between the eyes of an individual. |
-
2018
- 2018-11-13 JP JP2018213285A patent/JP7146585B2/ja active Active
-
2019
- 2019-11-06 CN CN201911075247.9A patent/CN111176434A/zh active Pending
- 2019-11-11 US US16/679,322 patent/US10809802B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008213823A (ja) * | 2007-02-06 | 2008-09-18 | Denso Corp | 車両用制御装置 |
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
CN101677762A (zh) * | 2008-02-28 | 2010-03-24 | 松下电器产业株式会社 | 视线检测装置以及视线检测方法 |
JP2012055428A (ja) * | 2010-09-07 | 2012-03-22 | Honda Motor Co Ltd | 視線検出装置 |
CN104244807A (zh) * | 2012-07-31 | 2014-12-24 | 独立行政法人科学技术振兴机构 | 注视点检测装置、注视点检测方法、个人参数计算装置、个人参数计算方法、程序、以及计算机可读取的记录介质 |
CN104635338A (zh) * | 2013-11-07 | 2015-05-20 | 柯尼卡美能达株式会社 | 具有透过型hmd的信息显示系统以及显示控制方法 |
CN108139813A (zh) * | 2015-10-19 | 2018-06-08 | 鸥利研究所股份有限公司 | 视线输入装置、视线输入方法以及视线输入程序 |
US20180239426A1 (en) * | 2015-10-19 | 2018-08-23 | Orylab Inc. | Line-of-sight input device, and method of line-of-sight input |
Non-Patent Citations (6)
Title |
---|
ALI BORJI等: "Complementary effects of gaze direction and early saliency in guiding fixations during free viewing", JOURNAL OF VISION NOVEMBER 2014 * |
DEJAN TODOROVIĆ: "Geometrical basis of perception of gaze direction", VISION RESEARCH, vol. 46, no. 12 * |
成波;孟传;张伟;: "基于机器视觉的驾驶员注意力状态监测技术研究", 汽车工程, no. 12 * |
李涛;: "基于视线角度的人眼视线检测研究", 计算机技术与发展, no. 08 * |
熊碧辉等: "一种融合视线检测的注意力检测方法", 软件导刊, no. 07, 30 May 2018 (2018-05-30) * |
龚秀锋;李斌;邓宏平;张文聪;: "基于标记点检测的视线跟踪注视点估计", 计算机工程, no. 06 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288855A (zh) * | 2020-10-29 | 2021-01-29 | 张也弛 | 一种操作者眼睛注视模型的建立方法及装置 |
CN112270864A (zh) * | 2020-11-05 | 2021-01-26 | 中电海康集团有限公司 | 一种基于第一人称视线位置调整的驾培教学方法及系统 |
CN112270864B (zh) * | 2020-11-05 | 2022-06-21 | 中电海康集团有限公司 | 一种基于第一人称视线位置调整的驾培教学方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2020080074A (ja) | 2020-05-28 |
JP7146585B2 (ja) | 2022-10-04 |
US10809802B2 (en) | 2020-10-20 |
US20200150759A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111176434A (zh) | 视线检测装置、计算机可读存储介质以及视线检测方法 | |
CN111190480A (zh) | 控制装置、智能体装置以及计算机可读存储介质 | |
US20200133630A1 (en) | Control apparatus, agent apparatus, and computer readable storage medium | |
CN111192583B (zh) | 控制装置、智能体装置以及计算机可读存储介质 | |
CN111144539A (zh) | 控制装置、智能体装置以及计算机可读存储介质 | |
US20190251973A1 (en) | Speech providing method, speech providing system and server | |
US11176948B2 (en) | Agent device, agent presentation method, and storage medium | |
US10773726B2 (en) | Information provision device, and moving body | |
CN111016824B (zh) | 交流支援系统、交流支援方法及存储介质 | |
CN112026790B (zh) | 车载机器人的控制方法及装置、车辆、电子设备和介质 | |
WO2018230654A1 (ja) | インタラクション装置、インタラクション方法、およびプログラム | |
JP2020055348A (ja) | エージェント装置、エージェント制御方法、およびプログラム | |
CN111007968A (zh) | 智能体装置、智能体提示方法及存储介质 | |
CN111210814B (zh) | 控制装置、智能体装置以及计算机可读存储介质 | |
JP2020060861A (ja) | エージェントシステム、エージェント方法、およびプログラム | |
JP7340943B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
CN111752235A (zh) | 服务器装置、智能体装置、信息提供方法及存储介质 | |
JP2020059401A (ja) | 車両制御装置、車両制御方法、プログラム | |
JP7297483B2 (ja) | エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |