CN103238311A - 电子设备及电子设备的控制程序 - Google Patents
电子设备及电子设备的控制程序 Download PDFInfo
- Publication number
- CN103238311A CN103238311A CN2011800571214A CN201180057121A CN103238311A CN 103238311 A CN103238311 A CN 103238311A CN 2011800571214 A CN2011800571214 A CN 2011800571214A CN 201180057121 A CN201180057121 A CN 201180057121A CN 103238311 A CN103238311 A CN 103238311A
- Authority
- CN
- China
- Prior art keywords
- electronic equipment
- user
- biological information
- input
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B1/00—Comparing elements, i.e. elements for effecting comparison directly or indirectly between a desired value and existing or anticipated values
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Abstract
关于取得生物信息并对其加以利用,并没有主动地去寻求更具体的方式。为此,例如作为一个形态,提供一种电子设备,包括:输入部,输入作为与使用者的生物性相关的信息的生物信息;以及输出部,基于生物信息向双向通信设备输出限制与使用者联系的限制信号。
Description
技术领域
本发明涉及电子设备及电子设备的控制程序。
背景技术
近年来,提出了一种通过取得用户的生物信息来提供各种辅助功能的方案,并提供了一种声音再现装置,检测用户是否正在专注于音乐,当没有专注于音乐时减小音量。
专利文献1:特开2005-34484号公报
发明内容
发明要解决的问题:
然而,关于取得生物信息并对其加以利用,并没有主动地去寻求更具体的方式。
解决问题的方案:
为了解决上述问题,本发明第一形态中的电子设备包括:输入部,输入作为与使用者的生物性相关的信息的生物信息;及输出部,基于生物信息,向双向通信设备输出限制与使用者联系的限制信号。
为了解决上述问题,本发明第二形态中的电子设备的控制程序使计算机执行:输入步骤,输入作为与使用者的生物性相关的信息的生物信息;及输出步骤,基于生物信息向双向通信设备输出限制与使用者联系的限制信号。
为了解决上述问题,本发明第三形态中的电子设备包括:生物信息输入部,输入作为与多个对象者的生物性相关的信息的生物信息;及输出部,基于生物信息向被控设备输出控制被控设备的控制信号。
为了解决上述问题,本发明第四形态中的电子设备的控制程序使计算机执行:生物信息输入步骤,输入作为与多个对象者的生物性相关的信息的生物信息;及输出步骤,基于生物信息向被控设备输出控制被控设备的控制信号。
为了解决上述问题,本发明第五形态中的电子设备包括:时刻显示部,显示时刻;第一拍摄部,设置于时刻显示部附近;第一检测部,基于第一拍摄部拍摄的图像检测至少一个对象者的脸部朝向时刻显示部的频率。
为了解决上述问题,本发明第六形态中的电子设备包括:输入部,输入作为与使用者的生物性相关的信息的生物信息;操作部,接收使用者的输入操作;检测部,检测使用者操作操作部的操作状况;及变更部,基于生物信息的变化及操作状况变更设定。
为了解决上述问题,本发明第七形态中的电子设备的控制程序使计算机执行:输入步骤,输入作为与使用者的生物性相关的信息的生物信息;检测步骤,接收由使用者对操作部件的输入操作并检测操作状况;及变更步骤,基于生物信息的变化及操作状况变更设定。
为了解决上述问题,本发明第八形态中的电子设备包括:操作部,接收使用者的输入操作;图像输入部,输入来自于拍摄操作部的至少一部分及使用者的手部的至少一部分的拍摄装置的图像;及变更部,基于解析图像而取得的手部的位置信息变更设定。
为了解决上述问题,本发明第九形态中的电子设备包括:第一操作部,接收使用者的输入操作;第二操作部,设置于第一操作部附近,接收输入操作;及变更部,当检测出向第一操作部的输入操作时,变更向第二操作部件的输入操作的操作灵敏度。
为了解决上述问题,本发明第十形态中的电子设备的控制程序使计算机执行:操作接收步骤,由操作部接收使用者的输入操作;图像输入步骤,输入来自于拍摄操作部的至少一部分及使用者的手部的至少一部分的拍摄装置的图像;及变更步骤,基于解析图像而取得的手部的位置信息变更设定。
为了解决上述问题,本发明第十一形态中的电子设备的控制程序使计算机执行:操作接收步骤,由第一操作部接收使用者的输入操作;及变更步骤,当检测到向第一操作部的输入操作时,变更向设置于第一操作部附近的第二操作部件的输入操作的操作灵敏度。
为了解决上述问题,本发明第十二形态中的电子设备包括:表情检测部,检测对象者的表情;生物信息输入部,输入作为与对象者的生物性相关的信息的生物信息;及控制部,基于表情检测部的检测结果及生物信息控制被控设备。
为了解决上述问题,本发明第十三形态中的电子设备的控制程序使计算机执行:表情检测步骤,检测对象者的表情;生物信息输入步骤,输入作为与对象者的生物性相关的信息的生物信息;及控制步骤,基于表情检测步骤的检测结果及生物信息控制被控设备。
为了解决上述问题,本发明第十四形态中的电子设备包括:讲话速度检测部,检测对象者的讲话速度;及控制部,基于讲话速度检测部的检测结果控制被控设备。
为了解决上述问题,本发明第十五形态中的电子设备的控制程序使计算机执行:讲话速度检测步骤,检测对象者的讲话速度;及控制步骤,基于讲话速度检测步骤的检测结果控制被控设备。
另外,上述发明内容并未列举出本发明的全部必要特征,所述特征组的子组合也能够构成发明。
附图说明
图1是表示第一实施方式所述专注度检测系统的示意图。
图2是第一实施方式所述专注度检测系统的模块图。
图3是表示第一实施方式所述专注度检测系统的处理流程图。
图4是表示作为第一实施方式的应用例的与检测用户手部相关的处理流程图。
图5是表示作为第一实施方式的应用例的与检测用户讲话速度相关的处理流程图。
图6是表示表示第一实施方式的变形例的智能手机的示意图。
图7是第一实施方式的变形例所述专注度检测系统的模块图。
图8是表示第二实施方式所述专注度检测系统的示意图。
图9是第二实施方式所述专注度检测系统的模块图。
图10是表示第二实施方式所述专注度检测系统的处理流程图。
图11是演讲者观看的显示器的显示例。
图12是演讲者观看的显示器的显示例。
具体实施方式
以下通过发明实施方式对本发明进行说明,但以下实施方式并非对技术方案所涉及的发明进行限定。并且,实施方式中说明的特征组合也并非全部为本发明的必要特征。
图1为表示第一实施方式所述专注度检测系统110的示意图。如图1所示,专注度检测系统110包括个人计算机(PC)200和装设于用户身上的生物传感器330。个人计算机200包括显示器201、键盘202、触摸板203等的用户输入操作部件。另外,在个人计算机200上连接有鼠标300,用户能够通过操作鼠标300,向个人计算机200发出指令。
个人计算机200进一步包括:内置相机204、超声波传感器205、扬声器206、话筒207。内置相机204包括拍摄镜头及拍摄元件。拍摄元件使用CCD(Charge-Coupled Device,电荷耦合元件)传感器、CMOS(ComplementaryMetal-Oxide-Semiconductor,互补金属氧化物半导体)传感器等图像传感器。内置相机204设置于显示器201的上部,具有能够同时拍摄包含脸部、手部和腕部的用户上半身以及键盘202、触摸板203等操作部件的视角。另外,例如可以采用相机模块来代替内置相机204,该相机模块能够通过夹子装设于显示器201附近。超声波传感器205设置于内置相机204附近,对用于计测从显示器201到用户之间距离的超声波执行收发。
调温部208设置于个人计算机200内,与键盘202附近的左右掌托位置相对应。调温部208例如具有镍铬丝、铁铬丝等电热丝,通过施加电流而使温度上升。用户能够通过手掌周围感受到温度变化。
在键盘202的背面设置有与各个键相对应的压电传感器209。压电传感器209具有压电元件,通过压电效应将外部施加的力(压力)转换为电压,从而以电方式检测出振动。据此,压电传感器209能够检测出用户敲击按键的强度和重复动作。
在用户的脚下设置有地面传感器310。地面传感器310由与压电传感器209相同的压电元件等构成,检测用户的踏步、抖腿等脚部动作。地面传感器310与个人计算机200相连,将检测出的信号发送给个人计算机200。
在用户的头顶附近处的顶棚部分设置有顶棚相机320。顶棚相机320包括拍摄镜头及拍摄元件,被调整为能够拍摄用户头部的视角。顶棚相机320将拍摄到的拍摄图像信号通过例如WLAN(Wireless Local AreaNetworks,无线局域网络)发送给个人计算机200。另一方面,个人计算机200向顶棚相机320发送开始拍摄、请求拍摄图像信号等控制信号。
生物传感器330例如卷绕装设于用户的手腕上。生物传感器330感测用户的生物信息,并将其输出发送给个人计算机200。关于具体的结构将在后续进行描述。
在个人计算机200上连接有电话机400作为双向通信设备。电话机400从个人计算机接收控制信号,限制以及解除其功能。另外,在个人计算机200上连接有指示灯410。指示灯410例如包括能够改变发光颜色的高亮度LED。指示灯410例如可以通过发出红色光的方式使周围人识别由个人计算机200判断出的用户专注状态。
图2为第一实施方式所述专注度检测系统的模块图。如图示所示,个人计算机200包括利用图1进行说明的显示器201和键盘202等元件,以负责整个控制的个人计算机CPU210为中心。
计时器211当收到个人计算机CPU210的开始指令后开始计时,当收到结束指令时将此时的时刻返回给个人计算机CPU210。ROM212例如为闪存存储器等非易失性存储器,承担保存个人计算机200的控制程序及各种参数等的功能。另外,也可以保存各种数据、用户的日程、个人计算机200的使用状况、生物信息的数据、地面传感器310的输出等。
感情解析部213从生物传感器330收到生物信息后,解析用户的感情。生物传感器330是检测用户生物信息的传感器,例如包含脉搏传感器,通过LED向生物体照射照射光,并接收由生物体对该照射光进行反射的光,据此检测出脉搏。其结构例如公开在特开2005-270543号(美国专利第7538890号)中。除了脉搏传感器以外,生物传感器330还可以通过设置配有多个电极的出汗传感器来检测用户的出汗量。进一步地,也可以设置测量体温的温度传感器、测量血压的血压传感器。
感情解析部213从这种生物传感器330收到生物信息后判定用户的感情。例如,当检测出高心率及心理性出汗时,则能够判定用户正在感觉焦躁。生物传感器330的输出与感情的对应关系可以通过实验的方式预先求得,并可以预先将表示对应关系的表格保存在ROM212中。此处,感情解析部213根据所取得的生物信息是否与表格中所记述的特定感情模式相一致来判定感情。另外,生物传感器330并不限于缠绕在用户手腕上的这种手表型,只要与用户的手部、手指(指环型生物传感器)等身体的一部分相接触,也可以采用各种各样的方式。进一步地,生物传感器330也可以采用热成像之类的以非接触方式检测用户体温等的器具。另外,感情解析部213也可以在来自于生物传感器330的生物信息的基础之上,考虑压电传感器209和/或地面传感器310的检测结果来解析感情,也可以考虑后述声音解析部214和/或图像解析部215的解析结果来解析感情。
另外,生物传感器部330也可以在椅子内部设置用于检测坐姿用户生物信息的流体袋和压力传感器。流体袋例如为填充有空气的气体袋,与臀部位置相应地设置在椅子上,以便与尾椎骨或坐骨相接触。压力传感器是检测流体袋的内压的器具,可以采用半导体传感器和/或使用压电元件的振动型压力传感器等。在由尾椎骨或坐骨对流体袋进行压迫的状态下,动脉的脉搏传导到流体袋,使流体袋的内压发生变化,从而能够取得呼吸和/或心跳等生物信息。另外,关于使用流体袋对生物信息进行的检测,记载在例如日本专利第3906649号中。
声音解析部214解析从话筒207获取的声音。声音解析部214具有声音识别辞典,能够将识别出的声音转换为文本数据显示在显示器201上。另外,最近也有在个人计算机的一部分中安装声音识别软件的技术方案,既可以使用这种已经安装的软件,也可以进一步安装并使用其他市售的软件。
另外,声音解析部214与个人计算机CPU210协同工作,针对通过电话机400的会话、与周围同事的会话等,检测用户的会话速度(讲话速度)、声音大小、会话时间等。讲话速度例如作为每单位时间的输出音素数、或每单位时间的短音节(mora)数被进行检测。短音节是指以一定时间长度为准的声音划分单位。
图像解析部215对由内置相机204拍摄到的拍摄图像信号和由顶棚相机320拍摄到的拍摄图像信号进行解析。图像解析部215执行用户的人脸部识别,进一步执行表情识别。例如,图像解析部215从图像信号中的用户脸部区域中检测出皱眉表情、并非笑脸的眯眼表情。另外,图像解析部215取得计时器211的计时信息,例如检测出皱眉表情持续了多久。另外,当检测出眯眼表情时,图像解析部215从ROM212中读出在内置相机204生成的图像上有关眼睛平均大小的信息,与现场拍摄的眼睛大小进行比较,从而进行检测。皱眉的检测以眉宇间存在褶皱的图像作为参考图像保存在ROM212中,通过模式匹配而进行检测,另外,也可以根据左眼和右眼之间部分的阴影分布来进行检测。另外,皱眉的检测例如公开在美国公开专利2008-292148号中。
由内置相机204拍摄到的像的大小要依赖于内置相机204与用户之间的距离。在本实施方式中,由超声波传感器205检测内置相机204与用户之间的距离,并对像的大小进行修正,从而消除对距离的依赖性。距离的计测并不限于设置有超声波传感器205的情形,例如还可以使用激光距离传感器、红外线传感器等。另外,如果知道了用户特定部分的大小(例如,脸部大小),通过将已知的脸部大小与拍摄到的脸部大小相匹配,便能够计算出内置相机204与用户的距离。
另外,图像解析部215通过取得顶棚相机320的图像信号,检测出用户的头部位置、移动量等。例如,如果图像解析部215检测到用户头部在不断地摇动,则个人计算机CPU210能够判断出用户的专注力涣散、困倦等。另外,如果能够通过超声波传感器205等检测出用户头部的位置、移动量,则也可以省略顶棚相机320。相反,如果能够通过顶棚相机320检测出内置相机204与用户的距离,则也可以省略超声波传感器205。
外部连接接口216是用于与外部设备相连接的接口。作为接口可以采用无线/有线LAN、USB、HDMI(High Definition Multimedia Interface,高清晰度多媒体接口)、Bluetooth(注册商标)等各种各样的连接规格。例如,电话机400通过外部连接接口216与个人计算机200相连接,如后所述,当用户的专注度超过预定阈值时,个人计算机CPU210就向电话机400发送通话拒绝的控制信号。此时,个人计算机CPU210并行地向指示灯410发送使其发出表示专注状态的光的控制信号。另外,当专注状态持续一定时间时,个人计算机CPU210例如向鼠标300中内置的调温部发出温度上升指令。
图3为表示第一实施方式所述专注度检测系统的处理流程图。在该流程中执行由个人计算机CPU210控制的对用户的专注度、表情等的检测以及与检测结果相应的处理。另外,在该流程中假设用户正在操作个人计算机200的情形。
个人计算机CPU210输入与用户的生物性相关的信息(步骤S101)。具体地,个人计算机CPU210可以举出由生物传感器330检测出的用户的脉搏、体温、出汗等的生物信息,由压电传感器209检测出的用户敲击键盘202的强度和/或速度、用户的抖腿,以及用户的讲话速度和/或讲话量等。另外,如上所述,此处所说的与生物性相关的信息并不限于从生物传感器330取得的信息。另外,个人计算机CPU210也可以并不全部输入这些生物信息,而是输入仅能够检测出专注度的生物信息即可。
个人计算机CPU210将输入的用户的生物信息保存在ROM212中,记录用户的生物信息日志。个人计算机CPU210根据ROM212中保存的生物信息进行如后所述的用户专注度的检测。另外,也考虑由多个用户共享使用个人计算机200的情形。在此情形中,由内置相机204进行用户的人脸部识别,由个人计算机CPU210针对每个用户记录生物信息日志。
然后,个人计算机CPU210执行由内置相机204及顶棚相机320进行的拍摄及由图像解析部215进行的表情检测(步骤S102)。
个人计算机CPU210分析用户有没有在皱眉或眯眼等。当存在这样的表情时,推测认为他难以看到显示器201的显示内容。当用户眯眼时,个人计算机CPU210使用超声波传感器205检测从显示器201到用户的距离。另外,个人计算机CPU210当眯眼时判断为专注度不高,当以眯眼以外的表情变化较少时判断为专注度较高。在进行这种分析时,在表情分析的基础之上,还根据在步骤S101中取得的生物信息考虑用户的感情(焦躁、烦躁等),从而能够提高分析精度。
另外,图像解析部215根据顶棚相机320的图像信号检测用户头部的动作量。当用户比较专注时,头部的动作量较少,与此相对,当用户不专注时,头部的动作量较多。另外,将步骤S101与步骤S102的顺序进行交换也是可以的。
个人计算机CPU210进入步骤S103,利用步骤S101及步骤S102的结果检测用户的专注度。一般地,人类在专注时,脉搏数和/或体温上升。另外,当在处理急事时(即专注度变高时),也会出现敲击键盘202的强度和/或速度加快,进行抖腿等情形。另外,当通过电话机400等进行会话时,有时会说话变快,声音变大。进一步地,在专注时,头部很少移动,相反,在不专注时,会左顾右盼,在某些情况下会打瞌睡,使头部动作变大。此时,通过本实施方式所述专注度检测系统110,通过将由个人计算机CPU210保存在ROM212中的用户生物信息与在步骤S101中输入的生物信息进行比较,来检测用户的专注度。此时,个人计算机CPU210也可以将以前用户专注时的生物信息与在步骤S101中输入的生物信息进行比较来检测用户的专注度,另外,可以当与用户的通常状态相比,脉搏、敲击键盘202的力量增加10%以上时,判断为用户比较专注。
另外,在认为专注时和认为不专注时对抖腿加以考虑。在此情形下,个人计算机CPU210可以根据每个用户的其他生物信息判别他是不是在专注时爱抖腿的那类人,此后用于判断专注度。
个人计算机CPU210进入步骤S104,判断在步骤S103取得的用户的专注度是否超过预定阈值。在本实施方式中,阈值是针对每个用户设定的值,根据ROM212中保存的用户的专注度数据进行设定。例如,如上所述,个人计算机CPU210将表示过去平常时期的平均专注度的生物信息提高10%作为阈值。作为另一例,个人计算机CPU210可以将过去当专注时电话机铃响或别人跟自己说话时,检测出表示烦躁感情的生物信息的状态下的专注度作为阈值。另外,个人计算机CPU210使用感情解析部213,如上所述,根据心率、血压等值是否与表格中记录的表示烦躁的感情模式相一致来判断烦躁感情。
个人计算机CPU210当判断出用户的专注度较平均时,进入步骤S114,当判断出用户的专注度较高时,进入步骤S105。首先,对专注度没有超过阈值的情形进行说明。
个人计算机CPU210进入步骤S114,利用步骤S101、S102的结果判断用户是否烦躁。另外,个人计算机CPU210利用感情解析部213,根据心率、血压等值是否与表格中记录的表示烦躁的感情模式相一致来判断烦躁感情。另外,为了使判断更加准确,个人计算机CPU210可以将由图像解析部215解析出的用户表情、由地面传感器310检测出的用户抖腿、由声音解析部214检测出的讲话音量等用于进行判断。尤其是关于用户的表情,当判断为在眉宇间产生褶皱且并非笑脸的眯眼等不愉快表情、讲话音量很大时,则判断为用户正处于烦躁状态。
个人计算机CPU210在判断为用户正烦躁时,进入步骤S115,当判断为不烦躁时,返回步骤S101。在步骤S115中,个人计算机CPU210执行各种调节。
具体地,个人计算机CPU210改变针对向键盘202的输入所设定的反应速度。此处推定烦躁感是由于键盘202的反应速度缓慢造成的,因此变更设定,以使反应速度加快。另外,个人计算机CPU210如果检测出用户眯眼,则推定这是由显示太小引起的,因此改变显示设定,以便将由显示器201显示的文字、图像、图标等的大小设定提高。
此处,个人计算机CPU210在提高键盘202的反应速度的情形下,当用户执行键盘202的操作时,可以使用软件进行设定,以降低触摸板203的反应速度(灵敏度)。根据这种设定,能够防止当用户的手部及其附近偶然间接近触摸板203时造成的误操作。
另外,个人计算机CPU210当将显示器201的显示放大时,可以对应于超声波传感器205的检测结果改变大小的设定。另外,即使没有进行键盘202操作,用户也会有烦躁的时候,此时,如果显示器201的显示不经意间变成省电模式和/或屏保,就会造成不必要的烦躁。因此,当用户烦躁时,个人计算机CPU210变更设定,将转变到省电模式和/或屏保的时间延长,或禁止转变。另外,步骤S115并不需要执行上述全部的调节,适当选择执行即可。另外,在判定用户烦躁或沉思时,通过使用感情解析部213和图像解析部215等多个解析部,可以提高判定精度。
接下来,个人计算机CPU210进入步骤S116,判断是否存在特定的重复操作、连续操作,作为键盘202的操作状况。当回退(“Back Space”)键、删除(“Delete”)键等同一按键被进行重复操作时,或者对按键进行不规则地连续操作时,个人计算机CPU210判断键盘202的输入操作不顺利。个人计算机CPU210当判断为输入操作不顺利时,进入步骤S117,否则返回步骤S101。
个人计算机CPU210进入步骤S117时,改变操作设定,将来自于用户的输入操作从键盘202变为使用话筒207的声音输入。然后,个人计算机CPU210将大意为变更操作设定的内容显示在显示器201上。当然,个人计算机CPU210在变更操作设定之前,也可以得到用户对变更的同意。
或者,例如,当判断为重复操作、连续操作在于汉字切换中的文字切换候选顺序时,改写用于对顺序进行规定的定义文件的记叙,从而改变在显示器201上的显示顺序。另外,个人计算机CPU210也可以将切换输入从罗马字输入变更为平假名输入,将字母数字字符的初始设定从大字变更为小字。进一步地,个人计算机CPU210可以在执行重复操作、连续操作的期间,将学习功能改为无效。
个人计算机CPU210进入步骤S118,使用感情解析部213判断用户的烦躁感是不是在继续。个人计算机CPU210当判断为烦躁感在继续时,进入步骤S119,当判断为烦躁感已消除时,返回步骤S101。
个人计算机CPU210进入步骤S119时,判断用户是否在写电子邮件等文章,当判断为在写文章时,进入步骤S120,当判断为没有在写文章时,返回步骤S101。
用户在处于烦躁状态下写电子邮件等文章时,表达方式很强硬、使用有可能会伤害别人的危险语句,有时会后悔。此时,在本实施方式中,在ROM212中预先保存有不恰当的表达方式以及将不恰当的表达方式修正后的表达方式,当在烦躁的状态下使用不恰当的表达方式时,个人计算机CPU210变更为修正后的表达方式。
另外,如果是不紧急的电子邮件,并不马上发送电子邮件,在用户的烦躁状态平息时进行调节,以使用户考虑一下表达方式是否合适。从而能够避免人际关系恶化,防患于未然。
另外,个人计算机CPU210当检测出不恰当的表达方式时,将该内容显示在显示器201上。当用户通过个人计算机200的可视电话机功能随着影像的收发而进行会话时,个人计算机CPU210可以中断影像的发送,改变讲话的频率,纠正说话过快。例如,也可以并不中断影像,而采用下调发送像素数等图像处理。在步骤S120中,各种调节执行完毕后,个人计算机CPU210再次返回步骤S101。
以下,针对步骤S104的判断中专注度超过阈值的情形进行说明。
个人计算机CPU210进入步骤S105,使计时器211开始计时。通过在步骤S105中开始的计时,个人计算机CPU210取得用户处于高专注度状态下的持续时间。根据该计时,能够提取出该用户以何种程度保持高专注力这样的数据。另外,在本实施方式中,例如,当高专注度状态持续90分钟的预定时间时,如后所述,向用户发出大意为高专注度状态长时间持续的告警。
接下来,个人计算机CPU210在步骤S106中对用户进行联系限制。尤其是向第三者请求联系用户的双向通信设备发送限制联系请求的限制信号。此处,作为双向通信设备的例子,以电话机400为例进行说明。
个人计算机CPU210向电话机400发送控制信号,使电话机400停止振铃,并设定为外出模式。电话机400接收该控制信号,在将振铃音的音量设为0的同时,设定为外出模式。电话机400在外出模式下,当收到来自于第三者的联系时,播放用户状况以及大意为请求通过邮件联系或者以后再重新回电话等的消息。另外,也可以设定成向对方询问紧急程度,当紧急时,例如可以让他按数字1,只在此种情形下,转达给用户。
双向通信设备并不仅限于外部设备。个人计算机200例如具备可视电话机功能时,限制对可视电话机功能的联系请求。另外,针对个人计算机200具有的作为软件的邮件功能,也可以限制联系请求。例如,如果平常设定为在收到邮件的同时打开弹出式窗口,以通知收到邮件,但在用户处于专注状态下,限制打开弹出式窗口。或者,也可以设定为在专注状态下不进行邮件的接收。在限制双向通信设备的联系请求时,也可以通过显示器201通知该内容,以使用户知道此事。
另外,并不限于双向通信设备,针对各种控制设备,都可以发送限制与用户接触的控制信号。在本实施方式中,对指示灯410的控制进行说明。
如上所述,指示灯410通过发光颜色表示可否联系用户。例如,众所周知,发红色光表示禁止与用户接触,发蓝色光表示允许接触。然后,个人计算机CPU210在步骤S106中,向指示灯410发送大意为执行发红色光的控制信号。指示灯410接收到该控制信号后发红色光。据此,周围人可以识别出用户正处于专注状态,从而明白现在禁止与其接触。
除指示灯410以外,例如,可以向包围用户的能进行液晶控制的隔断物发送控制信号。个人计算机CPU210能够当用户在专注状态下时,将这种隔断物控制成非透明的视线遮挡状态,在平时将其控制成透明状态。另外,个人计算机CPU210能够向通过产生与来自于周边环境的噪音逆相位的声波而消除噪音的噪音消除装置发送开始消除噪音的控制信号。进一步地,个人计算机CPU210能够向钥匙控制装置发送将用户的房间钥匙设为锁定状态的控制信号。
个人计算机CPU210进入步骤S107,对用户的日程进行确认,以确认最近有没有会议等案头工作以外的业务。然后,当有日程时,个人计算机CPU210判断该日程是否能够变更(步骤S108)。例如,当为会议时,个人计算机CPU210考虑会议的参加成员中是否有上级领导、用户自身是否是必须出席人员、是否是紧急性高的会议等进行判断。当不是必须出席人员时、即使是必须出席者但无紧急性且上级领导不参加等情形时,个人计算机CPU210会判断为能够变更。另一方面,当有紧急性、是必须出席人员且上级领导也会出席时,个人计算机CPU210会判断为不能变更。预设判断基准,并作为检索表格保存在ROM212中。
个人计算机CPU210当步骤S108判断为YES时,进入步骤S109,当判断为NO时进入步骤S110。进入步骤S109时,个人计算机CPU210向会议的举办者和/或参加者发送电子邮件,自动通知无法参加会议。另外,个人计算机CPU210在显示器201上显示大意为会议取消的内容,以使用户知道此事。
接下来,个人计算机CPU210判断在步骤S105开始计时后是否经过了90分钟(步骤S111)。个人计算机CPU210如果不满90分钟则返回步骤S101,如果达到90分钟则进入步骤S112,在显示器201上显示大意为高专注度状态长时间持续的告警。
在步骤S112中显示的告警与在步骤S109中取消会议时的显示相比要更加醒目。因此,个人计算机CPU210与在步骤S109中取消会议时的显示相比显示得更大、显示时间更长、进行闪烁显示。
进一步地,个人计算机CPU210进入步骤S113,对调温部208施加电流,将用户的手掌周围加热,使用户识别出知觉性告警。当检测出使用鼠标300时,可以对鼠标300中内嵌的调温部施加电流。另外,个人计算机CPU210还可以向空调装置发送制冷指令的控制信号,使周边温度下降。
另一方面,个人计算机CPU210当步骤S108判断为NO时进入步骤S110,例如,在会议开始之前的5分钟在显示器201上显示大意为该会议举办的内容,以唤起用户的注意。此时的显示与在步骤S109中取消会议时的显示相比显示得更大、显示时间更长、进行闪烁显示。进一步地,个人计算机CPU210进入上述步骤S113,使用调温部208等使用户在知觉上识别出日程即将举办。
经过以上一系列的处理,如果用户脱离了高专注度状态,则执行解除联系限制等处理,并结束流程。另外,在上述流程中,执行联系限制的时间可以被设定为维持高专注度状态时应当发出告警的时间、或者到日程举办为止的时间,但并不限于此。例如,用户可以预先设定想要专注的时间。通过这种结构,用户能够根据自己的想法阻断与外部的接触。或者,个人计算机CPU210可以从以前的日志中提取出每个用户能够持续的平均专注时间,以对其进行设定。采用这种结构后,能够进行符合每个用户特性的控制。
在上述实施例中,通过内置相机204拍摄用户的脸部来进行表情检测。取而代之地或共同使用地是,可以将用户的手部动作作为判断素材。例如,预先准备与各种动作相应的手部参考图像,通过图像解析部215对其与内置相机204拍摄的图像进行模式匹配处理来识别手部动作。
图4为表示作为第一实施方式应用例的与用户手部检测相关的处理流程图。具体是由个人计算机CPU210控制的用户手部检测以及与检测出的手部状况相应的处理流程图。另外,此处所说的手部并不仅指手本身,而是包含手腕、以及直到手腕附近手臂的部位。
步骤S201是输入生物信息的处理,实质上与上述步骤S101的处理相同。步骤S202对拍摄结果进行分析,实质上与上述步骤102的处理相同。因此,省略了对这些处理的说明。
个人计算机CPU210在步骤S203中根据图像解析部215的解析结果判断在内置相机204拍摄的图像信号中是否包含键盘202和用户手部。具体地,首先,图像解析部215解析键盘202的至少一部分是否与用户手部的至少一部分相重叠。进一步地,图像解析部215可以解析重叠的手部是右手还是左手,在鼠标300上是否重叠有手部等。图像解析部215将包含有键盘202与用户手部的相对位置关系的位置信息传送给个人计算机CPU210,作为解析结果。个人计算机CPU210根据从图像解析部215传送来的位置信息,即使在用户实际操作键盘202等之前,也能够预测出用户的操作。个人计算机CPU210当根据传送来的位置信息判断为键盘202与用户手部相重叠时进入步骤S204,当判断为不重叠时跳过步骤S204进入步骤S205。
个人计算机CPU210在步骤S204中调节操作部的设定。具体地,个人计算机CPU210改变键盘202和触摸板203的反应速度。另外,此处的反应速度包含是仅稍加接触就有反应还是不充分接触就没反应这种触键灵敏度的概念。此处,键盘202与用户手部相重叠,由于推测用户的想法是要对键盘202进行操作,因此,个人计算机CPU210减慢作为相邻操作部的触摸板203的反应速度(灵敏度)。即,设定为不充分接触就没反应。或者,个人计算机CPU210也可以变更设定,从而不接收对触摸板203的输入操作。据此,能够防止用户手部及其附近偶然间接近触摸板203时的误操作。关于变更为哪种设定,个人计算机CPU210可以采用右手左手的双手部是否与键盘202相重叠等条件。
进一步地,作为变更设定的条件,可以考虑在步骤S201中取得的生物信息。例如,要是由感情解析部213检测出用户的烦躁状态,则个人计算机CPU210变更设定,以加快对键盘202输入的反应速度。另外,也可以对应于烦躁感的程度来改变反应速度。此时,例如可以预先准备2~4等级的设定作为速度的等级。个人计算机CPU210当调节完操作部设定时进入步骤S205。
接下来,在步骤S205中,个人计算机CPU210根据图像解析部215的解析结果判断内置相机204拍摄的图像信号中是否包含触摸板203和用户手部。个人计算机CPU210根据从图像解析部215传送来的位置信息,即使在用户实际操作触摸板203等之前,也能够预测用户的操作。个人计算机CPU210根据传送来的位置信息,如果判断为触摸板203与用户手部相重叠则进入步骤S206,如果判断为不重叠则跳过步骤S206进入步骤S207。
个人计算机CPU210在步骤S206中调节操作部的设定。具体地,个人计算机CPU210改变键盘202和触摸板203的反应速度。具体地,当个人计算机CPU210通过步骤S204的调节减慢触摸板203的反应速度或设为不接收的设定时,返回原始设定。尤其是,当判断为键盘202与用户手部不相重叠时,个人计算机CPU210也可以返回原始设定。进一步地,当触摸板203被连续操作时,个人计算机CPU210也可以提高触摸板203的反应速度。另外,作为变更设定的条件,也可以考虑在步骤S201中取得的生物信息。例如,当考虑生物信息提高键盘202的反应速度时,可以维持键盘202的设定不变,而仅仅改变触摸板203的设定。个人计算机CPU210当调节完操作部的设定后进入步骤S207。
个人计算机CPU210在步骤S207中判断用户的输入操作是否结束。具体地,在预定时间内没有识别出向键盘202及触摸板203的输入时,判断为输入操作已经结束。个人计算机CPU210当判断为输入操作继续时返回步骤S201,当判断为已经结束时,结束一系列的处理流程。
在以上的流程中,虽然由内置相机204对用户手部、键盘202及触摸板203进行了拍摄,但由顶棚相机320进行拍摄也是可行的。另外,在以上的流程中,虽然以用户操作触摸板203为前提进行了说明,但可代替的是,在操作鼠标300时,将上述对触摸板203的设定替换为鼠标300的设定也同样能够适用。此时,个人计算机CPU210可以将减慢反应速度或不接收输入的设定作为触摸板203的设定。
另外,在以上的流程中,虽然由内置相机204对用户手部、键盘202及触摸板203进行拍摄并取得了位置信息,但也可以不使用图像信号,而是在接收到实际的输入操作之后再改变操作部设定。由于在检测出实际的输入操作之后再改变操作部的设定,因此,尽管会产生一些时间滞后,但能够减轻图像解析部215的处理负荷。尤其在改变触摸板203的操作灵敏度的程度方面是有效的。
以下,对使用声音解析部214的应用例进行说明。图5为表示作为第一实施方式应用例的检测用户讲话速度相关的处理流程图。此处假设用户使用作为个人计算机200的功能的可视电话机的情形。
步骤S301是输入生物信息的处理,由于与上述步骤S101的处理实质性相同,因此省略其说明。个人计算机CPU210在步骤S302中通过图像解析部215对来自于内置相机204的图像信号进行解析,从而检测出用户表情。进一步地,个人计算机CPU210根据用户表情判断用户心情。
进入步骤S303,个人计算机CPU210通过声音解析部214对来自于话筒207的声音信号进行解析,以检测出用户的讲话速度。具体地,声音解析部214对每单位时间的输出音素数进行计数,从而算出讲话速度。
接下来,个人计算机CPU210在步骤S304中判断讲话速度是否增加并超过了预定阈值。即,个人计算机CPU210利用在兴奋的初期阶段讲话速度急剧升高的生理现象捕捉用户的兴奋开始点。个人计算机CPU210可以例如持续监视平时的讲话速度并记录到ROM212中,将记录的平时讲话速度增加20%设定成阈值。另外,能够通过脸部识别技术等识别各个用户,针对每个用户设定阈值。
另外,个人计算机CPU210可以将步骤S301及步骤S302中的至少一方的信息作为判定条件加以考虑。例如,个人计算机CPU210即使在讲话速度上升超过阈值时,如果通过检测表情判断为心情好,则不判断为讲话速度上升。或者,个人计算机CPU210可以添加根据生物信息检测出“兴奋”“烦躁”“急躁”等消极感情作为判断出讲话速度上升的条件。这些信息的组合可以对各个检测结果进行加权,从而进行综合判断。
个人计算机CPU210当判断为讲话速度的增加量不到阈值时返回步骤S301,当判断为超过阈值时进入步骤S305。
个人计算机CPU210进入步骤S305后执行各种调整。首先,个人计算机CPU210使用户识别出说话快的事实、进而沉浸在兴奋状态中的事实。具体地,个人计算机CPU210将显示器201的显示亮度下调变暗。或者通过文本、图像等直接将该内容的消息显示在显示器201上。
另外,向外部设备发送控制信号,从而使用户能够通过外部设备进行识别。具体地,个人计算机CPU210向指示灯410发送控制信号,使LED闪烁。另外,向用户房间中设置的照明设备发送控制信号,改变其亮度,从而改变房间的明暗度。进一步地,还可以将用户周围的电视机、音乐播放器等的输出声音降低。
另外,在用户兴奋状态下,个人计算机CPU210通过主动地限制可视电话机的通信状态,也有望防止用户人际关系恶化,防患于未然。具体地,个人计算机CPU210能够改变或中断可视电话机中的对方影像。另外,可以对发送的用户声音进行处理。例如,可以进行改变频率的处理,以便听起来比较平稳。或者,个人计算机CPU210可以使可视电话机的通信状态恶化,很快便阻断通信。
个人计算机CPU210进入步骤S306,开始记录来自于内置相机204的图像信号及来自于话筒207的声音信号的至少一方。也可以记录来自于顶棚相机320的图像信号。如此,在用户兴奋状态下,通过记录包含用户的用户周边环境,能够可靠地保留沟通记录,以补充用户的记忆。另外,用户当回到平常状态时,能够客观地回顾并识别自己的行动。
虽然在上述第一实施方式中以个人计算机200的操作为例对专注度检测系统110进行了说明,可选地,也可以将专注度检测系统110适用于智能手机的操作。
图6为表示作为第一实施方式变形例的智能手机250的示意图。如图6所示,智能手机250为纵向较长的矩形形状,设置有:显示器251、设置于该显示器251表面上的触摸屏252、内置相机254、话筒257和生物传感器260。
触摸屏252通过由用户触摸显示器251的表面能够接收到各种指令。内置相机254可以设置于触摸屏252的同一面侧,并包含拍摄镜头和拍摄元件。另外,在该内置相机254的基础之上还可以在触摸屏252的相反面侧设置内置相机。
话筒257设置于下方,以便当用户保持智能手机250时,容易与用户的嘴部相对向。生物传感器260设置于长边侧的侧面,以便当用户保持智能手机250时,与用户的手部相接触。另外,生物传感器260可以设置于智能手机250的本体上,也可以如上述第一实施方式所述,使用手表型的生物传感器330。
图7为第一实施方式的变形例所述专注度检测系统110的模块图。除了图6所说明的结构以外的结构均大致可以适用图2的模块图的结构,因此标注与图2相同的符号并省略其说明。另外,智能手机CPU270是对智能手机250的整体进行控制的控制装置。
在本变形例中,智能手机CPU270在基于用户的生物信息判断为用户专注时,也限制与用户的联系。此时,在打给智能手机250的电话的基础之上,当用户在公司座位上时,也可以限制其座位电话机400的功能。另外,关于用户在座位上的活动,可以使用顶棚相机320,也可以将内置相机254作为广角镜头在用户表情的基础之上还对脸部动作进行检测,以便检测出用户感情和/或专注度。同样地,关于用户的手部动作,可以通过顶棚相机320进行拍摄,也可以通过具有广角镜头的内置相机254进行拍摄。
另外,当操作触摸屏252的操作量较多、由压电传感器209检测出的操作触摸屏252的力量较大等情形时,智能手机CPU270可以使用软件来变更设定,以提高触摸屏252的灵敏度。可以将上述第一实施方式与第一实施方式的变形例进行适当组合,进行变形利用。
图8为表示第二实施方式所述专注度检测系统120的示意图。本实施方式中的专注度检测系统120可以适当使用第一实施方式中的专注度检测系统110中使用的各个元件构成。另外,如下所述,第二实施方式的专注度检测系统120对第一实施方式的专注度检测系统110添加了一些元件。尤其是,个人计算机200在本实施方式中也具有大致相同的结构,并添加了与相对于第一实施方式新添加的外部设备发送接收信息的功能。对与第一实施方式共有的元件标注相同的符号,只要没有赋予新功能,便省略其说明。
第二实施方式中的专注度检测系统120是检测演讲、会议、培训课等的参加者的专注度并反馈给参加者的系统。与第一实施方式不同,以多个参加者为对象,同时或依次检测对象的专注度。特别地,此处,以将演讲者与多个听讲者作为参加者而存在的讲座的情形为例进行说明。
专注度检测系统120以个人计算机200为中心,具有:顶棚相机320、装设在演讲者、多个听讲者每个上的生物传感器330、设置于壁面上的时钟500、演讲者用于进行演讲的屏幕板600。设置于房间顶棚的顶棚相机320与专注度检测系统110中的顶棚相机320的结构相同,但此处,例如使用广角镜头,调整拍摄视角,以便能够拍摄在此参加讲座的多个听讲者的头部。
在从顶棚相机320的拍摄元件输出的图像信号中,像素坐标与讲座场地的位置预先对应标注,从而能够掌握被拍摄的参加者位于讲座场地的哪个座位上。也就是说,顶棚相机320承担了检测参加者位置的位置传感器的功能。另外,当讲座场地很宽阔时,也可以设置多个顶棚相机320。另外,在讲座场地中,如果假设听讲者坐在椅子上,则头部的高度距离地面1200mm~1400mm左右。因此,顶棚相机320可以相对于该高度调节焦点。
另外,顶棚相机320能够拍摄听讲者的手部。从顶棚相机320得到拍摄图像的个人计算机200能够掌握听讲者在讲座中将手部放在桌子上记笔记、操作笔记本个人计算机的样子。如果头部与手部距离顶棚的距离差不能容纳在顶棚相机320的景深范围内,则也可以在顶棚相机320上采用驱动聚焦镜头的结构。
讲座场地的墙壁上设置有时钟500和屏幕板600。屏幕板600相对于讲座场地的参加者桌子设置于正面,用于显示演讲资料等。时钟500并不位于参加者桌子的正面,而是设置于与屏幕板600的设置面不同的侧壁面上。
时钟500包括表示时刻的时刻显示部510和至少拍摄听讲者的时钟相机520。时刻显示部510是将当前时刻通知给参加者的时钟,既可以是模拟显示,也可以是数字显示。时钟相机520设置于时刻显示部510附近,调整拍摄视角及设置高度,以便能够拍摄参加讲座的听讲者的全体。另外,与顶棚相机320相同,时钟相机520被构成成,在由拍摄元件输出的图像信号中,像素坐标与讲座场地的位置预先对应标注,从而能够掌握被拍摄的参加者位于讲座场地的哪个座位上。
屏幕板600包括屏幕显示部610和屏幕相机620。屏幕显示部610是用于显示演讲资料等的显示部。屏幕显示部610可以由液晶等显示元件面板构成,也可以由投影仪和投影屏幕的组合构成。另外,不采用电显示装置,而采用例如白板等显示介质也是可以的。当使用白板等非电设备时,并不是显示演讲资料,而是由演讲者通过标记物等进行板书。
屏幕相机620设置于屏幕显示部610附近,调整拍摄视角及设置高度,以便能够对参加讲座的听讲者的全体进行拍摄。另外,与顶棚相机320相同,屏幕相机620可以被构成成,在拍摄元件输出的图像信号中,像素坐标与讲座场地的位置预先对应标注,从而能够掌握被拍摄的参加者位于讲座场地的哪个座位上。
图9为第二实施方式所述专注度检测系统的模块图。在个人计算机200中添加有例如由HDD(Hard Disk Drive,硬盘驱动器)、SSD(Solid StateDisk,固态硬盘)构成的能够记录大容量数据的记录部217。记录部217对从各个相机送来的图像信号进行记录,并对解析出的参加者数据进行记录。
另外,个人计算机CPU210经由外部连接接口216,用ID等进行标识并取得来自于参加者各自的生物传感器330的生物信息。也同样取得来自于地面传感器310的信息。
时钟500以时钟CPU530为中心,包括:时刻显示部510、时钟相机520、频率检测部540、记录部550及外部连接接口560。
时钟CPU530负责整个时钟500的控制。频率检测部540检测听讲者看时钟500的频率。具体地,接收由时钟相机520拍摄的图像信号,对其进行解析,检测出每个听讲者在预定的单位时间内看了几次时钟500。尤其是,由于时钟500设置于侧壁面上,因此当听讲者将视线朝向屏幕显示部610时,时钟相机520不会从正面拍摄听讲者的脸部。此时,频率检测部540通过脸部识别技术检测出听讲者的脸部朝向了时刻显示部510。频率检测部540为了正确地识别听讲者的脸部是否正对时刻显示部510,例如可以在检测出听讲者的双眼时,判断为看了时刻显示部510。
据此能够判断听讲者的专注度。也就是说,个人计算机CPU210通过从时钟CPU530收到的由频率检测部540检测出的频率信息,从而能够判断听讲者的专注度。频率信息得到各种各样的变例。频率检测部540可以将各个听讲者相区分,针对不同的听讲者构造频率信息;或者也可以在任一听讲者将脸部朝向时刻显示部510时进行计数,作为频率检测的对象,从而能够不区分听讲者地构造频率信息。根据前者的频率信息,如后所述,通过与座位位置相对应,能够观察低专注度的听讲者的分布。根据后者的频率信息,易于观察听讲者整体的专注度。
另外,针对特定的听讲者,能够改变频率检测的计数。例如,如果在听讲者中存在重要人物等应当加以区分的对象时,与该特定听讲者的座椅位置相对应,在计数值上进行加权。例如,将一次的计数计成1.5次。或者,也可以停止对其他听讲者的计数,而只将特定听讲者作为计数对象。通过构造这种频率信息,个人计算机CPU210能够掌握重要人物的兴趣状况。另外,关于特定人物的座椅位置,即使坐在非预定的任意座位时,通过使用由屏幕相机620拍摄的拍摄图像进行脸部识别也能够进行明确。
另外,在频率信息中也可以考虑听讲者的脸部朝向时刻显示部510时的持续时间。频率检测部540检测朝向时刻显示部510的持续时间,当长时间地观看时刻显示部510时,在计数值上进行加权而进行求积计算。从而能够更准确地表示专注度。
另外,听讲者的专注度判断不由个人计算机CPU210执行,而是由时钟CPU530执行也是可以的。此时,时钟CPU530对应于听讲者的专注度,经由外部连接接口560将控制外部设备的控制信号发送到外部设备。此时,预先从个人计算机CPU210收到听讲者的生物信息用于专注度判断的条件等,也可以用于控制信号的发送判断。关于外部设备的具体控制,将在后续内容进行说明。
屏幕板600以屏幕CPU630为中心,包括屏幕显示部610、屏幕相机620及外部连接接口640。
屏幕CPU630负责整个屏幕板600的控制。如上所述,屏幕相机620能够对参加讲座的听讲者的全体进行拍摄。特别地,由于设置在屏幕显示部610附近,从而能够通过脸部识别技术检测出听讲者的脸部是否朝向屏幕显示部610。此处,屏幕CPU630经由外部连接接口640将由屏幕相机620拍摄的图像信号发送给时钟500的频率检测部540。
频率检测部540采用与对来自于时钟相机520的图像信号的解析相同的方式,在预定的单位时间内检测每个听讲者看了几次屏幕显示部610。此处,可以具体计测持续时间来检测每单位时间的注视时间,以代替看了几次的频率。据此,与时钟相机520捕捉听讲者的情形相反,能够实时掌握各听讲者以怎样的专注程度在听讲座。也就是说,个人计算机CPU210从时钟CPU530收到包含由频率检测部540检测出的频率或注视时间的注视信息,并能够据此判断听讲者的专注度。
在频率检测部540中对从屏幕相机620收到的图像信号进行的计数处理与对从时钟相机520取得的图像信号的计数处理相同。例如,当检测出听讲者的双眼时能够判断出听讲者正对着屏幕显示部610,也能够与特定听讲者的座椅位置相对应地在计数值上加权。另外,当针对每个听讲者进行人物标识而识别时,通过将预先记录在记录部217中的人物图像的参考图像与被拍摄的图像进行模式匹配来进行人物识别。
另外,由时钟相机520及屏幕相机620拍摄的图像信号被发送给图像解析部215,图像解析部对该图像信号进行解析,从而能够检测出所拍到的听讲者的表情。个人计算机CPU210、时钟CPU530可以参照听讲者的表情作为各种判断的素材。另外,并不限于个人计算机200,也可以使时钟500及屏幕板600分别具备图像解析部。
虽然在本实施方式中假设了演讲者及听讲者的参加者分别装设有生物传感器330的情形,例如,有的时候,顾客等对方不愿意接受装设生物传感器330的请求。此时,也可以利用非接触型的生物传感器来代替装设型的生物传感器330。例如,可以通过利用热成像取得参加者的体温变化。另外,也可以根据由话筒207收集到的听讲者的声音来检测生物信息。此时,关于话筒207,可以不设置在个人计算机200上,而是将能够识别每个参加者的高指向性话筒适当地设置于讲座场地内。另外,也可以利用埋设于地面中的地面传感器310。进一步地如前所述,也可以在椅子内部与臀部位置相应地设置流体袋和压力传感器,作为生物传感器部330检测坐着的用户的生物信息,以取得用户的呼吸和/或心跳等生物信息。
另外,专注度检测系统120与设置于讲座场地内的各种控制设备相连接。例如可以举出调整亮度的照明设备、消除噪音的噪音消除装置、调整讲座场地温度的空调设备等。个人计算机CPU210可以通过向这些设备发送控制信号来进行控制。以下对该控制处理进行说明。
图10为表示第二实施方式所述专注度检测系统120的处理流程图。流程例如从演讲者开始演讲的时间点开始。
个人计算机CPU210在步骤S401中执行对演讲者的内置相机204、顶棚相机320的图像输入、来自于话筒207的声音输入、来自于生物传感器330的生物信息输入等,以确认演讲者的状态。具体地,由感情解析部213、声音解析部214、图像解析部215对输入的信息进行解析,个人计算机CPU210判断演讲者是处于紧张状态还是处于放松状态。
另外,个人计算机CPU210进入步骤S402,以确认听讲者的状态。具体地,此处,个人计算机CPU210根据输入的各种信息确认听讲者的专注度。从顶棚相机320接收到图像信号,检测听讲者中有没有头部动作量较大的听讲者,如果有则检测出其座位位置在哪里。另外,如上所述,根据时钟相机520取得的图像取得每个听讲者观看时刻显示部510的频率信息、根据屏幕相机620取得的图像取得每个听讲者观看屏幕显示部610的频率信息。
屏幕显示部610中显示的演讲者的演讲资料影像依据从个人计算机CPU210发来的图像信号。因此,个人计算机CPU210能够根据顶棚相机320的接收图像信号判断听讲者是否与根据演讲者对个人计算机200的操作而发送演讲资料页面的时刻同步地在翻动手边的纸质资料。如果听讲者及时地翻动纸质资料,则能够判断为专注于讲座。相反,如果不能确认听讲者的手部在桌子上,或者不能确认纸张翻动,则听讲者不专注的可能性较高。个人计算机CPU210,如果听讲者在从演讲者发送页面的时间点起例如5秒钟内执行了纸张翻动,则判断为专注。另外,个人计算机CPU210并不仅仅与演讲者的页面发送同步,例如,当听讲者的手部在桌子上有动作时,判断为在做笔记等,也能够据此定期地检查听讲者的专注度。
听讲者的专注度在通过汇总以上的各种各样的信息进行综合判断而得到。例如,个人计算机CPU210将收集到的各种信息应用于保存在ROM212的检索表格中,取得对各信息的专注度评价值,当这些累积值超过预定的阈值时,能够判断为专注。另外,即使在低于阈值时,也能够根据该累计值的多少来掌握不专注的程度。
个人计算机CPU210确认了听讲者的状态后进入步骤S403,以判断是否存在低专注度的听讲者。另外,如上所述,此处被当作阈值的专注度可以设定不专注时的程度。例如,考虑到当讲座临近最后阶段的时间点时,专注度必然会下降,也可以将作为阈值的专注程度相对于讲座开始时进行一定程度的下调。
如果存在低专注度的听讲者,则个人计算机CPU210进入步骤S406。在步骤S406中,个人计算机CPU210确认是否已经开始记录来自于内置相机204等的图像信号及来自于话筒207的声音信号的至少一方。也就是说,确认演讲者的影像、声音是否处于录音中。这样地对讲座状况进行记录是为了进行追踪,以使不专注的听讲者将来能再次确认讲座。如果不处于记录中,则个人计算机CPU210进入步骤S407,开始记录并进入步骤S408。如果处于记录中,则跳过步骤S407进入步骤S408。
个人计算机CPU210在步骤S403中,当不存在低专注度的听讲者时进入步骤S404。在步骤S404中,与步骤S406相同,个人计算机CPU210确认是否处于记录中。此时,已经判断为听讲者很专注,用于追踪的讲座记录也就没有必要了。因此,当处于记录中时,个人计算机CPU210进入步骤S405,停止记录后进入步骤411。当不处于记录中时,就直接进入步骤S411。
在步骤S408中,个人计算机CPU210判断听讲者的低专注度是否在持续。即,判断从前次判断起经过一定时间后在听讲者中是否仍存在低专注度的人物。
个人计算机CPU210当首次判断为专注度较低时,或者,当专注度暂时恢复后再次判断为专注度较低时,作为NO进入步骤S409。
在步骤S409中,个人计算机CPU210检测低专注度的听讲者与其座位位置的相关性。关于相关关系,如图11所示,例如,在显示器201上显示的管理窗口中,以图形方式显示听讲者的着座位置与其中的低专注度的听讲者,作为专注度分布。在图中,白圈表示高专注度的听讲者的组,黑圈表示低专注度的听讲者的组。而且,在画面上以数字形式表示了相对于全体听讲者人数的低专注度的听讲者人数。图11所示的状态中没有看出低专注度听讲者的着座位置的趋势,因此,个人计算机CPU210判断为低专注度的听讲者之间没有相关关系。
个人计算机CPU210进入步骤S410执行各种调节。例如,即使判断为不存在相对于着座位置的相关关系,但如果讲座场地内的全体中低专注度听讲者较多为阈值以上时,则个人计算机CPU210向空调设备发送下调或上调温度的控制信号,以执行温度调节。例如,如果相对于讲座场地的靠近走廊侧的听讲者的专注度偏低时,则个人计算机CPU210向消除来自于走廊的噪音的噪音消除装置发送使其输出噪音的逆相位声波的控制信号,以消除噪音。例如,当头部摇动较大,从而怀疑听讲者在打瞌睡时,则个人计算机CPU210向照明设备发送提高亮度的控制信号,以提高讲座场地的亮度。
个人计算机CPU210进入步骤S411,判断讲座是否已结束。当判断为未结束时返回步骤S401,当判断为已结束时结束一系列的处理。
在步骤S408中,个人计算机CPU210当判断为听讲者的专注度持续低迷时,作为YES进入步骤S412。此处,专注度持续低迷是指例如判断为预定多人的特定听讲者连续为低专注度的情形。或者,也可以是判断为即使特定听讲者并不连续为低专注度,但任意一个高重要度的听讲者连续为低专注度的情形。
在步骤S412中,如步骤S410那样,个人计算机CPU210判断有没有用于改变讲座场地环境的能够进行调整的设备。如果有的话,则进入步骤S409,如果没有则进入步骤S413。
当进入步骤S413时,认为听讲者的专注度低下并不是由环境引起,而是由演讲者的演讲动作引起,并对演讲者进行请求。首先,在步骤S413中,与步骤S409相同,个人计算机CPU210检测低专注度的听讲者与其座位位置的相关性。另外,在本实施方式中,虽然在步骤S408中进行判断之后执行了步骤S409及步骤S413的相关性检测,但在步骤S408进行判断前执行相关性检测也是可以的。
个人计算机CPU210进行了相关性检测后进入步骤S414,对演讲者进行指令。例如,如图12所示,当得到的相关关系为低专注度的听讲者集中于讲座场地后方座位时,个人计算机CPU210在显示器201上显示的管理窗口中显示“请提高声音”等消息。或者,个人计算机CPU210向屏幕板600发送将屏幕显示部610上显示的演讲资料的大小扩大的控制信号。
另外,此时可以利用在步骤S401中确认的演讲者状态。例如,当判断为演讲者感觉“紧张”时,个人计算机CPU210为了让人客观地识别该事实,将该内容显示在显示器201上。当然,也可以显示与检测出的表情相关的信息。另外,为了解除紧张,可以改变演讲资料的顺序,将闲聊用的资料发送给屏幕显示部610。另外,可以改变动画处理、显示详细资料。
进一步地,检测讲话速度,当判断为达到阈值以上的快速讲话时,个人计算机CPU210可以在显示器201上向演讲者显示“请说得再慢一些”等消息。
个人计算机CPU210如果在步骤S414中结束向演讲者的指令,则进入步骤S411,以确认讲座结束。如果判断为讲座已结束,则结束一系列的处理。另外,上述步骤S414在步骤S410执行各种调节后再执行也是可以的。
在以上的处理流程中,虽然检测此时低专注度的听讲者,但也可以将专注度变低的听讲者的增减作为判断基准。即除了时间以外,在所执行的两次专注度检测中,可以将低专注度的听讲者是否急剧增加,进而与其着座位置是怎样的相关性作为判断基准。
在以上的处理流程中,虽然基于专注度的高低进行了分组,但也可以基于根据生物信息检测出的听讲者的感情状态进行分组。例如,依照“烦躁状态”的听讲者分布,个人计算机CPU210也可以执行各种处理。另外,也可以利用专注度和感情状态这二者执行各种处理。
虽然在以上的处理流程中假设讲座进行了说明,但专注度检测系统120的适用范围并不限于此。例如,在适用于职场时,上级领导可以根据部下的生物信息识别紧张度,以通过业务分配、发号施令防止职场的士气低下。另外,在适用于学校授课时,能够掌握学生无法理解的部分,从而提高学习效率。
现有技术中完全没有着眼于应对作为通信工具的双向通信设备对用户的专注工作带来的妨碍,为了解决该问题,在以上的实施方式中例如提供一种电子设备,包括:输入部,输入作为与使用者的生物性相关的信息的生物信息;输出部,基于生物信息,向双向通信设备输出限制与使用者的联系的限制信号。
另外,在现有技术中,对用户的支持仅限于使用该设备的用户,此外,设备与用户是一对一的关系,因此缺乏扩展性,为了解决该问题,例如提供一种电子设备,包括:生物信息输入部,输入作为与多个对象者的生物性相关的信息的生物信息;输出部,基于生物信息,向被控设备输出控制被控设备的控制信号。
另外,关于着眼于用户的具体行为来检测用户专注度的具体装置没有进行任何讨论,为了解决该问题,例如提供一种电子设备,包括:显示时刻的时刻显示部、设置于时刻显示部附近的第一拍摄部、以及基于第一拍摄部拍摄的图像检测至少一个对象者的脸部面向时刻显示部的频率的第一检测部。
另外,完全没有着眼于考虑用户执行操作部件的操作状况的设备控制,为了解决该问题,例如提供一种电子设备,包括:输入部,输入作为与使用者的生物性相关的信息的生物信息;操作部,接收使用者的输入操作;检测部,检测使用者对操作部进行操作的操作状况;以及变更部,基于生物信息的变化及操作状况变更设定。
另外,难以在推测用户对设备进行的操作的同时提高设备的操作感,为了解决该问题,例如提供一种电子设备,包括:接收使用者的输入操作的操作部、从对操作部的至少一部分和使用者手部的至少一部分进行拍摄的拍摄装置输入图像的图像输入部、基于对图像进行解析而取得的手部位置信息来变更设定的变更部。
另外,仅通过基于生物信息的控制设备是不够的,而期望与其他信息相融合,为了解决该问题,例如提供一种电子设备,包括:检测对象者表情的表情检测部、输入作为与对象者的生物性相关的信息的生物信息的生物信息输入部、以及基于表情检测部的检测结果及生物信息控制被控设备的控制部。
另外,在作为生物信息表现出用户变化之前或者即使在表现出之后的情形中,都难以更可靠地使设备识别用户的精神状态,为了解决该问题,例如提供一种电子设备,包括:检测对象者的讲话速度的讲话速度检测部、以及基于讲话速度检测部的检测结果控制被控设备的控制部。
以上,使用实施方式对本发明进行了说明,但本发明的技术范围不限于上述实施方式所记载的范围。本领域技术人员应当清楚,在上述实施方式的基础上可加以增加各种变更或改进。由技术方案的记载可知,这种加以变更或改进的实施方式也包含在本发明的技术范围内。
应当注意的是,技术方案、说明书及附图中所示的装置、系统、程序以及方法中的动作、顺序、步骤及阶段等各个处理的执行顺序,只要没有特别明示“更早”、“早于”等,此外只要前面处理的输出并不用在后面的处理中,则可以以任意顺序实现。关于技术方案、说明书及附图中的动作流程,为方便而使用“首先”、“然后”等进行了说明,但并不意味着必须按照这样的顺序实施。
符号说明
110专注度检测系统、120专注度检测系统、200个人计算机、201显示器、202键盘、203触摸板、204内置相机、205超声波传感器、206扬声器、207话筒、208调温部、209压电传感器、210个人计算机CPU、211计时器、212ROM、213感情解析部、214声音解析部、215图像解析部、216外部连接接口、217记录部、250智能手机、251显示器、252触摸屏、254内置相机、257话筒、260生物传感器、270智能手机CPU、300鼠标、310地面传感器、320顶棚相机、330生物传感器、400电话机、410指示灯、500时钟、510时刻显示部、520时钟相机、530时钟CPU、540频率检测部、550记录部、560外部连接接口、600屏幕板、610屏幕显示部、620屏幕相机、630屏幕CPU、640外部连接接口。
Claims (93)
1.一种电子设备,包括:
输入部,输入作为与使用者的生物性相关的信息的生物信息;及
输出部,基于所述生物信息,向双向通信设备输出限制与所述使用者联系的限制信号。
2.根据权利要求1所述的电子设备,其中,所述输入部将来自于检测所述使用者的动作的检测传感器的检测信息作为所述生物信息进行输入。
3.根据权利要求2所述的电子设备,其中,所述检测信息包含来自于检测所述使用者的手部、腿部及手部与腿部之间部位的至少任一的动作的压力传感器的信息。
4.根据权利要求2或3所述的电子设备,其中,所述检测信息包含来自于以非接触方式检测所述使用者的头部动作的非接触传感器的信息。
5.根据权利要求1~4中任一项所述的电子设备,其中,包括第一通知部,通知限制由所述双向通信设备与所述使用者联系。
6.根据权利要求1~5中任一项所述的电子设备,其中,包括计时器,计测限制由所述双向通信设备与所述使用者联系的时间。
7.根据权利要求6所述的电子设备,其中,具有第二通知部,通知所述计时器的计测时间超过了预定时间。
8.根据权利要求1~7的任一项所述的电子设备,其中,包括计算部,基于所述生物信息计算所述使用者的专注度;
当所述专注度超过预定阈值时,所述输出部输出所述限制信号。
9.根据权利要求1~8中任一项所述的电子设备,其中,包括保存部,保存所述生物信息。
10.根据权利要求9所述的电子设备,其中,所述输出部基于所述保存部中持续保存的所述生物信息输出所述限制信号。
11.根据权利要求9或10所述的电子设备,其中,所述输出部基于所述保存部中持续保存的所述生物信息的模式,改变限制由所述双向通信设备与所述使用者联系的限制时间。
12.根据权利要求1~11中任一项所述的电子设备,其中,包括接收部,接收限制由所述双向通信设备与所述使用者联系的限制时间的设定。
13.一种电子设备的控制程序,使计算机执行:
输入步骤,输入作为与使用者的生物性相关的信息的生物信息;及
输出步骤,基于所述生物信息向双向通信设备输出限制与所述使用者联系的限制信号。
14.一种电子设备,其中包括:
生物信息输入部,输入作为与多个对象者的生物性相关的信息的生物信息;及
输出部,基于所述生物信息向所述被控设备输出控制被控设备的控制信号。
15.根据权利要求14所述的电子设备,其中,包括计算部,基于所述生物信息计算所述对象者的专注度;
所述输出部基于所述专注度输出所述控制信号。
16.根据权利要求15所述的电子设备,其中,所述输出部基于所述专注度的变化输出所述控制信号。
17.根据权利要求15或16所述的电子设备,其中,所述生物信息输入部将来自于拍摄所述对象者的拍摄装置的图像信号作为所述生物信息进行输入。
18.根据权利要求17所述的电子设备,其中,所述计算部根据所述图像信号检测所述对象者的头部动作,并计算所述专注度。
19.根据权利要求17或18所述的电子设备,其中,所述计算部根据所述图像信号检测所述对象者的手腕动作,并计算所述专注度。
20.根据权利要求17~19中任一项所述的电子设备,其中,所述计算部根据所述图像信号检测所述对象者的脸部动作,并计算所述专注度。
21.根据权利要求14~20中任一项所述的电子设备,其中,包括位置信息输入部,输入来自于检测所述对象者的位置的位置传感器的位置信息;
所述输出部基于所述生物信息和所述位置信息输出所述控制信号。
22.根据权利要求21所述的电子设备,其中,所述位置信息与针对至少部分所述对象者的识别信息相关联。
23.根据权利要求21或22所述的电子设备,其中,包括划分部,基于所述生物信息划分所述对象者是否属于预定的组;
所述输出部基于所述划分部的划分结果和所述位置信息输出所述控制信号。
24.根据权利要求23所述的电子设备,其中,所述输出部基于属于所述组的所述对象者的分布输出所述控制信号。
25.根据权利要求24所述的电子设备,其中,所述输出部基于所述分布的变化输出所述控制信号。
26.根据权利要求14~25中任一项所述的电子设备,其中,所述输出部向作为显示装置的所述被控设备输出控制显示大小的控制信号。
27.根据权利要求14~26中任一项所述的电子设备,其中,所述输出部向作为扬声器的所述被控设备输出控制音量的控制信号。
28.根据权利要求14~27中任一项所述的电子设备,其中,所述输出部向作为噪音消除装置的所述被控设备输出控制声波相位的控制信号。
29.根据权利要求14~28中任一项所述的电子设备,其中,所述输出部向作为照明装置的所述被控设备输出控制光量的控制信号。
30.根据权利要求14~29中任一项所述的电子设备,其中,所述输出部对作为空调装置的所述被控设备输出控制空调的控制信号。
31.根据权利要求14~30中任一项所述的电子设备,其中,所述输出部向作为记录装置的所述被控设备输出控制记录的控制信号。
32.根据权利要求14~31中任一项所述的电子设备,其中,包括保存部,将所述生物信息在所述控制信号输出前后的变化与所述控制信号相关联保存,作为履历信息,
所述输出部参照所述履历信息输出所述控制信号。
33.一种电子设备的控制程序,使计算机执行:
生物信息输入步骤,输入作为与多个对象者的生物性相关的信息的生物信息;及
输出步骤,基于所述生物信息向所述被控设备输出控制被控设备的控制信号。
34.一种电子设备,其中,包括:
时刻显示部,显示时刻;
第一拍摄部,设置于所述时刻显示部附近;
第一检测部,基于所述第一拍摄部拍摄的图像检测至少一个对象者的脸部朝向所述时刻显示部的频率。
35.根据权利要求34所述的电子设备,其中,当检测出所述对象者的脸部正对所述时刻显示部时,所述第一检测部判断为所述对象者的脸部朝向所述时刻显示部。
36.根据权利要求34或35所述的电子设备,其中,所述第一检测部当检测出所述对象者的双眼时,判断为所述对象者的脸部朝向所述时刻显示部。
37.根据权利要求34~36中任一项所述的电子设备,其中,当多个所述对象者中的任一个将脸部朝向所述时刻显示部时,所述第一检测部将其作为频率检测的对象进行计数。
38.根据权利要求34~37中任一项所述的电子设备,其中,当多个所述对象者中的特定对象者将脸部朝向所述时刻显示部时,所述第一检测部将其作为频率检测的对象进行计数。
39.根据权利要求38所述的电子设备,其中,当所述特定对象者将脸部朝向所述时刻显示部时,所述第一检测部改变所述计数的加权。
40.根据权利要求34~39中任一项所述的电子设备,其中,所述第一检测部一并检测所述对象者的脸部朝向所述时刻显示部的持续时间。
41.根据权利要求34~40中任一项所述的电子设备,其中,包括输出部,基于所述第一检测部的检测结果向所述外部设备输出控制外部设备的控制信号。
42.根据权利要求41所述的电子设备,其中,包括生物信息输入部,输入与所述对象者的生物性相关的生物信息;
所述输出部基于所述生物信息输出所述控制信号。
43.根据权利要求41或42所述的电子设备,其中,所述输出部对作为显示装置的所述外部设备输出控制显示的控制信号。
44.根据权利要求41~43的任一项所述的电子设备,其中,包括:
图像输入部,输入由设置在所述对象者观看的屏幕附近的第二拍摄部拍摄的图像;
第二检测部,通过对所述图像输入部输入的图像进行解析,检测所述对象者的脸部朝向所述屏幕的频率;
所述输出部基于所述第二检测部的检测结果输出所述控制信号。
45.根据权利要求44所述的电子设备,其中,所述第二检测部当检测出所述对象者的脸部正对着所述屏幕时,判断为所述对象者的脸部朝向所述屏幕。
46.根据权利要求44或45所述的电子设备,其中,当检测出所述对象者的双眼时,所述第二检测部判断为所述对象者的脸部朝向所述屏幕。
47.根据权利要求34~46的任一项所述的电子设备,其中,包括:
记录部,通过录像及录音中的至少之一记录所述对象者的周边环境;及
控制部,基于至少所述第一检测部的检测结果控制所述记录部。
48.一种电子设备,其中,包括:
输入部,输入作为与使用者的生物性相关的信息的生物信息;
操作部,接收所述使用者的输入操作;
检测部,检测所述使用者操作所述操作部的操作状况;及
变更部,基于所述生物信息的变化及所述操作状况变更设定。
49.根据权利要求48所述的电子设备,其中,所述变更部变更与所述输入操作的反应速度有关的所述设定。
50.根据权利要求49所述的电子设备,其中,所述操作部包括第一操作部和第二操作部;
所述变更部变更所述设定,以提高对所述第一操作部的所述输入操作的反应速度,降低对所述第二操作部的所述输入操作的反应速度。
51.根据权利要求48~50中任一项所述的电子设备,其中,所述检测部检测同一个所述操作部是否被连续操作,作为所述操作状况;
当检测出所述连续操作时,所述变更部变更所述设定。
52.根据权利要求51所述的电子设备,其中,当检测出所述连续操作时,所述变更部变更所述设定,以便接收到由不同于所述操作部的其他操作部实现的所述输入操作。
53.根据权利要求48~52中任一项所述的电子设备,其中包含显示部;
所述变更部变更所述显示部的设定。
54.根据权利要求53所述的电子设备,其中,所述变更部变更与所述显示部上显示的影像切换定时有关的所述设定。
55.根据权利要求53或54所述的电子设备,其中,所述变更部变更与所述显示部上显示的文字变换候选顺序有关的所述设定。
56.一种电子设备的控制程序,使计算机执行:
输入步骤,输入作为与使用者的生物性相关的信息的生物信息;
检测步骤,接收由所述使用者对操作部件的输入操作并检测操作状况;及
变更步骤,基于所述生物信息的变化及所述操作状况变更设定。
57.一种电子设备,其中,包括:
操作部,接收使用者的输入操作;
图像输入部,输入来自于拍摄所述操作部的至少一部分及所述使用者的手部的至少一部分的拍摄装置的图像;及
变更部,基于解析所述图像而取得的所述手部的位置信息变更设定。
58.根据权利要求57所述的电子设备,其中,所述位置信息包含所述手部与所述操作部的相对位置关系。
59.根据权利要求58所述的电子设备,其中,所述变更部变更与所述输入操作的反应速度有关的所述设定。
60.根据权利要求59所述的电子设备,其中,所述操作部包括第一操作部和第二操作部;
当根据所述位置信息判断为所述手部的操作位置与所述第一操作部的位置相重叠时,所述变更部变更所述第二操作部的所述设定。
61.根据权利要求60所述的电子设备,其中,所述变更部变更所述设定,以减慢所述第二操作部的所述反应速度。
62.根据权利要求60所述的电子设备,其中,所述变更部变更所述设定,以使所述第二操作部不会接收到所述输入操作。
63.根据权利要求60~62中任一项所述的电子设备,其中,当根据再次取得的所述位置信息判断为所述手部的操作位置不与所述第一操作部的位置相重叠时,所述变更部恢复所述第二操作部的所述设定。
64.根据权利要求57~63中任一项所述的电子设备,其中,包括生物信息输入部,输入与所述使用者的生物性相关的生物信息;
所述变更部基于所述生物信息变更所述设定。
65.一种电子设备,其中,包括:
第一操作部,接收使用者的输入操作;
第二操作部,设置于所述第一操作部附近,接收所述输入操作;及
变更部,当检测出向所述第一操作部的所述输入操作时,变更向所述第二操作部的所述输入操作的操作灵敏度。
66.根据权利要求65所述的电子设备,其中,所述变更部变更所述操作灵敏度,以减慢所述第二操作部的反应速度。
67.根据权利要求65所述的电子设备,其中,所述变更部变更所述操作灵敏度,以使所述第二操作部不会接收所述输入操作。
68.根据权利要求65~67中任一项所述的电子设备,其中,包括生物信息输入部,输入与所述使用者的生物性相关的生物信息;
所述变更部基于所述生物信息确定变更所述操作灵敏度时所涉及的变更量。
69.根据权利要求65~68中任一项所述的电子设备,其中,包括检测部,检测对所述第一操作部的所述输入操作所涉及的操作量;
所述变更部基于所述操作量确定变更所述操作灵敏度时所涉及的变更量。
70.一种电子设备的控制程序,使计算机执行:
操作接收步骤,由操作部接收使用者的输入操作;
图像输入步骤,输入来自于拍摄所述操作部的至少一部分及所述使用者的手部的至少一部分的拍摄装置的图像;及
变更步骤,基于解析所述图像而取得的所述手部的位置信息变更设定。
71.一种电子设备的控制程序,使计算机执行:
操作接收步骤,由第一操作部接收使用者的输入操作;及
变更步骤,当检测到向所述第一操作部的所述输入操作时,变更向设置于所述第一操作部附近的第二操作部件的所述输入操作的操作灵敏度。
72.一种电子设备,其中,包括:
表情检测部,检测对象者的表情;
生物信息输入部,输入作为与所述对象者的生物性相关的信息的生物信息;及
控制部,基于所述表情检测部的检测结果及所述生物信息控制被控设备。
73.根据权利要求72所述的电子设备,其中,包括图像信号输入部,输入来自于拍摄所述对象者的拍摄装置的图像信号;
所述表情检测部解析所述图像信号来检测所述表情。
74.根据权利要求72或73所述的电子设备,其中,所述控制部对作为显示装置的所述被控设备控制显示的大小。
75.根据权利要求74所述的电子设备,其中,包括距离检测部,检测至所述对象者的距离;
所述控制部基于所述距离变更所述大小。
76.根据权利要求72或73所述的电子设备,其中,所述控制部对作为显示装置的所述被控设备控制所显示影像的切换定时。
77.根据权利要求72或73所述的电子设备,其中,所述控制部对作为显示装置的所述被控设备控制与所述表情检测部的检测结果及所述生物信息中的至少之一相关的显示。
78.根据权利要求72~77中任一项所述的电子设备,其中,所述控制部关于对所述检测结果及所述生物信息的各自评价的至少之一进行加权。
79.根据权利要求72~78中任一项所述的电子设备,其中,所述生物信息输入部将来自于检测所述对象者动作的检测传感器的检测信息作为所述生物信息进行输入。
80.根据权利要求79所述的电子设备,其中,所述检测信息包含来自于对所述对象者的手部、腿部及手部和腿部之间部位的至少任一的动作进行检测的压力传感器的信息。
81.根据权利要求79或80所述的电子设备,其中,所述检测信息中包含来自于以非接触方式检测所述对象者的头部动作的非接触传感器的信息。
82.一种电子设备的控制程序,使计算机执行:
表情检测步骤,检测对象者的表情;
生物信息输入步骤,输入作为与所述对象者的生物性相关的信息的生物信息;及
控制步骤,基于所述表情检测步骤的检测结果及所述生物信息控制被控设备。
83.一种电子设备,包括:
讲话速度检测部,检测对象者的讲话速度;及
控制部,基于所述讲话速度检测部的检测结果控制被控设备。
84.根据权利要求83所述的电子设备,其中,所述控制部对作为显示装置的所述被控设备控制亮度的调整。
85.根据权利要求83或84所述的电子设备,其中,所述控制部对作为显示装置的所述被控设备执行变更显示影像或中止显示的控制。
86.根据权利要求85所述的电子设备,其中,显示在所述显示装置上的影像是由所述讲话速度检测部检测出的讲话所涉及的可视电话机影像。
87.根据权利要求83~86中任一项所述的电子设备,其中,所述控制部对作为照明装置的所述被控设备执行亮度调整的控制。
88.根据权利要求83~87中任一项所述的电子设备,其中,所述控制部对作为声音输出装置的所述被控设备控制声音输出。
89.根据权利要求88所述的电子设备,其中,所述控制部执行变更所述声音输出的频率的控制。
90.根据权利要求83~89中任一项所述的电子设备,其中,包括表情检测部,检测所述对象者的表情;
所述控制部还参照所述表情检测部的检测结果执行所述控制。
91.根据权利要求83~90中任一项所述的电子设备,其中,包括生物信息输入部,输入作为与所述对象者的生物性相关的信息的生物信息;
所述控制部还参照所述生物信息进行所述控制。
92.根据权利要求83~91中任一项所述的电子设备,其中,包括:
记录部,通过录像及录音中的至少之一记录所述对象者的周边环境;及
控制部,当所述讲话速度超过预定速度时执行所述记录部的记录。
93.一种电子设备的控制程序,使计算机执行:
讲话速度检测步骤,检测对象者的讲话速度;及
控制步骤,基于所述讲话速度检测步骤的检测结果控制被控设备。
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP005251/2011 | 2011-01-13 | ||
JP005237/2011 | 2011-01-13 | ||
JP005231/2011 | 2011-01-13 | ||
JP2011005231 | 2011-01-13 | ||
JP2011005251A JP2012146216A (ja) | 2011-01-13 | 2011-01-13 | 電子機器および電子機器の制御プログラム |
JP2011005250A JP5771999B2 (ja) | 2011-01-13 | 2011-01-13 | 電子機器および電子機器の制御プログラム |
JP2011005237A JP5811537B2 (ja) | 2011-01-13 | 2011-01-13 | 電子機器 |
JP005286/2011 | 2011-01-13 | ||
JP005250/2011 | 2011-01-13 | ||
JP005232/2011 | 2011-01-13 | ||
JP2011005286A JP2012146219A (ja) | 2011-01-13 | 2011-01-13 | 電子機器および電子機器の制御プログラム |
JP2011005232A JP2012146208A (ja) | 2011-01-13 | 2011-01-13 | 電子機器および電子機器の制御プログラム |
JP005236/2011 | 2011-01-13 | ||
JP2011005236A JP5771998B2 (ja) | 2011-01-13 | 2011-01-13 | 電子機器および電子機器の制御プログラム |
PCT/JP2011/006392 WO2012095917A1 (ja) | 2011-01-13 | 2011-11-16 | 電子機器および電子機器の制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103238311A true CN103238311A (zh) | 2013-08-07 |
Family
ID=46506848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800571214A Pending CN103238311A (zh) | 2011-01-13 | 2011-11-16 | 电子设备及电子设备的控制程序 |
Country Status (3)
Country | Link |
---|---|
US (2) | US20130234826A1 (zh) |
CN (1) | CN103238311A (zh) |
WO (1) | WO2012095917A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104423575A (zh) * | 2013-08-29 | 2015-03-18 | 索尼电脑娱乐美国公司 | 基于关注的呈现和保真度 |
CN104717355A (zh) * | 2013-12-16 | 2015-06-17 | 松下知识产权经营株式会社 | 无线通信装置、无线通信系统及数据处理方法 |
CN105874446A (zh) * | 2013-09-20 | 2016-08-17 | 英特尔公司 | 使用用户情绪和情境向用户进行建议 |
CN106453943A (zh) * | 2016-11-09 | 2017-02-22 | 珠海市魅族科技有限公司 | 屏幕调整方法、屏幕调整装置和终端 |
CN106896905A (zh) * | 2015-12-18 | 2017-06-27 | 英业达科技有限公司 | 提供以脚部操控的装置及其方法 |
CN108853678A (zh) * | 2015-03-21 | 2018-11-23 | 徐志强 | 用于提高大脑“注意”切换能力的神经训练装置 |
CN108887961A (zh) * | 2018-06-20 | 2018-11-27 | 新华网股份有限公司 | 座椅和基于座椅的专注度评测方法 |
CN109062399A (zh) * | 2018-06-20 | 2018-12-21 | 新华网股份有限公司 | 多媒体信息的评测方法和系统 |
CN109343765A (zh) * | 2018-08-16 | 2019-02-15 | 咪咕数字传媒有限公司 | 电子书的翻页方法、阅读设备及存储介质 |
CN110020244A (zh) * | 2017-11-03 | 2019-07-16 | 北京搜狗科技发展有限公司 | 一种对网址信息进行纠错的方法及装置 |
JP2020156109A (ja) * | 2014-07-18 | 2020-09-24 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および情報処理システム |
CN114636219A (zh) * | 2022-03-18 | 2022-06-17 | 青岛海尔空调器有限总公司 | 用于控制空调的方法及装置、空调 |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2840804C (en) | 2011-07-05 | 2018-05-15 | Saudi Arabian Oil Company | Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees |
US9844344B2 (en) | 2011-07-05 | 2017-12-19 | Saudi Arabian Oil Company | Systems and method to monitor health of employee when positioned in association with a workstation |
US9710788B2 (en) | 2011-07-05 | 2017-07-18 | Saudi Arabian Oil Company | Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees |
US9492120B2 (en) * | 2011-07-05 | 2016-11-15 | Saudi Arabian Oil Company | Workstation for monitoring and improving health and productivity of employees |
US10108783B2 (en) | 2011-07-05 | 2018-10-23 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices |
US9526455B2 (en) * | 2011-07-05 | 2016-12-27 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees |
US10307104B2 (en) * | 2011-07-05 | 2019-06-04 | Saudi Arabian Oil Company | Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees |
US9962083B2 (en) | 2011-07-05 | 2018-05-08 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees |
US9329679B1 (en) * | 2012-08-23 | 2016-05-03 | Amazon Technologies, Inc. | Projection system with multi-surface projection screen |
US10713846B2 (en) | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US20190272029A1 (en) * | 2012-10-05 | 2019-09-05 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US9465392B2 (en) * | 2012-11-14 | 2016-10-11 | International Business Machines Corporation | Dynamic temperature control for a room containing a group of people |
CN103914130A (zh) * | 2013-01-05 | 2014-07-09 | 鸿富锦精密工业(武汉)有限公司 | 显示装置及调整显示装置观测距离的方法 |
TWI492098B (zh) * | 2013-03-04 | 2015-07-11 | 利用頭部進行控制之系統及方法 | |
US9625884B1 (en) | 2013-06-10 | 2017-04-18 | Timothy Harris Ousley | Apparatus for extending control and methods thereof |
US9491365B2 (en) * | 2013-11-18 | 2016-11-08 | Intel Corporation | Viewfinder wearable, at least in part, by human operator |
US9722472B2 (en) | 2013-12-11 | 2017-08-01 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace |
KR102163850B1 (ko) * | 2014-01-29 | 2020-10-12 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
US11030708B2 (en) | 2014-02-28 | 2021-06-08 | Christine E. Akutagawa | Method of and device for implementing contagious illness analysis and tracking |
US9704205B2 (en) | 2014-02-28 | 2017-07-11 | Christine E. Akutagawa | Device for implementing body fluid analysis and social networking event planning |
US10664772B1 (en) | 2014-03-07 | 2020-05-26 | Steelcase Inc. | Method and system for facilitating collaboration sessions |
US9716861B1 (en) | 2014-03-07 | 2017-07-25 | Steelcase Inc. | Method and system for facilitating collaboration sessions |
US9955318B1 (en) | 2014-06-05 | 2018-04-24 | Steelcase Inc. | Space guidance and management system and method |
US9766079B1 (en) | 2014-10-03 | 2017-09-19 | Steelcase Inc. | Method and system for locating resources and communicating within an enterprise |
US9380682B2 (en) | 2014-06-05 | 2016-06-28 | Steelcase Inc. | Environment optimization for space based on presence and activities |
US10433646B1 (en) | 2014-06-06 | 2019-10-08 | Steelcaase Inc. | Microclimate control systems and methods |
US11744376B2 (en) | 2014-06-06 | 2023-09-05 | Steelcase Inc. | Microclimate control systems and methods |
US9560316B1 (en) * | 2014-08-21 | 2017-01-31 | Google Inc. | Indicating sound quality during a conference |
US9852388B1 (en) | 2014-10-03 | 2017-12-26 | Steelcase, Inc. | Method and system for locating resources and communicating within an enterprise |
US10285898B2 (en) * | 2014-12-10 | 2019-05-14 | Nextern Inc. | Responsive whole patient care compression therapy and treatment system |
US10733371B1 (en) | 2015-06-02 | 2020-08-04 | Steelcase Inc. | Template based content preparation system for use with a plurality of space types |
US9889311B2 (en) | 2015-12-04 | 2018-02-13 | Saudi Arabian Oil Company | Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device |
US10642955B2 (en) | 2015-12-04 | 2020-05-05 | Saudi Arabian Oil Company | Devices, methods, and computer medium to provide real time 3D visualization bio-feedback |
US10475351B2 (en) | 2015-12-04 | 2019-11-12 | Saudi Arabian Oil Company | Systems, computer medium and methods for management training systems |
US10628770B2 (en) | 2015-12-14 | 2020-04-21 | Saudi Arabian Oil Company | Systems and methods for acquiring and employing resiliency data for leadership development |
CN106095079B (zh) * | 2016-06-02 | 2018-10-16 | 深圳铂睿智恒科技有限公司 | 一种移动终端显示控制方法、系统及移动终端 |
US9921726B1 (en) | 2016-06-03 | 2018-03-20 | Steelcase Inc. | Smart workstation method and system |
JP6753173B2 (ja) * | 2016-06-30 | 2020-09-09 | オムロン株式会社 | 異常処理システム |
JP6293209B2 (ja) * | 2016-07-14 | 2018-03-14 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、誤操作抑制方法、及びプログラム |
US10264213B1 (en) | 2016-12-15 | 2019-04-16 | Steelcase Inc. | Content amplification system and method |
US10304447B2 (en) | 2017-01-25 | 2019-05-28 | International Business Machines Corporation | Conflict resolution enhancement system |
US10218852B2 (en) * | 2017-02-23 | 2019-02-26 | Fuji Xerox Co., Ltd. | Methods and systems for providing teleconference participant quality feedback |
US10621685B2 (en) * | 2017-04-03 | 2020-04-14 | International Business Machines Corporation | Cognitive education advisor |
KR101932844B1 (ko) | 2017-04-17 | 2018-12-27 | 주식회사 하이퍼커넥트 | 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법 |
IT201700044945A1 (it) * | 2017-04-26 | 2018-10-26 | Sebastiano Borrelli | television hight interactive sistem |
US10034631B1 (en) | 2017-05-19 | 2018-07-31 | Lear Corporation | Vehicle seating system with seat occupant vital sign monitoring |
JP6658822B2 (ja) * | 2017-10-30 | 2020-03-04 | ダイキン工業株式会社 | 集中度推定装置 |
US10824132B2 (en) | 2017-12-07 | 2020-11-03 | Saudi Arabian Oil Company | Intelligent personal protective equipment |
JP7246609B2 (ja) * | 2019-03-28 | 2023-03-28 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
KR102282963B1 (ko) | 2019-05-10 | 2021-07-29 | 주식회사 하이퍼커넥트 | 단말기, 서버 및 그것의 동작 방법 |
CN114207656A (zh) * | 2019-08-14 | 2022-03-18 | 本田技研工业株式会社 | 信息提供系统、信息终端以及信息提供方法 |
KR102293422B1 (ko) | 2020-01-31 | 2021-08-26 | 주식회사 하이퍼커넥트 | 단말기 및 그것의 동작 방법 |
KR102287704B1 (ko) | 2020-01-31 | 2021-08-10 | 주식회사 하이퍼커넥트 | 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체 |
JP7316664B2 (ja) * | 2020-02-03 | 2023-07-28 | マルコムホールディングス株式会社 | 対話ユーザの感情情報の提供装置 |
CN112188288B (zh) * | 2020-09-04 | 2023-03-14 | 青岛海尔科技有限公司 | 用于控制电视的方法及系统、装置、设备 |
US11657696B2 (en) * | 2021-04-26 | 2023-05-23 | Kp Inventions, Llc | System and method for tracking patient activity |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10260666A (ja) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | 表示制御装置、及び表示制御プログラムを記録した記録媒体 |
CN1223391A (zh) * | 1997-11-27 | 1999-07-21 | 松下电器产业株式会社 | 控制方法 |
JPH11352260A (ja) * | 1998-06-11 | 1999-12-24 | Mitsubishi Electric Corp | 時刻情報表示装置および時刻情報表示装置の設定方法 |
JP2000341659A (ja) * | 1999-05-31 | 2000-12-08 | Toshiba Corp | リモートプレゼンテーションシステム、処理装置、及び記録媒体 |
JP2001022488A (ja) * | 1999-07-12 | 2001-01-26 | Matsushita Electronics Industry Corp | ユーザインターフェース制御方法及びユーザインターフェース制御装置 |
US20010002831A1 (en) * | 1999-12-02 | 2001-06-07 | Masami Kato | Control apparatus of virtual common space using communication line |
JP2002025000A (ja) * | 2000-07-11 | 2002-01-25 | Mazda Motor Corp | 車両の制御装置 |
TW507157B (en) * | 2000-06-13 | 2002-10-21 | Alps Electric Co Ltd | Input device |
JP2003125454A (ja) * | 2001-10-12 | 2003-04-25 | Honda Motor Co Ltd | 運転状況依存通話制御システム |
JP2003345510A (ja) * | 2002-05-24 | 2003-12-05 | National Institute Of Advanced Industrial & Technology | 電子計算機のマウス型入力装置 |
JP2005064745A (ja) * | 2003-08-08 | 2005-03-10 | Yamaha Corp | 聴覚補助装置 |
JP2005115773A (ja) * | 2003-10-09 | 2005-04-28 | Canon Inc | 入力モード選択方法、入力モード切り替え方法、入力モード選択切り替え方法、入力モード選択装置、入力モード切り替え装置、電子機器、プログラム、及び記憶媒体 |
JP2006154531A (ja) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Ind Co Ltd | 音声速度変換装置、音声速度変換方法、および音声速度変換プログラム |
CN101014924A (zh) * | 2004-08-25 | 2007-08-08 | 苹果电脑有限公司 | 便携式计算机上的宽触摸板 |
JP2008126818A (ja) * | 2006-11-20 | 2008-06-05 | Denso Corp | 自動車用ユーザーもてなしシステム |
JP2008139762A (ja) * | 2006-12-05 | 2008-06-19 | Univ Of Tokyo | プレゼンテーション支援装置および方法並びにプログラム |
JP2009258175A (ja) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | 講義システムおよび集計システム |
US20100009864A1 (en) * | 2006-06-19 | 2010-01-14 | Walter Gumbrecht | Method for analysing amplified nucleic acids |
JP2010108070A (ja) * | 2008-10-28 | 2010-05-13 | Fujifilm Corp | ユーザインタフェース制御装置、ユーザインタフェース制御方法およびプログラム |
JP2010134489A (ja) * | 2008-12-02 | 2010-06-17 | Omron Corp | 視線検出装置および方法、並びに、プログラム |
JP2010224715A (ja) * | 2009-03-23 | 2010-10-07 | Olympus Corp | 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体 |
CN101866643B (zh) * | 2009-01-27 | 2013-11-06 | 索尼移动通信日本株式会社 | 显示设备、显示控制方法和显示控制程序 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4736203A (en) * | 1985-07-17 | 1988-04-05 | Recognition Systems, Inc. | 3D hand profile identification apparatus |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US6144755A (en) * | 1996-10-11 | 2000-11-07 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Method and apparatus for determining poses |
JP3243423B2 (ja) * | 1996-11-01 | 2002-01-07 | シャープ株式会社 | 電子機器 |
JPH11327753A (ja) * | 1997-11-27 | 1999-11-30 | Matsushita Electric Ind Co Ltd | 制御方法及びプログラム記録媒体 |
JP2001306246A (ja) * | 2000-04-27 | 2001-11-02 | Nec Corp | タッチパッド |
WO2003003169A2 (en) * | 2001-06-28 | 2003-01-09 | Cloakware Corporation | Secure method and system for biometric verification |
US7197168B2 (en) * | 2001-07-12 | 2007-03-27 | Atrua Technologies, Inc. | Method and system for biometric image assembly from multiple partial biometric frame scans |
WO2003089080A1 (en) * | 2002-04-16 | 2003-10-30 | Walker Digital, Llc | Method and apparatus for optimizing the rate of play of a gaming device |
EP1812892B1 (en) * | 2004-08-02 | 2010-09-29 | Koninklijke Philips Electronics N.V. | Touch screen with pressure-dependent visual feedback |
US20060132447A1 (en) * | 2004-12-16 | 2006-06-22 | Conrad Richard H | Method and apparatus for automatically transforming functions of computer keyboard keys and pointing devices by detection of hand location |
GB2450024B (en) * | 2006-03-03 | 2011-07-27 | Honeywell Int Inc | Modular biometrics collection system architecture |
WO2007119818A1 (ja) * | 2006-04-14 | 2007-10-25 | Nec Corporation | 機能ロック解除システム、機能ロック解除方法、および機能ロック解除用プログラム |
US20100004977A1 (en) * | 2006-09-05 | 2010-01-07 | Innerscope Research Llc | Method and System For Measuring User Experience For Interactive Activities |
US8536976B2 (en) * | 2008-06-11 | 2013-09-17 | Veritrix, Inc. | Single-channel multi-factor authentication |
EP3258361B1 (en) * | 2008-07-01 | 2020-08-12 | LG Electronics Inc. -1- | Mobile terminal using pressure sensor and method of controlling the mobile terminal |
KR101495559B1 (ko) * | 2008-07-21 | 2015-02-27 | 삼성전자주식회사 | 사용자 명령 입력 방법 및 그 장치 |
KR101528848B1 (ko) * | 2008-11-26 | 2015-06-15 | 엘지전자 주식회사 | 휴대단말기 및 그 제어방법 |
JP5337609B2 (ja) * | 2009-07-15 | 2013-11-06 | 日立コンシューマエレクトロニクス株式会社 | 放送受信装置 |
US9244562B1 (en) * | 2009-07-31 | 2016-01-26 | Amazon Technologies, Inc. | Gestures and touches on force-sensitive input devices |
US8390583B2 (en) * | 2009-08-31 | 2013-03-05 | Qualcomm Incorporated | Pressure sensitive user interface for mobile devices |
US8055722B2 (en) * | 2009-12-02 | 2011-11-08 | International Business Machines Corporation | Notification control through brain monitoring of end user concentration |
US20110285648A1 (en) * | 2010-01-22 | 2011-11-24 | Lester Ludwig | Use of fingerprint scanning sensor data to detect finger roll and pitch angles |
US8742350B2 (en) * | 2010-06-08 | 2014-06-03 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Proximity sensor |
US8593534B2 (en) * | 2010-09-08 | 2013-11-26 | Apple Inc. | Auto-triggered camera self-timer based on recognition of subject's presence in scene |
US9262002B2 (en) * | 2010-11-03 | 2016-02-16 | Qualcomm Incorporated | Force sensing touch screen |
-
2011
- 2011-11-16 US US13/988,900 patent/US20130234826A1/en not_active Abandoned
- 2011-11-16 WO PCT/JP2011/006392 patent/WO2012095917A1/ja active Application Filing
- 2011-11-16 CN CN2011800571214A patent/CN103238311A/zh active Pending
-
2016
- 2016-06-22 US US15/189,355 patent/US20160327922A1/en not_active Abandoned
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10260666A (ja) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | 表示制御装置、及び表示制御プログラムを記録した記録媒体 |
CN1223391A (zh) * | 1997-11-27 | 1999-07-21 | 松下电器产业株式会社 | 控制方法 |
JPH11352260A (ja) * | 1998-06-11 | 1999-12-24 | Mitsubishi Electric Corp | 時刻情報表示装置および時刻情報表示装置の設定方法 |
JP2000341659A (ja) * | 1999-05-31 | 2000-12-08 | Toshiba Corp | リモートプレゼンテーションシステム、処理装置、及び記録媒体 |
JP2001022488A (ja) * | 1999-07-12 | 2001-01-26 | Matsushita Electronics Industry Corp | ユーザインターフェース制御方法及びユーザインターフェース制御装置 |
US20010002831A1 (en) * | 1999-12-02 | 2001-06-07 | Masami Kato | Control apparatus of virtual common space using communication line |
TW507157B (en) * | 2000-06-13 | 2002-10-21 | Alps Electric Co Ltd | Input device |
JP2002025000A (ja) * | 2000-07-11 | 2002-01-25 | Mazda Motor Corp | 車両の制御装置 |
JP2003125454A (ja) * | 2001-10-12 | 2003-04-25 | Honda Motor Co Ltd | 運転状況依存通話制御システム |
JP2003345510A (ja) * | 2002-05-24 | 2003-12-05 | National Institute Of Advanced Industrial & Technology | 電子計算機のマウス型入力装置 |
JP2005064745A (ja) * | 2003-08-08 | 2005-03-10 | Yamaha Corp | 聴覚補助装置 |
JP2005115773A (ja) * | 2003-10-09 | 2005-04-28 | Canon Inc | 入力モード選択方法、入力モード切り替え方法、入力モード選択切り替え方法、入力モード選択装置、入力モード切り替え装置、電子機器、プログラム、及び記憶媒体 |
CN101014924A (zh) * | 2004-08-25 | 2007-08-08 | 苹果电脑有限公司 | 便携式计算机上的宽触摸板 |
JP2006154531A (ja) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Ind Co Ltd | 音声速度変換装置、音声速度変換方法、および音声速度変換プログラム |
US20100009864A1 (en) * | 2006-06-19 | 2010-01-14 | Walter Gumbrecht | Method for analysing amplified nucleic acids |
JP2008126818A (ja) * | 2006-11-20 | 2008-06-05 | Denso Corp | 自動車用ユーザーもてなしシステム |
JP2008139762A (ja) * | 2006-12-05 | 2008-06-19 | Univ Of Tokyo | プレゼンテーション支援装置および方法並びにプログラム |
JP2009258175A (ja) * | 2008-04-11 | 2009-11-05 | Yamaha Corp | 講義システムおよび集計システム |
JP2010108070A (ja) * | 2008-10-28 | 2010-05-13 | Fujifilm Corp | ユーザインタフェース制御装置、ユーザインタフェース制御方法およびプログラム |
JP2010134489A (ja) * | 2008-12-02 | 2010-06-17 | Omron Corp | 視線検出装置および方法、並びに、プログラム |
CN101866643B (zh) * | 2009-01-27 | 2013-11-06 | 索尼移动通信日本株式会社 | 显示设备、显示控制方法和显示控制程序 |
JP2010224715A (ja) * | 2009-03-23 | 2010-10-07 | Olympus Corp | 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10310583B2 (en) | 2013-08-29 | 2019-06-04 | Sony Interactive Entertainment America Llc | Attention-based rendering and fidelity |
CN104423575A (zh) * | 2013-08-29 | 2015-03-18 | 索尼电脑娱乐美国公司 | 基于关注的呈现和保真度 |
CN104423575B (zh) * | 2013-08-29 | 2019-01-18 | 索尼电脑娱乐美国公司 | 基于关注的呈现和保真度 |
CN105874446A (zh) * | 2013-09-20 | 2016-08-17 | 英特尔公司 | 使用用户情绪和情境向用户进行建议 |
CN105874446B (zh) * | 2013-09-20 | 2020-09-25 | 英特尔公司 | 一种向用户进行建议的装置、方法、设备及媒介 |
CN104717355A (zh) * | 2013-12-16 | 2015-06-17 | 松下知识产权经营株式会社 | 无线通信装置、无线通信系统及数据处理方法 |
US11265603B2 (en) | 2014-07-18 | 2022-03-01 | Sony Corporation | Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system |
JP6992845B2 (ja) | 2014-07-18 | 2022-01-13 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、および情報処理システム |
JP2020156109A (ja) * | 2014-07-18 | 2020-09-24 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および情報処理システム |
CN108853678A (zh) * | 2015-03-21 | 2018-11-23 | 徐志强 | 用于提高大脑“注意”切换能力的神经训练装置 |
CN106896905A (zh) * | 2015-12-18 | 2017-06-27 | 英业达科技有限公司 | 提供以脚部操控的装置及其方法 |
CN106453943B (zh) * | 2016-11-09 | 2020-02-18 | 珠海市魅族科技有限公司 | 屏幕调整方法、屏幕调整装置和终端 |
CN106453943A (zh) * | 2016-11-09 | 2017-02-22 | 珠海市魅族科技有限公司 | 屏幕调整方法、屏幕调整装置和终端 |
CN110020244A (zh) * | 2017-11-03 | 2019-07-16 | 北京搜狗科技发展有限公司 | 一种对网址信息进行纠错的方法及装置 |
CN109062399A (zh) * | 2018-06-20 | 2018-12-21 | 新华网股份有限公司 | 多媒体信息的评测方法和系统 |
CN108887961A (zh) * | 2018-06-20 | 2018-11-27 | 新华网股份有限公司 | 座椅和基于座椅的专注度评测方法 |
CN109343765A (zh) * | 2018-08-16 | 2019-02-15 | 咪咕数字传媒有限公司 | 电子书的翻页方法、阅读设备及存储介质 |
CN109343765B (zh) * | 2018-08-16 | 2021-03-23 | 咪咕数字传媒有限公司 | 电子书的翻页方法、阅读设备及存储介质 |
CN114636219A (zh) * | 2022-03-18 | 2022-06-17 | 青岛海尔空调器有限总公司 | 用于控制空调的方法及装置、空调 |
Also Published As
Publication number | Publication date |
---|---|
US20130234826A1 (en) | 2013-09-12 |
WO2012095917A1 (ja) | 2012-07-19 |
US20160327922A1 (en) | 2016-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103238311A (zh) | 电子设备及电子设备的控制程序 | |
JP6849722B2 (ja) | 可変触覚出力のための意味論的フレームワーク | |
Benssassi et al. | Wearable assistive technologies for autism: opportunities and challenges | |
JP6992870B2 (ja) | 情報処理システム、制御方法、およびプログラム | |
JP5771998B2 (ja) | 電子機器および電子機器の制御プログラム | |
JP2016021259A (ja) | 電子機器および電子機器の制御プログラム | |
JP2012146216A (ja) | 電子機器および電子機器の制御プログラム | |
JP6950708B2 (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
JP5811537B2 (ja) | 電子機器 | |
JP5771999B2 (ja) | 電子機器および電子機器の制御プログラム | |
Mansouri Benssassi et al. | Wearable assistive technologies for autism: opportunities and challenges | |
JP2019023872A (ja) | 電子機器 | |
JP2012146219A (ja) | 電子機器および電子機器の制御プログラム | |
JP2017142867A (ja) | 電子機器 | |
JP2012146208A (ja) | 電子機器および電子機器の制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130807 |