CN101141568A - 图像拾取设备和图像拾取方法 - Google Patents
图像拾取设备和图像拾取方法 Download PDFInfo
- Publication number
- CN101141568A CN101141568A CNA2007101536270A CN200710153627A CN101141568A CN 101141568 A CN101141568 A CN 101141568A CN A2007101536270 A CNA2007101536270 A CN A2007101536270A CN 200710153627 A CN200710153627 A CN 200710153627A CN 101141568 A CN101141568 A CN 101141568A
- Authority
- CN
- China
- Prior art keywords
- user
- image pick
- image
- control
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
本发明提供了一种图像拾取设备,其包括图像拾取装置、用户信息获取装置、以及控制装置。图像拾取装置被配置为在把用户的注视方向当作对象方向的同时拾取图像。用户信息获取装置被配置为获取关于用户的运动或身体状况的信息。控制装置被配置为从用户信息获取装置所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取装置的操作。
Description
相关申请的交叉引用
本申请包含与2006年9月8日向日本专利局提交的日本专利申请JP2006-244687相关的主题,在此通过参考引入其全部内容。
技术领域
本发明涉及例如通过眼镜型或头戴式安装单元而被安装在用户上以便在把用户的注视方向当作对象方向的同时拾取图像的图像拾取设备。本发明还涉及用在这种图像拾取设备中的图像拾取方法。
背景技术
例如由日本专利特开No.2005-172851建议的设备被配置成使得在眼镜型或头戴式安装单元中安装小型相机,以便对用户注视方向上可见的场景成像。
发明内容
然而,迄今为止开发的设备不能在避免用户对操作键或者其他操作控制进行操作的烦恼的同时依照用户的意图或状况以各种成像模式精确地对用户观看的场景成像。
在上述情况下,需要依照用户的状况(例如,意图或者身体状况)来提供精确的图像拾取操作控制。
依据本发明的一个实施例,提供有一种图像拾取设备,其包括图像拾取部、用户信息获取部、以及控制部。图像拾取部被配置为在把用户的注视方向当作对象方向的同时拾取图像。用户信息获取部被配置为获取关于用户的运动和身体状况的信息。控制部被配置为从用户信息获取部所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取部的操作。
依据本发明的另一实施例,该图像拾取设备被提供为,其进一步包括被配置为显示由图像拾取部拾取的图像的显示部。
依据本发明的另一实施例,该图像拾取设备被提供为,其进一步包括被配置为在记录介质上记录由图像拾取部拾取的图像的记录部。在这种情况下,控制部依照用户信息获取部所获取的信息来控制记录部的记录操作的开始或结束。
依据本发明的另一实施例,该图像拾取设备被提供为,其进一步包括被配置为向外部装置传送由图像拾取部拾取的图像的传送部。在这种情况下,控制部依照用户信息获取部所获取的信息来控制传送部的传送操作的开始或结束。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,图像拾取部使用CCD传感器或CMOS传感器作为图像拾取器件。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测加速度、角速度、或者振动的传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测用户头部的运动、用户胳膊的运动、用户的手的运动、用户的腿的运动、或者用户整个身体的运动的传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测用户没有在步行、正在步行、或者正在跑动的传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测关于用户的视觉信息的视觉传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测用户的注视方向、用户的焦距、用户瞳孔的状况、用户的眼底图案、或者用户眼皮的运动来作为关于用户的视觉信息的传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测关于用户的生物信息的生物传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测关于用户的心跳信息、关于用户的脉搏信息、关于用户的排汗信息、关于用户的脑电波信息、关于用户的皮肤电反射信息、关于用户的血压信息、关于用户的体温信息、或者关于用户的呼吸活动信息作为关于用户的生物信息的传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,用户信息获取部是用于检测表示用户紧张或兴奋的信息的生物传感器。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部控制图像拾取部的图像拾取操作的开始或结束。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的摄远成像和广角成像功能行使可变控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部行使图像拾取部的聚焦控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的成像灵敏度行使可变控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的红外成像灵敏度行使可变控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的紫外成像灵敏度行使可变控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的帧速率行使可变控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部对图像拾取部的成像透镜系统行使操作控制。
依据本发明的另一实施例,该图像拾取设备被提供为,其中,控制部行使成像信号处理部的操作控制,其中该成像信号处理部对图像拾取部中的图像拾取器件所获得的成像信号进行处理。
依据本发明的另一实施例,该图像拾取设备被提供为,其进一步包括被配置为在对象的方向上进行照明的照明部,其中,控制部依照用户信息获取部所获取的信息来控制照明部的照明操作。
依据本发明的再一实施例,提供一种用于图像拾取设备的图像拾取方法,该图像拾取设备包括被配置为在把用户的注视方向当作对象方向的同时拾取图像的图像拾取部,该图像拾取方法包括以下步骤:获取关于用户的运动或身体状况的信息;以及从用户信息获取步骤中所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取部的操作。
当用户佩戴眼镜型或头戴式安装单元时,依据本发明一个实施例的图像拾取部对用户注视方向上可见的场景成像。图像拾取部所拾取的图像被显示部显示、被记录部记录在记录介质上、并被传送部传送到外部装置。
依照用户的意图和状况来适当地控制各种图像拾取操作是优选的,所述各种图像拾取操作例如通过图像拾取功能开/关操作、选定的成像模式(例如,变焦状况和聚焦状况)、成像灵敏度调整、亮度级别、和其他信号处理、以及成像帧速率来表示。然而,本发明获取关于用户的运动或身体状况的信息而不是提示用户对操作控制进行操作,从所获取的信息中判断用户的意图或状况,并依照判断结果来执行各种适当的控制操作。
本发明利用图像拾取部来对用户注视方向上可见的场景成像。在这种情况下,在依照关于用户的运动或身体状况的信息来判断用户的意图或状况之后行使控制。因此,依照用户的意图或状况来执行精确的图像拾取操作,并且不给用户施加操作负荷。这确保了可以用精确的定时以适合的模式对用户注视方向上可见的场景成像。此外,当所拾取的图像数据被存储在记录介质上或被传送到外部装置时,对于某个用户可见的场景可以由多人共享或者稍后被再现和观看。
附图说明
图1是依据本发明一个实施例的图像拾取设备的典型外部视图;
图2是依据本发明一个实施例的另一图像拾取设备的典型外部视图;
图3是示出了依据本发明一个实施例的图像拾取设备的框图;
图4是示出了依据本发明一个实施例的另一图像拾取设备的框图;
图5A到5C示出了透视状态、被正常拾取的图像、以及被摄远拾取的图像;
图6A和6B示出了依据本发明一个实施例的放大图像;
图7A和7B示出了依据本发明一个实施例的调整后的图像;
图8A和8B示出了依据本发明一个实施例的用提高的红外灵敏度获得的图像;
图9A和9B示出了依据本发明一个实施例的用提高的紫外灵敏度获得的图像;
图10是示出了依据本发明一个实施例的控制处理的流程图;
图11是示出了依据本发明一个实施例的另一控制处理的流程图;
图12是示出了依据本发明一个实施例的再一控制处理的流程图;
图13A和13B是示出了依据本发明一个实施例的成像开始触发事件判断处理的流程图;
图14A和14B是示出了依据本发明一个实施例的成像开始触发事件判断处理的流程图;
图15A和15B是示出了依据本发明一个实施例的成像操作控制触发事件判断处理的流程图;
图16是示出了依据本发明一个实施例的成像操作控制触发事件判断处理的流程图;
图17是示出了依据本发明一个实施例的成像操作控制触发事件判断处理的流程图;
图18A和18B是示出了依据本发明一个实施例的成像操作控制触发事件判断处理的流程图;
图19A和19B是示出了依据本发明一个实施例的成像结束触发事件判断处理的流程图;
图20A和20B是示出了依据本发明一个实施例的成像结束触发事件判断处理的流程图。
具体实施方式
现在,将按下列顺序对依据本发明的各实施例的图像拾取设备和图像拾取方法进行描述:
1.图像拾取设备的典型外部视图
2.图像拾取设备的典型配置
3.典型的所拾取的图像
4.用户状况判断
5.各种操作的示例
6.实施例以及改进实施例或扩展实施例的优点
1.图像拾取设备的典型外部视图
图1是依据本发明一个实施例的作为眼镜型显示摄影机的图像拾取设备1的外部视图。图像拾取设备1具有安装单元,该安装单元例如具有从头的一个颞区通过枕区延伸到另一颞区的半圆框架结构,并且当其与听囊啮合时被安装在用户上。
当如图1所示图像拾取设备1被安装在用户上时,把一对显示部2(用于右侧眼睛和左侧眼睛)放置在紧挨用户眼睛之前,即,与普通眼镜的镜片的位置相同。显示部2例如由液晶面板制成,并且可以通过控制透射率而使其成为透视的,即透明的或者半透明的。由于显示部2是透视的,因此即使在用户正如眼镜一样经常佩戴图像拾取设备1时,用户的日常生活也保持不受影响。
放置面向前方的成像透镜3a,使得安装在用户上的图像拾取设备1在把用户的注视方向当作对象方向的同时拾取图像。
放置发光部4a,以在成像透镜3a的成像方向上进行照明。发光部4a例如由LED(发光二极管)制成。
提供一对耳机扬声器5a,以便当图像拾取设备1被安装在用户上时,可以把它们插入到右侧和左侧的耳孔中(尽管在图中仅示出了左侧的耳机扬声器)。
麦克风6a、6b收集外部声音,并且被放置在用于右侧眼睛的显示部2的右边和用于左侧眼睛的显示部2的左边。
图1示出的结构仅仅是示例。可以采用各种结构来把图像拾取设备1安装在用户上。应该使用所谓的眼镜型或头戴式安装单元把图像拾取设备1安装在用户上。本实施例被配置为使得在成像透镜3a的成像方向等于用户的注视方向、即用户所面对的方向的同时,至少显示部2被放置在用户眼睛前方并接近于用户眼睛。假定提供了一对显示部2来覆盖两只眼睛。然而,可以采用替换的配置,使得提供一个显示部2来覆盖一只眼睛。
还假定提供了右侧和左侧的耳机扬声器5a。然而,可以采用替换的配置,使得仅提供一个耳机扬声器来覆盖仅仅一个耳朵。此外,可以作为替换方案提供一个麦克风来取代提供右侧和左侧的麦克风6a、6b。此外,可以采用替换的配置,使得图像拾取设备1不包括任何麦克风或耳机扬声器。
作为替换还可以想到的是,图像拾取设备1可以被配置为排除发光部4a。
图1中示出的图像拾取设备1被配置为使得图像拾取部与显示部2集成在一起,这允许用户监控所拾取的图像。另一方面,图2示出的图像拾取设备1A被配置为使得显示部2是独立的部件。
图2中示出的图像拾取设备1A以预定的安装框架安装在用户的头部。放置成像透镜3a,其面向前方,以便在把用户的注视方向当作对象方向的同时拾取图像。
配备发光部4a以在成像透镜3a的成像方向上进行照明。发光部4a例如由LED制成。
另外,配备麦克风6a来收集外部声音。
在上面的情况中,图像拾取设备1A具有内置的通信部,其如稍后所描述的那样向外部装置传送所拾取的图像数据。例如,可以使用移动显示单元30作为外部装置。图像拾取设备1A向显示单元30传送所拾取的图像数据。显示单元30接收所拾取的图像数据并把它显示在显示屏31上。
当用户携带移动显示单元30时,他/她可以监控所拾取的图像。
尽管在上文中提及移动显示单元作为独立的显示单元30,但是作为替换方案可以使用固定的显示单元、计算机、电视接收机、蜂窝电话、PDA(个人数字助理)等等,来作为独立的显示单元30。如果图像拾取设备1A不具有监控/显示功能(或者即使它具有正如图1示出的图像拾取设备1一样的监控/显示功能),则可以使用外部显示单元来监控所拾取的图像数据。
除上述的各种显示装置之外,图像拾取设备1(或1A)通过行使它的通信功能而将所拾取的图像数据传送到的外部装置还可以是视频存储装置、计算机、服务器等等。该外部装置可以用来存储或分发所拾取的图像数据。
2.图像拾取设备的典型配置
图3示出了图像拾取设备1的典型内部配置。此图示出了这样的图像拾取设备1的典型配置,该图像拾取设备1充当如图1所示的眼镜型显示摄影机并结合了图像拾取功能和显示功能。
系统控制器10是微型计算机,其例如包括CPU(中央处理单元)、ROM(只读存储器)、RAM(随机存取存储器)、非易失性存储部、以及接口部。系统控制器10被当作是提供对图像拾取设备1的全面控制的控制部。
系统控制器10依照用户的状况来控制图像拾取设备1中的各个部件。更具体地,系统控制器10检测/判断用户的状况,并依照操作程序进行操作,其中所述操作程序根据检测到的/判断出的用户状况对各个部件行使操作控制。因此,从功能性的观点来说,系统控制器10具有用户状况判断功能10a,其判断用户的状况;以及操作控制功能10b,其依照用户状况判断功能10a产生的判断结果,向各个部件发出控制指令,如图所示。
作为用于对用户前方的场景成像的组件,图像拾取设备1包括图像拾取部3、成像控制部11、以及成像信号处理部15。
图像拾取部3包括透镜系统、驱动系统、以及固态图像传感器阵列,其中该透镜系统包含图1示出的成像透镜3a、光圈、变焦透镜、聚焦透镜等等;该驱动系统驱动透镜系统来执行聚焦操作或变焦操作;该固态图像传感器阵列检测透镜系统所获取的成像光并实现光电转换,以产生成像信号。固态图像传感器阵列例如是CCD(电荷耦合器件)传感器阵列或者CMOS(互补金属氧化物半导体)传感器阵列。
成像信号处理部15包括采样保持/AGC(自动增益控制)电路和视频A/D转换器,并且获得数字数据形式的成像信号,其中该采样保持/AGC(自动增益控制)电路对图像拾取部3中的固态图像传感器阵列所获取的信号执行增益调整和波形整形操作。成像信号处理部15对成像信号执行例如白平衡处理、亮度处理、颜色信号处理、以及图像模糊校正处理。
成像控制部11依照来自系统控制器10的指令,控制图像拾取部3和成像信号处理部15的操作。例如,成像控制部11行使控制来接通或关断图像拾取部3和成像信号处理部15。成像控制部11还行使控制(电动机控制),以使图像拾取部3执行自动聚焦、自动曝光调整、光圈调整、变焦、以及其他操作。
此外,成像控制部11包括定时产生器,其产生定时信号。定时信号用来控制固态图像传感器阵列、成像信号处理部15中的采样保持/AGC电路、以及视频A/D转换器的信号处理操作。这种定时控制功能还用来对成像帧速率行使可变控制。
此外,成像控制部11控制固态图像传感器阵列和成像信号处理部15中的成像灵敏度和信号处理。为了成像灵敏度控制的目的,例如,成像控制部11可以行使对从固态图像传感器阵列中读取的信号的增益控制、黑色电平设置控制、对数字成像信号数据处理的系数控制、以及对图像模糊校正处理的校正量控制。对于成像灵敏度,例如,成像控制部11可以进行全面的灵敏度调整而不需要特别关注波长频带,并且可以调整诸如红外区或紫外区之类的特殊波长频带的成像灵敏度。可以通过在成像透镜系统中插入波长滤光器或者通过对成像信号执行波长滤光计算处理来进行波长特定的灵敏度调整。在上面的情况中,成像控制部11例如可以通过行使波长滤光器的插入控制或者通过指定滤光计算系数来提供灵敏度控制。
向图像输入/输出控制部27提供由图像拾取部3拾取并由成像信号处理部15处理的成像信号(所拾取的图像数据)。
图像输入/输出控制部27依照系统控制器10行使的控制,来控制图像数据的传递。更具体地,图像输入/输出控制部27控制成像系统(成像信号处理部15)、成像监控/显示系统(显示图像处理部12)、存储部25、以及通信部26之间的图像数据的传递。
例如,图像输入/输出控制部27向显示图像处理部12、存储部25、或者通信部26提供作为成像信号处理部15处理过的成像信号的图像数据。
此外,图像输入/输出控制部27向显示图像处理部12或者通信部26提供例如从存储部25中再现的图像数据。
此外,图像输入/输出控制部27向显示图像处理部12或者存储部25提供例如通过通信部26接收到的图像数据。
作为把图像呈现给用户的组件,图像拾取设备1包括显示部2、显示图像处理部12、显示驱动部13、以及显示控制部14。
可以通过图像输入/输出部27向显示图像处理部12提供由图像拾取部3拾取并由成像信号处理部15处理的成像信号。显示图像处理部12是所谓的视频处理器,并且能够对所提供的成像信号执行各种显示处理。例如,显示图像处理部12可以调整亮度级、校正颜色、调整对比度、以及调整成像信号的锐度(边缘增强)。此外,显示图像处理部12可以执行这样的处理,该处理例如用于通过放大部分成像信号来产生放大的图像、产生缩小的图像、分离和组合用于显示所拾取的图像的段的图像、产生字符图像或虚拟图像、或者组合所产生的图像和所拾取的图像。简而言之,显示图像处理部12可以对作为数字图像信号的成像信号执行各种处理。
显示驱动部13包括像素驱动电路,其从显示图像处理部12中接收图像信号并将其显示在显示部2上,该显示部2是液晶显示器。更具体地,显示驱动部13通过以预定的水平/垂直驱动定时把基于视频信号的驱动信号施加到显示部2内的以矩阵格式排列的像素上来显示图像。显示驱动部13还可以通过控制显示部2中的每一像素的透射率而使显示部2变得透视。
显示控制部14依照来自系统控制器10的指令来控制显示图像处理部12的处理操作和显示驱动部13的操作。更具体地,显示控制部14使显示图像处理部12执行上述处理,并使显示驱动部13在透视状态和图像显示状态之间进行切换。
与显示部2处于透明或半透明状态的“透视”状态相反,把图像显示在显示部2上的状态在下文中被称为“监控显示状态”(被执行以用来在显示部2上显示图像的操作在下文中被称为“监控显示”操作)。
还可以通过图像输入/输出控制部27向显示图像处理部12提供由存储部25再现的图像数据和由通信部26接收到的图像数据。在这种情况下,显示图像处理部12和显示驱动部13如上所述那样操作,以向显示部2输出再现的图像或接收到的图像。
图像拾取设备1还包括音频输入部6、音频信号处理部16、以及音频输出部5。
音频输入部6包括图1中示出的麦克风6a、6b、用于放大由麦克风6a、6b获得的音频信号的麦克风放大器部、以及A/D转换器,并且输出音频数据。
由音频输入部6获得的音频数据被提供给音频输入/输出控制部28。
音频输入/输出控制部28依照系统控制器10行使的控制来控制音频数据的传递。更具体地,音频输入/输出控制部28控制音频输入部6、音频信号处理部16、存储部25、以及通信部26之间的音频信号的传递。
例如,音频输入/输出控制部28向音频信号处理部16、存储部25、或者通信部26提供由音频输入部6获得的音频数据。
此外,音频输入/输出控制部28向音频信号处理部16或者通信部26提供例如由存储部25再现的音频数据。
此外,音频输入/输出控制部28向音频信号处理部16或者存储部25提供例如由通信部26接收到的音频数据。
音频信号处理部16例如包括数字信号处理器和D/A转换器。由音频输入部6获得的音频数据和从存储部25或通信部26馈送的音频数据通过音频输入/输出控制部28被提供给音频信号处理部16。音频信号处理部16依照系统控制器10所行使的控制,对所提供的音频数据执行音量调整、音质调整、音响效果控制、或者其他音频处理。此外,音频信号处理部16把处理过的音频数据转换成模拟信号,并将其提供给音频输出部5。音频信号处理部16不限于用于执行数字信号处理的配置,而且也可以是用模拟放大器和模拟过滤器执行信号处理的配置。
音频输出部5包括图1示出的一对耳机扬声器5a,以及用于耳机扬声器5a的放大器电路。
音频输入部6、音频信号处理部16、以及音频输出部5使用户能够听到外部声音、由存储部25再现的声音、或者由通信部26接收到的声音。
音频输出部5可以被配置为骨传导扬声器。
存储部25被配置为用于把数据记录到预定义的记录介质上并且从预定义的记录介质再现数据的部件。其例如可以被实现为HDD(硬盘驱动器)。不用说,可以使用诸如闪存存储器之类的固态存储器、具有内置固态存储器的存储卡、光盘、磁光盘、全息存储器、或者其他记录介质。总之,存储部25应当被配置为能够依照所用的记录介质记录和再现数据。
作为由图像拾取部3拾取并由成像信号处理部15处理过的成像信号的图像数据和由通信部26接收到的图像数据可以通过图像输入/输出控制部27而被提供给存储部25。由音频输入部6获得的音频数据和由通信部26接收到的音频数据可以通过音频输入/输出控制部28而被提供给存储部25。
为了在记录介质上记录,存储部25对所提供的图像数据和音频数据进行编码,并且依照系统控制器10行使的控制把编码后的数据记录在记录介质上。
此外,存储部25依照系统控制器10行使的控制再现记录后的图像数据和音频数据。再现的图像数据被输出到图像输入/输出控制部27。再现的音频数据被输出到音频输入/输出控制部28。
通信部26与外部装置交换数据。如上所述,外部装置可以是多种装置中的一种,诸如图2所示的显示单元30、计算机、视频装置、蜂窝电话、PDA、以及服务器。
通信部26可以被配置为例如通过使用无线LAN、蓝牙、或者其他技术来建立经由短距离无线通信链路与网络接入点之间的网络通信,或者与具有所支持的通信功能的外部装置建立直接无线通信。
作为由图像拾取部3拾取并由成像信号处理部15处理过的成像信号的图像数据和由存储部25再现的图像数据可以通过图像输入/输出控制部27而被提供给通信部26。由音频输入部6获得的音频数据和由存储部25再现的音频数据可以通过音频输入/输出控制部28而被提供给通信部26。
为了传送,通信部26对所提供的图像数据和音频数据进行编码、调制、以及其他的处理,并依照系统控制器10行使的控制来向外部装置传送处理过的数据。
此外,通信部26从外部装置中接收数据。接收和解调后的图像数据被输出到图像输入/输出控制部27。接收和解调后的音频数据被输出到音频输入/输出控制部28。
图像拾取设备1包括照明部4和照明控制部18。照明部4包括图1示出的发光部4a和用于使发光部4a(例如,LED)进行照明的发光电路。照明控制部18依照来自系统控制器10的指令使照明部4发射光。
当安装照明部4的发光部4a使得如图1所示向前照明时,照明部4在用户的注视方向上进行照明。
作为用户信息获取组件,图像拾取设备1包括视觉传感器19、加速度传感器20、陀螺仪21、以及生物传感器22。
视觉传感器19检测关于用户视觉的信息。视觉传感器19例如是用于检测关于用户视觉的信息的传感器,这种信息诸如是注视方向、焦距、瞳孔开口、眼底图案、或者眼皮的运动。
加速度传感器20和陀螺仪21依照用户的运动输出信号。例如,加速度传感器20和陀螺仪21是用于检测下述运动的传感器,例如头部运动、颈部运动、整个身体的运动、胳膊的运动、或者腿的运动。
生物传感器22检测关于用户的生物信息。例如,生物传感器22是用于检测心跳信息、脉搏信息、排汗信息、脑电波信息、皮肤电反射(GSR)信息、体温信息、血压信息、或者呼吸活动信息的传感器。生物传感器22所检测到的信号被用作例如用于判断用户是否紧张、兴奋、放松、困倦、舒适、或者不舒适的信息。
视觉传感器19、加速度传感器20、陀螺仪21、生物传感器22、以及输入部17获取关于佩戴图像拾取设备1的用户的运动或身体状况的信息(用户信息)并将获取的信息提供给系统控制器10。
系统控制器10通过行使用户状况判断功能10a来执行处理,并依照所获取的用户信息来确定用户的意图或状况。依照所确定的用户意图或状况,系统控制器10通过行使操作控制功能10b来执行处理,并对图像拾取和显示操作行使控制。更具体地,系统控制器10指令成像控制部11控制图像拾取部3和成像信号处理部15的操作,并指令显示控制部14控制显示图像处理部12和显示驱动部13的操作。
尽管列举了视觉传感器19、加速度传感器20、陀螺仪21、以及生物传感器22作为用户信息获取组件,但是不总是必需配备所有的这些组件。此外,可以配备诸如用于检测用户嗓音或者用户嘴唇运动的传感器之类的其他传感器。
图4示出了没有监控显示功能并且在图2示出的图像拾取设备1A的典型配置。为具有与图3示出的对应物相同功能的块分配相同的附图标记,并且不再重复描述。
通过从图3示出的配置中移除显示部2、显示图像处理部12、显示驱动部13、显示控制部14、音频信号处理部16、以及音频输出部5来获得图4示出的配置。
例如,作为由图像拾取部3拾取并由成像信号处理部15处理过的成像信号的图像数据和由通信部26接收到的图像数据可以通过图像输入/输出控制部27而被提供给存储部25。由音频输入部6获得的音频数据和由通信部26接收到的音频数据可以通过音频输入/输出控制部28而被提供给存储部25。
为了在记录介质上记录,存储部25对所提供的图像数据和音频数据进行编码,并依照系统控制器10行使的控制,把编码后的数据记录在记录介质上。
此外,存储部25依照系统控制器10行使的控制再现所记录的图像数据和音频数据。再现的图像数据被输出到图像输入/输出控制部27。再现的音频数据被输出到音频输入/输出控制部28。
作为由图像拾取部3拾取并由成像信号处理部15处理过的成像信号的图像数据和由存储部25再现的图像数据可以通过图像输入/输出控制部27而被提供给通信部26。由音频输入部6获得的音频数据和由存储部25再现的音频数据可以通过音频输入/输出控制部28而被提供给通信部26。
为了传送,通信部26对所提供的图像数据和音频数据进行编码、调制、以及其他处理,并依照系统控制器10行使的控制来向外部装置传送处理过的数据。例如,当将作为由图像拾取部3拾取并由成像信号处理部15处理过的成像信号的图像数据传送到图2示出的显示单元30时,显示单元30可以被用来监控所拾取的图像。
此外,通信部26从外部装置中接收数据。接收和解调后的图像数据被输出到图像输入/输出控制部27。接收和解调后的音频数据被输出到音频输入/输出控制部28。
图4示出的配置还包括作为用户信息获取组件的视觉传感器19、加速度传感器20、陀螺仪21、以及生物传感器22。当采用了图2示出的安装框架结构,使得在用户佩戴图像拾取设备1A时外壳单元被放置在颞区时,难以配备检测关于用户视觉的信息的视觉传感器。然而,如果采用了眼镜型安装框架结构,则可以配备用于对用户眼睛成像的视觉传感器19。
即使在采用了上述配置时,也可以配备诸如用于检测用户嗓音或者嘴唇运动的传感器之类的其他传感器。
3.典型的所拾取的图像
在依据本实施例的图像拾取设备1(1A)中,系统控制器10依照用户意图或状况行使图像拾取控制,以实现精确的图像拾取,而不提示用户操作按键、刻度盘、或者其他操作控制。
图5到9示出了所拾取的图像的各种示例。
图5A示出了使图1(图3)示出的图像拾取设备1的显示部2透视的情况(示出了通过显示部2对用户可见的场景)。更具体地,显示部2仅仅是透明板,使得用户通过透明的显示部2观看到可见的场景。
图5B示出了把图像拾取设备3所拾取的图像显示在显示部2上的监控显示状态。该图示出了图像拾取部3、成像信号处理部15、显示图像处理部12、以及显示驱动部13在图5A所示的状态中操作,以把所拾取的图像正常地显示在显示部2上的情况。在这种情况下,显示在显示部2上的所拾取的图像(正常拾取的图像)大致上与透视状态下获得的图像相同。换句话说,用户观看到表示正常视图的所拾取的图像。
图5C示出了当系统控制器10通过成像控制部11控制图像拾取部3在摄远模式中拾取图像时获得的所拾取的图像的示例。例如,当在摄远模式下拾取图像时,用户可以在图1示出的显示部2上或者在图2示出的显示单元30上观看到摄远图像。为了存储的目的,所获得的摄远图像可以被记录在存储部25中或者通过通信部26被传送到外部装置中。
相反,当系统控制器10经由成像控制部11控制图像拾取部3以在广角模式中拾取图像时,显示部2显示表示短距离观看的广角图像。可以通过使图像拾取部3行使变焦透镜驱动控制或者通过使成像信号处理部15执行信号处理来提供摄远/广角控制。
图6A示出了正常拾取的图像。图6B示出了放大的图像。当系统控制器10经由成像控制部11指令成像信号处理部15执行图像放大处理时获得像图6B一样的放大图像。
图7A示出了正常拾取的图像。然而,由于昏暗的周围环境,这幅图像特别暗。
在上面的情况中,系统控制器10可以通过指令成像控制部11(图像拾取部3和成像信号处理部15)提高成像灵敏度或者通过在成像信号处理中发出用于调整亮度级别、对比度、以及锐度的指令,来获得如图7B所示的更清晰的、更明亮的拾取图像。在这种情况下,还可以通过使照明部4执行照明操作来获得满意的结果。
图8A示出了当用户在孩子正在睡觉的卧室中时正常拾取的图像。在这种情况下,因为孩子在黑暗的房间中,所以正常拾取的图像未清楚地表示例如孩子的图形。
在上面的情况下,系统控制器10可以通过指令成像控制部11(图像拾取部3和成像信号处理部15)提高红外成像灵敏度来获得像图8B一样的红外图像。所获得的红外图像允许用户在黑暗的房间中确认孩子的睡着的脸。
图9A示出了正常拾取的图像。然而,当系统控制器10指令成像控制部11(图像拾取部3和成像信号处理部15)提高紫外成像灵敏度时,可以改变所拾取的图像,以表示如图9B所示的紫外光成分。
尽管上面呈现了各种拾取的图像示例,但是它们仅仅是用于例示的。本实施例使得可能通过控制图像拾取部3和成像信号处理部15的处理和操作,而在各种模式中获得拾取的图像。
可以使用多种模式来获得各种拾取的图像,包括摄远图像、广角图像、通过在摄远和广角之间执行变焦放大或变焦缩小而获得的图像、放大的图像、缩小的图像、以各种帧速率设置获得的图像(例如,以高帧速率和以低帧速率拾取的图像)、高亮度图像、低亮度图像、在各种对比度设置下获得的图像、在各种锐度设置下获得的图像、以提高的成像灵敏度获得的图像、以提高的红外成像灵敏度获得的图像、以提高的紫外成像灵敏度获得的图像、以截去特定波长频带而获得的图像、施加了图像效果(例如,马赛克、亮度反转、柔焦、部分强调、整体颜色氛围改变(overall color atmosphere changes)的图像、以及静态图像。
4.用户状况判断
如上所述,依据本实施例的图像拾取设备1(1A)包括作为用户信息获取组件的视觉传感器19、加速度传感器20、陀螺仪21、以及生物传感器22。
视觉传感器19检测关于用户视觉的信息。例如,视觉传感器19可以由图像拾取部形成,该图像拾取部被放置在图1示出的图像拾取设备1的显示部2附近,以拾取用户眼睛的图像。然后,系统控制器10可以获取由图像拾取部所拾取的用户眼睛的图像,并且行使用户状况判断功能10a,以分析所获取的图像并检测例如视线方向、焦距、瞳孔的开度、眼底图案、以及眼皮开/闭操作,从而据此判断用户的意图和状况。
作为替换方案,视觉传感器19可以由发光部与光接收部形成,该发光部被放置在显示部2附近以向着用户的眼睛发射光,该光接收部接收从眼睛反射的光。例如可以通过从接收到的光信号中检测用户眼睛的透镜的厚度来检测用户眼睛的焦距。
当检测用户的注视方向时,系统控制器10例如可以注意显示在显示部2上的图像并定位用户所感兴趣的点。
系统控制器10也可以把用户的注视方向识别为操作控制输入。例如当用户的注视方向从左变到右时,其可以被识别为提示图像拾取设备1执行特定操作的预定义的操作控制输入。
在检测用户的焦距时,可以判断用户是对近景图还是远景图感兴趣。可以依照判断结果来行使变焦控制、放大/缩小控制、或者其他适当的控制。例如如果用户对远景图感兴趣,则可以执行摄远图像拾取操作。
在检测用户的瞳孔的开度时,可以判断透视状态中周围环境的亮度或者监控显示状态中所显示的图像的眩目程度。可以依照判断结果进行亮度、成像灵敏度、或者其他的调整。
在检测用户的眼底图案时,该眼底图案例如可以被用于用户的个人认证。每个人具有唯一的眼底图案。因此,可以通过检测到的眼底图案来识别佩戴着图像拾取设备的用户,并提供适于用户的控制,或者行使控制以便只允许特定用户执行图像拾取操作。
在检测用户的眼皮开/闭操作时,可以判断用户感受到的眩目程度或者眼疲劳。眼皮开/闭操作也可以作为用户有意的操作控制输入而被识别。例如在用户连续眨他/她的眼睛三次时,可以被判断为预定的操作控制输入。
加速度传感器20和陀螺仪21输出根据用户运动的信号。例如,加速度传感器20适于检测线性运动,而陀螺仪21适于检测旋转运动或振动。
加速度传感器20和陀螺仪21可以依赖于加速度传感器20和陀螺仪21的位置,检测用户身体的所有运动或者用户身体的各个部位的运动。
当例如加速度传感器20和陀螺仪21被安装在图1示出的眼镜型图像拾取设备1之内时,也就是说,当采用加速度传感器20和陀螺仪21来检测用户头部的运动时,从加速度传感器20提供的信息被用作关于用户头部或者整个身体的运动的加速度信息,而从陀螺仪21提供的信息被用作关于用户头部或者整个身体的运动的角速度或者振动信息。
然后可以检测用户移动他/她的颈部和头部的用户行为。例如,可以判断用户面向上还是面向下。如果用户面向下,则可以判断用户正在读书或者观看近处的物体。相反,如果用户面向上,则可以判断用户正在观看远处的物体。
当系统控制器10检测到用户移动他/她的颈部和头部的行为时,这样的行为可以作为用户有意的操作而被识别。例如,如果用户把他/她的颈部摇向左边两次,则系统控制器10将其识别为预定义的操作控制输入。
此外,加速度传感器20和陀螺仪21例如可以被用来判断用户处于静止(没有步行)、步行、还是跑动。加速度传感器20和陀螺仪21例如也可以用于检测用户已从站立位置自己坐下或者已站起来。
此外,如果把加速度传感器20和陀螺仪21与安装在用户头部的安装单元分离,并附着在胳膊或者脚上,则还可以检测到胳膊或者脚的行为。
生物传感器22检测关于用户的生物信息,诸如心跳信息(心率)、脉搏信息(脉搏率)、排汗信息、脑电波信息(例如,关于α波、β波、θ波、以及δ波的信息)、皮肤电反射信息、体温信息、血压信息、或者呼吸活动信息(例如、呼吸速度、呼吸深度、以及潮气量)。系统控制器10可以使用这些信息项目来判断用户是否紧张、兴奋、精神放松、舒适、或者不舒适。
生物信息还可以用于检测图像拾取设备1是否被安装在用户上。例如,当图像拾取设备1未被安装在用户上时,系统控制器10可以行使控制,以便调用仅检测生物信息的待机状态。当检测到的生物信息指示图像拾取设备1被安装在用户上时,系统控制器10可以接通电源。相反,当从用户上卸下图像拾取设备1时,系统控制器10可以行使控制,以便调用待机状态。
此外,生物传感器22检测到的信息可以用于用户的个人认证(用于佩戴图像拾取设备1的人的身份识别)。
生物传感器22可以被安装在例如眼镜型图像拾取设备1的安装框架之内并被放置在用户的颞区或枕区之上,以检测上述信息,或者与图像拾取设备1(或1A)的安装框架分离并附着在用户身体的预定部分上。
5.各种操作的示例
依据本实施例的图像拾取设备1(1A)依照用户的意图或状况来拾取适当的图像,这是因为系统控制器10如上所述依照视觉传感器19、加速度传感器20、陀螺仪21、以及生物传感器22所检测到的用户信息来控制图像拾取操作。
现在,将对依照系统控制器10为实现上述目的而行使的控制所执行的各种典型操作进行描述。
在图像拾取设备1(1A)中,当在接通电源的同时产生成像开始触发事件时,图像拾取处理系统(图像拾取部13、成像信号处理部15、以及成像控制部11)可以不断地执行图像拾取操作或者开始图像拾取操作。
换句话说,可以同时或者在不同的时刻行使通电控制和成像开始控制。例如,如果如上所述检测到图像拾取设备1被安装在用户上之后,执行用于使系统控制器10接通电源的处理,则可以在通电后产生预定义的成像开始触发事件时开始图像拾取操作。
作为替换方案,当检测到预定义的成像开始触发事件时,系统控制器10可以开启设备并且开始图像拾取操作。
首先,将参考图10到12对系统控制器10通过行使操作控制功能10b来执行的典型控制处理进行描述。
图10示出了在图像拾取操作期间,同时执行监控显示操作、存储部25中的记录操作、以及通信部26的传送操作中的一些或所有操作的示例。
在图1示出的图像拾取设备1中,监控显示操作是被执行以在显示部2上显示所拾取的图像的操作。另一方面,在图2示出的图像拾取设备1A中,监控显示操作是被执行以从通信部26向显示单元30传送所拾取的图像数据并使显示单元30准备行使监控显示功能的操作。
下面将要描述的通信部26的传送操作是被执行以向前述各种外部装置以及向显示单元30传送成像信号形式的图像数据和音频数据的操作。如何通过传送目的地装置处理图像数据和音频数据(例如,用产生的音频输出进行显示、记录、或者传递、或者分发到其他装置)取决于传送目的地装置。
在图10示出的步骤F101中,系统控制器10判断是否产生了成像开始触发事件。当系统控制器10依照用户的意图或状况决定开始图像拾取操作时产生成像开始触发事件,其中该用户的意图或状况由用户状况判断功能10a来表示。系统控制器10检查用户的有意识的操作、用户无意识的操作、或者用户的情况(例如用户的身体状况或身份识别),以判断是否产生了成像开始触发事件。稍后将对具体的示例进行描述。
如果在步骤F101获得的判断结果指示产生了成像开始触发事件,则系统控制器10前进至步骤F102并且行使成像开始控制。更具体地,成像控制部11发出成像开始指令以使图像拾取部3和成像信号处理部15执行正常的图像拾取操作。
在上面的情况中,系统控制器10还行使显示开始控制、记录开始控制、以及传送开始控制中的一部分或全部。
在图1和3示出的图像拾取设备1中,行使显示开始控制,使得指令显示控制部14使显示图像处理部12和显示驱动部13按正常拾取的图像模式在显示部2上显示所拾取的图像。另一方面,在图2和4示出的图像拾取设备1A中,行使显示开始控制,使得通信部26向位于图像拾取设备1A外部的显示单元30传送所拾取的图像数据和音频数据。
行使记录开始控制,使得存储部25开始记录所拾取的图像数据和音频数据。
行使传送开始控制,使得通信部26开始向外部装置传送所拾取的图像数据和音频数据。
在开始了图像拾取操作之后,系统控制器10执行步骤F103以监控是否产生了成像操作控制触发事件,并且执行步骤F104以监控是否产生了成像结束触发事件。
当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况来决定改变图像拾取操作模式时,产生成像操作控制触发事件。当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况来决定终止图像拾取操作时,产生成像结束触发事件。系统控制器10检查用户有意识的操作或用户无意识的操作以及状况(例如,用户的身体状况或个人识别),以判断是否产生了成像结束触发事件。稍后将对具体的示例进行描述。
如果判断出产生了成像操作控制触发事件,则系统控制器10从步骤F103前进至步骤F105,并行使图像拾取操作控制。更具体地,系统控制器10指令成像控制部11按照适于用户的当前意图或状况的模式来执行图像拾取操作。
在执行步骤F105来行使图像拾取操作模式控制之后,执行步骤F103和F104来监控是否产生了触发事件。
如果判断出产生了成像结束触发事件,则系统控制器10从步骤F104前进至步骤F106,并行使成像结束控制。更具体地,系统控制器10指令成像控制部11来终止图像拾取部3和成像信号处理部15的图像拾取操作。
在上面的情况中,系统控制器10还行使显示结束控制、记录结束控制、以及传送结束控制中的一些或全部。
更具体地,如果在步骤F102开始了监控显示操作,则终止这种操作。如果开始了记录操作,则终止存储部25中的记录操作。如果开始了传送操作,则终止通信部26的传送操作。
最后,系统控制器返回步骤F101。
图11示出了这样的示例,其中除了用于图像拾取操作的执行定时之外,还控制用于存储部25中的记录操作和通信部26中的传送操作的执行定时。成像开始控制、成像结束控制、显示开始控制、显示结束控制、记录开始控制、记录结束控制、传送开始控制、以及传送结束控制的细节与参考图10所描述的相同。
在图11示出的步骤F110中,系统控制器10检查是否产生了成像开始触发事件。
如果判断出产生了成像开始触发事件,则系统控制器10前进至步骤F111,并行使成像开始控制。在这种情况中,系统控制器10还行使显示开始控制。
在开始了图像拾取操作之后,系统控制器10执行步骤F112以监控是否产生了记录开始触发事件(或者传送开始触发事件),执行步骤F113以监控是否产生了记录结束触发事件(或者传送结束触发事件),并执行步骤F114以监控是否产生了成像结束触发事件。
当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况决定开始存储部25中的记录操作时,产生记录开始触发事件。
当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况决定终止存储部25中的记录操作时,产生记录结束触发事件。
当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况决定开始通信部26的传送操作时,产生传送开始触发事件。
当系统控制器10依照用户状况判断功能10a判断出的用户的意图或状况决定终止通信部26的传送操作时,产生传送结束触发事件。
例如,关于图2和4中示出的图像拾取设备1A,在步骤F111中行使显示开始控制对应于行使传送开始控制以使通信部26向显示单元30传送数据。因此,传送开始触发事件或传送结束触发事件的产生是在假设使用了图1和3示出的图像拾取设备1的基础上执行的处理。然而,如果假定在使用图2和4示出的图像拾取设备1A期间,向除了监控显示单元30以外的外部装置传送数据,则可以把传送开始触发事件和传送结束触发事件当作用于这种传送的传送控制触发事件。
如果判断出产生了记录开始触发事件,则系统控制器10从步骤F112前进至步骤F115并行使控制,以使存储部25开始记录所拾取的图像数据和音频数据。
即使判断出产生了传送开始触发事件,系统控制器10从步骤F112前进至步骤F115,并行使控制以使通信部26开始向外部装置传送所拾取的图像数据和音频数据。
在行使了记录开始控制或传送开始控制之后,系统控制器10返回到步骤F112、F113、以及F114中的触发事件监控循环。
如果判断出产生了记录结束触发事件,则系统控制器10从步骤F113前进至步骤F116,并行使控制以终止存储部25中的记录操作。
即使判断出产生了传送结束触发事件,系统控制器10从步骤F113前进至步骤F116,并行使控制使得通信部26结束向外部装置传送所拾取的图像数据和音频数据。
在行使了记录结束控制或传送结束控制之后,系统控制器10返回到步骤F112、F113、以及F114中的触发事件监控循环。
如果判断出产生了成像结束触发事件,则系统控制器10从步骤F114前进至步骤F117,并行使成像结束控制。更具体地,系统控制器10指令成像控制部11来终止图像拾取部3和成像信号处理部15的图像拾取操作。在这种情况下,系统控制器10还行使显示结束控制。
如果在产生了成像结束触发事件时未终止记录操作和传送操作,则系统控制器10行使记录结束控制和传送结束控制。
最后,系统控制器10返回到步骤F110。
图12示出了这样的示例,其中除了用于图像拾取操作的执行定时之外,还控制用于存储部25中的记录操作和通信部26的传送操作的执行定时,并且还行使图像拾取操作模式控制。成像开始控制、成像结束控制、显示开始控制、显示结束控制、记录开始控制、记录结束控制、传送开始控制、以及传送结束控制的细节与参考图10和11所描述的相同。
在图12示出的步骤F120中,系统控制器10检查是否产生了成像开始触发事件。
如果判断出产生了成像开始触发事件,则系统控制器10前进至步骤F121,并行使成像开始控制。在这种情况中,系统控制器10还行使显示开始控制。
在开始了图像拾取操作之后,系统控制器10执行步骤F122以监控是否产生了记录开始触发事件(或者传送开始触发事件),执行步骤F123以监控是否产生了记录结束触发事件(或者传送结束触发事件),执行步骤F124以监控是否产生了成像操作控制触发事件,并执行步骤F125以监控是否产生了成像结束触发事件。
如果判断出产生了记录开始触发事件,则系统控制器10从步骤F122前进至步骤F126并行使控制,以使存储部25开始记录所拾取的图像数据和音频数据。
即使判断出产生了传送开始触发事件,系统控制器10从步骤F122前进至步骤F126,并行使控制以使通信部26开始向外部装置传送所拾取的图像数据和音频数据。
在行使了记录开始控制或传送开始控制之后,系统控制器10返回到步骤F122、F123、F124、以及F125中的触发事件监控循环。
如果判断出产生了记录结束触发事件,则系统控制器10从步骤F123前进至步骤F127,并行使控制以终止存储部25中的记录操作。
即使判断出产生了传送结束触发事件,系统控制器10从步骤F123前进至步骤F127,并行使控制,使得通信部26完成向外部装置传送所拾取的图像数据和音频数据。
在行使了记录结束控制或传送结束控制之后,系统控制器10返回到步骤F122、F123、F124、以及F125中的触发事件监控循环。
如果判断出产生了成像操作控制触发事件,则系统控制器10从步骤F124前进至步骤F128并行使图像拾取操作控制。更具体地,系统控制器10指令成像控制部11按照适于用户的当前意图或状况的模式来执行图像拾取操作。
在步骤F128中行使了图像拾取操作模式控制之后,系统控制器10返回到步骤F122、F123、F124、以及F125中的触发事件监控循环。
如果判断出产生了成像结束触发事件,则系统控制器10从步骤F125前进至步骤F129并行使成像结束控制。更具体地,系统控制器10指令成像控制部11来终止图像拾取部3和成像信号处理部15的图像拾取操作。在这种情况下,系统控制器10还行使显示结束控制。
如果在产生了成像结束触发事件时未终止记录操作和传送操作,则系统控制器10行使记录结束控制和传送结束控制。
最后,系统控制器10返回到步骤F120。
系统控制器10行使其操作控制功能10b,以执行图10、11、或者12中示出的处理步骤,并提供成像开始/结束控制、图像拾取操作模式选择控制、记录开始/结束控制、以及传送开始/结束控制。
前面的描述假定同时行使成像开始/结束控制和显示开始/结束控制。然而,当如图1和3所示,显示部2被放置在紧挨眼睛之前时,在图像拾取操作期间可以不总是执行监控显示操作。例如,取决于用户的意图或状况,可以行使控制来将显示部2置于透视状态下。在图11和12示出的处理示例中,例如,在不同的时刻行使用于图像拾取操作的执行控制和用于记录或传送操作的执行控制。然而,如处于记录或传送操作的情况,可以行使用于监控显示操作的执行控制,以规划关于监控显示开始触发事件和监控显示结束触发事件的判断。
在图10、11和12示出的处理中,依照关于成像开始触发事件、成像操作控制触发事件、成像结束触发事件、记录开始触发事件、记录结束触发事件、传送开始触发事件、以及传送结束触发事件的判断来行使控制。下面将参考图13及之后的图对这种触发事件判断和控制操作的具体示例进行描述。
图13到20示出了系统控制器10的用户状况判断功能10a所执行的典型处理。假定与图10、11、或12所示的操作控制功能10b所执行的处理并行地执行这种典型的处理。并行处理是这样的,使得图13到20示出的检测处理被周期性地执行为中断处理,同时,例如系统控制器10执行图10中示出的处理。用于执行图13到20中示出的处理的程序可以被合并在执行图10、11、或12所示的处理的程序中,或者可以被提供作为基于周期的基础被再调用的单独程序。这些程序的形式不被限制。
首先,将参考图13和14描述典型的成像开始触发事件判断。
图13A和13B示出了其中用户的行为被检测作为成像开始触发事件的示例。
在图13A示出的步骤F200中,系统控制器10执行用于对加速度传感器20和陀螺仪21检测到的信息(加速度信号和角速度信号)进行监控的处理。
例如,假定把垂直地摇两次头,向右和向左摇一次头、转头一圈、或者其他特定的运动定义为用户需要开始图像拾取操作。如果加速度传感器20或陀螺仪21(或者它们二者)检测到的信息使系统控制器10发现通过特定的用户运动来指示开始图像拾取操作的意图,则系统控制器10从步骤F201前进至步骤F202并判断产生了成像开始触发事件。
当在步骤F202中判断出产生了成像开始触发事件时,如上所述,图10中示出的处理从步骤F101前进至步骤F102(图11中示出的处理从步骤F110前进至步骤F111,并且图12中示出的处理从步骤F120前进至步骤F121),并且系统控制器10指令成像控制部11开始图像拾取操作。
也可想到将跳跃、摆手、摆臂或摆腿、或者其他特定的用户行为作为用于要求监控显示操作的运动,这些用户行为将依照从加速度传感器20和陀螺仪21中提供的信息而被检测。
图13B示出了依照从视觉传感器19中提供的信息来形成关于成像开始触发事件的判断的示例。
在步骤F210中,系统控制器10分析从视觉传感器19提供的信息。例如,如果用于对用户的眼睛成像的图像拾取部被配备为视觉传感器19,则系统控制器10分析这种图像拾取部所拾取的图像。
例如,如果一连串的三次眨眼被定义为用户要求开始图像拾取操作,则系统控制器10执行图像分析以监控这种行为。
当系统控制器10检测到用户连续三次眨他/她的眼睛时,系统控制器10从步骤F211前进至步骤F212并判断产生了成像开始触发事件。
当在步骤F212中判断出产生了成像开始触发事件时,系统控制器10指令成像控制部11在图10的步骤F103中(或者在图11的步骤F111中或图12的步骤F121中)开始图像拾取操作。
也可想到将转动眼珠、左右或者上下移动眼珠两次、或者其他的特定用户行为作为用于要求监控显示操作的运动,这些用户行为将依照从视觉传感器19中提供的信息而被检测。
图14A示出了依照用户无意的行为或者身体状况来形成关于成像开始触发事件的判断的示例。
在步骤F220中,系统控制器10检查从生物传感器22中提供的脑电波信息、心率信息、排汗量信息、血压信息、或者其他信息。
在步骤F221中,系统控制器10执行用于监控加速度传感器20和陀螺仪21所检测到的信息(加速度信号和角速度信号)的处理。
在步骤F222中,系统控制器10检查从生物传感器22和用户行为提供的信息,并判断用户是否平静、紧张、激动、或者专注于某些事件。例如依照排汗状态、心率、脉搏率、脑电波、血压、或者其他检测到的生物值中的变化或者检测到的加速度值或振动值中的变化来判断从平静状态中的转变,这些变化由突然的颈部方位变化、跑动、跳跃、或者其他未预料的行为所引起。
当系统控制器10判断出用户不再平静时,系统控制器10从步骤F222前进至步骤F223并判断出产生了成像开始触发事件。
当在步骤F223中判断出产生了成像开始触发事件时,如上所述,系统控制器10指令成像控制部11在图10的步骤F103中(或者在图11的步骤F111中或者在图12的步骤F121中)开始图像拾取操作。
当用户的心理或身体状况偏离正常时,图像拾取操作自动开始。
还可以想出用于依照用户无意的行为或身体状况形成关于成像开始触发事件的判断的各种其他处理。
例如,在用户的注视方向突然改变时从视觉传感器19提供的信息可以被用来判断产生了成像开始触发事件。此外,从音频输入部6输入的声音可以被用来判断是否产生了成像开始触发事件。
图14B示出了其中在用户佩戴图像拾取设备1(1A)时产生了成像开始触发事件的示例。
在步骤F230中,系统控制器10检查从生物传感器22提供的脑电波、心率、皮肤电反射、或者其他信息。
在步骤F231中,系统控制器10依照从生物传感器22提供的信息来判断图像拾取设备1(1A)是否被安装在用户上。可以通过检查是否可以从生物传感器22获得生物信息来确定图像拾取设备1(1A)是否被安装在用户上。
当判断出图像拾取设备1(1A)被安装在用户上时,系统控制器10从步骤F231前进至步骤F232并推断产生了成像开始触发事件。
当在步骤F232中推断产生了成像开始触发事件时,如上所述,系统控制器10指令成像控制部11在图10的步骤F103中(或者在图11的步骤F111中或者在图12的步骤F121中)开始图像拾取操作。
因为例如可以如上所述使用生物传感器22的反应来检测图像拾取设备1(1A)是否被安装在用户上,所以当生物传感器22开始检测脉搏率、脑电波、皮肤电反射、或者其他生物反应时,就认为产生了成像开始触发事件。这使得可以行使操作控制,以便在图像拾取设备1(1A)被安装在用户上的同时执行图像拾取操作。
当图像拾取设备1(1A)被安装在特定用户上时,还可以行使控制,以便开始图像拾取操作。如前所述,可以通过使用视觉传感器19检测到的眼底图案或者生物传感器22检测到的信号来对用户进行个人识别。如果登记了例如关于特定用户的眼底图案或者生物信息,则系统控制器10可以判断出图像拾取设备1(1A)是否被安装在特定用户上。
因此,当图像拾取设备1被安装在特定用户上时,系统控制器10可以执行个人认证。当识别出特定用户时,系统控制器10可以推断产生了成像开始触发事件,并且行使成像开始控制。
已参考图13和14描述了关于成像开始触发事件产生的典型判断。然而,还应当例如依照图13和14中示出的示例所指示的用户有意识的行为、无意识的行为、身体状况、或者个人认证来形成关于记录或传送开始触发事件产生的判断,该判断已参考图11和12中示出的处理示例而进行了描述。
接着,将参考图15到18描述涉及关于成像操作控制触发事件产生的判断的典型处理,对该成像操作控制触发事件产生的判断在图10的步骤F103中或者图12的步骤F124中形成。
图15A示出了通过用户的注视运动执行变焦控制的示例。
在图15A示出的步骤F300中,系统控制器10分析从视觉传感器19提供的信息。例如,如果用于对用户的眼睛进行成像的图像拾取部被配备为视觉传感器19,则系统控制器10分析这种图像拾取部所拾取的图像。
如果系统控制器10检测到用户的注视方向向下改变,则系统控制器10从步骤F301前进至步骤F302,并推断产生了用于切换到广角变焦成像的成像操作控制触发事件。
当在步骤F302中判断出产生了用于广角变焦成像的成像操作控制触发事件时,图10中示出的处理从步骤F103前进至步骤F105(图12中示出的处理从步骤F124前进至步骤F128),并且系统控制器10指令成像控制部11开始广角变焦操作。
当用户向下注视时,用户尝试阅读报纸或者书籍或者观看他/她的眼前非常接近的物体。因此,当执行了上述的广角变焦成像操作时,所得到的拾取的图像清楚地示出了用户附近的区域。
图15B示出了依照用户的颈部(头部)运动和用户眼睛的焦距来行使变焦控制的示例。
在图15B示出的步骤F310中,系统控制器10分析从视觉传感器19提供的信息,并检测用户眼睛的焦距和用户的注视方向。在步骤F311中,系统控制器10监控加速度传感器20和陀螺仪21检测到的信息(加速度信号和角速度信号),并判断用户颈部的运动。
在步骤F312和F313中,系统控制器10依照焦距和颈部朝向检测的结果来判断用户是在观看较近的物体还是较远的物体。
当判断出用户正在观看较近的物体时,系统控制器10从步骤F312前进至步骤F314,并推断产生了用于广角变焦显示的成像操作控制触发事件。在步骤F316中,系统控制器10从当前的焦距和用户颈部(头部)朝向中计算适当的变焦缩放放大倍率。
另一方面,当判断出用户正在观看较远的物体时,系统控制器10从步骤F313前进至步骤F315并推断产生了用于摄远变焦显示的成像操作控制触发事件。在步骤F316中,系统控制器10从当前的焦距和用户颈部(头部)朝向中计算适当的变焦缩放放大倍率。
当完成了步骤F314和F316或者步骤F315和F316时,系统控制器10从图10的步骤F104前进至步骤F106(或者从图12的步骤F124前进至步骤F128),并指示成像控制部11以计算出的放大倍率来执行变焦操作。
因此,依照用户正在尝试观看的场景来拾取广角图像或如图5C一样的摄远图像。
在图15A和15B示出的示例中,通过允许图像拾取部3执行变焦操作来改变所拾取的图像。然而,作为替换方案,成像信号处理部15可以依照注视方向、焦距、颈部朝向等等,来执行例如图像放大/图像缩小处理。
图16示出了尽管周围环境黑暗仍拾取对用户来说舒适的图像或者拾取满意的图像的示例。这种示例特别适于用户正在监控显示在图1和3示出的图像拾取设备1的显示部2上的拾取图像的情况,其中该图像拾取设备1被放置在紧挨用户的眼睛之前。
在图16示出的步骤F400中,系统控制器10分析从视觉传感器19提供的信息,并且检测用户瞳孔的开度或者眨眼(例如,每单位时间眨眼的次数)。
在步骤F401中,系统控制器10检查从生物传感器22提供的脑电波、心率、排汗量、血压、或者其他信息。
系统控制器10依照从视觉传感器10和生物传感器22中提供的信息来判断显示在用于监控目的的显示部2上的所拾取的图像对用户来说是否舒适。
如果判断出所显示的拾取图像对用户来说不舒适,则系统控制器10从步骤F402前进至步骤F403,并推断产生了用于拾取图像调整控制的成像操作控制触发事件。
在上面的情况中,执行步骤F404以计算例如成像灵敏度、亮度级别、对比度、锐度、照明水平、以及适于用户状况的其他调整值。
当完成了步骤F403和F404时,系统控制器10从图10的步骤F103前进至步骤F105(或者从图12的步骤F124前进至步骤F128),并指令图像拾取部3调整其成像灵敏度,以及指令成像信号处理部15进行亮度、对比度、锐度、以及其他调整。结果,对所拾取的图像的质量进行调整,以获得对用户来说舒适的用于监控的拾取/显示图像。获得的拾取图像看起来例如像图7B一样。
如果依据瞳孔的开度判断出周围环境很黑暗,则系统控制器10可以行使控制以使照明部4执行照明操作。
当例如在检测到了用户的视觉或感觉(舒适或不舒适)之后执行上述处理时,可以行使控制以确保所拾取的图像对于用户来说是舒适的。
在图15和16示出的处理中,系统控制器10判断用户的状况,并且行使图像拾取操作模式控制,而不等候用户执行有意的操作,并且同时用户对他/她的运动无意识。然而,在图17和18示出的示例中,用户有意识的行为被当作成像控制触发事件(或者多个触发条件中的一个)。
图17示出了其中用户的颈部(头部)运动被当作操作的处理。
在步骤500中,系统控制器10监控加速度传感器20和陀螺仪21检测到的信息(加速度信号和角速度信号)。在步骤F501中,系统控制器10判断用户头部的运动。系统控制器10执行步骤F501,例如来判断头部是否向后倾斜两次或者向前倾斜两次或者向左摇两次。
如果检测到两次连续的向后头部倾斜的序列,则系统控制器10从步骤F502前进至步骤F505,并推断产生了用于切换到2X的摄远放大倍率的成像操作控制触发事件。
在上面的情况中,系统控制器10执行图10中的步骤F105(或者图12中的步骤F128),以指令成像控制部11在2X的放大倍率上执行变焦操作。然后在2X的摄远放大倍率上进行图像拾取操作。
如果检测到两个连续的向前头部倾斜的序列,则系统控制器10从步骤F503前进至步骤F506,并推断产生了用于切换到1/2X的摄远放大倍率的成像操作控制触发事件。在这种情况下,系统控制器10执行图10中的步骤F105(或者图12中的步骤F128),以指令成像控制部11在1/2X的放大倍率上执行变焦操作。然后在1/2X的摄远放大倍率上进行图像拾取操作。
如果检测到两个连续的向左头部倾斜的序列,则系统控制器10从步骤F504前进至步骤F507,并推断产生了用于对摄远放大倍率进行复位的成像操作控制触发事件。在这种情况下,系统控制器10执行图10中的步骤F105(或者图12中的步骤F128),以指令成像控制部11在标准放大倍率上执行变焦操作。然后在标准放大倍率上进行图像拾取操作。
当在判断用户有意的运动是触发事件之后改变图像拾取操作模式时,如上所述,可以获得用户想要的拾取的图像。
不用说,除颈部(头部)的运动之外,诸如跳跃之类的整个身体的运动或者手、胳膊、或者腿的运动也可以被判断为预定义的操作。
此外,可以取决于用户的行为来行使控制,以通过行使图像放大控制(参见图6B)、图像缩小控制、成像灵敏度控制、成像帧速率控制、提高红外灵敏度的显示控制(参见图8B)、或者提高紫外灵敏度的显示控制(参见图9B)而取代变焦控制,从而切换至另一图像拾取操作模式。
图18A示出了当如参考图8A和8B所述用提高的红外灵敏度进行图像拾取操作时执行的处理的示例。在这个示例中,依赖于用户的身体状况来使尤其是基于用户行为的操作有效或无效。
在图18A示出的步骤F700中,系统控制器10监控加速度传感器20和陀螺仪21检测到的信息(加速度信号和角速度信号),并判断例如用户的颈部和整个身体的运动。
在步骤F701中,系统控制器10检查从生物传感器22提供的脑电波、心率、排汗量、血压、或者其他信息。系统控制器10依照从生物传感器22提供的信息来判断用户是否紧张或兴奋。
当系统控制器10检测到用户表现为需要红外图像拾取操作时(例如,通过摇他/她的头两次),系统控制器10从步骤F702前进至步骤F703,并判断用户是否紧张或兴奋。
如果判断出用户既不紧张也不兴奋,则系统控制器10把用户行为当作有效操作,前进至步骤F704,并推断产生了用于以提高的红外灵敏度执行图像拾取操作的成像操作控制触发事件。
当完成了步骤F704时,系统控制器10执行图10中的步骤F105(或者图12中的步骤F128),以发出用于提高图像拾取部3的红外成像灵敏度的指令。因此,获得的拾取的图像看起来像图8B一样。
另一方面,如果在步骤F703中判断用户紧张或者兴奋,则系统控制器10推断未产生用于以提高的红外灵敏度执行图像拾取操作的触发事件。换句话说,系统控制器10使用户的行为无效并且不把其当作有效操作。
如上所述,可以在考虑用户的身体状况的同时判断用户行为所指示的操作的有效性。这个特征对于例如防止特定图像拾取功能的不当使用是有效的,其中该特定图像拾取功能诸如是用于以提高的红外灵敏度拾取图像的功能。
图18B示出了当如参考图9A和9B所述以提高的紫外灵敏度进行图像拾取操作时执行的处理的示例。
在步骤图18B示出的F710中,系统控制器10监控加速度传感器20和陀螺仪21检测到的信息(加速度信号和角速度信号),并且例如判断用户的颈部和整个身体的运动。
当系统控制器10检测到用户表现为需要紫外图像拾取操作时,系统控制器10从步骤F711前进至步骤F712,并且推断产生了用于以提高的紫外灵敏度执行图像拾取操作的成像操作控制触发事件。
当完成了步骤F712时,系统控制器10执行图10中的步骤F105(或者图12中的步骤F128),以发出用于提高图像拾取部3的紫外成像灵敏度的指令。因此,获得的拾取图像看起来像图9B一样。
已在上面描述了用于图像拾取模式转换的成像操作控制触发事件和控制操作的示例。然而,它们的用途只是示例性的。不须说,还可以想出各种其他示例。
例如,从加速度传感器10和陀螺仪21提供的信息可以用来检测用户是否没有步行、步行、或者跑动中。这种检测可以被用作成像操作控制触发事件,以行使控制,例如取决于用户处于没有步行、步行、还是跑动中来调整成像信号处理部15中的模糊校正量或者改变成像帧速率。
此外,参考图15到18描述的示例可以被判断为记录开始触发事件或者传送开始触发事件。
例如,参考图17描述的头部的运动可以被判断为用于要求记录或传送操作的用户运动,并被处理为记录开始触发事件或者传送开始触发事件。
此外,所拾取的图像数据的一个帧可以被处理为静态图像数据并被记录在存储部25中。在这种情况下,例如可以依照用户的上述行为或者身体状况来判断记录触发事件(快门定时),以用这种定时来记录一帧的图像数据(静止图像数据)。
将参考图19和20来描述图10的步骤F104中(或者图11的步骤F114中或图12的步骤F125中)检测到的关于成像结束触发事件产生的典型判断。
图19A示出了用户通过表现有意识的行为来终止图像拾取操作的处理的示例。
在图19A示出的步骤F800中,系统控制器10监控加速度传感器20和陀螺仪21所检测到的信息,并且例如判断用户颈部或整个身体的运动。
当系统控制器10检测到用户已表现出要求图像拾取操作结束时,系统控制器10从步骤F801前进至步骤F802,并且推断产生了用于拾取的图像的监控显示结束触发事件。
当步骤F802完成时,系统控制器10前进至图10的步骤F106(或者前进至图11的步骤F117或图12的步骤F129),并行使成像结束控制。
图19B也示出了用户通过表现出有意识的行为来终止监控显示操作的处理的示例。
在图19B示出的步骤F810中,系统控制器10分析从视觉传感器19提供的信息,例如,如果连续三次眨眼的序列被定义为用户要求图像拾取操作结束,则系统控制器10执行图像分析以监控这种行为。
当系统控制器10检测到用户已连续眨他/她的眼睛三次时,系统控制器10从步骤F811前进至步骤F812,并判断产生了成像结束触发事件。
当完成了步骤F812时,系统控制器10前进至图10的步骤F106(或者前进至图11的步骤F117或图12的步骤F129),并且行使成像结束控制。
执行图19A和19B示出的处理,以便在用户需要结束图像拾取操作时依照用户的意图行使控制来终止图像拾取操作。
不用说,可以判断各种其他的用户行为作为成像结束触发事件。
图20A示出了设备依照用户的运动(在不被意识为特定的操作的情况下所执行的运动)自动回复到透视状态的处理的示例。
在图20A示出的步骤F900中,系统控制器10监控加速度传感器20和陀螺仪21所检测到的信息并且判断用户整个身体的运动。系统控制器10特别检测用户是否处于没有步行、步行、或跑动中。
如果判断出用户开始步行或跑动,则系统控制器10从步骤F901前进至步骤F902并断定产生了成像结束触发事件。
当完成了步骤F902时,系统控制器10执行图10中的步骤F106(或者图11中的步骤F117或图12中的步骤F129)以行使成像结束控制。
假定当用户开始步行或跑动时图像拾取操作结束。然而,可以行使作为替换的控制,以便在用户开始步行或跑动时判断产生了成像开始触发事件,并开始图像拾取操作。
此外,如图1和3中示出的图像拾取设备1那样,把显示部2放置在紧挨眼睛之前的情况下,优选地是在用户开始步行或跑动时显示部2回复到透视状态。因此,当系统控制器10检测到用户正在步行或跑动时,可以将其判断为用于持续图像拾取操作而终止监控显示操作的触发事件。
当用户正在步行或跑动时所采用的一种替换方案可以是切换到如图5B所示的获得正常拾取的图像的状态,以便所得到的监控显示状态与透视状态相同。
图20B示出了设备依照用户的身体状况自动终止图像拾取操作的处理的示例。这个示例对于防止红外图像拾取功能的不当使用特别有效。
在图20B示出的步骤F910中,系统控制器10检查从生物传感器22提供的脑电波、心率、排汗量、血压、或者其他信息。系统控制器10依照从生物传感器22提供的信息判断用户是否紧张或兴奋。
如果正在以提高的红外灵敏度执行图像拾取操作,则系统控制器10从步骤F911前进至步骤F912,并判断用户是否紧张或兴奋。
如果判断出用户既不紧张也不兴奋,则系统控制器10允许用提高的红外灵敏度继续执行图像拾取操作。然而,如果判断出用户紧张或者兴奋,则系统控制器10前进至步骤F913,并且推断产生了成像结束触发事件。
当步骤F913完成时,系统控制器10执行图10中的步骤F106(或者图11中的步骤F117或图12中的步骤F129)以行使成像结束控制。
依照用户的身体状况终止以提高的红外灵敏度执行的图像拾取操作对于防止用户不当使用用于以提高的红外灵敏度拾取图像的功能来说是有效的。
前面的描述假定系统控制器10终止图像拾取操作。然而,例如,替换的方案可以是使系统控制器10终止以提高的红外灵敏度执行的图像拾取操作,并切换到正常的图像拾取操作。
已参考图19和20描述了关于成像结束触发事件产生的判断。然而,还应该依照例如图19和20中示出的示例所指示的用户的有意识的行为、无意识的行为、或者身体状况,来形成关于记录或传送结束触发事件产生的判断,已参考图11和12中示出的处理示例描述了这些判断。
6.实施例以及改进实施例或扩展实施例的优点
依据已在上面描述的本发明的实施例,通过依照关于用户的行为或身体状况的信息来判断用户的意图或状况,在把用户的注视方向当作对象方向的同时对位于眼镜型或头戴型安装单元中的图像拾取部3所执行的图像拾取操作的开始、结束、以及模式进行控制,以便依照用户的意图或状况来执行精确的图像拾取操作,而不对用户施加操作负荷。这确保了用精确的定时以适合的模式对用户视线方向上可见的场景成像。此外,当依照用户的行为或身体状况把所拾取的图像数据或音频数据记录在存储部25中或从通信部26传送到外部装置时,对某用户来说可见的场景可以由多人共享或稍后再现或观看。这意味着可以以各种方式利用对佩戴图像拾取设备1(1A)的用户来说可见的场景。
本发明实施例的描述主要涉及通过控制图像拾取部3的图像拾取操作和成像信号处理部15的信号处理操作来行使的图像拾取操作控制。然而,可以依照用户的行为或身体状况来行使通电/断电/待机切换控制、对显示图像处理部12的信号处理控制、以及对来自音频输出部5的音频输出的音量/音质控制。例如,可以考虑到用户的舒适性而使用从生物传感器22提供的信息来调整音量。
图像拾取设备1(1A)的外观和配置不限于图1、2、3、以及4示出的那些示例,并且可以用各种方式来修改。
例如,图像拾取设备1(1A)可以包括存储部25或者通信部26,或者可以包括监控显示系统而不将其并入存储部25或通信部26。
此外,图像拾取设备1(1A)可以包括识别图像内的文本的字符识别部、以及执行语音合成处理的语音合成部。如果所拾取的图像中包含文本,则图像拾取设备1(1A)可以使语音合成部产生用于文本阅读声音的音频信号并使音频输出部5输出该音频信号。
本发明实施例的描述假定图像拾取设备1具有眼镜型或头戴式安装单元。然而,本发明适用于这样的图像拾取设备,只要其被配置为能够拾取用户注视方向上的图像就可以。例如,可以使用耳机式、颈箍式、耳环式、或者任何其他的安装单元来把图像拾取设备1安装在用户上。此外,图像拾取设备1可以被夹在或以别的方式固定在规则的眼镜、护目镜、耳机、或者用户佩戴的其他物品上。可以把图像拾取设备附着在用户身体的任何一部分上。
本领域技术人员应当理解,只要在所附的权利要求或其等同物的范围内,取决于设计需求和其他因素,可以产生各种修改、组合、子组合、以及替换方式。
Claims (30)
1.一种图像拾取设备,包括:
图像拾取装置,其被配置为在把用户的注视方向当作对象方向的同时拾取图像;
用户信息获取装置,其被配置为获取关于用户的运动或身体状况的信息;以及
控制装置,其被配置为从用户信息获取装置所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取装置的操作。
2.根据权利要求1所述的图像拾取设备,其进一步包括:
显示装置,其被配置为显示由图像拾取装置拾取的图像。
3.根据权利要求1所述的图像拾取设备,其进一步包括:
记录装置,其被配置为在记录介质上记录由图像拾取装置拾取的图像。
4.根据权利要求3所述的图像拾取设备,其中,控制装置依照用户信息获取装置所获取的信息来控制记录装置的记录操作的开始或结束。
5.根据权利要求1所述的图像拾取设备,其进一步包括:
传送装置,其被配置为向外部装置传送由图像拾取装置拾取的图像。
6.根据权利要求5所述的图像拾取设备,其中,控制装置依照用户信息获取装置所获取的信息来控制传送装置的传送操作的开始或结束。
7.根据权利要求1所述的图像拾取设备,其中,图像拾取装置使用CCD传感器或CMOS传感器作为图像拾取器件。
8.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测加速度、角速度、或者振动的传感器。
9.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测用户头部的运动、用户胳膊的运动、用户的手的运动、用户的腿的运动、或者用户整个身体的运动的传感器。
10.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测用户没有在步行、正在步行、或者正在跑动的传感器。
11.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测关于用户的视觉信息的视觉传感器。
12.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测用户的注视方向、用户的焦距、用户瞳孔的状况、用户的眼底图案、或者用户眼皮的运动来作为关于用户的视觉信息的传感器。
13.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测关于用户的生物信息的生物传感器。
14.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测关于用户的心跳信息、关于用户的脉搏信息、关于用户的排汗信息、关于用户的脑电波信息、关于用户的皮肤电反射信息、关于用户的血压信息、关于用户的体温信息、或者关于用户的呼吸活动信息来作为关于用户的生物信息的传感器。
15.根据权利要求1所述的图像拾取设备,其中,用户信息获取装置是用于检测指示用户紧张或兴奋的信息的生物传感器。
16.根据权利要求1所述的图像拾取设备,其中,控制装置控制图像拾取装置的图像拾取操作的开始或结束。
17.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的摄远成像和广角成像功能行使可变控制。
18.根据权利要求1所述的图像拾取设备,其中,控制装置行使图像拾取装置的聚焦控制。
19.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的成像灵敏度行使可变控制。
20.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的红外成像灵敏度行使可变控制。
21.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的紫外成像灵敏度行使可变控制。
22.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的帧速率行使可变控制。
23.根据权利要求1所述的图像拾取设备,其中,控制装置对图像拾取装置的成像透镜系统行使操作控制。
24.根据权利要求1所述的图像拾取设备,其中,控制装置行使成像信号处理装置的操作控制,其中该成像信号处理装置对图像拾取装置中的图像拾取器件所获得的成像信号进行处理。
25.根据权利要求1所述的图像拾取设备,其进一步包括:
照明装置,其被配置为在对象方向上进行照明,
其中,控制装置依照用户信息获取装置所获取的信息来控制照明装置的照明操作。
26.一种用于图像拾取设备的图像拾取方法,该图像拾取设备包括被配置为在把用户的注视方向当作对象方向的同时拾取图像的图像拾取装置,该图像拾取方法包括以下步骤:
获取关于用户的运动或身体状况的信息;以及
从用户信息获取步骤中所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取装置的操作。
27.根据权利要求26所述的图像拾取方法,其进一步包括以下步骤:
依照在用户信息获取步骤中获取的信息来向外部传送图像拾取装置所拾取的信息。
28.根据权利要求26所述的图像拾取方法,其进一步包括以下步骤:
依照在用户信息获取步骤中获取的信息来开始或结束对图像拾取装置所获取的信息的记录。
29.根据权利要求26所述的图像拾取方法,其进一步包括以下步骤:
依照在用户信息获取步骤中获取的信息来控制照明装置的照明操作。
30.一种图像拾取设备,其包括:
图像拾取部,其被配置为在把用户的注视方向当作对象方向的同时拾取图像;
用户信息获取部,其被配置为获取关于用户的运动或身体状况的信息;以及
控制部,其被配置为从用户信息获取部所获取的信息中判断用户的意图或状况,并依照判断结果来控制图像拾取部的操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006244687A JP2008067219A (ja) | 2006-09-08 | 2006-09-08 | 撮像装置、撮像方法 |
JP2006244687 | 2006-09-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101141568A true CN101141568A (zh) | 2008-03-12 |
Family
ID=38774611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101536270A Pending CN101141568A (zh) | 2006-09-08 | 2007-09-07 | 图像拾取设备和图像拾取方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20080062291A1 (zh) |
EP (1) | EP1898632A1 (zh) |
JP (1) | JP2008067219A (zh) |
CN (1) | CN101141568A (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101141567B (zh) * | 2006-09-08 | 2012-12-05 | 索尼株式会社 | 图像获取和显示设备以及图像获取和显示方法 |
CN103389580A (zh) * | 2012-05-09 | 2013-11-13 | 索尼公司 | 显示装置和图像显示方法 |
CN103946734A (zh) * | 2011-09-21 | 2014-07-23 | 谷歌公司 | 叠加有对于外部设备的控制和指令的可穿戴计算机 |
CN104252042A (zh) * | 2013-06-28 | 2014-12-31 | 精工爱普生株式会社 | 头部佩戴式显示装置以及头部佩戴式显示装置的控制方法 |
CN104333690A (zh) * | 2013-07-22 | 2015-02-04 | 奥林巴斯映像株式会社 | 摄影装置以及摄影方法 |
CN104603674A (zh) * | 2012-09-12 | 2015-05-06 | 索尼公司 | 图像显示装置 |
CN104603675A (zh) * | 2012-09-12 | 2015-05-06 | 索尼公司 | 图像显示设备、图像显示方法和记录介质 |
CN104683691A (zh) * | 2015-02-02 | 2015-06-03 | 上海小蚁科技有限公司 | 拍摄方法、装置及设备 |
CN104865702A (zh) * | 2014-02-20 | 2015-08-26 | 中强光电股份有限公司 | 抬头显示器 |
CN105791728A (zh) * | 2016-05-30 | 2016-07-20 | 北京视友科技有限责任公司 | 一种通过脑电控制的全息立体投影系统 |
CN106203032A (zh) * | 2016-06-27 | 2016-12-07 | 广州杰赛科技股份有限公司 | 智能穿戴设备的语音输出方法及智能穿戴设备 |
US9753284B2 (en) | 2012-01-24 | 2017-09-05 | Sony Corporation | Display device |
US9791701B2 (en) | 2013-02-20 | 2017-10-17 | Sony Corporation | Display device |
CN108027656A (zh) * | 2015-09-28 | 2018-05-11 | 日本电气株式会社 | 输入设备、输入方法和程序 |
CN108073278A (zh) * | 2016-11-10 | 2018-05-25 | 三星电子株式会社 | 电子设备及其操作方法 |
CN108337430A (zh) * | 2018-02-07 | 2018-07-27 | 北京联合大学 | 360度无死角智能眼镜 |
CN109478095A (zh) * | 2016-06-13 | 2019-03-15 | 索尼互动娱乐股份有限公司 | 用于使虚拟现实环境中的特定内容聚焦的hmd转换 |
CN110088662A (zh) * | 2016-12-01 | 2019-08-02 | 阴影技术公司 | 成像系统和产生背景图像和聚焦图像的方法 |
CN110799094A (zh) * | 2017-08-09 | 2020-02-14 | 欧姆龙健康医疗事业株式会社 | 测定装置、发送方法和程序 |
US10638046B2 (en) | 2014-02-21 | 2020-04-28 | Sony Corporation | Wearable device, control apparatus, photographing control method and automatic imaging apparatus |
US10642040B2 (en) | 2014-03-17 | 2020-05-05 | Sony Corporation | Display apparatus and optical apparatus |
CN111372166A (zh) * | 2020-02-21 | 2020-07-03 | 华为技术有限公司 | 左右耳智能识别方法和耳机装置 |
WO2021136260A1 (zh) * | 2019-12-31 | 2021-07-08 | 钟国诚 | 用于控制可变物理参数的控制装置及方法 |
CN114442811A (zh) * | 2022-01-29 | 2022-05-06 | 联想(北京)有限公司 | 控制方法及装置 |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5228305B2 (ja) | 2006-09-08 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
JP5017989B2 (ja) | 2006-09-27 | 2012-09-05 | ソニー株式会社 | 撮像装置、撮像方法 |
JP2008096868A (ja) | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP4462329B2 (ja) * | 2007-10-31 | 2010-05-12 | ソニー株式会社 | 撮像装置、撮像方法 |
JP4725595B2 (ja) * | 2008-04-24 | 2011-07-13 | ソニー株式会社 | 映像処理装置、映像処理方法、プログラム及び記録媒体 |
EP2401865B1 (en) * | 2009-02-27 | 2020-07-15 | Foundation Productions, Llc | Headset-based telecommunications platform |
US9113064B2 (en) | 2009-11-05 | 2015-08-18 | Olympus Corporation | Image pickup apparatus and image acquisition method |
JP5495760B2 (ja) * | 2009-12-17 | 2014-05-21 | オリンパスイメージング株式会社 | 撮像装置 |
JP5617246B2 (ja) * | 2010-01-12 | 2014-11-05 | ソニー株式会社 | 画像処理装置、物体選択方法及びプログラム |
WO2021161104A1 (en) | 2020-02-12 | 2021-08-19 | Monday.Com | Enhanced display features in collaborative network systems, methods, and devices |
JP5596408B2 (ja) * | 2010-05-13 | 2014-09-24 | オリンパスイメージング株式会社 | デジタルカメラ、その制御方法、及びプログラム |
EP2637078B1 (en) * | 2010-11-02 | 2020-04-08 | NEC Corporation | Information processing system and information processing method |
US8953850B2 (en) * | 2012-08-15 | 2015-02-10 | International Business Machines Corporation | Ocular biometric authentication with system verification |
US20140111558A1 (en) * | 2012-10-23 | 2014-04-24 | Semiconductor Energy Laboratory Co., Ltd. | Display device and program |
JP2014092941A (ja) * | 2012-11-02 | 2014-05-19 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
WO2014085610A1 (en) * | 2012-11-29 | 2014-06-05 | Stephen Chase | Video headphones, system, platform, methods, apparatuses and media |
JP2014143595A (ja) * | 2013-01-24 | 2014-08-07 | Nikon Corp | 画像記録装置 |
JP2015087523A (ja) * | 2013-10-30 | 2015-05-07 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
KR102032541B1 (ko) | 2013-02-26 | 2019-11-08 | 삼성전자주식회사 | 이미지 촬영장치 및 방법 |
JP6137877B2 (ja) * | 2013-03-05 | 2017-05-31 | オリンパス株式会社 | 画像処理装置、画像処理方法及びそのプログラム |
US9095423B2 (en) * | 2013-03-15 | 2015-08-04 | OrCam Technologies, Ltd. | Apparatus and method for providing failed-attempt feedback using a camera on glasses |
JP5920264B2 (ja) * | 2013-03-22 | 2016-05-18 | カシオ計算機株式会社 | 画像特定装置、画像特定システム、画像特定方法及びプログラム |
CN103499885B (zh) * | 2013-09-30 | 2014-10-08 | 北京智谷睿拓技术服务有限公司 | 成像装置和方法 |
WO2015068440A1 (ja) * | 2013-11-08 | 2015-05-14 | ソニー株式会社 | 情報処理装置、制御方法およびプログラム |
DE102013222795A1 (de) * | 2013-11-08 | 2015-05-13 | Sommer-Hugendubel-Pollack-Strauss Gbr (Vertretungsberechtigter Gesellschafter: Till Strauss, 10119 Berlin) | Verfahren und Vorrichtung zur Erzeugung einer künstlichen Kopplung zwischen einer Eingangsgröße und einer Ausgangsgröße |
EP3070585A4 (en) * | 2013-11-13 | 2017-07-05 | Sony Corporation | Display control device, display control method and program |
JP2014102517A (ja) * | 2014-01-20 | 2014-06-05 | Nikon Corp | 電子機器 |
US9794475B1 (en) | 2014-01-29 | 2017-10-17 | Google Inc. | Augmented video capture |
KR102174470B1 (ko) | 2014-03-31 | 2020-11-04 | 삼성전자주식회사 | 영상 저장 시스템 및 방법 |
DE102014005759A1 (de) | 2014-04-17 | 2015-10-22 | Audi Ag | Displaysteuerung, Anzeigevorrichtung, Fahrzeug und Anzeigeverfahren zum Darstellen von Bildinformation |
US10142598B2 (en) * | 2014-05-30 | 2018-11-27 | Sony Corporation | Wearable terminal device, photographing system, and photographing method |
US20150373293A1 (en) * | 2014-06-24 | 2015-12-24 | Sony Corporation | Video acquisition with adaptive frame rate |
JP6451110B2 (ja) * | 2014-07-10 | 2019-01-16 | カシオ計算機株式会社 | 撮影装置、画像生成方法及びプログラム |
JP6638195B2 (ja) * | 2015-03-02 | 2020-01-29 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
JP2016115965A (ja) * | 2014-12-11 | 2016-06-23 | ソニー株式会社 | 医療用眼鏡型表示装、情報処理装置及び情報処理方法 |
US10614328B2 (en) | 2014-12-30 | 2020-04-07 | Joyson Safety Acquisition LLC | Occupant monitoring systems and methods |
US10532659B2 (en) | 2014-12-30 | 2020-01-14 | Joyson Safety Systems Acquisition Llc | Occupant monitoring systems and methods |
USD751437S1 (en) | 2014-12-30 | 2016-03-15 | Tk Holdings Inc. | Vehicle occupant monitor |
US9533687B2 (en) | 2014-12-30 | 2017-01-03 | Tk Holdings Inc. | Occupant monitoring systems and methods |
JP2016191845A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6611158B2 (ja) * | 2015-03-31 | 2019-11-27 | Necソリューションイノベータ株式会社 | ウェアラブル端末、制御方法、およびプログラム |
US9860452B2 (en) * | 2015-05-13 | 2018-01-02 | Lenovo (Singapore) Pte. Ltd. | Usage of first camera to determine parameter for action associated with second camera |
US10383568B2 (en) | 2015-09-30 | 2019-08-20 | Apple Inc. | Confirming sleep based on secondary indicia of user activity |
CN108605102B (zh) * | 2015-12-09 | 2021-11-23 | 前视红外系统股份公司 | 一种改进图像质量的方法和热成像装置 |
US9916866B2 (en) * | 2015-12-22 | 2018-03-13 | Intel Corporation | Emotional timed media playback |
JP2017136142A (ja) * | 2016-02-02 | 2017-08-10 | セイコーエプソン株式会社 | 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体 |
CN106020483A (zh) * | 2016-05-30 | 2016-10-12 | 京东方科技集团股份有限公司 | 一种头戴式智能设备 |
US20200322518A1 (en) * | 2016-06-10 | 2020-10-08 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP6289547B2 (ja) * | 2016-06-17 | 2018-03-07 | オリンパス株式会社 | 携帯機器、表示方法およびプログラム |
DE102016221123A1 (de) * | 2016-10-26 | 2018-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille |
KR101986681B1 (ko) * | 2017-11-03 | 2019-06-07 | 박재홍 | 영상 처리 장치 및 그 방법 |
CN111417919A (zh) * | 2017-12-08 | 2020-07-14 | 索尼公司 | 信息处理装置及其控制方法和记录介质 |
US10986287B2 (en) | 2019-02-19 | 2021-04-20 | Samsung Electronics Co., Ltd. | Capturing a photo using a signature motion of a mobile device |
JP7330507B2 (ja) * | 2019-12-13 | 2023-08-22 | 株式会社Agama-X | 情報処理装置、プログラム、及び、方法 |
US11792500B2 (en) * | 2020-03-18 | 2023-10-17 | Snap Inc. | Eyewear determining facial expressions using muscle sensors |
US11972271B2 (en) * | 2021-12-30 | 2024-04-30 | Advanced Micro Devices, Inc. | End user sensitivity profiling for efficiency and performance management |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5333029A (en) * | 1990-10-12 | 1994-07-26 | Nikon Corporation | Camera capable of detecting eye-gaze |
JPH07294844A (ja) * | 1994-04-22 | 1995-11-10 | Canon Inc | 表示装置 |
WO1999023524A1 (en) * | 1997-10-30 | 1999-05-14 | The Microoptical Corporation | Eyeglass interface system |
DE10251933B4 (de) * | 2002-11-08 | 2006-12-14 | Ludwig-Maximilians-Universität München (Körperschaft des öffentlichen Rechts) | Aufnahmevorrichtung für die kopfgestützte Bilderfassung und Verfahren zur Steuerung der Aufnahmevorrichtung |
US20040196399A1 (en) * | 2003-04-01 | 2004-10-07 | Stavely Donald J. | Device incorporating retina tracking |
US20040196400A1 (en) * | 2003-04-07 | 2004-10-07 | Stavely Donald J. | Digital camera user interface using hand gestures |
JP2005318973A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 生体センサ装置、コンテンツ再生方法およびコンテンツ再生装置 |
JP5515192B2 (ja) | 2005-02-17 | 2014-06-11 | セイコーエプソン株式会社 | 画像記録装置、画像記録方法および制御プログラム |
-
2006
- 2006-09-08 JP JP2006244687A patent/JP2008067219A/ja not_active Abandoned
-
2007
- 2007-08-14 US US11/838,632 patent/US20080062291A1/en not_active Abandoned
- 2007-08-27 EP EP07016764A patent/EP1898632A1/en not_active Withdrawn
- 2007-09-07 CN CNA2007101536270A patent/CN101141568A/zh active Pending
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101141567B (zh) * | 2006-09-08 | 2012-12-05 | 索尼株式会社 | 图像获取和显示设备以及图像获取和显示方法 |
US9678654B2 (en) | 2011-09-21 | 2017-06-13 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
CN103946734A (zh) * | 2011-09-21 | 2014-07-23 | 谷歌公司 | 叠加有对于外部设备的控制和指令的可穿戴计算机 |
US10018846B2 (en) | 2012-01-24 | 2018-07-10 | Sony Corporation | Display device |
US9753284B2 (en) | 2012-01-24 | 2017-09-05 | Sony Corporation | Display device |
US10540822B2 (en) | 2012-05-09 | 2020-01-21 | Sony Corporation | Display instrument and image display method |
CN103389580A (zh) * | 2012-05-09 | 2013-11-13 | 索尼公司 | 显示装置和图像显示方法 |
US9972135B2 (en) | 2012-05-09 | 2018-05-15 | Sony Corporation | Display instrument and image display method |
US9558540B2 (en) | 2012-05-09 | 2017-01-31 | Sony Corporation | Display instrument and image display method |
CN104603674B (zh) * | 2012-09-12 | 2017-12-26 | 索尼公司 | 图像显示装置 |
CN104603674A (zh) * | 2012-09-12 | 2015-05-06 | 索尼公司 | 图像显示装置 |
CN107884937A (zh) * | 2012-09-12 | 2018-04-06 | 索尼公司 | 图像控制设备和图像控制方法 |
CN104603675A (zh) * | 2012-09-12 | 2015-05-06 | 索尼公司 | 图像显示设备、图像显示方法和记录介质 |
CN104603675B (zh) * | 2012-09-12 | 2019-01-18 | 索尼公司 | 图像显示设备、图像显示方法和记录介质 |
US10613329B2 (en) | 2013-02-20 | 2020-04-07 | Sony Corporation | Display device with transmissivity controlled based on quantity of light |
US9791701B2 (en) | 2013-02-20 | 2017-10-17 | Sony Corporation | Display device |
CN104252042A (zh) * | 2013-06-28 | 2014-12-31 | 精工爱普生株式会社 | 头部佩戴式显示装置以及头部佩戴式显示装置的控制方法 |
CN104252042B (zh) * | 2013-06-28 | 2019-06-18 | 精工爱普生株式会社 | 头部佩戴式显示装置以及头部佩戴式显示装置的控制方法 |
CN104333690A (zh) * | 2013-07-22 | 2015-02-04 | 奥林巴斯映像株式会社 | 摄影装置以及摄影方法 |
CN104333690B (zh) * | 2013-07-22 | 2018-07-03 | 奥林巴斯株式会社 | 摄影装置以及摄影方法 |
CN104865702A (zh) * | 2014-02-20 | 2015-08-26 | 中强光电股份有限公司 | 抬头显示器 |
US10638046B2 (en) | 2014-02-21 | 2020-04-28 | Sony Corporation | Wearable device, control apparatus, photographing control method and automatic imaging apparatus |
US10642040B2 (en) | 2014-03-17 | 2020-05-05 | Sony Corporation | Display apparatus and optical apparatus |
CN104683691A (zh) * | 2015-02-02 | 2015-06-03 | 上海小蚁科技有限公司 | 拍摄方法、装置及设备 |
CN108027656A (zh) * | 2015-09-28 | 2018-05-11 | 日本电气株式会社 | 输入设备、输入方法和程序 |
CN105791728A (zh) * | 2016-05-30 | 2016-07-20 | 北京视友科技有限责任公司 | 一种通过脑电控制的全息立体投影系统 |
CN109478095A (zh) * | 2016-06-13 | 2019-03-15 | 索尼互动娱乐股份有限公司 | 用于使虚拟现实环境中的特定内容聚焦的hmd转换 |
CN106203032A (zh) * | 2016-06-27 | 2016-12-07 | 广州杰赛科技股份有限公司 | 智能穿戴设备的语音输出方法及智能穿戴设备 |
CN108073278B (zh) * | 2016-11-10 | 2021-08-17 | 三星电子株式会社 | 电子设备及其操作方法 |
CN108073278A (zh) * | 2016-11-10 | 2018-05-25 | 三星电子株式会社 | 电子设备及其操作方法 |
CN110088662A (zh) * | 2016-12-01 | 2019-08-02 | 阴影技术公司 | 成像系统和产生背景图像和聚焦图像的方法 |
CN110088662B (zh) * | 2016-12-01 | 2021-12-14 | 阴影技术公司 | 成像系统和产生背景图像和聚焦图像的方法 |
CN110799094A (zh) * | 2017-08-09 | 2020-02-14 | 欧姆龙健康医疗事业株式会社 | 测定装置、发送方法和程序 |
CN108337430A (zh) * | 2018-02-07 | 2018-07-27 | 北京联合大学 | 360度无死角智能眼镜 |
WO2021136260A1 (zh) * | 2019-12-31 | 2021-07-08 | 钟国诚 | 用于控制可变物理参数的控制装置及方法 |
CN114930257A (zh) * | 2019-12-31 | 2022-08-19 | 钟国诚 | 用于控制可变物理参数的控制装置及方法 |
CN114930257B (zh) * | 2019-12-31 | 2024-04-26 | 钟国诚 | 用于控制可变物理参数的控制装置及方法 |
CN111372166A (zh) * | 2020-02-21 | 2020-07-03 | 华为技术有限公司 | 左右耳智能识别方法和耳机装置 |
CN114442811A (zh) * | 2022-01-29 | 2022-05-06 | 联想(北京)有限公司 | 控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1898632A1 (en) | 2008-03-12 |
JP2008067219A (ja) | 2008-03-21 |
US20080062291A1 (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101141568A (zh) | 图像拾取设备和图像拾取方法 | |
US8872941B2 (en) | Imaging apparatus and imaging method | |
TWI378262B (zh) | ||
KR101404329B1 (ko) | 촬상 장치, 표시 장치, 촬상 방법, 표시 방법 | |
CN101286196B (zh) | 图像存储处理装置和方法、图像搜索装置和方法 | |
US8482651B2 (en) | Image processing device and image processing method | |
US20180067313A1 (en) | Display method and display apparatus in which a part of a screen area is in a through-state | |
US8107771B2 (en) | Image processing apparatus and image processing method | |
JP4006856B2 (ja) | 電子カメラシステム及びその制御方法 | |
US20090115892A1 (en) | Imaging system and method | |
JP2008099834A (ja) | 表示装置、表示方法 | |
JP2013077013A (ja) | 表示装置、表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20080312 |