CN101179712A - 成像装置、显示装置、成像方法和显示方法 - Google Patents

成像装置、显示装置、成像方法和显示方法 Download PDF

Info

Publication number
CN101179712A
CN101179712A CNA2007101698082A CN200710169808A CN101179712A CN 101179712 A CN101179712 A CN 101179712A CN A2007101698082 A CNA2007101698082 A CN A2007101698082A CN 200710169808 A CN200710169808 A CN 200710169808A CN 101179712 A CN101179712 A CN 101179712A
Authority
CN
China
Prior art keywords
imaging
view data
user
display unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007101698082A
Other languages
English (en)
Other versions
CN101179712B (zh
Inventor
飞鸟井正道
鹤田雅明
伊藤大二
佐古曜一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101179712A publication Critical patent/CN101179712A/zh
Application granted granted Critical
Publication of CN101179712B publication Critical patent/CN101179712B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Ophthalmology & Optometry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Pulmonology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

这里公开一种成像装置,包括:成像位于用户观看方向上的场景以获得场景的图像数据的成像装置;检测关于用户的生物信息的生物感测装置;以及产生至少基于由生物感测装置获得的生物信息的元数据,并且执行存储由成像装置获得的图像数据以便与元数据相关联的存储处理的控制装置。

Description

成像装置、显示装置、成像方法和显示方法
相关申请的交叉引用
本发明包含与2006年11月7日在日本专利局提交的日本专利申请JP 2006-301601相关的主题,在此引用其全部内容作为参考。
技术领域
本发明涉及一种成像位于用户观看方向上的场景的成像装置和成像方法。本发明也涉及一种取回通过由上述成像装置成像而获得并存储于其中的图像数据并且显示取回的图像数据的显示装置和显示方法。
背景技术
已经提出一种装置,其具有小型摄像机连接到其上以便能够成像位于用户观看方向上的场景的眼镜形状或头戴式佩戴单元(参看,例如JP-A-2005-172851)。
JP-A-2006-146630公开一种使用生物信息选择适合于用户情况的内容例如音调,并且将所选内容呈现给用户的技术。
发明内容
成像位于用户观看方向上的场景的能力允许例如用户在他或她的日常生活中看到的场景作为其图像数据而记录,但是没有已知的装置能够允许通过成像获得的图像数据以用户期望或可享受的方式使用。
因此,已经设计本发明以能够适当地存储拍摄图像,并且有趣地使用拍摄图像的图像数据。
根据本发明的一种实施例,提供一种成像装置,包括:成像位于用户观看方向上的场景以获得场景的图像数据的成像部件;检测关于用户的生物信息的生物感测装置;以及产生至少基于由生物感测装置获得的生物信息的元数据,并且执行存储由成像部件获得的图像数据以便与元数据相关联的存储处理的控制装置。
根据本发明的另一种实施例,提供一种从基于生物信息的元数据添加到其上的图像数据存储于其中的非易失性存储介质中获取图像数据,并且显示获取的图像数据的显示装置,该显示装置包括:显示装置;检测关于用户的生物信息的生物感测装置;以及基于由生物感测装置检测的生物信息产生搜索条件,并且控制作为使用搜索条件搜索的结果在非易失性存储介质中找到的图像数据显示在显示装置上的控制装置。
根据本发明的又一种实施例,提供一种成像方法,包括步骤:成像位于用户观看方向上的场景以获得所述场景的图像数据的成像步骤;检测关于用户的生物信息的检测步骤;产生至少基于在所述检测步骤中获得的生物信息的元数据的产生步骤;以及存储在所述成像步骤中获得的图像数据以便与在所述产生步骤中产生的元数据相关联。
根据本发明的又一种实施例,提供一种在显示装置中使用的显示方法,显示装置从基于生物信息的元数据添加到其上的图像数据存储于其中的非易失性存储介质中获取图像数据,并且显示获取的图像数据,该方法包括步骤:检测关于用户的生物信息的检测步骤;基于在所述检测步骤中检测的生物信息产生搜索条件的产生步骤;以及显示作为使用在所述产生步骤中产生的搜索条件搜索的结果而在非易失性存储介质中找到的图像数据的显示步骤。
根据本发明的上述实施例,用户佩戴使用例如眼镜形状或头戴式佩戴单元的成像装置,使得成像部件能够成像位于用户观看方向上的场景。使用至少关于用户的生物信息产生的元数据添加到通过由成像部件成像而获得的图像数据,并且图像数据与添加的元数据一起被存储。
同时,显示装置检测至少关于用户的生物信息,并且使用至少生物信息产生搜索条件。然后,显示装置获取并显示作为使用搜索条件在存储的图像数据上执行的搜索的结果而找到的图像数据。
因此,例如,在早些时候当用户处于与当前情况类似的情况(例如具有类似的感觉)时的场景的图像显示给用户。因此,例如,实现难忘场景的自动显示。
注意,在成像装置和成像方法中执行的存储处理指:使得例如成像装置内的记录装置将通过成像获得的图像数据记录在非易失性存储介质例如硬盘驱动器(HDD)、光盘、磁光盘、磁盘或闪速存储器上的处理;或者使得传送装置将通过成像获得的图像数据发送到外部设备从而外部设备可以将图像数据存储在HDD等中的处理。
在显示装置和显示方法中,在记录于并存储在这种非易失性存储介质中的图像数据上执行搜索,并且显示取回的图像数据。
在根据本发明的成像装置和成像方法中,用户在他或她的日常生活中看到的场景与基于关于用户的生物信息产生的元数据一起被存储。因此,可以存储用户在他或她的日常生活中看到的场景的图像以便与用户的情况相关联,这提供当为了随后回放等而执行搜索时的便利。
在根据本发明的显示装置和显示方法中,使用利用生物信息产生的搜索条件在存储的图像数据上执行搜索,并且显示取回的图像数据。因此,适合于用户当前情况的过去场景的图像(例如用户他或她自己看到的过去场景,另一个人看到的过去场景等)呈现给用户。因此,实现非常有趣的图像呈现,例如让用户回想起记忆的图像呈现,允许用户观看过去的类似场景的图像呈现,或者印象深刻事件的图像呈现。
附图说明
图1是根据本发明一种实施例的成像/显示装置的实例外观说明;
图2是根据本发明一种实施例的另一种成像/显示装置的实例外观说明;
图3A-3C是说明根据本发明一种实施例的成像/显示装置与外部设备之间的关系的图;
图4是根据本发明一种实施例的成像/显示装置的框图;
图5是根据本发明一种实施例的另一种成像/显示装置的框图;
图6是根据本发明一种实施例的又一种成像/显示装置的框图;
图7A-7C是分别描述根据本发明一种实施例的穿透状态、通过常规成像获得的图像,以及远距拍摄图像的说明;
图8A和8B是描述根据本发明一种实施例的放大图像的说明;
图9A和9B是描述根据本发明一种实施例使用增加的红外线灵敏度拍摄的图像的说明;
图10A和10B是描述根据本发明一种实施例使用增加的紫外线灵敏度拍摄的图像的说明;
图11A和11B是说明根据本发明一种实施例的临时存储部分和重放操作的图;
图12A和12B是描述根据本发明一种实施例的重放图像的显示的说明;
图13是说明根据本发明一种实施例的控制过程的流程图;
图14是说明根据本发明一种实施例的重放过程的流程图;
图15是说明根据本发明一种实施例的成像系统控制过程的流程图;
图16是说明根据本发明一种实施例产生元数据的过程的流程图;
图17是说明根据本发明一种实施例显示存储图像的过程的流程图;
图18A和18B是根据本发明一种实施例如何显示存储图像的说明;以及
图19A-19C是根据本发明一种实施例如何显示存储图像的说明。
具体实施方式
在下文,将参考成像/显示装置的实例,以下面的次序描述根据本发明实施例的成像装置、成像方法、显示装置和显示方法。
[1.成像/显示装置的实例外观]
[2.成像/显示装置的实例结构]
[3.实例拍摄图像]
[4.重放操作]
[5.选择待存储图像的实例方式]
[6.成像和实例存储过程]
[7.显示存储图像的实例过程]
[8.实施例、实例变体和实例扩展的效果]
[1.成像/显示装置的实例外观]
图1显示根据本发明一种实施例的成像/显示装置1的实例外观,其是眼镜形状的显示摄像机。成像/显示装置1包括具有从太阳穴区域延伸到枕骨区域半围绕头部的框架结构的佩戴单元,并且由用户佩戴且佩戴单元位于耳朵上,如该图中说明的。
成像/显示装置1具有为左眼和右眼设计的一对显示部分2,并且当成像/显示装置1以图1中说明的方式由用户佩戴时,显示部分2位于用户眼睛前方(也就是,在普通眼镜的镜片所在的位置)。液晶板例如用于显示部分2,并且显示部分2能够通过透射率控制进入穿透(see-through)状态,也就是透明或半透明状态,如该图中说明的。显示部分2进入穿透状态的能力允许用户在他或她佩戴眼镜的所有时候佩戴成像/显示装置1,而不会对他或她的日常生活带来任何干扰。
另外,成像/显示装置1具有面朝前布置的拍摄透镜3a以便当成像/显示装置1由用户佩戴时,成像位于用户观看方向上的场景。
另外,成像/显示装置1具有当成像/显示装置1由用户佩戴时可以插入到用户的右和左耳孔中的一对耳机扬声器5a。注意,仅左耳耳机扬声器5a在图中显示。
另外,成像/显示装置1具有用于收集外部声音的麦克风6a和6b。麦克风6a和6b分别布置在右显示部分2的右边和左显示部分2的左边。
注意图1显示一个实例,并且各种结构对于用户佩戴成像/显示装置1都是可能的。通常,佩戴单元的需求在于它是眼镜形状或者头戴型。至少,本实施例的要求是显示部分2位于用户眼睛前方并接近用户的眼睛,并且拍摄透镜3a拍摄的方向是用户眼睛对准的方向,也就是前方。而且注意,代替具有为双眼提供的一对显示部分2,成像/显示装置1可以仅具有为一只眼睛提供的一个显示部分2。
同样注意,成像/显示装置1不需要具有左和右立体声扬声器5a,而可以仅具有插入到仅一个耳孔中的一个耳机扬声器5a。同样注意麦克风的数目可以是一个。也就是,成像/显示装置1可以仅具有麦克风6a和6b中的一个。而且注意,成像/显示装置1不需要具有任何麦克风或耳机扬声器。
同样注意,成像/显示装置可以具有在由拍摄透镜3a拍摄的方向上提供照明的照明部分。照明部分由例如发光二极管(LED)形成。
在图1中说明的成像/显示装置1中,用于成像的组件和用于监控通过成像而获得的图像的显示部分2集成在一个单元中。但是,如同图2中说明的成像/显示装置1一样,包含显示部分的外壳可以与包含成像组件的外壳独立提供。
如图2中说明的成像/显示装置1包括彼此独立的成像装置部分40和显示装置部分30。
成像装置部分40通过预先确定的佩戴框架佩戴在用户的头部。成像装置部分40具有面朝前布置的拍摄透镜3a,以便当成像装置部分40由用户佩戴时,成像位于用户观看方向上的场景。另外,成像装置部分40具有用于收集外部声音的麦克风6a。
在该情况下,如下所述,成像装置部分40包含将通过成像获得的图像数据等发送到与成像装置部分40独立提供的显示装置部分30的通信部分。
显示装置部分30例如是用户能够携带的小而轻的设备。
显示装置部分30内部包含执行与成像装置部分40的数据通信的通信部分,并且执行允许从成像装置部分40提供的图像数据显示在显示屏31上的操作。
用户能够使用如上所述其中成像装置部分40和显示装置部分30彼此独立的成像/显示装置1。
这里,便携式显示装置已经作为显示装置部分30而描述。但是,显示装置部分30例如可以是固定的显示装置、计算机装置、电视接收器、移动电话、个人数字助理(PDA)等。简而言之,在如图2中所示不具有监控器显示能力的成像/显示装置1的情况下(以及即使在如图1中所示具有监控器显示能力的成像/显示装置1的情况下),图像数据可以使用任何外部显示装置来监控。
注意除了上述各种显示设备之外,通过成像而获得的图像数据可以由成像/显示装置1通过它的通信能力发送到的外部设备的实例包括,视频存储设备、计算机装置和服务器装置。也就是,拍摄的图像数据存储在这种外部设备中或者由这种外部设备传递是可以想象的。
同样注意,成像/显示装置1的外观并不局限于图1和2的实例,各种类型的变化是可能的。
成像/显示装置1的上述实例分别具有眼镜形状和头戴式佩戴单元。但是注意,供用户佩戴成像/显示装置的佩戴单元可以是任何类型,例如头戴耳机型、领圈型、耳后型等。此外,成像/显示装置可以经由固定设备例如夹子连接到常见眼镜、护目镜、头戴耳机等,使得成像/显示装置可以由用户佩戴。而且注意,成像/显示装置佩戴在用户头上并不是必需的。
虽然成像/显示装置1的实例内部结构将随后描述,成像/显示装置1能够将通过成像获得的图像数据存储在自身内部(例如,参考图4在下面描述的存储部分25中),也能够经由通信设备(例如,参考图5在下面描述的通信部分26)将通过成像获得的图像数据发送到外部设备,使得图像数据可以存储在外部设备中。
另外,该成像/显示装置1能够取回存储在其中(也就是存储部分25中)的图像数据并且回放取回的图像数据,或者从外部设备(经由通信部分26)接收作为在存储于外部设备中的图像数据上执行的搜索的结果而找到的图像数据,并且显示接收的图像数据。
图3A-3C显示成像/显示装置1关于外部设备的使用的实例模式。
图3A显示单独使用成像/显示装置1的情况。在该情况下,成像/显示装置1将通过成像获得的图像数据存储在内部存储部分25中。另外,成像/显示装置1在存储于存储部分25中的图像数据上执行搜索,并且在显示部分2上回放并显示作为搜索结果而找到的图像数据。
图3B显示成像/显示装置1具有通信能力(也就是通信部分26)并且与外部存储设备70通信的情况。在该情况下,成像/显示装置1将通过成像而获得的图像数据经由通信部分26发送到存储设备70使得图像数据可以存储在存储设备70中。成像/显示装置1也能够将搜索条件经由通信部分26发送到存储设备70,并且请求存储设备70执行搜索并发送作为搜索结果而找到的图像数据,使得成像/显示装置1可以接收取回的图像数据。然后,成像/显示装置1将接收的图像数据,也就是作为搜索结果而找到的图像数据显示在显示部分2上。
图3C显示成像/显示装置1中的通信部分26具有访问网络73例如因特网的能力以便与经由网络73连接到成像/显示装置1的外部服务器装置71通信的情况。在该情况下,成像/显示装置1能够将待存储的图像数据或搜索条件经由网络73发送到服务器装置71,也能够经由网络73从服务器装置71接收作为搜索结果而找到的图像数据。
各种类型的设备作为图3B中的存储设备70或图3C中的服务器装置71都是可以想象的,例如由成像/显示装置1的用户拥有的设备,由成像/显示装置1的用户的熟人拥有的设备,以及由公共事业单位、服务公司等拥有的设备等,其提供图像并且能够与成像/显示装置1通信。
此外,这种设备可以是各种类型,例如视频存储设备、家用服务器设备、个人计算机、个人数字助理(PDA)、移动电话以及大规模服务器设备。
[2.成像/显示装置的实例结构]
这里,将参考图4,5和6描述根据本发明实施例的成像/显示装置1的三种实例结构。图4和5中说明的实例结构对应于如图1中所示成像/显示装置1是具有成像能力和显示能力的眼镜形状的显示摄像机的情况。同时,图6中说明的实例结构对应于如图2中所示成像装置部分40和显示装置部分30被独立提供的情况。
首先,现在将在下面描述图4的实例结构。
系统控制器10由包括例如中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)、非易失性存储部分和接口部分的微型计算机形成,并且控制成像/显示装置1的全部操作。系统控制器10控制成像/显示装置1的每个部分以基于保存在内部ROM等中的程序执行预先确定的操作。
作为成像位于用户观看方向上的场景的单元,成像/显示装置1包括成像部分3、成像控制部分11和成像信号处理部分15。
成像部分3包括:由图1中所示的拍摄透镜3a、光圈、变焦透镜等形成的透镜系统;允许透镜系统执行调焦操作、变焦操作等的驱动系统;以及检测由透镜系统获得的用于成像的光,并且使得检测到的光经历光电转换以产生成像信号的固态成像器件。固态成像器件阵列是例如电荷耦合器件(CCD)传感器阵列或补偿金属氧化物半导体(CMOS)传感器阵列。
成像信号处理部分15包括使得由成像部分3中的固态成像器件获得的信号经历增益控制和波形整形的采样保持/自动增益控制(AGC)电路,以及视频A/D转换器,并且获得数字形式的成像信号。
另外,成像信号处理部分15对成像信号执行白平衡处理、亮度处理、彩色信号处理、模糊校正处理等。此外,成像信号处理部分15也能够对成像信号执行处理例如:亮度级控制、彩色校正、对比度控制和锐度(边缘增强)控制;其中成像信号的一部分被放大的放大图像的产生;其中成像信号的一部分被减小的缩小图像的产生;图像效果的应用例如马赛克、亮度反转、柔光聚焦、图像一部分的高亮显示以及图像整体彩色气氛的变化;字符图像或概念图像的产生;以及产生的图像与拍摄图像的组合。简而言之,成像信号处理部分15能够对作为成像信号的数字视频信号执行各种处理。
基于从系统控制器10发出的指令,成像控制部分11控制由成像部分3和成像信号处理部分15的操作实现的成像操作。例如,成像控制部分11控制成像部分3和成像信号处理部分15的操作的启用和停用。另外,成像控制部分11执行允许成像部分3执行操作例如自动调焦、自动曝光调节、光圈调节、变焦或焦点改变的控制(电机控制)。
成像控制部分11包括定时发生器,并且使用由定时发生器产生的定时信号控制由固态成像器件以及成像信号处理部分15中的采样保持/AGC电路和视频A/D转换器执行的信号处理操作。而且,这种定时控制允许成像帧率的调节。
另外,成像控制部分11控制固态成像器件和成像信号处理部分15中的成像灵敏度和信号处理。例如,作为成像灵敏度的控制,成像控制部分11能够对从固态成像器件中读取的信号执行增益控制,黑色电平设置,处理数字形式的成像信号中的各种系数的控制,模糊校正处理中校正值的控制等。关于成像灵敏度的控制,例如与任何特定波长范围无关的总体灵敏度调节,以及调节特定波长范围例如红外线范围或紫外线范围的成像灵敏度的灵敏度调节(例如涉及截止特定波长范围的成像)是可能的。根据波长的灵敏度调节由在拍摄透镜系统中波长滤波器的插入或对成像信号执行的波长滤波操作处理实现。在这些情况下,成像控制部分11通过控制波长滤波器的插入、滤波操作系数的指标等实现灵敏度控制。
此外,基于从系统控制器10发出的指令,成像控制部分11控制由成像信号处理部分15执行的上述图像处理操作。
临时存储部分23是使用固态存储器例如动态随机存取存储器(D-RAM)或静态随机存取存储器(S-RAM)作为存储介质的存储部分。但是注意,临时存储部分23可以构造成将数据记录到存储介质例如闪速存储器、光盘、磁盘或包含闪速存储器的存储卡或者从其中再现数据的单元。此外,临时存储部分23可以由HDD形成。
临时存储部分23存储通过由上述成像系统(在下文,成像部分3、成像信号处理部分15以及成像控制部分11将共同地称作“成像系统”)执行的成像而持续获得的图像数据。也就是,当提供有图像数据时,临时存储部分23对图像数据执行用于存储的预先确定的编码处理,并且将编码的图像数据存储在存储介质中。另外,在系统控制器10的控制下,临时存储部分23能够从存储介质中读取存储的图像数据,并且解码和输出图像数据。
图11A是临时存储部分23中存储器例如D-RAM的存储区的示意图。从顶端地址AdST延伸到末端地址AdED的存储区以环形存储方式使用。具体地,图像数据写入到由从顶端地址AdST朝向末端地址AdED移动的写地址指针W-Ad指示的地址,并且当它到达末端地址AdED时,返回到顶端地址AdST。这样,图像数据连续地记录在存储区上。
因此,在从先前预先确定的时间到现在的时段中获得的图像数据临时存储在临时存储部分23中。当然,图像数据在其中存储多久取决于临时存储部分23的容量以及图像数据的速率(例如,帧率、每帧的数据量等)。
成像系统获取存储在临时存储部分23中的视频的帧率可以设置为任何值。通过由成像系统执行的成像获得的并且存储在临时存储部分23中的图像数据可以具有正常帧率(例如每秒30帧)或更高的帧率。例如每秒中从拍摄图像数据中提取几帧,并且允许临时存储部分23存储产生的伪运动图像数据也是可能的。而且,例如每一至几秒提取一帧,并且允许临时存储部分23存储以一至几秒的间隔获取的静止图像形式的图像数据也是可能的。
通过由成像部分3成像并且由成像信号处理部分15处理而获得的成像信号(也就是由成像获得的图像数据)提供到图像输入/输出控制部分27。
在系统控制器10的控制下,图像输入/输出控制部分27控制图像数据的传送。具体地,图像输入/输出控制部分27控制图像数据在成像系统(也就是成像信号处理部分15)、临时存储部分23、显示图像处理部分12以及存储部分25之间的传送。
在根据本实施例的成像/显示装置1中,成像系统基本上持续地执行成像操作,并且由成像获得的图像数据通过图像输入/输出控制部分27传送到临时存储部分23并且临时地存储在临时存储部分23中。因此,通过成像而持续获得的图像数据以上述方式持续地记录在临时存储部分23中,使得在从先前某一时间直到现在的时段内通过成像获得的图像数据持续地存储在其中。
在系统控制器10的控制下,图像输入/输出控制部分27也能够将由成像信号处理部分15处理的成像信号(也就是图像数据)提供到显示图像处理部分12。
另外,图像输入/输出控制部分27也能够将例如从存储部分25读取的图像数据提供到显示图像处理部分12。
此外,在系统控制器10的控制下,图像输入/输出控制部分27能够将从临时存储部分23中读取的图像数据(也就是,临时存储在临时存储部分23中的图像数据的一些)提供到显示图像处理部分12或存储部分25。
存储部分25是将数据记录在预先确定的存储介质(例如非易失性存储介质)上或者从其中再现数据的单元。存储部分25由例如硬盘驱动器(HDD)形成。无需说,作为非易失性存储介质,可采用各种类型的存储介质,例如:固态存储器例如闪速存储器、包含固定存储器的存储卡、光盘、磁光盘和全息拍摄存储器。存储部分25的要求是能够根据采用的存储介质记录和再现数据。
不像上述临时存储部分23一样,提供存储部分25用于非临时地而是半永久地存储图像数据。
特别地,在临时存储在临时存储部分23中的图像数据的一些已经被选作存储处理的主体的情况下,所选图像数据从临时存储部分23中读取并通过图像输入/输出控制部分27提供到存储部分25。在系统控制器10的控制下,存储部分25编码提供的图像数据使得它可以记录在存储介质上,并且将编码的图像数据记录在存储介质上。
也就是,当预先确定的存储条件(在下文称作“存储条件”)已经被满足时,存储部分25执行将临时存储在临时存储部分23中的图像数据中已经确定为存储对象的图像数据存储在HDD中的处理。
当控制存储部分25执行存储图像数据的上述处理时,系统控制器10产生元数据并且控制存储部分25将产生的元数据与图像数据一起记录。
另外,在系统控制器10的控制下,存储部分25能够再现记录的图像数据。再现的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12。
特别地,系统控制器10产生关于存储在存储部分25中的图像数据的搜索条件,并且允许存储部分25使用搜索条件执行搜索。搜索条件由系统控制器10基于用户的情况等自动产生。搜索条件的内容针对添加到图像数据的元数据。
存储部分25使用给定搜索条件执行搜索,并且如果找到匹配搜索条件的任何图像数据,则系统控制器10允许存储部分25读取找到的图像数据。读取的图像数据通过图像输入/输出控制部分27提供到显示图像存储部分12并且显示在显示部分2上。
虽然图中没有显示,再现的图像数据也可以经由预先确定的接口部分输出到外部设备以便由外部监控设备显示或者存储在外部存储设备中,例如。
作为将显示呈现给用户的单元,成像/显示装置1包括显示部分2、显示图像处理部分12、显示驱动部分13和显示控制部分14。
在系统控制器10的控制下,从临时存储部分23中读取的图像数据(也就是在最近通过成像获得的图像数据),由成像部分3成像获得的并且由成像信号处理部分15处理的图像数据(也就是,当前正通过成像获得的图像数据),或者从存储部分25读取的图像数据(也就是存储的图像数据)通过图像输入/输出控制部分27提供到显示图像处理部分12。
显示图像处理部分12执行用于在显示部分2上显示提供的图像数据的信号处理(例如亮度级控制、彩色校正、对比度控制、锐度(边缘增强)控制等),分屏处理,字符图像的合成等。
显示驱动部分13由允许从显示图像处理部分12提供的图像信号显示在显示部分(例如液晶显示器)2上的像素驱动电路形成。也就是,显示驱动部分13使用用于显示的指定水平/垂直驱动时序将基于视频信号的驱动信号施加到显示部分2中以矩阵排列的像素。另外,显示驱动部分13能够控制显示部分2中每个像素的透射率以允许像素进入穿透状态。
基于从系统控制器10发出的指令,显示控制部分14控制显示图像处理部分12的处理操作和显示驱动部分13的操作。具体地,显示控制部分14控制显示图像处理部分12执行前述各种处理。而且,显示控制部分14控制显示驱动部分13在穿透状态和图像显示状态之间切换。
成像/显示装置1还包括音频输入部分6,音频信号处理部分16和音频输出部分5。
音频输入部分6包括图1中所示的麦克风6a和6b,用于放大由麦克风6a和6b获得的音频信号的麦克风放大器部分,以及A/D转换器,并且输出音频数据。
由音频输入部分6获得的音频数据提供到音频输入/输出控制部分28。
在系统控制器10的控制下,音频输入/输出控制部分28控制音频数据的传送。具体地,音频输入/输出控制部分28控制音频数据在音频输入部分6、音频信号处理部分16、临时存储部分23和存储部分25之间的传送。
基本上,音频输入/输出控制部分28将由音频输入部分6获得的音频数据持续提供到临时存储部分23。结果,临时存储部分23将由麦克风6a和6b执行的声音收集获得的音频数据与由成像系统执行的成像获得的图像数据一起持续地存储。
另外,音频输入/输出控制部分28执行将由音频输入部分6获得的音频信号提供到音频信号处理部分16的处理。
此外,在临时存储部分23读出数据的情况下,音频输入/输出控制部分28执行将由临时存储部分23读出的音频数据提供到音频信号处理部分16或存储部分25的处理。
此外,在存储部分25读出数据的情况下,音频输入/输出控制部分28执行将由存储部分25读出的音频数据提供到音频信号处理部分16的处理。
音频信号处理部分16由例如数字信号处理器、D/A转换器等形成。在系统控制器10的控制下,音频信号处理部分16对通过音频输入/输出控制部分28提供的音频数据执行处理例如音量控制、音调控制或音效的应用。然后,音频信号处理部分16将处理后的音频数据转换成模拟信号,并且将模拟信号提供到音频输出部分5。注意,音频信号处理部分16并不局限于执行数字信号处理的单元,而可以是使用模拟放大器、模拟滤波器等执行信号处理的单元。
音频输出部分5包括图1中所示的一对耳机扬声器5a以及耳机扬声器5a的放大器电路。
音频输入部分6、音频信号处理部分16以及音频输出部分5使得用户能够听到外部声音、由临时存储部分23再现的音频以及由存储部分25再现的音频。
注意,音频输出部分5可以由所谓骨导扬声器(bone conductionspeaker)形成。
成像/显示装置1提供有供用户操作的操作输入部分20。
操作输入部分20可以包括操作单元例如键、刻度盘等,并且被配置成检测用户操作例如键操作。作为选择,操作输入部分20可以被配置成检测用户的故意行为。
在操作输入部分20提供有操作单元的情况下,操作输入单元20例如可以提供有用于随后将描述的重放操作的操作单元,用于由成像系统执行的操作(例如变焦操作、信号处理等)的操作单元等。
在操作输入部分20被配置成检测用户行为的情况下,操作输入部分20可以提供有加速度传感器、角速度传感器、振动传感器、压力传感器等。
例如,用户从侧面轻拍成像/显示装置1的动作可以由加速度传感器、振动传感器等感测。因此,当例如横向加速度已经超过预先确定的值时,系统控制器10可以确定用户操作发生。例如,当用户轻拍成像/显示装置1一次时,系统控制器10可以确定用户执行重放开始操作,然而当用户轻拍成像/显示装置1两次时,系统控制器10可以确定用户执行重放终止操作。而且,加速度传感器、角速度传感器等可以用来检测用户从右侧还是左侧轻拍成像/显示装置1的侧面(其对应于眼镜的侧部),并且系统控制器10可以将用户的这些动作的每个看作预先确定的操作。
此外,用户转头或摇头的动作可以使用加速度传感器、角速度传感器等检测。系统控制器10可以将用户的这些动作的每个看作用户操作。
此外,压力传感器可以提供在例如成像/显示装置1的左侧和右侧的每个上(其对应于眼镜的侧部)。然后,当用户推动成像/显示装置1的右侧时,系统控制器10可以确定用户执行远距拍摄变焦的操作,以及当用户推动成像/显示装置1的左侧时,确定用户执行广角变焦的操作。
如上所述通过用作操作单元的加速度传感器、角速度传感器、振动传感器、压力传感器等获取信息的操作输入部分20将获取的信息提供到系统控制器10,并且系统控制器10基于提供的信息检测用户操作。
接下来,现在将在下面描述生物传感器21。系统控制器10可以将由生物传感器21检测的信息识别为用户的操作输入。用户的故意行为的一个实例是眼睛的运动(例如用户的眼睛对准的方向的变化、眨眼等)。随后将描述的视觉传感器可以用来检测眨眼。例如,系统控制器10可以将用户眨眼三次的动作看作具体的操作输入。
可以提供电源操作单元用于导通和关闭成像/显示装置1的电源。作为选择,当生物传感器21检测到用户已经戴上成像/显示装置1时,系统控制器10可以自动导通电源,并且当用户已经摘下成像/显示装置1时自动关闭电源。
生物传感器21检测关于用户的生物信息。生物信息的实例包括脉搏率、心率、心电图信息、肌电图信息、呼吸信息(例如呼吸的速率、呼吸的深度、换气量等)、排汗、皮肤电反应(GSR)、血压、血液中的饱和氧浓度、皮肤表面温度、脑波(例如α波、β波、θ波和δ波的信息)、血流变化以及眼睛的状态。
为了检测皮肤电反应、体温、皮肤表面温度、心电图反应、肌电图信息、心搏、脉搏、血流、血压、脑波、排汗等,可以使用例如如图1中所示连接到佩戴框架的内部从而与用户的太阳穴区域或枕骨区域接触的传感器,或者与佩戴框架独立并且连接到用户的另一个身体部分的传感器。
此外,可以使用成像用户皮肤的成像部分。该成像部分是例如能够检测皮肤颜色变化的传感器。
例如布置在显示部分2附近以拍摄用户眼睛的包括成像部分的视觉传感器可以用作检测用户视觉的传感器。在该情况下,由该成像部分获取的用户眼睛的图像可以经历图像分析以检测眼睛对准的方向、焦距、眼睛瞳孔的扩张度、眼底图案、眼睑的张开和闭合等。此外,可以使用布置在显示部分2附近以将光发射到用户眼睛的照明部分以及接收从眼睛反射的光的光接收部分。在该情况下,例如基于接收的反射光检测用户的晶状体的厚度是可能的。
生物传感器21将这种传感器的这种检测的信息提供到系统控制器10。
加速度传感器、角速度传感器、振动传感器等已经作为可以包括在操作输入部分20中的传感器而描述。这种传感器能够检测用户身体的运动、头部的运动、重心、步行/跑步的节奏等。在操作输入部分20的上面描述中,故意行为(也就是,用户的“操作”)已经作为由这种传感器检测的运动而提及。但是,也可以如此安排,即用户并不打算作为“操作”的行为,例如用户身体的运动、头部的运动、重心或步行/跑步的节奏由加速度传感器等检测,并且这种行为看作一条生物信息。
成像/显示装置1还包括音频分析部分24。
音频分析部分24分析由音频输入部分6获得的外部声音的音频数据。例如,音频分析部分24执行频率分析、幅度级估计、声波纹(voice print)分析等,并且将产生的分析信息提供到系统控制器10。
成像/显示装置1还包括时间/日期计算部分18和GPS接收器部分19。
时间/日期计算部分18用作所谓时钟部分以计算日期和时间(年、月、日、小时、分、秒),并且将当前日期和时间的信息输出到系统控制器10。
GPS接收器部分19从全球定位系统(GPS)卫星接收无线电波,并且将当前位置的纬度和经度的信息输出到系统控制器10。
在成像/显示装置1中,成像系统持续地执行成像,并且由成像获得的图像数据以环形存储方式临时存储在临时存储部分23中,并且当预先确定的存储条件被满足时,系统控制器10从当前临时存储在临时存储部分23中的图像数据中提取待存储的图像数据,并且将提取的图像数据传送到存储部分25以便永久地存储在其中。
这里,永久地存储在存储部分25中的图像数据是通过持续成像而获得的图像中系统控制器10确定为对用户具有某种意义的场景图像的图像,例如用户感兴趣的场景的图像,用户的感觉发生变化时的场景的图像,可能保存在用户记忆中的场景的图像,或者用户可能期望随后再次看到的场景的图像。
当系统控制器10推断这种图像当前存储在临时存储部分23中时,存储条件被满足。例如,系统控制器10确定在下面的情况下存储条件被满足。
首先,用户已经使其重放的图像以及对其用户已经发出与成像系统的操作相关的指令例如变焦拍摄的图像可以看作用户感兴趣的(场景的)图像。因此,当响应用户操作执行重放时或者当执行关于成像系统的操作例如变焦时,系统控制器10可以确定存储条件被满足。
当用户变得对他或她的视野内的场景感兴趣时或者当他或她的感觉发生变化时,获得关于用户的相应生物信息。因此,当获得预先确定的检测值作为生物信息时,系统控制器10可以确定存储条件被满足。例如,当生物传感器21检测到预先确定的情况时,系统控制器10可以确定存储条件被满足。这种预先确定情况的实例包括:心率超出其正常范围的情况;排汗、血压等已经偏离其正常状态的情况;以及用户的视线突然移动的情况。
此外,基于生物信息识别用户的感觉是可能的。因此,当识别用户为下面的感觉状态的任何一个时,系统控制器10可以确定存储条件被满足,例如:愉快的、开心的、高兴的、伤心的、受惊的、冷静的、怀旧的、感动的、惊恐的、兴奋的和紧张的。
此外,在本实施例中,外部声音由音频分析部分24分析。因此,当大声突然发生时或当发出大声欢呼等时或当检测到特定人的声音时,系统控制器10可以确定存储条件被满足。
如上所述,系统控制器10执行根据从操作输入部分20输入的用户操作的控制处理,以及基于由生物传感器21检测的信息或者由音频分析部分24获得的分析信息确定存储条件被满足的处理。当存储条件被满足时,作为存储处理,系统控制器10执行控制存储部分25将从临时存储部分23提取的图像数据记录到存储介质上的处理。当执行存储处理时,系统控制器10根据存储条件产生元数据,并且将产生的元数据添加到图像数据,使得产生的元数据将与图像数据一起被记录。
元数据至少包括基于生物信息的信息。例如,作为生物信息检测到的数值本身(例如心率、呼吸率、血压、皮肤电反应、体温或作为检测到的生物信息的其他数值)可以包括在元数据中。而且,可以基于这种生物信息确定的用户的感觉信息(例如,如上所述的信息例如“愉快的”、“高兴的”或“伤心的”)可以包括在元数据中。
此外,除了基于生物信息的信息之外,由时间/日期计算部分18获得的日期和时间的信息,由GPS接收器部分19获得的当前位置的信息(也就是其纬度和经度),被满足的存储条件的内容的信息,用户的识别信息等也可以包括在元数据中。
系统控制器10也执行基于由生物传感器21检测到的信息产生搜索条件的处理。搜索条件是当执行用于从存储在存储部分25中的图像数据中选择待回放的图像时使用的条件。例如,作为生物信息检测到的数值自身(例如心率、呼吸率、血压、皮肤电反应、体温或作为检测到的生物信息的其他数值)可以包括在搜索条件中。而且,可以基于这种条目的生物信息确定的用户的感觉信息(例如,如上所述的信息例如“愉快的”、“高兴的”或“伤心的”)可以包括在搜索条件中。
此外,除了基于生物信息的信息、日期和时间的信息、当前位置的信息(也就是其纬度和经度)之外,当执行存储处理时被满足的存储条件的内容信息,用户的识别信息等也可以包括在搜索条件中。也就是,使用与上述方式产生的元数据相对应的信息产生搜索条件。
例如当用户的感觉发生变化时或者当检测到生物信息的数值的变化时,系统控制器10产生搜索条件,并且使得存储部分25执行搜索。存储部分25通过比较搜索条件与添加到存储的图像数据的元数据而执行搜索。如果作为搜索结果找到某条图像数据,系统控制器10执行在显示部分2上回放并显示该条图像数据的处理。
接下来,现在将在下面描述图5中所示的成像/显示装置1的实例结构。注意,在图5中,图4中具有它们的对应物的组件被指定与它们在图4中的对应物相同的参考数字,并且将省略其描述。图5的结构与图4的结构相同,除了包括通信部分26,代替存储部分25。
通信部分26将数据发送到外部设备以及从外部设备接收数据。外部设备指与图3B中所示的存储设备70或图3C中所示的服务器装置71相对应的设备,并且各种电子设备例如计算机设备、PDA、移动电话和视频存储设备作为外部设备是可以想象的。特别地,具有将由成像/显示装置1经由通信部分26发送的图像数据存储在存储介质例如HDD中的能力,使用从成像/显示装置1发送的搜索条件搜索图像数据的能力,以及将作为搜索结果而找到的图像数据发送到成像/显示装置1的能力的设备都可以用作外部设备。
通信部分26可以被配置成根据系统例如无线LAN、蓝牙等经由例如网络访问点的短程无线通信执行网络通信。作为选择,通信部分26可以直接与具有相应通信能力的外部设备执行无线通信。
从临时存储部分23读取的图像数据(和音频数据)通过图像输入/输出控制部分27(和音频输入/输出控制部分28)提供到通信部分26。另外,元数据从系统控制器10提供到通信部分26。
在系统控制器10的控制下,通信部分26将元数据添加到提供的图像数据(以及提供的音频数据),编码并调制得到的数据用于发送,并且将得到的数据发送到外部设备。
例如,与上述图4的结构的情况一样,当存储条件被满足时,作为存储处理,系统控制器10执行使得待发送的待存储图像数据与元数据一起经由通信部分26发送到外部设备的处理。当接收到从通信部分26发送的图像数据和元数据时,外部设备(例如存储设备70或服务器装置71)将接收的图像数据和元数据记录在存储介质上。
另外,与上述图4的结构的情况一样,当系统控制器10产生搜索条件时,通信部分26将产生的搜索条件发送到外部设备。当接收到搜索条件时,外部设备使用接收的搜索条件执行搜索。如果作为搜索结果找到某条图像数据,外部设备将该条图像数据发送到成像/显示装置1。
通信部分26接收作为在外部设备中执行的搜索的结果而找到的并且从外部设备发送的图像数据。接收的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12并且显示在显示部分2上。
在图4的实例结构的情况下,作为永久地存储临时存储在临时存储部分23中的图像的存储处理,系统控制器10执行控制存储部分25将图像记录于其中的处理。相反地,在图5的结构的情况下,作为永久地存储临时存储在临时存储部分23中的图像的存储处理,系统控制器10执行控制通信部分26将图像数据发送到外部设备的处理。
也就是,使用图5的实例结构,成像/显示装置1不具有将数据永久地存储在自身中的能力。图5的实例结构依赖于图像数据存储在外部设备中的假设。
接下来,图6说明如图2中所示其中成像装置部分40与显示装置部分30被独立提供的成像/显示装置1的实例结构。
在该结构的情况下,成像装置部分40包括系统控制器10,成像系统(也就是成像部分3、成像信号处理部分15以及成像控制部分11),临时存储部分23,存储部分25,操作输入部分20,生物传感器21,图像输入/输出控制部分27,音频输入部分6以及音频分析部分24。
但是,成像装置部分40不包括音频输入/输出控制部分28,音频信号处理部分16或者音频输出部分50。因此,由音频输入部分6获得的外部声音的信号仅在由音频分析部分24执行的处理中使用,也就是关于存储条件的确定、元数据的产生以及搜索条件的产生。因此,在该实例结构中,音频数据不临时存储在临时存储部分23中也不存储在存储部分25中。
图像输入/输出控制部分27执行将由成像系统持续获得的图像数据传送到临时存储部分23的处理。图像输入/输出控制部分27也执行将从临时存储部分23读取的图像数据传送到通信部分26或存储部分25的处理。图像输入/输出控制部分27也执行将从存储部分25读取的图像数据传送到通信部分26的处理。
通信部分26对用于发送到显示装置部分30的提供的图像数据执行编码操作。然后,通信部分26将编码后的图像数据发送到显示装置部分30。
显示装置部分30包括通信部分34,显示部分31,显示图像处理部分32,显示驱动部分33,显示控制部分35以及操作部分36。
通信部分34执行与成像装置部分40中的通信部分26的数据通信。通信部分34接收从成像装置部分40发送的图像数据,并且对接收到的图像数据执行解码处理。
由通信部分34解码的图像数据提供到显示图像处理部分32。显示图像处理部分32执行用于显示图像数据的信号处理、分屏处理、字符图像的合成等。
显示驱动部分33由允许从显示图像处理部分32提供的图像信号显示在显示部分(例如液晶显示器)31上的像素驱动电路形成。也就是,显示驱动部分33使用用于显示的指定水平/垂直驱动时序将基于视频信号的驱动信号施加到显示部分31中以矩阵排列的像素。
显示控制部分35控制显示图像处理部分32的处理操作和显示驱动部分33的操作。例如,根据从操作部分36输入的用户操作,显示控制部分35控制显示操作的启用和停用、屏幕上区域形式的切换等。
在指令信息经由通信部分26与34之间的通信从系统控制器10发送的情况下,显示控制部分35可以根据从系统控制器10发送的指令信息控制显示操作的启用和停用、屏幕上区域形式的切换等。
虽然已经参考图4、5和6在上面描述了成像/显示装置1的实例结构,但是成像/显示装置1的各种其他结构是可能的。
例如,可以修改图4和5的结构从而不包括记录或输出音频数据的系统(也就是,音频输入/输出控制部分28,音频信号处理部分16和/或音频输出部分5),像图6的结构的情况一样。相反地,可以修改图6的结构从而另外地包括记录或输出音频数据的系统。
成像/显示装置1不需要包括音频分析部分24。成像/显示装置1不需要包括时间/日期计算部分18。成像/显示装置1不需要包括GPS接收器部分19。
可以修改图6的结构从而包括将待存储的图像数据发送到外部设备的通信部分26,代替存储部分25。
成像/显示装置可以既包括存储部分25又包括通信部分26。
[3.实例拍摄图像]
这里,参考图7A-10B,现在将在下面描述由成像系统执行的成像获得的并且临时存储在临时存储部分23中的图像数据的实例。
但是,图7A说明的不是通过成像获得的图像,而是当如图1中说明的显示部分2的整个屏幕处于穿透状态时用户看到的场景的实例。此时,显示部分2处于透明板的状态,并且用户正在通过透明的显示部分2观看他或她视野内的场景。
假设当成像部分3以常规方式拍摄时,与如果显示部分2处于穿透状态用户将看到的场景相当的图像通过成像而获得。
图7B说明当成像系统以常规方式拍摄时获得的图像数据的实例。该图像数据表示与如果显示部分2处于穿透状态用户将看到的场景几乎相同的场景。当成像系统正在以常规方式成像时,表示与用户常规看到的场景几乎相当的场景的图像如上所述通过成像而获得,并且这种图像的图像数据顺序地存储在临时存储部分23中。
图7C说明当系统控制器10指示成像控制部分11控制成像部分3根据经由操作输入部分20的用户操作进行远距拍摄时通过成像而获得的图像的实例。远距拍摄允许获得这种远距拍摄图像的图像数据,使得远距拍摄图像的图像数据可以存储在临时存储部分23中。
注意,虽然远距拍摄的实例已经在上面描述,但是可以使得成像部分3执行广角变焦以获得场景附近的广角图像的图像数据。
由成像系统进行远距拍摄/广角图像的采集由成像部分3中变焦透镜的驱动控制以及由成像信号处理部分15中的信号处理实现。
虽然图中没有显示,系统控制器10可以指示成像部分3执行焦点的调节代替所谓变焦操作,以拍摄附近场景或远方场景的图像,使得其图像数据可以存储在临时存储部分23中。
图8A说明通过常规成像获得的图像的实例,而图8B说明放大图像的实例。
根据用户操作,例如,系统控制器10可以指示成像信号处理部分15对从成像部分3获得的图像执行放大处理以获得如图8B中所示的放大图像的图像数据,并且将放大图像的图像数据存储在临时存储部分23中。虽然图中没有显示,系统控制器10也能够指示成像信号处理部分15在图像上执行缩小处理,并且将产生的缩小图像存储在临时存储部分23中。
图9A说明例如当用户处于儿童正在睡觉的黑暗房间中时通过常规成像获得的图像。因为用户处于黑暗的房间中,通过常规成像获得的该图像没有清晰地显示儿童等。
在该情况下,系统控制器10能够指示成像控制部分11(也就是,成像部分3或成像信号处理部分15)增加红外线成像灵敏度从而获得如图9B中所示的红外线图像的图像数据,其中正在黑暗房间中睡觉的儿童的脸等是可识别的。
图10A说明通过常规成像获得的图像。在该情况下,系统控制器10能够指示成像控制部分11(也就是,成像部分3或成像信号处理部分15)增加紫外线成像灵敏度从而获得如图10B中所示图像的图像数据,其中显示紫外线成分。
成像系统能够获得上述类型的图像数据,包括通过常规成像而获得的图像的图像数据。由成像系统获得的各种状态中的图像数据临时存储在临时存储部分23中。
无需说,可以由成像系统获得的图像数据并不局限于上述类型的图像数据。各种其他类型的图像数据也可以通过控制由成像部分3和成像信号处理部分15执行的处理以及它们的操作以各种成像方式获得。
多种形式的拍摄图像是可以想象的,例如:远距拍摄图像;广角图像;当在远距拍摄极端和广角极端之间的范围内执行推摄(zoom in)或拉摄(zoom out)时拍摄的图像;放大的拍摄图像;缩小的拍摄图像;使用变化的帧率拍摄的(例如使用高帧率拍摄的,或者使用低帧率拍摄的)图像;具有增加亮度的拍摄图像;具有减小亮度的拍摄图像;具有变化的对比度的拍摄图像;具有变化的锐度的拍摄图像;使用增加的成像灵敏度拍摄的图像;使用增加的红外线成像灵敏度拍摄的图像;使用增加的紫外线成像灵敏度拍摄的图像;使用截止特定波长范围拍摄的图像;外加效果的拍摄图像例如马赛克图像、亮度反转图像、柔光聚焦图像、图像的一部分高亮显示的图像以及具有变化的整体彩色气氛的图像;以及静止拍摄图像。
[4.重放操作]
现在将在下面描述重放操作。注意,这里描述的重放操作指使用存储在临时存储部分23中的图像数据而不是存储在存储部分25或外部设备中的图像数据的重放操作。
在本实施例中,通过持续成像获得的图像数据存储在临时存储部分23中,并且存储在临时存储部分23中的图像数据可以用来呈现最近的场景的重放显示。也就是,在存储于临时存储部分23中的图像数据的范围内重放过去的场景是可能的。
在用户偶然目睹交通事故的情况下,例如,用户能够观看事故场景的重放图像。此外,当观看体育比赛时,用户能够观看刚刚过去的比赛的重放图像。
在重放操作时呈现在显示部分2上的显示的实例在图12A和12B中说明。在重放操作时,系统控制器10允许图像数据从临时存储部分23读取,并且允许读取的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12。然后,显示图像处理部分12分割显示部分2的屏幕,例如,并且使得重放图像(也就是,读取的图像数据)显示在屏幕的一部分上。
图12A说明显示图像处理部分12在父屏幕区域AR1内设置子屏幕区域AR2并且正在区域AR2中显示重放图像而允许区域AR1保持处于穿透状态的实例情况。在该情况下,用户能够使用区域AR2观看过去场景的重放图像,而使用处于穿透状态的区域AR1观看当前场景。
图12B说明显示图像处理部分12将屏幕分割成上和下区域AR1和AR2,并且正在区域AR2中显示重放图像而允许区域AR1保持处于穿透状态的实例情况。同样在该情况下,用户能够使用区域AR2观看过去场景的重放图像,而使用处于穿透状态的区域AR1观看当前场景。
如上所述,显示部分2的屏幕被分割成父和子屏幕或者分割成两个部分,例如,并且呈现重放图像的显示而使得显示部分2的屏幕的一部分保持处于穿透状态。无需说,子屏幕在屏幕中的位置以及子屏幕的大小可以根据用户操作改变。显示部分2的屏幕被分割成左和右区域AR1和AR2也是可能的。区域AR1的面积与区域AR2的面积由用户操作设置为不相等也是可能的。此外,可以根据用户操作执行显示位置的切换。例如,父屏幕和子屏幕可以彼此替换。而且,由屏幕分割获得的区域可以彼此替换。
此外,代替使得进入穿透状态,可以使用区域AR1显示当前通过由成像系统成像而获得的图像(也就是,当前场景的图像,这与如果屏幕处于穿透状态用户将看到的场景相当)。
此外,在重放时,重放图像可以显示在显示部分2的整个屏幕上。也就是,整个屏幕可以从穿透状态(或者显示由常规成像获得的图像的状态)转换到显示重放图像的状态。
现在参考图11B在下面描述当重放的请求由用户操作发出时系统控制器10在临时存储部分23上执行的实例控制。
图11B说明临时存储部分23的存储区。如先前描述的,由成像系统持续获得的图像数据以环形存储方式在顶端地址AdST和末端地址AdED之间顺序存储,同时写地址指针W-Ad在移动。
假设当写地址指针W-Ad正指向地址AdX并且图像数据正存储在地址AdX时,用户执行操作以发出重放的请求。
在该情况下,系统控制器10继续写地址指针W-Ad的增加和通过成像获得的图像数据的写入,使得写地址指针W-Ad继续从地址AdX向前移动。同时,系统控制器10使得读地址指针R-Ad从地址AdX向后移动。临时存储部分23执行在由读地址指针R-Ad指示的地址读取图像数据的处理,并且读取的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12,以例如显示在显示部分2的区域AR2中,如图12A和12B中所示。
此时,读地址指针R-Ad的速度可以变成(递减到)1.5倍速、两倍速、三倍速等,使得图像将以快速倒回的方式从当前场景到依次较早的场景显示在显示部分2上。
当以快速倒回方式观看回放的图像时,用户搜索用户期望重放的场景的开头,在用户期望重放开始的点执行重放开始操作。
假设例如在读地址指针R-Ad向后移动到地址AdY时用户执行重放开始操作。在该情况下,当用户执行重放开始操作时,系统控制器10使得读地址指针R-Ad开始以正常速度在正常移动方向上递增。结果,临时存储部分23开始以正常速度从地址AdY开始读取图像数据,因此,从存储在地址AdY的图像开始的一系列重放图像开始显示在显示部分2上。
假设例如当读地址指针R-Ad到达地址AdZ时用户此后执行回放终止操作。在该情况下,系统控制器10此时终止重放。也就是,系统控制器10发出指令以终止临时存储部分23中的读取和显示部分2中重放图像的显示。
在该情况下,存储在地址AdY和AdZ之间的图像对应于用户期望再次看到的重放图像。
虽然简单的实例已经为了说明在上面描述,可能恰巧当用户正在以快速倒回方式观看回放的图像,搜索用户期望重放开始的点时,快速倒回进行得太快,并且用户因此期望相反地快速前进。而且,用户可能期望不是以正常速度而是以慢速观看重放图像。而且,用户可能期望中止重放或者重复地播放重放图像中的一些或全部。因此,优选地,根据用户操作改变读地址指针R-Ad递增或递减是可能的。而且,同样优选地,根据用户操作改变递增或递减的速率或者中止重放是可能的。
关于用户操作,可以提供与重放相关的操作单元。而且,系统控制器10例如可以将由加速度传感器等检测到的用户行为识别为用户操作。
例如,系统控制器10可以将用户轻拍成像/显示装置1两次的动作看作重放请求操作和重放终止操作。而且,系统控制器10例如可以将用户轻拍成像/显示装置1一次的动作看作重放开始操作。
此外,用户从左侧或右侧轻拍成像/显示装置1的动作可以看作快速前进的操作、快速倒回的操作、快速回放的操作、慢速回放的操作等。例如,用户轻拍成像/显示装置1右侧的动作可以看作前进回放的操作,以及用户轻拍成像/显示装置1左侧的动作可以看作倒回回放的操作,并且回放的速度(慢速、正常、两倍速等)可以基于轻拍的次数确定。
无需说,各种其他实例是可以想象的。例如,用户摇头的动作可以看作快速前进/快速倒回的操作。
在图11B中,用户首先搜索当前场景的图像,然后搜索依次较早的场景的图像,以找到用户期望重放开始的点。但是,可以如此安排,即当用户执行重放操作时,重放从指定时间之前的场景的图像开始。而且,这也可以如此安排,即用户能够通过轻拍次数等指定重放开始的点,例如三十秒之前,一分钟之前,三分钟之前,五分钟之前等。
[5.选择待存储图像的实例方式]
如上所述,系统控制器10进行关于存储条件的确定,并且当存储条件被满足时,从临时存储部分23提取图像数据以执行存储处理(也就是,将提取的图像数据记录在存储部分25中,或者将提取的图像数据经由通信部分26发送到外部设备)。这里,存储条件和响应这种存储条件的满足而提取的图像范围的实例将被描述。
.重放的执行
当用户变得对他或她在刚刚过去看到的场景感兴趣时或者当他或她因为某种原因期望再次观看场景时,用户将执行重放操作。因此,当重放操作根据用户操作而执行时,系统控制器10可以确定存储条件已经被满足。在该情况下,用户在重放操作期间再次观看的图像可以作为待存储图像而提取。在上述图11B的实例的情况下,例如,存储在地址AdY和AdZ之间的范围的图像数据作为待存储图像而提取。
.关于成像系统的操作
用户能够执行操作以指示成像系统执行远距拍摄/广角变焦,图像放大/缩小,使用增加的红外线灵敏度成像,使用增加的紫外线灵敏度成像,帧率的改变,图像效果的应用等。认为当用户正在观看他或她感兴趣的场景时用户执行这种操作是合理的。因此,系统控制器10可以确定当用户执行关于成像系统的这种操作时,存储条件被满足,使得操作例如远距拍摄/广角变焦等或信号处理在成像系统中执行。在该情况下,在操作例如远距拍摄/广角变焦等或信号处理连续执行期间获得的图像数据可以作为待存储图像而提取。
.基于生物信息的确定
(生物触发事件的发生)
由生物传感器21检测的生物信息可以用来检测用户情况的变化或者推断用户的感觉。因此,当基于作为生物信息检测到的数值的变化或从生物信息中推断的用户感受而确定预先确定的情况已经发生时,系统控制器10可以确定存储条件被满足。
例如,当检测到伴随紧张状态、兴奋状态、舒适状态等的发生的生物信息数值的变化时,或者当基于生物信息推断用户的感觉(例如愉快的、开心的、高兴的、伤心的、受惊的、冷静的、怀旧的、感动的、惊恐的、兴奋的、紧张的等)时,系统控制器10可以确定存储条件被满足。
这是因为用户在这种时候正在观看的场景可以看作对用户的感觉给出某种刺激。由例如当他或她在观看体育比赛时变得兴奋或因兴奋而变得疯狂时,当他或她目睹了感兴趣的场景时,当他或她被感动时,当他或她目睹了交通事故等时,当他或她遇到最爱的人、著名人士等时,当他或她变得不安或担忧时,或者当他或她受惊时检测到的生物信息指示的用户的反应可以看作存储条件被满足的触发事件。这使得能够存储对用户重要的场景。
在用户持续兴奋长达某段时期的情况下,在持续获得指示用户处于兴奋状态的生物信息的那段时期获得的图像数据可以作为待存储图像而提取。在获得指示用户在一个时刻受惊的生物信息的情况下,在那个时刻附近的某段时期获得的图像数据可以作为待存储图像而提取。
虽然兴奋状态可以由关于用户的生物信息例如脑波、血压或皮肤电反应检测,用户的状态也可以基于由视觉传感器检测到的瞳孔的状态或视线的移动而确定。而且,由加速度传感器、振动传感器等检测到的用户身体的运动可以用来确定用户的状态。
脉搏等的增加有时由紧张或兴奋引起且其他时候因运动例如跑步引起。为了区别这些原因,可以另外参考由加速度传感器等获得的信息。
.基于外部声音的确定(声音触发事件的发生)
当音频分析部分24在分析外部声音时检测到非常大声的发生,例如大声欢呼,意外事件的声音,或警报声音,或指定声音的发生时,系统控制器10可以确定存储条件被满足。也就是,这种声音的发生的检测可以看作存储条件被满足的触发事件。
可以如此安排,即特定的声音例如熟人的声音、电子声音、宠物的哭声或自然声音登记在音频分析部分24中,并且当检测到登记的特定声音时,系统控制器10确定存储条件被满足。
同样在这种情况下,在持续检测到使得存储条件被满足的这种声音的时期获得的图像数据,或者在确定存储条件被满足的时刻周围的某段时期获得的图像数据可以作为待存储图像而提取。
用户感兴趣的场景或者用户期望再次看到的场景的确定的实例,也就是关于存储条件的确定已经在上面描述。但是,应当注意,存在进行关于存储条件确定的许多其他方式。
注意,在本实施例中,通过成像而获得的图像数据曾持续地存储在临时存储部分23中,然后当存储条件被满足时,执行从临时存储部分23提取图像数据并且永久地存储提取的图像数据的处理。因此,在本实施例中执行关于存储条件的确定。但是,在存储部分25或外部设备具有如此大的存储容量以至于通过成像获得的每条图像数据都可以永久地存储的情况下,不需要执行确定存储条件是否已经被满足以存储提取的图像数据的处理。
[6.成像和实例存储过程]
现在将在下面描述在根据本实施例的成像/显示装置1中由系统控制器10执行用于实现图像数据成像和存储的实例控制过程。这里假设使用如图1中所示具有位于用户眼睛前方的显示部分2的成像/显示装置1。
图13说明由系统控制器10例如在成像/显示装置1的打开和关闭之间执行的过程。该过程也可以看作在成像/显示装置1打开之后用户已经执行开始操作的操作的时间与用户已经执行终止操作的操作的时间之间执行的过程。
在作为成像/显示装置1打开等的结果操作开始的情况下,系统控制器10首先在步骤F101开始成像以及通过成像而获得的图像数据的临时存储。具体地,系统控制器10控制成像系统开始常规成像操作,允许通过成像获得的图像数据提供到临时存储部分23,并且控制临时存储部分23开始以环形存储方式的存储操作。
此后,该成像以及通过成像而获得的图像数据在临时存储部分23中的存储可以继续,直到作为成像/显示装置1的关闭等的结果操作终止。
在步骤F102,系统控制器10指示显示控制部分14使得显示部分2的整个屏幕进入穿透状态。
作为步骤F101和F102的处理的结果,用户变得能够通过处于穿透状态的显示部分2以常规方式观看他或她视野中的场景,并且用户视野内的场景持续地成像并临时地存储。
在以上述方式开始操作之后,系统控制器10在步骤F103,F104,F105,F106,F107和F108在监控处理循环中执行监控处理。
在步骤F103,系统控制器10监控用户是否已经执行请求重放的操作。
在步骤F104,系统控制器10监控用户是否已经执行成像相关的操作。这里使用的术语“成像相关的操作”指将由成像系统获得的图像数据从通过常规成像获得的图像数据切换成另一种类型的图像数据。这种操作的实例包括远距拍摄/广角变焦操作,图像放大/缩小的操作,调节成像帧率的操作,改变成像灵敏度的操作,增加红外线成像灵敏度的操作,增加紫外线成像灵敏度的操作,以及图像处理例如图像效果的应用的操作。此外,将成像状态从这种非常规状态切换回到常规状态的操作也是成像相关操作的一个实例。
在步骤F105,系统控制器10基于从音频分析部分24获得的信息监控声音触发事件(作为音频分析的结果,存储条件的满足)是否已经发生。
在步骤F106,系统控制器10基于从生物传感器21获得的信息监控生物触发事件(也就是基于生物信息的存储条件的满足)是否已经发生。
在步骤F107,系统控制器10确定内部存储标记是否打开。
在步骤F108,系统控制器10监控例如作为关闭操作或者由用户执行的终止操作的操作的结果,操作是否应当终止。
当用户已经执行重放请求操作时,系统控制器10从步骤F103前进到步骤F109,并且执行重放过程。该重放过程是执行参考图11B在上面描述的操作的过程,并且在图14中说明。
首先,在步骤F201,系统控制器10执行以快速倒回模式开始图像显示的控制。具体地,系统控制器10例如控制临时存储部分23读取图像数据,同时递减读地址指针R-Ad以便从写地址指针W-Ad的当前位置以例如大约两倍的速度向后移动。另外,系统控制器10指示显示控制部分14以允许从临时存储部分23读取的图像数据显示在屏幕的一部分上,例如图12A或11B中说明的区域AR2。注意,以快速倒回模式回放的图像可以显示在显示部分2的整个屏幕上。
作为步骤F201的处理的结果,用户变得能够观看以快速倒回模式回放的图像(也就是,当前场景的图像和依次较早的场景的图像)。当观看以快速倒回模式回放的图像时,用户搜索用户期望再次观看的场景的开始点,并且在开始点执行重放开始操作。
当检测到重放开始操作时,系统控制器10从步骤F202前进到步骤F203,并且执行开始重放图像的显示的控制。具体地,系统控制器10控制临时存储部分23改变读地址指针R-Ad的模式,使得读地址指针R-Ad开始以正常速度递增(也就是,在时间前进的正常方向上移动),并且读取图像数据。结果,重放图像以正常方式回放并显示在显示部分2上,并且用户变得能够再次观看最近的场景。注意虽然图14中没有显示,此时,根据用户操作,重放图像可以低速回放或者以高速例如1.5倍速回放。
当此后检测到用户已经执行重放终止操作或者当此后重放已经完成时,系统控制器10从步骤F204前进到步骤F205。例如,当重放已经前进到如此远以至于到达用户执行重放请求操作时获得的图像(也就是,由用户请求重放时写地址指针W-Ad指示的地址)时,或者在重放以高速执行的情况下,当重放已经前进到非常远以至于到达当前时间获得的图像(也就是,当前时刻由写地址指针W-Ad指示的地址)时,重放完成。
当重放终止操作已经执行或者当重放已经完成时,系统控制器10在步骤F205执行重放终止处理。具体地,系统控制器10控制临时存储部分23终止图像数据的读取,并且指示显示控制部分14将显示部分2的整个屏幕返回到穿透状态。
如先前描述的,系统控制器10将重放操作的执行看作存储条件的满足。因此,在步骤F206,系统控制器10确定待存储图像数据的存储范围,作为重放操作执行的伴随物。另外,系统控制器10产生元数据。该元数据包括基于在重放时检测到的生物信息的信息,指示待存储的图像数据已经因重放操作的执行而被确定的信息等。产生元数据的处理将参考图16随后描述。
此外,系统控制器10打开存储标记。
在执行上面处理之后,系统控制器10返回到图13中的步骤F103-F108的监控循环。
紧跟在上面重放过程执行之后,系统控制器10从图13中的步骤F107前进到步骤F113,因为存储标记已经打开。然后,在步骤F113,系统控制器10执行存储处理。
作为存储处理,系统控制器10控制存储部分25将存储范围内的图像数据和元数据记录在存储介质上。也就是,在该情况下,系统控制器10允许在图14中的步骤F206确定的存储范围内的图像数据,例如重放时显示的图像数据,从临时存储部分23传送到存储部分25,并且将在步骤F206产生的元数据发送到存储部分25。然后,系统控制器10控制存储部分25将元数据添加到图像数据,编码得到的数据用于记录,并且将得到的数据记录在存储介质上。
注意,上面的控制在如图4中所示成像/显示装置1包括存储部分25的情况下执行,并且在如图5中所示成像/显示装置1包括通信部分26代替存储部分25的情况下,系统控制器10执行允许存储范围内的图像数据和元数据被编码以便发送、并且将得到的数据经由通信部分26发送到外部设备(例如存储设备70,服务器装置71等)的控制。
在步骤F113的存储处理完成之后,系统控制器10在步骤F114关闭存储标记,并且返回到步骤F103-F108的监控循环。
当用户执行成像相关操作时,系统控制器10从步骤F104前进到步骤F110,并且执行成像系统控制过程。成像系统控制过程在图15中说明。
首先,在步骤F301,系统控制器10根据成像相关的操作执行关于成像系统的控制。也就是,系统控制器10使得由用户请求的操作被执行。
在用户执行远距拍摄或广角变焦操作时,例如,系统控制器10指示成像控制部分11执行变焦操作并且驱动成像部分3中的变焦透镜。
在用户执行图像放大或缩小操作的情况下,系统控制器10指示成像控制部分11执行图像放大或缩小处理,从而使得成像信号处理部分15对拍摄的图像数据执行放大处理或缩小处理。
在用户执行调节成像帧率的操作的情况下,系统控制器10指示成像控制部分11改变帧率,从而改变成像部分3和成像信号处理部分15中的帧率。
在用户执行改变成像灵敏度的操作、增加红外线成像灵敏度的操作或者增加紫外线成像灵敏度的操作的情况下,系统控制器10指示成像控制部分11改变成像灵敏度,从而改变从成像部分3中的成像器件获得的信号的灵敏度(例如改变从成像器件读取的信号的增益)。
在用户执行图像效果的应用的操作的情况下,系统控制器10指示成像控制部分11对图像执行效果处理,从而使得成像信号处理部分15对拍摄的图像数据执行图像效果处理。
在用户执行将成像状态从非常规状态的任何一种例如远距拍摄/广角变焦状态、图像放大/缩小状态、帧率改变状态、灵敏度改变状态或图像效果状态切换回到常规状态的操作的情况下,系统控制器10指示成像控制部分11执行常规成像,从而将成像部分3和成像信号处理部分15的操作返回到执行常规成像的状态。
如上所述,系统控制器10根据由用户执行的成像相关操作控制成像系统的操作。当在步骤F301系统控制器10控制正在以常规方式成像的成像系统的操作,使得执行远距拍摄/广角变焦、图像放大/缩小、帧率的改变、灵敏度的改变、图像效果的应用等时,系统控制器10从步骤F302前进到F303,并且在该情况下,系统控制器10使得拍摄的图像显示在显示部分2上。也就是,系统控制器10控制图像输入/输出控制部分27将从成像系统获得的图像数据提供到显示图像处理部分12,同时像以前一样持续将从成像系统获得的图像数据提供到临时存储部分23,并且也指示显示控制部分14显示拍摄的图像数据。
然后,系统控制器10返回到步骤F103-F108的监控循环。
在下文,为了便于描述,执行远距拍摄/广角变焦、图像放大/缩小、帧率的改变、灵敏度的改变、图像效果的应用等的成像操作的状态将称作“特殊成像状态”,从而区别于常规成像状态。常规成像状态指获得与通过处于穿透状态的显示部分2看到的图像相当的图像的成像操作的状态,如图7B中所示。
当用户执行将成像操作的状态切换到特殊成像状态例如变焦操作的操作时,步骤F303的处理使得显示部分2从穿透状态切换到显示变焦图像等的状态,从而用户变得能够观看拍摄的图像。也就是,如果用户执行远距拍摄/广角变焦、图像放大/缩小、帧率的变化、成像灵敏度的变化、使用增加的红外线灵敏度的成像、使用增加的紫外线灵敏度的成像、图像效果的应用等的操作,用户变得能够使用显示部分2观看在特殊成像状态中获得的相应拍摄图像(例如,参考图7A-10B在上面描述的图像之一)。
注意,在该情况下,拍摄的图像可以显示在显示部分2的整个屏幕上,或者与如图12A和12B中所示重放图像的情况一样,拍摄的图像可以显示在屏幕的一部分例如区域AR2中,而区域AR1处于穿透状态。
在步骤F103检测到的成像相关操作是将成像操作状态从特殊成像状态切换回到常规成像状态的操作的情况下,系统控制器10如上所述在图15中的步骤F301控制成像系统返回到常规成像状态。在该情况下,系统控制器10从步骤F302前进到步骤F304。
在步骤F304,系统控制器10指示显示控制部分14控制显示部分2的整个屏幕返回到穿透状态。
系统控制器10将作为用户操作的结果成像操作状态到特殊成像状态的切换看作存储条件的满足。因此,在步骤F305,系统控制器10根据直到最近已经执行的特殊成像确定待存储图像数据的存储范围。另外,系统控制器10产生元数据。该元数据包括:基于在特殊成像状态的时期检测到的生物信息的信息;指示待存储的图像数据已经因特殊成像状态而被确定的信息,例如作为已经执行的特殊成像,指示远距拍摄变焦、广角变焦、图像放大、图像缩小、帧率的改变、图像灵敏度的改变、使用增加的红外线灵敏度的成像、使用增加的紫外线灵敏度的成像、图像效果的应用等的信息;等。
此外,系统控制器10打开存储标记。
在执行上述处理之后,系统控制器10返回到图13中步骤F103-F108的监控循环。
紧接在成像操作状态从特殊成像状态切换回到常规成像状态之后,系统控制器10从图13中的步骤F107前进到步骤F113,因为存储标记已经打开。然后,在步骤F113,系统控制器10执行存储处理。
作为存储处理,系统控制器10控制存储部分25将存储范围内的图像数据和元数据记录在存储介质上。也就是,在该情况下,系统控制器10允许在图15中的步骤F305确定的存储范围内的图像数据,例如通过在特殊成像状态下成像而获得的图像数据,从临时存储部分23传送到存储部分25,并且将在步骤F305产生的元数据发送到存储部分25。然后,系统控制器10控制存储部分25将元数据添加到图像数据,编码得到的数据用于记录,并且将得到的数据记录在存储介质上。
注意,在成像/显示装置1包括通信部分26的情况下,系统控制器10可以执行允许存储范围内的图像数据和元数据编码以便发送,并且将得到的数据经由通信部分26发送到外部设备的控制。
在步骤F113的存储处理完成之后,系统控制器10在步骤F114关闭存储标记,并且返回到步骤F103-F108的监控循环。
顺便提及,特殊成像状态可以持续很长时间。例如,变焦状态等可以持续比数据存储在临时存储部分23中的时间段更长的时间。注意,该时间段取决于临时存储部分23的存储容量。因此,如果在成像状态返回到常规成像状态之后存储处理在步骤F113执行,例如,待存储的图像数据的一部分可能已经丢失。
因此,修改上述过程使得当在成像状态切换到特殊成像状态之后一定时间段已经过去时,中断地执行步骤F305和F113的处理。
而且,虽然图15中没有显示,成像状态从某种特殊成像状态切换到另一种特殊成像状态或者请求组合操作可能发生。例如,成像状态可以从远距拍摄变焦状态切换到使用改变的帧率执行成像的状态。而且,可以请求使用增加的红外线灵敏度的成像,同时维持远距拍摄变焦状态。当更改操作模式同时成像状态维持在特殊成像状态时,中断地执行步骤F305和F113的处理是优选的。
当系统控制器10在步骤F103-F108的监控循环中确定声音触发事件已经发生,系统控制器10从步骤F105前进到步骤F111。然后,系统控制器10确定待存储图像数据的存储范围,作为声音触发事件的发生的伴随物。另外,系统控制器10产生元数据。该元数据包括:基于在声音触发事件发生时检测到的生物信息的信息;指示待存储图像数据已经因声音触发事件的发生而被确定的信息;声音触发事件的内容(也就是由音频分析部分24获得的分析信息);等。此外,系统控制器10打开存储标记。
在执行上述处理之后,系统控制器10返回到步骤F103-F108的监控循环。紧接在此之后,系统控制器10从步骤F107前进到步骤F113,因为存储标记已经打开,并且执行存储处理。
作为存储处理,系统控制器10控制存储部分25将存储范围内的图像数据和元数据记录在存储介质上。也就是,在该情况下,系统控制器10允许在步骤F111确定的存储范围内的图像数据从临时存储部分23传送到存储部分25,并且将在步骤F111产生的元数据发送到存储部分25。然后,系统控制器10控制存储部分25将元数据添加到图像数据,编码得到的数据用于记录,并且将得到的数据记录在存储介质上。
在成像/显示装置1包括通信部分26的情况下,系统控制器10可以执行允许存储范围内的图像数据和元数据被编码以便发送,并且将得到的数据经由通信部分26发送到外部设备的控制。
在步骤F113的存储处理完成之后,系统控制器10在步骤F114关闭存储标记,并且返回到步骤F103-F108的监控循环。
当系统控制器10在步骤F103-F108的监控循环中确定生物触发事件已经发生时,系统控制器10从步骤F106前进到步骤F112。然后,系统控制器10确定待存储图像数据的存储范围,作为生物触发事件的发生的伴随物。另外,系统控制器10产生元数据。该元数据包括表示待存储图像数据已经因生物触发事件的发生而被确定的信息,以及生物触发事件的内容(例如,由生物传感器21检测到的信息,基于检测信息关于用户状态的判断的内容等)。此外,系统控制器10打开存储标记。
在执行上述处理之后,系统控制器10返回到步骤F103-F108的监控循环。紧接在此之后,系统控制器10从步骤F107前进到步骤F113,因为存储标记已经打开,并且执行存储处理。
作为存储处理,系统控制器10控制存储部分25将存储范围内的图像数据和元数据记录在存储介质上。也就是,在该情况下,系统控制器10允许在步骤F112确定的存储范围内的图像数据从临时存储部分23传送到存储部分25,并且将在步骤F112产生的元数据发送到存储部分25。然后,系统控制器10控制存储部分25将元数据添加到图像数据,编码得到的数据用于记录,并且将得到的数据记录在存储介质上。
在成像/显示装置1包括通信部分26的情况下,系统控制器10可以执行允许存储范围内的图像数据和元数据被编码以便发送,并且将得到的数据经由通信部分26发送到外部设备的控制。
在步骤F113的存储处理完成之后,系统控制器10在步骤F114关闭存储标记,并且返回到步骤F103-F108的监控循环。
当电源关闭或者操作完成时,系统控制器10从步骤F108前进到步骤F115,并且终止成像系统中的成像操作和临时存储部分23中图像数据的存储,从而完成该系列处理。
根据上述过程,执行持续的成像以及通过成像而获得的图像数据的临时存储,同时在临时存储的图像数据中,用户感兴趣的或者用户期望随后再次看到的图像的图像数据永久地存储在存储部分25中(或者经由通信部分26发送到外部设备并且永久地存储在其中)。
而且,用户能够通过重放操作观看他或她在刚才观看的场景。
注意,在上述实例过程中已经假设,当成像系统已经进入特殊成像状态时或者当执行重放图像的显示时,图像显示在显示部分2的一部分或全部上,而否则使得显示部分2的整个屏幕处于穿透状态。但是,代替使得显示部分2的整个屏幕处于穿透状态,在显示部分2的整个屏幕上显示通过常规成像获得的图像数据是可能的。
而且注意,在如图2中所示成像/显示装置1包括彼此独立的显示装置部分30和成像装置部分40的情况下,不需要执行使得显示装置部分30进入穿透状态的处理。在该情况下,可以如此安排,即在正常时间,显示装置部分30的屏幕保持不活动或者通过常规成像获得的图像数据显示在上面。
如上所述,系统控制器10在图13中的步骤F111和F112,图14中的步骤F206以及图15中的步骤F305中执行产生元数据的处理。例如,根据图16中说明的过程执行产生元数据的处理。
首先,在步骤F401,系统控制器10产生存储条件信息作为包括在元数据中的信息。在图13中的步骤F111的情况下,存储条件信息指指示待存储图像数据已经因声音触发事件的发生而被确定的信息,以及关于音频分析结果的信息。在图13中的步骤F112的情况下,存储条件信息指指示待存储图像数据已经因生物触发事件的发生而被确定的信息。在图14中的步骤F206的情况下,存储条件信息指指示待存储图像数据已经因重放操作的执行而被确定的信息。在图15中的步骤F305的情况下,存储条件信息指指示操作已经在特殊成像状态下被执行的信息。
接下来,在步骤F402,系统控制器10产生生物传感器检测信息和感觉信息,它们也可以包括在元数据中。生物传感器检测信息指由生物传感器检测到的值的信息。生物传感器检测信息是例如表示待检测的生物信息的检测值的信息,例如心率或血压。
感觉信息指基于由生物传感器21检测到的生物信息确定的表示用户感觉的信息。感觉信息是例如表示“愉快的”、“开心的”、“高兴的”、“伤心的”、“受惊的”、“冷静的”、“怀旧的”、“感动的”、“惊恐的”、“兴奋的”、“紧张的”等的信息。
在步骤F403,系统控制器10接收由时间/日期计算部分18获得的当前日期和时间的信息,并且产生日期/时间信息作为包括在元数据中的信息。
在步骤F404,系统控制器10接收由GPS接收器部分19获得的当前位置的信息(也就是其纬度和经度),并且产生位置信息作为包括在元数据中的信息。
在步骤F405,系统控制器10产生用户标识信息作为包括在元数据中的信息。各种类型的用户标识信息是可以想象的。在用户先前已经设置了ID号的情况下,例如,ID号可以用作用户标识信息。而且,指定给成像/显示装置1的序列号等可以看作用户专用的标识信息,从而用作用户标识信息。
作为用于更准确地标识个体的用户标识信息的实例,可以使用由生物传感器21检测到的信息。例如,一条或多条信息,例如脉搏、呼吸动作、眼底图案以及晶状体的厚度可以单独地或联合地用来产生实际使用成像/显示装置1的用户的标识信息。
然后,在步骤F406,系统控制器10产生包括在步骤F401-F405产生的所有信息的元数据。
该元数据添加到图像数据然后在图13中步骤F113经历存储处理。因此,存储条件、生物信息(例如检测值或感觉信息)、日期/时间信息、位置信息以及用户标识信息作为附加信息与待存储图像数据相关联。
当对存储的图像数据执行搜索时使用如上所述的元数据。
[7.显示存储图像的实例过程]
如上所述,根据本实施例的成像/显示装置1成像用户视野内的场景,并且存储对用户有意义的场景的图像数据。
然后,如下所述在存储的图像数据上自动执行搜索,使得使用户回想起例如过去的记忆或感觉的图像被显示从而呈现给用户。
现在将参考图17在下面描述显示存储在存储部分25或外部设备(例如存储设备70或服务器装置71)中的图像数据的实例过程。
图17说明由系统控制器10执行的用于显示存储图像的过程。该过程例如在成像/显示装置1的电源导通时总是持续地执行。作为选择,该过程可以在成像/显示装置1的电源导通之后由用户操作请求操作开始时开始。
注意,如图17中说明的显示存储图像的过程与图13-16的上述过程,也就是关于成像和图像数据存储的过程并行地执行。例如通过在系统控制器10执行图13-16的过程时图17的过程作为中断常规地处理,实现并行处理。图17的过程的程序可以包括在执行图13-16的过程的程序中,或者作为常规调用的独立程序。也就是,程序的形式不受限。
在电源导通之后,例如,系统控制器10在图17中的步骤F501执行识别情况的处理。情况指用户情况、日期和时间、位置、用户操作等。用户情况是例如由生物传感器21检测到的关于用户身体的生物信息的检测值的信息,或者可以基于生物信息确定的用户的感觉信息。
在步骤F502,基于在步骤F501识别的用户情况、日期和时间、位置、用户操作等,系统控制器10确定搜索是否应当现在执行以便显示过去场景的存储图像。
例如,关于用户情况、感觉信息、日期和时间、位置等,可以预先指定应当执行搜索的情况。在该情况下,系统控制器10确定当前情况是否对应于应当执行搜索的这种先前指定的情况的任何一种。
具体地,检测到感觉信息例如“愉快的”、“伤心的”、“高兴的”、“惊恐的”等的时间可以指定为应当执行搜索的时间。在该情况下,系统控制器10确定用户当前是否具有这种感觉。
而且,生物信息的检测值在数值方面已经进入预先确定情况,例如“心率大于x”、“排汗量大于x”或“α波的电平高于x”的时间可以指定为应当执行搜索的时间。在该情况下,系统控制器10确定生物信息的当前检测值是否落在这种预先确定的情况内。
而且,当确定现在是否应当执行搜索时,也可以考虑日期和时间落在指定季节、月、日、或时间(时间段),用户处于特定位置等。
如果确定当前情况不是应当执行搜索的情况,系统控制器10通过步骤F507返回到步骤F501。同时,如果确定当前情况是应当执行搜索的情况,系统控制器10前进到步骤F503,并且设置搜索条件并执行用于执行搜索的控制。
搜索条件是当在上述元数据上执行搜索时使用的搜索条件。作为元数据添加到图像数据的信息的内容指定为搜索条件。
例如,在步骤F501的情况识别时检测到的生物信息的值或感觉信息指定为搜索条件。具体地,在感觉“愉快的”已经作为用户的当前感觉而检测到的情况下,信息“愉快的”可以指定为搜索条件。而且,在用户的当前心率“大于x”的情况下,信息“心率大于x”可以指定为搜索条件。
此外,当前日期和时间或者当前位置(也就是其纬度和经度)也可以包括在搜索条件中。用户识别信息也可以包括在搜索条件中。用户识别信息是当描述元数据的产生时的上述识别信息。
此外,当前用户操作的内容的信息(例如关于成像系统的操作,例如变焦操作,或者重放的操作)也可以包括在搜索条件中。
在指定搜索条件之后,系统控制器10将搜索条件提供到存储部分25并且使得存储部分25在存储于其中的图像数据上执行搜索。
作为选择,系统控制器10可以将搜索条件经由通信部分26发送到外部设备,并且请求外部设备执行搜索。
存储部分25(或外部设备)搜索存储的图像数据的元数据以确定是否存在与搜索条件匹配的任何元数据,并且通知系统控制器10是否已经找到与搜索条件匹配的任何图像数据。
如果没有找到与搜索条件匹配的图像数据,系统控制器10从步骤F504通过步骤F507返回到步骤F501。
如果找到与搜索条件匹配的某条图像数据,系统控制器10从步骤F504前进到步骤F505,并且执行显示作为搜索结果找到的图像数据的处理。
具体地,系统控制器10指示存储部分25读取找到的图像数据,并且控制读取的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12。同时,系统控制器10指示显示控制部分14执行显示从存储部分25读取的图像数据的图像的处理。结果,作为搜索结果找到的图像显示在显示部分2上。
在外部设备中执行搜索的情况下,通信部分26接收从外部设备发送的找到的图像数据。系统控制器10控制从外部设备读取并发送并且由通信部分26接收的找到的图像数据通过图像输入/输出控制部分27提供到显示图像处理部分12。同时,系统控制器10指示显示控制部分14执行显示该图像数据的处理。结果,作为在外部设备中搜索的结果而找到的图像显示在显示部分2上。
在显示部分2上显示作为搜索结果找到的图像(也就是回放图像)的各种模式是可以想象的。例如通过基于从系统控制器10发出的指令,显示控制部分14指定显示模式到显示图像处理部分12和显示驱动部分13,实现回放图像的显示的各种模式。
例如,如图18A中所示,在显示部分2的屏幕区域中,子屏幕区域AR2可以设置在父屏幕区域AR1内,然后回放图像可以显示在区域AR2中而区域AR1允许处于穿透状态。在该情况下,用户能够使用区域AR2观看自动取回的过去场景的图像,同时使用处于穿透状态的区域AR1观看当前场景。
图18B说明屏幕区域分割成上和下区域AR1和AR2,并且回放图像显示在区域AR2中而允许区域AR1保持穿透状态的实例情况。同样在该情况下,用户能够使用区域AR2观看自动取回的过去场景的图像,同时使用处于穿透状态的区域AR1观看当前场景。
如上所述,显示部分2的屏幕划分成父和子屏幕或者分割成两个部分,例如,并且执行作为搜索结果找到的回放图像的显示,同时允许显示部分2的屏幕的一部分处于穿透状态。无需说,子屏幕在屏幕中的位置以及子屏幕的大小可以根据用户操作改变。显示部分2的屏幕分割成左和右区域AR1和AR2也是可能的。区域AR1的面积与区域AR2的面积由用户操作设置为不相等也是可能的。此外,可以根据用户操作执行显示位置的切换。例如,父屏幕和子屏幕可以根据用户操作彼此交换。而且,由屏幕分割而获得的区域可以根据用户操作彼此交换。
此外,代替允许处于穿透状态,区域AR1可以用来显示当前通过由成像系统成像而获得的图像(也就是当前场景的图像,其相当于如果屏幕处于穿透状态用户将看到的场景)。
而且,作为搜索结果找到的回放图像可以在整个屏幕区域上显示一次或重复地显示,同时允许屏幕区域的全部或一部分处于穿透状态。
例如,当允许整个屏幕区域处于穿透状态时,回放图像可以在整个屏幕区域上显示一瞬间。作为选择,可以重复回放图像的瞬时显示。
而且,因为该对显示部分2为一对眼睛而准备,所以可以允许两个显示部分2中一个的整个屏幕处于穿透状态,而回放图像显示在两个显示部分2中另一个的整个屏幕上。
此外,当允许显示部分2的整个屏幕区域处于穿透状态时,回放图像可以显示在屏幕区域的整个或一部分上。
例如,图19A说明当整个屏幕处于穿透状态时用户看到的场景,而图19B说明此时回放图像P显示在屏幕区域的右下角的情况。此外,图19C说明当整个屏幕处于穿透状态时,回放图像P显示在整个屏幕上的情况。
当回放图像因增加的透射率显示在处于穿透状态的区域中时,回放图像出现在用户的视野中,好像它朦胧地隐约出现一样。这例如导致使用户回想起记忆或过去的经历的显示。
注意,在如图2中所示显示装置部分30独立提供的情况下,不需要使屏幕进入穿透状态,因此,回放图像可以常规方式显示在显示装置部分30中。
在步骤F505,取回的图像数据以上述方式的任何一种呈现给用户。当取回的图像数据的显示完成时,系统控制器10从步骤F506前进到步骤F507,并且如果操作还不应当结束,返回到步骤F501。
如上所述图17的过程持续直到在步骤F507确定操作应当结束。例如,当已经关闭成像/显示装置1的电源时或者当用户已经执行停止上面显示过程的操作时,确定操作的结束。
注意,虽然已经假设图17的上述过程在成像/显示装置1的电源导通之后或者在成像/显示装置1的电源导通之后由用户操作请求操作开始之后持续执行,可以允许用户执行请求回放图像的显示的操作。在该情况下,当用户执行该操作时,图17的过程开始。在该情况下,可以省略在步骤F502当前情况是否是应当执行搜索的情况的确定。
而且,作为执行图17的过程的条件,可以执行用户验证。例如,由生物传感器21检测的信息可以用来识别各个用户。因此,仅在成像/显示装置1由特定用户戴上时可以执行图17的显示过程。无需说,不仅图17的过程而且图13-16的过程可以仅在成像/显示装置1由特定用户佩戴时执行。
[8.实施例、实例变体和实例扩展的效果]
如上所述,在根据本发明上述实施例的成像/显示装置1中,用户在他或她的日常生活中看到的场景的图像数据与基于关于用户的生物信息产生的元数据一起被存储。因此,可以存储日常场景的图像以便与用户的情况相关联,使得图像可以方便地取回用于随后的回放等。
此外,通过使用利用生物信息产生的搜索条件搜索存储的图像数据并且显示取回的图像数据,呈现适合于用户当前情况的过去场景的图像是可能的。因此,实现非常有趣的图像呈现,例如让用户回想起记忆的图像呈现,允许用户观看过去的类似场景的图像呈现,或者过去印象深刻事件的图像呈现。
更具体地,通过成像/显示装置1执行由系统控制器10执行的根据图13-16的控制过程的操作例如成像、临时存储和存储处理,并且执行由系统控制器10执行的根据图17的控制过程的自动搜索和显示操作,实现下面内容。
首先,因为用户看到的每个场景被临时地存储,用户能够通过重放再次观看刚才的场景。
在用户观看运动场、足球场、棒球场等中的体育比赛的情况下,例如,用户通常不能像用户正在使用电视广播观看体育比赛时一样观看重放。但是,如果用户佩戴成像/显示装置1,用户能够例如任意地观看运动员的比赛的重放。
此外,下面的情况在用户的日常生活中可能发生:用户心不在焉并且错过某个场景;用户恰巧经过感兴趣的人;以及用户目睹交通事故等。在这种情况下,以及在各种其他情况下,用户能够通过重放观看刚才的场景。
因为假设临时存储部分23用于临时存储,临时存储部分23可以通过以环形存储方式使用它的存储区而用于存储由成像持续获得的图像,并且不需要具有巨大的存储容量。临时存储部分23的存储容量可以例如在设计阶段基于可以重放的图像数据应当扩展到多久以前而确定。
此外,通过执行成像相关操作,用户能够使用显示部分2观看通过在特殊成像状态下成像获得的图像,例如远距拍摄图像、广角图像、放大图像、使用增加的红外线成像灵敏度拍摄的图像、使用增加的紫外线成像灵敏度拍摄的图像,或者使用高帧率拍摄的图像。因此,用户能够任意地观看使用正常视觉不能看到的场景。
此外,当用户执行操作以发出执行重放或特殊成像状态下成像的指令时,作为重放或成像主体的场景可能是用户感兴趣的场景。因为执行使得这种场景的图像数据永久地存储在存储部分25(或者通信部分26与其通信的外部设备)的存储处理,用户感兴趣的场景的图像被存储。因此,用户能够在随后日子播放场景的图像以再次观看场景。用户也能够例如将这种存储图像编辑成例如记录用户的动作历史或记忆的视频相册等。
类似地,生物触发事件、声音触发事件等也启动存储图像数据的存储处理。因此,不需要用户执行任何特定操作,用户感兴趣的或者对用户重要的场景的图像数据可以永久地存储。
因此,实现了能够记录用户日常生活中重要场景的图像的成像/显示装置。
此外,过去场景的图像根据用户的感觉或身体情况、日期和时间、位置等自动地取回并显示。因此,适合于用户情况等的图像呈现给用户。
例如当用户愉快时,显示当他或她类似地感到愉快时用户曾看到的过去场景。当用户感到伤心时,显示当他或她伤心时用户曾看到的过去场景。
例如,图18A和18B说明当用户当前被某个视图(view)感动时,显示过去曾类似地感动过用户的过去视图的图像的情况。
同时,图19B和19C说明充满怀旧的甜蜜的用户回想起过去的熟人、女朋友等时,显示早些时候用户曾与她度过的场景的情况。
如上面例证的,根据用户的当前感觉等执行使得用户在过去具有类似感觉时的场景被显示就好像它隐约出现一样的显示操作。
此外,在日期和时间、位置等也包括在搜索条件中的情况下,取回与特定日期和时间、特定位置等相关联的图像数据是可能的。例如,当用户正在享受圣诞节时,可以回放用户曾经享受过的过去圣诞节的场景的图像。而且,当用户正在兴奋地观看体育场中的体育比赛时,可以例如显示早些时候用户在相同场地兴奋地观看过的场景的图像。
在图像数据存储在成像/显示装置1内的存储部分25中,并且取回然后回放存储在存储部分25中的图像数据的情况下,再现的场景基本上是用户自己在过去看到的场景。相反地,在成像/显示装置1具有通信部分26的情况下,不仅用户他或她自己曾经看到的场景,而且其他人曾经看到的场景可以显示给用户观看。
假设例如许多用户每人佩戴成像/显示装置1并且获得的图像数据存储在服务器装置71中。在该情况下,由许多用户的每个观看的场景的图像数据都存储在服务器装置71中。当这种图像数据作为搜索目标搜索时,由另一个人观看的并且匹配用户的当前感觉、日期和时间、位置等的场景可以被取回。
也就是,与许多人的感觉等相关联的场景可以在他们之间共享。这使得用户当感觉到愉快时,能够例如观看另一个人当他或她愉快时看到的场景。
同时,因为存储的图像数据是各个用户观看的场景的图像数据,所以从隐私的观点允许每个个体观看存储的图像数据的图像可能是不适当的。因此,用户标识信息可以添加到搜索条件中,使得仅可以取回用户他或她自己在过去看到的场景。
此外,标识信息可以为一组特定用户而设置,并且该标识信息可以包括在与图像数据一起存储的元数据中,并且也添加到搜索条件。这使得属于相同组的用户能够共享由每个用户看到的场景的图像数据。这使得一组熟人能够共享当他们被感动时看到的场景,当他们愉快时看到的场景等。
如图18A和18B中所示,当屏幕区域的一部分处于穿透状态时,显示取回的图像,或者如图19B和19C中所示,显示取回的图像以便叠加在通过处于穿透状态的屏幕看到的当前场景上。因此,取回的图像的显示并不会导致妨碍用户的视野。也就是,过去场景的图像的出现不会干扰用户在他或她日常生活中的活动。
回放图像的显示使得它好像在远方隐约出现一样,如图19B和19C中所示,提供适合于难忘场景的显示效果。
注意,关于成像/显示装置1的结构和操作,许多变化是可以想象的。
在本发明的上述实施例中,通过成像持续获得的图像数据存储在临时存储部分23中,并且当存储条件被满足时,相关图像数据永久地存储在存储部分25等中。但是,在成像/显示装置1内的存储部分25或服务器装置71可以使用具有非常大存储容量的非易失性存储介质的情况下,例如,所有的拍摄图像数据可以永久地存储。在该情况下,持续检测的生物信息的值、感觉信息、日期和时间的信息、位置信息等可以作为元数据添加。
在用户佩戴成像/显示装置1时总是执行成像和图像数据的存储(或临时存储)不是必需的。代替地,这种操作执行的时间段可以由用户使用用户操作指定。换句话说,图13-16的过程可以在用户执行开始操作的时间和用户执行终止操作的时间之间的时间段内执行。
类似地,图17的过程可以在用户执行开始操作的时间和用户执行终止操作的时间之间的时间段内执行。
应当注意,图13-16的过程和图17的过程已经作为实例而描述。存在可以由成像装置采用以进行成像和存储图像数据的各种过程。而且,存在可以由显示装置采用以根据当前情况取回和显示存储的图像数据的各种过程。
如上所述,在图像数据存储在外部设备例如存储设备70或服务器装置71的情况下,搜索条件可以发送到外部设备使得在图17的过程中使用搜索条件在外部设备中执行搜索。但是,也可以例如,匹配某个条件(例如用户标识信息、日期/时间范围等)并存储在外部设备中的所有的图像数据被下载到成像/显示装置1内的存储部分25,然后在存储部分25中的图像数据上执行搜索。
当成像/显示装置1具有通信部分26和存储部分25时,这种操作是可能的。
在参考图18A,18B,19B和19C如上所述显示回放图像的实例方式中,允许屏幕区域的至少一部分保持穿透状态,使得用户可以看到当前场景。但是,代替允许屏幕区域的至少一部分处于穿透状态,可以显示当前通过由成像系统成像获得的图像数据。这是因为这也使得用户能够看到当前场景。
虽然过去场景的图像的取回和显示已经在上面描述,音频数据与元数据一起存储并且根据当前情况搜索并取回过去声音的音频数据,使得取回的音频数据回放给用户也是可以想象的。
这实现例如当用户被感动时,回放当用户在过去被感动时他或她听到的音乐。
虽然成像/显示装置1作为本发明的一种实施例已经在上面描述,但是应当注意,用于成像并存储图像数据的成像装置和用于根据当前情况取回并显示存储的图像数据的显示装置也可以作为本发明的实施例而想象。
同样注意,不具有执行上述重放能力的成像装置也可以看作本发明的一种实施例。
本领域技术人员应当理解,各种修改、组合、子组合和更改可以依赖于设计需求和其他因素而进行,只要在它们处于附加权利要求或其等同的范围内。

Claims (24)

1.一种成像装置,包括:
成像位于用户观看方向上的场景以获得所述场景的图像数据的成像部件;
检测关于用户的生物信息的生物感测装置;以及
产生至少基于由所述生物感测装置获得的生物信息的元数据,并且执行存储由所述成像部件获得的图像数据以便与所述元数据相关联的存储处理的控制装置。
2.根据权利要求1的成像装置,其中当预先确定的存储条件被满足时所述控制装置将所述元数据添加到由所述成像部件获得的图像数据中并且执行所述存储处理。
3.根据权利要求1的成像装置,还包括将数据记录在非易失性存储介质上的记录装置,其中
作为所述存储处理,所述控制装置执行控制所述记录装置将由所述成像部件获得的图像数据和所述元数据记录在所述非易失性存储介质上的处理。
4.根据权利要求1的成像装置,还包括将数据发送到外部设备的传送装置,其中
作为所述存储处理,所述控制装置执行控制所述传送装置将由所述成像部件获得的图像数据和所述元数据发送到所述外部设备的处理。
5.根据权利要求1的成像装置,其中生物信息是脉搏、心率、心电图、肌电图信息、呼吸、排汗、GSR、血压、血液中的饱和氧浓度、皮肤表面温度、脑波、血流变化、体温、身体的运动、头部的运动、重心、步行/跑步的节奏以及眼睛的状态中的至少一个。
6.根据权利要求2的成像装置,其中由所述控制装置产生的所述元数据包括被满足的所述存储条件的内容的信息。
7.根据权利要求1的成像装置,其中由所述控制装置产生的所述元数据包括日期和时间或者当前位置的信息。
8.根据权利要求1的成像装置,其中由所述控制装置产生的所述元数据包括用户识别信息。
9.一种显示装置,所述显示装置从其中存储有图像数据的非易失性存储介质中获取图像数据,并且显示获取的图像数据,其中,所述图像数据上添加有基于生物信息的元数据,所述显示装置包括:
显示部件;
检测关于用户的生物信息的生物感测装置;以及
基于由所述生物感测装置检测的生物信息产生搜索条件,并且控制作为使用搜索条件搜索的结果在非易失性存储介质中找到的图像数据显示在所述显示部件上的控制装置。
10.根据权利要求9的显示装置,还包括回放存储在非易失性存储介质中的数据的回放装置,其中
所述控制装置控制所述回放装置在所述显示部件上回放作为使用搜索条件的搜索的结果而找到的图像数据。
11.根据权利要求9的显示装置,还包括用于执行与从非易失性存储介质中读取数据的外部设备的数据通信的通信装置,其中
所述控制装置执行将搜索条件经由所述通信装置发送到外部设备以请求外部设备执行搜索,经由所述通信装置获取作为在外部设备中执行的搜索的结果而找到的图像数据,以及将获取的图像数据显示在所述显示部件上的控制。
12.根据权利要求9的显示装置,其中所述生物信息是脉搏、心率、心电图、肌电图信息、呼吸、排汗、GSR、血压、血液中的饱和氧浓度、皮肤表面温度、脑波、血流变化、体温、身体的运动、头部的运动、重心、步行/跑步的节奏以及眼睛的状态中至少一个。
13.根据权利要求9的显示装置,其中
预先确定的存储条件被满足时的图像数据与包括存储条件内容的信息的元数据一起存储在所述非易失性存储介质中,以及
由所述控制装置产生的所述搜索条件包括所述存储条件内容的信息。
14.根据权利要求9的显示装置,其中
图像数据与包括日期和时间或者当前位置的信息的元数据一起存储在非易失性存储介质中,以及
由所述控制装置产生的搜索条件包括所述日期和时间或者当前位置的信息。
15.根据权利要求9的显示装置,其中
图像数据与包括用户识别信息的元数据一起存储在非易失性存储介质中,以及
由所述控制装置产生的搜索条件包括所述用户识别信息。
16.根据权利要求9的显示装置,其中所述显示装置能够使得用于图像显示的屏幕区域的全部或一部分进入透明或半透明的穿透状态。
17.根据权利要求16的显示装置,其中所述控制装置控制所述显示部件使得用于图像显示的屏幕区域的一部分进入穿透状态,并且将在非易失性存储介质中找到并从所述非易失性存储介质读取的图像数据显示在屏幕区域的剩余部分中。
18.根据权利要求16的显示装置,其中所述控制装置控制所述显示部件使得用于图像显示的屏幕区域的全部进入穿透状态,并且将在非易失性存储介质中找到并从所述非易失性存储介质读取的图像数据显示在所述屏幕区域的全部或一部分中。
19.根据权利要求16的显示装置,其中所述控制装置控制所述显示部件在穿透状态与在非易失性存储介质中找到并从所述非易失性存储介质读取的图像数据被显示的状态之间切换。
20.根据权利要求9的显示装置,其中所述显示部件位于用户眼睛前方以执行图像显示。
21.一种成像方法,包括步骤:
成像位于用户观看方向上的场景以获得所述场景的图像数据的成像步骤;
检测关于用户的生物信息的检测步骤;
产生至少基于在所述检测步骤中获得的生物信息的元数据的产生步骤;以及
存储在所述成像步骤中获得的图像数据以便与在所述产生步骤中产生的元数据相关联。
22.一种在显示装置中使用的显示方法,所述显示装置从其中存储有图像数据的非易失性存储介质中获取图像数据,并且显示获取的图像数据,其中,所述图像数据上添加有基于生物信息的元数据,所述方法包括步骤:
检测关于用户的生物信息的检测步骤;
基于在所述检测步骤中检测的生物信息产生搜索条件的产生步骤;以及
显示作为使用在所述产生步骤中产生的搜索条件搜索的结果而在非易失性存储介质中找到的图像数据的显示步骤。
23.一种成像装置,包括:
被配置用于成像位于用户观看方向上的场景以获得所述场景的图像数据的成像部分;
被配置用于检测关于用户的生物信息的生物感测部分;以及
被配置用于产生至少基于由所述生物感测部分获得的生物信息的元数据,并且执行存储由所述成像部分获得的图像数据以便与所述元数据相关联的存储处理的控制部分。
24.一种显示装置,所述显示装置从其中存储有图像数据的非易失性存储介质中获取图像数据,并且显示获取的图像数据,其中,所述图像数据上添加有基于生物信息的元数据,所述显示装置包括:
显示部分;
被配置用于检测关于用户的生物信息的生物感测部分;以及
被配置用于基于由所述生物感测部分检测的生物信息产生搜索条件,并且控制作为使用搜索条件搜索的结果在非易失性存储介质中找到的图像数据显示在所述显示部分上的控制部分。
CN2007101698082A 2006-11-07 2007-11-07 成像装置、显示装置、成像方法和显示方法 Expired - Fee Related CN101179712B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006301601A JP5092357B2 (ja) 2006-11-07 2006-11-07 撮像表示装置、撮像表示方法
JP2006-301601 2006-11-07
JP2006301601 2006-11-07

Publications (2)

Publication Number Publication Date
CN101179712A true CN101179712A (zh) 2008-05-14
CN101179712B CN101179712B (zh) 2010-11-10

Family

ID=39247099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007101698082A Expired - Fee Related CN101179712B (zh) 2006-11-07 2007-11-07 成像装置、显示装置、成像方法和显示方法

Country Status (5)

Country Link
US (1) US20080107361A1 (zh)
EP (2) EP1920715A3 (zh)
JP (1) JP5092357B2 (zh)
KR (1) KR101404329B1 (zh)
CN (1) CN101179712B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483559A (zh) * 2009-12-28 2012-05-30 株式会社尼康 摄影镜头、摄影装置、摄影系统、摄像装置及个人装置
CN103959756A (zh) * 2011-11-29 2014-07-30 索尼爱立信移动通讯有限公司 便携式电子设备和使用便携式电子设备来记录媒体的方法
CN106537893A (zh) * 2014-06-24 2017-03-22 索尼公司 生活记录照相机和使用语音触发器来控制其的方法
CN107040712A (zh) * 2016-11-21 2017-08-11 英华达(上海)科技有限公司 智能自拍方法及系统
CN107257655A (zh) * 2014-10-14 2017-10-17 东卡罗莱娜大学 用于利用从多谱段血液流动和灌注成像获取的信号确定血液动力学状态参数的方法、系统和计算机程序产品
CN107483933A (zh) * 2009-11-04 2017-12-15 皇家飞利浦电子股份有限公司 用于提供媒体数据和元数据组合的方法和系统
CN109907741A (zh) * 2019-03-06 2019-06-21 珠海市万瑙特健康科技有限公司 三维脉波的显示方法、装置、计算机设备及存储介质
CN111712807A (zh) * 2018-02-16 2020-09-25 麦克赛尔株式会社 便携信息终端、信息提示系统以及信息提示方法
CN113615162A (zh) * 2019-03-29 2021-11-05 索尼集团公司 电子设备和成像系统

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP5176311B2 (ja) * 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4961984B2 (ja) * 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP4363552B1 (ja) * 2008-07-23 2009-11-11 剛利 松村 思い出に関するデジタルデータの管理方法
JP4900739B2 (ja) * 2009-09-04 2012-03-21 カシオ計算機株式会社 電子写真立て、その制御方法及びプログラム
WO2011150109A1 (en) * 2010-05-26 2011-12-01 Qualcomm Incorporated Camera parameter- assisted video frame rate up conversion
US8640021B2 (en) * 2010-11-12 2014-01-28 Microsoft Corporation Audience-based presentation and customization of content
FR2975804B1 (fr) * 2011-05-27 2022-06-17 Lvmh Rech Procede de caracterisation du teint de la peau ou des phaneres
EP2735137A4 (en) * 2011-07-22 2015-05-13 Hewlett Packard Development Co VISUAL MEDIA ON A RING BUFFER
JP6078952B2 (ja) * 2012-02-09 2017-02-15 株式会社ニコン 電子機器
JP6047915B2 (ja) * 2012-05-01 2016-12-21 ソニー株式会社 エネルギー管理装置およびエネルギー管理方法
JP6071829B2 (ja) * 2013-09-24 2017-02-01 株式会社トヨタマップマスター 属性データ評価装置及びその方法、並びに属性データを評価するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
JP6071827B2 (ja) * 2013-09-24 2017-02-01 株式会社トヨタマップマスター 地図データベース作成装置及びその方法、並びに地図データベースを作成するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
JP5662549B1 (ja) * 2013-12-18 2015-01-28 佑太 国安 記憶再生装置
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
KR102155521B1 (ko) * 2014-05-23 2020-09-14 삼성전자 주식회사 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치
JP6451110B2 (ja) * 2014-07-10 2019-01-16 カシオ計算機株式会社 撮影装置、画像生成方法及びプログラム
US9430628B2 (en) * 2014-08-13 2016-08-30 Qualcomm Incorporated Access authorization based on synthetic biometric data and non-biometric data
JP6813245B2 (ja) 2014-10-14 2021-01-13 イースト カロライナ ユニバーシティ 単一の画像上で解剖学的データと生理学的データとを結合するためのシステムの作動方法、コンピュータシステム、及び単一の画像上で解剖学的データと生理学的データとを結合するためのプログラムが記録された記録媒体
US11553844B2 (en) 2014-10-14 2023-01-17 East Carolina University Methods, systems and computer program products for calculating MetaKG signals for regions having multiple sets of optical characteristics
JP2015084121A (ja) * 2015-01-07 2015-04-30 株式会社ニコン 携帯装置
US10058256B2 (en) 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
US10390718B2 (en) 2015-03-20 2019-08-27 East Carolina University Multi-spectral physiologic visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in an endoscopic design
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
JP6010198B2 (ja) * 2015-08-11 2016-10-19 オリンパス株式会社 画像処理装置
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体
JP6952257B2 (ja) * 2016-07-15 2021-10-20 パナソニックIpマネジメント株式会社 コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム
EP3270263A1 (en) * 2016-07-15 2018-01-17 Panasonic Intellectual Property Management Co., Ltd. Information processing apparatus for presenting content, method for controlling the same, and control program
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
JP2018106729A (ja) * 2018-01-30 2018-07-05 株式会社ニコン 電子機器
US10834357B2 (en) * 2018-03-05 2020-11-10 Hindsight Technologies, Llc Continuous video capture glasses
US10922203B1 (en) * 2018-09-21 2021-02-16 Nvidia Corporation Fault injection architecture for resilient GPU computing
KR102239039B1 (ko) * 2018-11-12 2021-04-12 성균관대학교산학협력단 뇌파 기반의 사용자 감성 인식 방법 및 장치
JP2021089465A (ja) * 2019-12-02 2021-06-10 株式会社カネカ 記憶補助装置、記憶補助方法、及びプログラム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181371B1 (en) 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
EP1027627B1 (en) * 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
JPH11164186A (ja) * 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画像記録装置
US7084903B2 (en) * 1998-05-18 2006-08-01 International Business Machines Corporation Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
JP4395908B2 (ja) * 1999-03-29 2010-01-13 ソニー株式会社 信号処理装置および信号処理方法
US6466862B1 (en) * 1999-04-19 2002-10-15 Bruce DeKock System for providing traffic information
JP2001183735A (ja) * 1999-12-27 2001-07-06 Fuji Photo Film Co Ltd 撮像装置および方法
US6629104B1 (en) * 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US7047418B1 (en) * 2000-11-29 2006-05-16 Applied Minds, Inc. Imaging method and device using biometric information for operator authentication
US6930707B2 (en) * 2000-12-22 2005-08-16 International Business Machines Corporation Digital camera apparatus with biometric capability
KR20020069382A (ko) * 2001-02-26 2002-09-04 학교법인 한양학원 바이오피드백 센서가 부착된 가상 현실 영상 제시 장치
EP1744286A3 (en) * 2001-03-28 2008-11-05 FUJIFILM Corporation Work data collection method
JP3979351B2 (ja) * 2003-06-30 2007-09-19 ソニー株式会社 通信装置及び通信方法
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
US7271809B2 (en) * 2002-02-19 2007-09-18 Eastman Kodak Company Method for using viewing time to determine affective information in an imaging system
US7365775B2 (en) * 2002-05-20 2008-04-29 Olympus Corporation Image compression apparatus and method, image regeneration apparatus, camera and camera system
JP4174244B2 (ja) * 2002-06-20 2008-10-29 キヤノン株式会社 画像撮影装置及びその制御方法
JP2004049309A (ja) * 2002-07-16 2004-02-19 National Trust:Kk 被看護・被介護者の監視システム
US20040070563A1 (en) * 2002-10-10 2004-04-15 Robinson Ian Nevill Wearable imaging device
GB2394852B (en) * 2002-10-31 2006-12-20 Hewlett Packard Co Image capture systems using motion detection
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
US20040174443A1 (en) * 2003-03-07 2004-09-09 Simske Steven J. System and method for storing of records in a database
CN1774953A (zh) * 2003-04-18 2006-05-17 皇家飞利浦电子股份有限公司 具有耳机遥控器的个人音频系统
GB2403365B (en) * 2003-06-27 2008-01-30 Hewlett Packard Development Co An autonomous camera having exchangeable behaviours
JP2005021255A (ja) * 2003-06-30 2005-01-27 Sony Corp 制御装置及び制御方法
JP2005051654A (ja) * 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ記録方法、コンテンツ記録メディア
CN100482149C (zh) * 2003-08-19 2009-04-29 索尼株式会社 图像显示系统、图像显示装置及图像显示方法
JP3931889B2 (ja) * 2003-08-19 2007-06-20 ソニー株式会社 画像表示システム、画像表示装置、画像表示方法
JP2005080000A (ja) * 2003-09-01 2005-03-24 Toshiba Solutions Corp インデキシング装置、映像再生装置及び方法
IL158245A0 (en) * 2003-10-02 2004-08-31 Opgal Ltd A flir camera having fov vs. sensitivity control
JP3968522B2 (ja) * 2003-10-06 2007-08-29 ソニー株式会社 記録装置、及び記録方法
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
JP2005172851A (ja) 2003-12-05 2005-06-30 Sony Corp 画像表示装置
US8886298B2 (en) * 2004-03-01 2014-11-11 Microsoft Corporation Recall device
JP2005252732A (ja) 2004-03-04 2005-09-15 Olympus Corp 撮像装置
CN100350792C (zh) * 2004-04-14 2007-11-21 奥林巴斯株式会社 摄像装置
KR20060131981A (ko) * 2004-04-15 2006-12-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 사용자에 대해 특정 감정적 영향을 갖는 콘텐츠 항목을생성하는 방법
JP4373286B2 (ja) * 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
JP2005318973A (ja) * 2004-05-07 2005-11-17 Sony Corp 生体センサ装置、コンテンツ再生方法およびコンテンツ再生装置
JP3873994B2 (ja) * 2004-07-14 2007-01-31 コニカミノルタフォトイメージング株式会社 撮像装置、及び画像取得方法
JP2006098827A (ja) * 2004-09-30 2006-04-13 Konica Minolta Photo Imaging Inc 透過式映像表示装置
US20060104483A1 (en) * 2004-11-12 2006-05-18 Eastman Kodak Company Wireless digital image capture device with biometric readers
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US20060115130A1 (en) * 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US20060203998A1 (en) * 2005-03-08 2006-09-14 Oded Ben-Arie Eyeglass-attached video display based on wireless transmission from a cell phone
JP2006279764A (ja) * 2005-03-30 2006-10-12 Casio Comput Co Ltd 画像再生装置
US20060268330A1 (en) * 2005-05-10 2006-11-30 Tetsuhiro Takanezawa Image reproduction apparatus and image reproduction method
JP2007041988A (ja) * 2005-08-05 2007-02-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2007140278A (ja) * 2005-11-21 2007-06-07 Eastman Kodak Co デジタルカメラ、露出条件決定方法
US20070162505A1 (en) * 2006-01-10 2007-07-12 International Business Machines Corporation Method for using psychological states to index databases
JP4961984B2 (ja) * 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
JP5176311B2 (ja) * 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483933A (zh) * 2009-11-04 2017-12-15 皇家飞利浦电子股份有限公司 用于提供媒体数据和元数据组合的方法和系统
CN104410788A (zh) * 2009-12-28 2015-03-11 株式会社尼康 电子设备
CN102483559B (zh) * 2009-12-28 2016-01-13 株式会社尼康 摄影装置
CN104410788B (zh) * 2009-12-28 2019-05-10 株式会社尼康 摄像装置
CN102483559A (zh) * 2009-12-28 2012-05-30 株式会社尼康 摄影镜头、摄影装置、摄影系统、摄像装置及个人装置
CN103959756A (zh) * 2011-11-29 2014-07-30 索尼爱立信移动通讯有限公司 便携式电子设备和使用便携式电子设备来记录媒体的方法
CN106537893A (zh) * 2014-06-24 2017-03-22 索尼公司 生活记录照相机和使用语音触发器来控制其的方法
CN107257655A (zh) * 2014-10-14 2017-10-17 东卡罗莱娜大学 用于利用从多谱段血液流动和灌注成像获取的信号确定血液动力学状态参数的方法、系统和计算机程序产品
CN107257655B (zh) * 2014-10-14 2020-06-16 东卡罗莱娜大学 用于利用从多谱段血液流动和灌注成像获取的信号确定血液动力学状态参数的方法、系统和计算机程序产品
CN107040712A (zh) * 2016-11-21 2017-08-11 英华达(上海)科技有限公司 智能自拍方法及系统
CN107040712B (zh) * 2016-11-21 2019-11-26 英华达(上海)科技有限公司 智能自拍方法及系统
CN111712807A (zh) * 2018-02-16 2020-09-25 麦克赛尔株式会社 便携信息终端、信息提示系统以及信息提示方法
CN109907741A (zh) * 2019-03-06 2019-06-21 珠海市万瑙特健康科技有限公司 三维脉波的显示方法、装置、计算机设备及存储介质
CN113615162A (zh) * 2019-03-29 2021-11-05 索尼集团公司 电子设备和成像系统

Also Published As

Publication number Publication date
JP5092357B2 (ja) 2012-12-05
EP2060231A3 (en) 2009-05-27
US20080107361A1 (en) 2008-05-08
EP2060231A2 (en) 2009-05-20
KR101404329B1 (ko) 2014-06-09
JP2008118527A (ja) 2008-05-22
KR20080041584A (ko) 2008-05-13
EP1920715A2 (en) 2008-05-14
CN101179712B (zh) 2010-11-10
EP1920715A3 (en) 2008-09-03

Similar Documents

Publication Publication Date Title
CN101179712B (zh) 成像装置、显示装置、成像方法和显示方法
CN101179711A (zh) 成像设备和成像方法
CN101165538B (zh) 成像显示设备和方法
CN103399403B (zh) 显示设备、显示方法
CN101520690B (zh) 图像获取和显示设备以及图像获取和显示方法
JP4367663B2 (ja) 画像処理装置、画像処理方法、プログラム
CN101617339B (zh) 图像处理装置和图像处理方法
US6558050B1 (en) Human body-mounted camera
CN101141568A (zh) 图像拾取设备和图像拾取方法
CN101506868A (zh) 显示设备和显示方法
CN101227234A (zh) 光通信设备和光通信方法
CN101184166A (zh) 成像系统和方法
CN101272457A (zh) 图像处理装置和图像处理方法
WO2024194936A1 (ja) 携帯情報端末及び仮想現実オブジェクトの表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101110

Termination date: 20181107