CN101453941B - 图像输出装置、图像输出方法以及图像输出系统 - Google Patents

图像输出装置、图像输出方法以及图像输出系统 Download PDF

Info

Publication number
CN101453941B
CN101453941B CN2007800195192A CN200780019519A CN101453941B CN 101453941 B CN101453941 B CN 101453941B CN 2007800195192 A CN2007800195192 A CN 2007800195192A CN 200780019519 A CN200780019519 A CN 200780019519A CN 101453941 B CN101453941 B CN 101453941B
Authority
CN
China
Prior art keywords
image
observer
viewpoint
observed person
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800195192A
Other languages
English (en)
Other versions
CN101453941A (zh
Inventor
山口博司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN101453941A publication Critical patent/CN101453941A/zh
Application granted granted Critical
Publication of CN101453941B publication Critical patent/CN101453941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Studio Devices (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像输出装置,包括图像捕获部件,其捕获被观察者的图像;观察者视点测定部件,当图像捕获部件捕获被观察者图像时,其测定观察者的视点;输出部件,其输出由图像捕获部件捕获的被观察者的图像;以及视点输出控制部件,其使得输出部件输出指示由观察者视点测定部件测定的观察者视点的信息,以及由图像捕获部件捕获的被观察者的图像。

Description

图像输出装置、图像输出方法以及图像输出系统
技术领域
本发明涉及一种图像输出装置、图像输出方法以及图像输出系统。更具体地,本发明涉及一种用于帮助观察者观察被观察者的图像输出装置、图像输出方法以及图像输出系统。本专利申请将2006年3月27日提交的No.2006-086703以及2007年2月22日提交的No.2007-042174日本专利申请在此全文引入作为参考。 
背景技术
已经提出了一种医用系统,该医用系统记录了当医师解释医用图像时得到的与观察状态信息相关的医用图像(例如,参见专利文件1)。根据专利文件1公开的发明,记录的该观察状态信息包括与用于显示医用图像的记录设备、显示设备的操作历程、以及医师的视点相关的信息。该操作历程用于再现医师观察图像多久。该视点信息包括与医师视线在显示屏幕上的位置、医师保持特定视点观察的时间周期、以及医师眼球移动速度的相关信息。该视点信息用于再现医师关注的该医用图像上的位置。 
[专利文件1]:未审日本专利申请,公开号No.2004-267273。 
发明内容
在被观察者是患者的诊断过程中,作为观察者的医师了解被观察者的症状起重要作用的是,在医师诊断被观察者的同时注意到被观察者的动作,例如被观察者视线的移动。然而根据专利文件1公开的发明,观察者解释医用图像时关注的是基于观察状态信息而再现的图像。因此,该发明不能再现当观察者诊断被观察者时,引起观察者注意的被观察移动的部分。专利文件1公开的发明中存在另一个问题。在了解被观察者症状中起着重要作用的还包括,在观察被观察者时,由观察者询问被观察者的问题触发的被观察者面部表情的改变。专利文件1公开的该发明不能再现响应于观察者的问题,被观察者显露的面部表情。 
综上可见,本发明的一个目的是提供一种可以解决前述问题的图像输出装置、图像输出方法和图像输出系统。这一目的通过独立权利要求中记载的特征的组合而实现。从属权利要求限定了本发明更佳效果的特定实施例。 
为了解决上面提到的问题,本发明的第一实施例提供一种辅助观察者观察被观察者的图像输出装置。该图像输出装置包括图像捕获部件,其捕获被观察 者的图像,观察者视点测定部件,当该图像捕获部件捕获被观察者的图像时,其测定观察者的视点;输出部件,其输出由图像捕获部件捕获的被观察者的图像;以及视点输出控制部件,其使得输出部件将指示由该观察者视点测定部件测定的该观察者视点的信息和由图像捕获部件捕获的被观察者的图像一起输出。该图像输出装置可进一步包括视点图像提取部件,其从由图像捕获部件捕获的被观察者的图像中,提取包括了由观察者视点测定部件测定的观察者视点的部分图像。这里,视点输出控制部件可使得输出部件输出放大由视点图像提取部件提取的部分图像而获得的图像,并和由图像捕获部件捕获的被观察者的图像。该图像输出装置可进一步包括视野测定部件,其测定观察者的视野。这里,视点图像提取部件可从由图像捕获部件捕获的被观察者的图像中,提取对应于由视野测定部件测定的观察者视野的图像。 
这里,该视点输出控制部件可使得输出部件以这种状态输出指示由观察者视点测定部件测定的观察者视点的标记,即该标记重合至由图像捕获部件捕获的被观察者的图像上。 
该图像输出装置可进一步包括被观察者信息存储部件,在其上存储由图像捕获部件捕获的与被观察者有关的被观察者的图像;以及在先图像输出控制部件,当图像捕获部件捕获被观察者新的图像时,其使得输出部件将存储在被观察者信息存储部件上与被观察者有关的被观察者在先图像,和由图像捕获部件捕获的被观察者的新图像一起输出。该被观察者信息存储部件可进一步在其上存储由观察者视点测定部件测定的与被观察者有关的观察者的视点,以及在先图像输出控制部件可使得输出部件输出指示观察者视点的信息,以及被观察者的在先图像。 
该图像输出装置可进一步包括声音记录部件,当图像捕获部件捕获被观察者的图像时,其记录该观察者的声音信息;图像存储部件,在其上存储由声音记录部件记录的、与图像捕获部件捕获的被观察者的图像有关的观察者的声音信息;声音信息比较部件,其将声音记录部件新近记录的观察者的声音信息、与声音记录部件在先记录的并存储在图像存储部件上的观察者的声音信息相比较;以及在先图像提取部件,基于声音信息比较部件完成的比较结果,提取存储在图像存储部件上的、与观察者在先声音信息有关的被观察者的在先图像,其显示出与声音记录部件新近记录的观察者的声音信息具有大于等于预定的一致度的所述观察者的在先声音信息。这里,在先图像输出控制部件可使得输出部件将由在先图像提取部件提取的被观察者的在先图像,和由图像捕获部件 捕获的被观察者的新图像一起输出。 
输出部件可为显示部件。该图像输出装置进一步包括被观察者信息存储部件,其存储由图像捕获部件捕获的、与观察者视点测定部件测定的观察者视点有关的被观察者的图像;在先图像输出控制部件,其读取存储在被观察者信息存储部件上的被观察者的图像,并使得显示部件显示读取的被观察者的图像;以及阅览者视点测定部件,其测定阅览在显示部件上显示的被观察者图像的阅览者的视点。这里,被观察者信息存储部件可进一步在其上存储指示由阅览者视点测定部件测定的阅览者视点的信息,其与在先图像输出控制部件读取的被观察者的图像有关。 
该图像输出装置可进一步包括阅览者视点判断部件,其判断观察者视点测定部件测定的观察者的视点是否与阅览者视点测定部件测定的阅览者的视点重合;以及被阅览图像提取部件,当阅览者视点判断部件为否定地判断时,其提取对应于指示这些视点彼此不重合的信息的图像。这里,在先图像输出控制部件可使得输出部件输出对应于指示这些视点彼此不重合的信息、并因此由被阅览图像提取部件提取的图像。 
当阅览者的视点未位于包括了观察者视点的预定区域内时,阅览者视点判断部件可判断观察者视点测定部件测定的观察者的视点未与阅览者视点测定部件测定的阅览者的视点重合。当观察者视点测定部件测定的观察者的视点向多个不同位置移动时,如果阅览者的视点移动到该视点易懂的不同位置的附近时,则阅览者视点判断部件可判断观察者的视点与阅览者视点测定部件测定的阅览者的视点重合。如果阅览者视点测定部件测定的阅览者的视点以与观察者视点相同的顺序移动时,则阅览者视点判断部件可判断观察者的视点与阅览者的视点重合。 
如果观察者视点测定部件测定的观察者的视点、与阅览者视点测定部件测定的阅览者的视点,都位于图像捕获部件捕获的被观察者图像的预定区域内,则阅览者视点判断部件可判断观察者的视点与阅览者的视点重合。图像的预定区域可包括被观察者的眼部、口部和手部中至少之一者。 
视点输出控制部件可使得输出部件将指示观察者视点测定部件测定的观察者视点位置的标记、与指示阅览者视点测定部件测定的阅览者视点位置的标记中的至少一个标记重叠到被观察者的图像上输出。 
本发明第二实施例提供一种用于辅助观察者观察被观察者的图像输出方法。图像输出方法包括捕获被观察者的图像;在图像捕获期间,测定观察者的 视点;以及输出指示由视点测定中测定的观察者视点的信息,以及在图像捕获中捕获的被观察者的图像;从捕获的所述被观察者的图像中,提取包括了测定的所述观察者视点的部分图像,其中:放大提取的部分图像而获得的图像,并和捕获的所述被观察者的图像一起输出;测定观察者的视野,其中:从捕获的所述被观察者的图像中,提取对应于测定的所述观察者视野的图像。 
本发明第三实施例提供一种用于辅助被观察者的图像输出系统。该图像输出系统包括图像捕获部件,其捕获被观察者的图像,观察者视点测定部件,当图像捕获部件捕获被观察者图像时,其测定观察者的视点,输出部件,其输出图像捕获部件捕获的被观察者的图像,以及视点输出控制部件,其使得输出部件输出指示由观察者视点测定部件测定的观察者视点的信息,以及由图像捕获部件捕获的被观察者的图像;视点图像提取部件,其从由所述图像捕获部件捕获的所述被观察者的图像中,提取包括了由所述观察者视点测定部件测定的所述观察者视点的部分图像,其中:所述视点输出控制部件使得所述输出部件放大由所述视点图像提取部件提取的部分图像而获得的图像,并和由所述图像捕获部件捕获的所述被观察者的图像一起输出;视野测定部件,其测定观察者的视野,其中:所述视点图像提取部件从由所述图像捕获部件捕获的所述被观察者的图像中,提取对应于由所述视野测定部件测定的所述观察者视野的图像。 
这里,本发明的全部必要特征未列入该概括中。这些特征的再组合可成为本发明。 
根据本发明,当观察被观察者时,可提取显示观察者关注的被观察者的区域的图像,并显示为观察者的视线位置在其上重合。因此,本发明使得可以精确了解观察者如何观察被观察者。 
附图说明
图1是示出图像记录装置10的示意图。 
图2是示出图像记录装置10的功能配置的方框图。 
图3是示出图像捕获单元20的功能配置的方框图。 
图4是示出存储单元30以及声音单元40的功能配置的方框图。 
图5示出通过视点输出控制部件220执行的操作。 
图6示出通过在先图像输出控制部件310执行的操作。 
图7示出在图像存储部件320上存储的数据结构。 
图8用于示出与第一实施例相关的图像捕获单元20的另一实例。 
图9A和9B用于示出通过阅览者视点判定部件272执行的操作。 
图10示出在被观察者信息存储部件300中存储的示例性数据。 
图11用于示出由被阅览图像提取部件312提取图像和由输出部件50输出提取的图像的操作。 
图12示出涉及第二实施例的图像捕获单元20的示例性功能配置。 
图13用于示出由视点移动方法学习部件216执行的操作。 
图14用于示出由视点移动方法学习部件216执行的操作。 
图15用于示出由视点移动方法学习部件216执行的操作。 
图16A和16B示出图像记录装置10用于视频会议的情况。 
图17示出涉及第三实施例的图像捕获单元20以及涉及第二实施例的输入单元60的示例性功能配置。 
图18A和18B用于示出由观察者视点判断部件250执行的操作。 
图19用于示出由观察者视点判断部件250执行的操作。 
图20示出在图像存储部件320上存储的一个示例性数据。 
图21示出图像记录装置10中涉及第四实施例的图像捕获单元20和涉及第三实施例的输入单元60的示例性功能配置。 
图22示出了写部件614。 
图23示出了存储在图像存储部件320上的示例性数据。 
图24用于示出一种电子医用记录500。 
图25A和25B用于示出电子医用记录500。 
图26示出涉及第五实施例的图像捕获单元20的示例性功能配置。 
图27示出涉及第四实施例的输入单元60的示例性功能配置。 
图28示出涉及第二实施例的分析单元70的示例性功能配置。 
图29用于示出身体状况计算部件725的功能。 
图30示出存储在身体状况数据存储部件720上的示例性数据结构。 
图31是示出图像记录装置10的硬件配置的方框图。 
具体实施方式
在下文中将描述本发明的若干实施例。这些实施例并非限定根据权利要求的本发明,并且实施例中描述特征的所有组合对于本发明目的提出的手段并非必 须。 
图1和2示例性地示出涉及本发明第一实施例的图像记录装置10。其中图像记录装置10包括图像捕获单元20、存储单元30、声音单元40、输出部件50、输入单元60以及分析单元70。其中涉及第一实施例的图像捕获单元20包括多个图像捕获部件。例如,图像捕获单元20包括用于检测观察者910视点的图像捕获部件202、用于测定观察者910存在范围的图像捕获部件208、用于检测被观察者915视点的图像捕获部件204、以及用于测定被观察者915存在范围的图像捕获部件206。图像捕获部件202至208每一个均可为三维照相机或者用于捕获二维图像的照相机。例如,该输出部件50是显示器。其中输入单元60包括数字输入部件612和写部件614。例如,数字输入部件612可包括键盘和鼠标,而写部件614可为笔。其中声音单元40可包括声音收集部件405。应注意,涉及本实施例的图像记录装置10是图像输出装置的例子。涉及第一实施例的图像记录装置10的目的在于检测出观察者910观察被观察者915时,观察者910注意的被观察者915的区域;以及显示出观察者910注意的被观察者915的区域与观察者910的视点在图像上重叠的图像。另外,第一实施例目的在于提供一种可检出阅览者视点的图像输出装置,阅览者在输出部件50上阅览被观察者915的被记录的图像,以便确保阅览者能以观察者910的视点观看。 
图像捕获单元20通过角膜反射方法或通过检出眼球区域图像的光强分布变化而测定观察者910和被观察者915的视点。此外,图像捕获单元20使用由图像捕获部件206捕获的被观察者915的图像、和用于检出观察者910视点的图像捕获部件202捕获的图像,以便确认由观察者910所观察的被观察者915的区域。 
此外,图像记录装置10使用由图像捕获部件208捕获的、用于确认图像捕获目标区域内观察者910所在区域的图像,以及由图像捕获部件204捕获的、用于测定被观察者915视线方向的图像,以便确认观察者910的区域或者除了观察者910外被观察者915所看的空间区域。这里,图像捕获单元20的图像捕获部件202至208可包括全景照相机。当图像捕获部件202至208中任一个是全景照相机时,单个全景照相机可以捕获用于测定观察者910和被观察者915的视线方向的图像,以及用于测定图像捕获目标区域内观察者910和被观察者 915分别所在位置的图像。因此,图像记录装置10不需要包括其中多个图像捕获部件,例如上面提到的图像捕获部件202。 
当观察者910将视线移动到被观察者915所在的区域内时,图像记录装置10捕获到显示出包括观察者910视点的被观察者915的预定区域图像。之后,图像记录装置10在输出部件50上显示示出被观察者915的被捕获图像,并具有指示观察者910视点的标记。这种情况下,图像记录装置10可并排显示示出被观察者915的图像和通过以预定放大比率放大的被观察者915被捕获的部分图像而得到的放大图像。依据图像记录装置10,当观察者910通过例如键盘和鼠标的数字输入部件612向电子医用档案中写入被观察者915的症状时、或者当观察者910使用例如笔的写部件614向医用档案中写入症状时,图像捕获部件206捕获被观察者915的图像。另外,图像记录装置10通过声音收集部件405,得到观察者910向被观察者915询问问题时所发出的声音。这种方式下,图像记录装置10在输出部件50上并排显示出当观察者910向被观察者915询问相同问题之前时捕获的被观察者915的图像、以及被观察者915的当前图像。 
在图像记录装置10中,分析单元70分析由图像捕获部件204及206捕获的图像以判断被观察者915的身体状况。例如,基于由图像捕获部件204捕获的被观察者915的图像,分析单元70得到有关被观察者915的例如瞳孔大小的改变、视线的移动、视线的移动速度、以及眨眼次数的信息,以便确定被观察者915的疾病。当其中的图像捕获部件204或206包括用于测定被观察者915面部温度的温度测定部件时,分析单元70也可利用测定的被观察者915面部的温度,以确定被观察者915的疾病。分析单元70在显示屏幕上显示确定的疾病。具体地说,分析单元70在显示屏幕上显示的信息包括疾病名和症状。分析单元70可在显示屏幕上显示出多种被观察者915可能患有的候选疾病。 
根据本施例的图像记录装置10,由于观察者910的视点可重叠在被观察者915的图像上显示,所以可容易地确认观察者910观察被观察者915时其集中观察的被观察者915的那一部分。例如,可以用动画拍摄被观察者915的图像,和观察者910的视点的移动在改动图上的重叠后,在输出部50上显示,因此,可以再现观察者910如何观察并诊断被观察者915。而且,可以拍摄到观察者910向电子病历中写入观察结论时的被观察者915的图像。因此,即使观察者 910忽略了被观察者915面部表情的改变,也能在观察之后重新很容易地检索确认到忽略的被观察者915的面部表情被拍摄的图像。此外,可并排显示被观察者915的在先以及目前的图像,因此可以准确地观察被观察者915的症状改变。 
图3示出了第一实施例的图像捕获单元20的示例性功能配置。其中图像捕获单元20包括图像捕获部件202、204、206和208、观察者视点测定部件210、被观察者位置测定部件212、被观察者视点测定部件214、视点输出控制部件220、视野测定部件230、视点图像提取部件240、以及观察者位置测定部件270。图4示出存储单元30和声音单元40的示例性功能配置。其中存储单元30包括被观察者信息存储部件300、在先图像输出控制部件310、以及图像存储部件320。其中声音单元40包括声音记录部件400、声音信息比较部件410、和在先图像提取部件420。 
图像捕获部件204捕获被观察者915的图像。图像捕获部件204可捕获被观察者915的移动图像。图像捕获部件204向被观察者视点测定部件214和存储单元30的图像存储部件320提供被观察者915的被捕获图像。图像捕获部件206捕获图像以便确定被观察者915在预定图像捕获目标区域内的所在位置。图像捕获部件206向被观察者位置测定部件212提供捕获的图像。图像捕获部件202捕获观察者910的图像。图像捕获部件202向观察者视点测定部件210和视野测定部件230提供捕获的图像。图像捕获部件208捕获图像以便确定观察者910在预定图像捕获目标区域内的所在位置。图像捕获部件208向观察者测定部件270提供捕获的图像。这里,图像捕获部件202、204、206和208的每一个均可捕获与观察者910和被观察者915之一相应的移动图像。 
当捕获移动图像时,图像捕获部件202、204、206和208的每一个均可提供构成相应移动图像的一组或多组相应的多幅图像。这里,构成移动图像的图像可包括任一类型的帧图像、场图像、以及构成图像的不同格式的其它移动图像。此处,其中的图像记录装置10可附加地包括用于测定被观察者915眨眼次数的眨眼测定部件。这种眨眼测定部件在预定时间周期内测得被观察者915眨眼的次数。眨眼测定部件向被观察者信息存储部件300提供测得的被观察者915的眨眼次数。 
当图像捕获部件204和206捕获被观察者915的图像时,观察者视点测定部 件210测定观察者910的视点。具体地说,其中的观察者视点测定部件210可包括用于测定观察者910左眼视线的第一观察者视线测定部件和用于测定观察者910右眼视线的第二观察者视线测定部件。第一和第二观察者视线测定部件利用由图像捕获部件202捕获的图像测定观察者910左眼和右眼的视线方向。这里,观察者视点测定部件210可基于角膜反射方法测定观察者910的视线方向。可选择地,第一和第二观察者视线测定部件从观察者910的左眼和右眼的图像中提取示出眼球的图像,并检测在提取的示出眼球的图像中光强分布的改变。第一和第二观察者视线测定部件可基于检测的光强分布计算出观察者910左眼和右眼的视线方向。例如,第一观察者视线测定部件计算出示出眼球的图像的光强分布,其相应于虹膜或瞳孔位置,关于左眼眼球的垂直和水平方向的改变。 
更具体地,通过比较当观察者910的视线在观察者910前方延伸时观察到的眼球图像的光强分布、与观察者910的视线在除了前方之外的方向上延伸时观察到的眼球图像的光强分别,而确定观察者910的每个视线方向。例如,可通过将由第一观察者视线测定部件计算出的左眼眼球图像的光强分布、与当观察者910的左眼视线在观察者910的前方延伸时观察到的左眼球图像的光强分布相比较,而计算出左眼虹膜或瞳孔指向的方向,即,左眼视线的方向。应注意到,该眼球图像是在关于左眼中心点上,根据左眼眼球垂直和水平方向计算出来的,第一观察者视线测定部件可判断出左眼视线在观察者910的前方延伸。以同样的方式,第二观察者视线测定部件计算出右眼的视线方向。这里,第一和第二观察者视线测定部件,可基于角膜反射方法和检测眼球图像光强分布改变的结合,确定观察者910左眼和右眼的视线方向。观察者视点测定部件210基于左眼和右眼的视线确定观察者910的视点。例如,观察者视点测定部件210可将左眼和右眼视线彼此相交的点或邻近该相交点的点,确定为观察者910的视点。当左眼和右眼的视线不能彼此相交时,观察者视点测定部件210可将从一条视线向另一视线延伸的垂线的中点或邻近该中点的点,确定为观察者910的视点。如随后所述,可选择地,观察者910的视点可基于由观察者视点测定部件210与三维坐标数据计算出的视线而算出,三维坐标数据指示观察者910所在的区域并由观察者位置测定部件270计算出。观察者视点测定部件210向 视点输出控制部件220和视点图像提取部件240提供指示观察者910的确定视点的信息。这里,被观察者视点测定部件214以与观察者视点测定部件210相同的方式测定被观察者915的视点。被观察者视点测定部件214向视点输出控制部件220和视点图像提取部件240提供指示被观察者915视点的信息。 
被观察者位置测定部件212基于由图像捕获部件206捕获的被观察者915的图像,测定被观察者915在预定图像捕获目标区域内所在的位置。具体地说,被观察者位置测定部件212获得根据预定的三维坐标系统确定的含有被观察者915所在位置的坐标数据。例如,预先根据预定的三维坐标系统,确定图像捕获部件202、204、206和208的位置以及图像捕获方向、和观察者910与被观察者915所在的位置。具体地,可通过使被观察者915位于预定位置,而确定在图像捕获部件206的图像捕获目标区域内由被观察者915占据的区域。例如,通过利用使被观察者915坐在预定位置的坐标数据,确定在图像捕获部件206的图像捕获目标区域内由被观察者915占据的区域。以相同的方式,可通过使观察者910坐在预定位置的坐标数据,确定在图像捕获部件208的图像捕获目标区域内由观察者910占据的区域。当被观察者915移动到图像捕获部件206的图像捕获目标区域内时,被观察者位置测定部件212可根据被观察者915的移动,测定在图像捕获部件206的图像捕获目标区域内由被观察者915占据的区域。 
图像捕获部件206可为三维照相机。被观察者位置测定部件212基于由图像捕获部件206捕获的图像,计算被观察者915在三维坐标系统中所在的位置。例如,图像捕获部件206检测从距图像捕获部件206一定距离至被观察者915所在的图像捕获目标区域内的每一个像素。基于由图像捕获部件206检测的距被观察者915的距离,被观察者位置测定部件212可计算出指示被观察者915在三维坐标系统内所处位置的坐标数据。被观察者位置测定部件212向视点输出控制部件220和视点图像提取部件240提供计算出的结果。此外,被观察者位置测定部件212可向观察者视点测定部件210提供计算结果。观察者位置测定部件270在图像捕获部件208的图像捕获目标区域内测定观察者910所在的位置。观察者位置测定部件270用与被观察者位置测定部件212相同的方式,计算出指示观察者910在三维坐标系统内所在位置的坐标数据。观察者位置测 定部件270向视点输出控制部件220和视点图像提取部件240提供计算结果。由于根据三维坐标系统,预先确定了图像捕获部件202的图像捕获方向,所以观察者视点测定部件210可基于由图像捕获部件202捕获的图像计算出指示观察者910视线方向的坐标数据。以相同的方式,被观察者视点测定部件214可基于图像捕获部件204捕获的图像计算出指示被观察者915视线方向的坐标数据。 
此处,基于由被观察者位置测定部件212计算出的、指示被观察者915所在区域、并指示由观察者视点测定部件210测定出的观察者910视线方向的坐标数据,观察者视点测定部件210确定出观察者910的视点所关注的被观察者915的区域。具体地说,观察者视点测定部件210可将由坐标数据确定的被观察者915的交叉区域定义为观察者910的视点,坐标数据由被观察者位置测定部件212计算得出,并指示被观察者915所在的区域,以及指示由观察者视点测定部件210测得的沿着观察者910视线方向、从观察者910眼部延伸出的视线。观察者视点测定部件210将获得的交叉部坐标数据作为指示观察者910视点的坐标数据。被观察者视点测定部件214可用与观察者视点测定部件210相同的方式获得指示被观察者915视点的坐标数据。 
另外,观察者视点测定部件210提取有关观察者910的信息,例如面部轮廓、眼睛形状、以及眼部的特征点(眼睛的内角及外角)。当观察者910移动头部时,观察者视点测定部件210可追踪提取的眼部的特征点等,以便跟踪观察者910的移动,并测定观察者910的视线。例如,观察者视点测定部件210可包括用于提取观察者910眼部特征点等的观察者特征点提取部件、以及根据由观察者特征点提取部件提取的观察者910的眼部特征点等的移动而移动图像捕获部件202的移动控制部件。这种配置情况下,即使当观察者910移动头部时,观察者视点测定部件210也能通过根据观察者910头部的移动而移动图像捕获部件202,从而恰当地测定观察者910的视点。观察者视点测定部件210向视点输出控制部件220和视点图像提取部件240提供测定的观察者910的视点。 
这里,观察者910可远距离地观察被观察者915。例如,为观察者910提供图像记录装置10,并为被观察者915提供另一图像记录装置10,并且这些图像记录装置10可通过例如互联网的网络彼此连接。在这种情况下,用于捕获被观 察者915图像的图像捕获部件204和206,通过网络,向观察者910的图像记录装置10的输出部件50提供捕获到的被观察者915的图像。因此,观察者910在输出部件50上观察显示出的被观察者915的图像。这种情况下,观察者视点测定部件210测定观察者910所关注的在输出部件50上显示的被观察者915的区域。 
视野测定部件230确定观察者910的视野。具体地,视野测定部件230分析由图像捕获部件202捕获的图像,以便基于观察者910左眼和右眼的视线方向确定会聚角度。例如,视野测定部件230可基于由图像捕获部件202捕获的观察者910的图像,计算出由观察者910左眼和右眼的视线方向所形成的会聚角度。这里,视野测定部件230可接收由观察者视点测定部件210测定的、指示观察者910视线方向的信息,并基于接收到的、指示视线方向的信息计算出会聚角度。可选择地,视野测定部件230可测定观察者910左眼和右眼的焦距,并将观察者910眼部共同关注的区域确定为观察者910的视野。作为另一实例,视野测定部件230测定静止的时间周期,在期间内,观察者910的视线保持静止。具体地说,视野测定部件230可测定观察者910视线的静止时间周期,并将测得的静止时间周期长于预定时间周期的区域确定为观察者910的视野。这里,预定时间周期例如可为一秒。视野测定部件230向视点图像提取部件240提供确定的观察者910的视野。 
视点图像提取部件240从自图像捕获部件204接收到的、观察者915的图像中提取部分图像,其包括了由观察者视点测定部件210测定的观察者910的视点。此外,视点图像提取部件240可相应于由视野测定部件230测定的观察者910的视野、从自图像捕获部件204接收到的被观察者915的图像中提取图像。视点图像提取部件240向视点输出控制部件220提供提取到的图像。视点输出控制部件220使输出部件50输出指示观察者910视点的信息,该视点信息是从观察者视点测定部件210接收到的,并同时输出由图像捕获部件204捕获的被观察者915的图像。 
具体地说,视点输出控制部件220使输出部件50输出指示观察者910视点的标记,视点从观察者视点测定部件210接收,处于这样的状态即该标记重叠到由图像捕获部件204捕获的被观察者915的图像上。视点输出控制部件220 可使输出部件50输出放大的图像,该放大的图像通过以预定的放大比率放大由视点图像提取部件240提取的图像、以及由图像捕获部件204捕获的被观察者915的图像而得到。这里,输入单元60可包括放大比率输入部件,以允许观察者910输入一个放大率,用于使视点输出控制部件220放大由视点图像提取部件240提取的图像。由于允许观察者910向放大比率输入部件中输入需要的放大比率,所以视点输出控制部件220可引起输出部件50输出已经被放大到所需尺寸的被观察者915的图像。 
被观察者信息存储部件300在其上存储从图像捕获部件204接收到的、与被观察者915有关的被观察者915的图像。此外,在被观察者信息存储部件300上存储指示观察者910视点的信息,其从观察者视点测定部件210接收的并与被观察者915有关。此外,在被观察者信息存储部件300上存储被观察者915的眨眼次数,其从眨眼测定部件接收,并与被观察者915的被观察时间有关。被观察者信息存储部件300在在先图像输出控制部件310的控制下,向在先图像输出控制部件310提供被观察者915的图像和指示被观察者915眨眼次数的信息。当图像捕获部件204捕获被观察者915的图像时,声音记录部件400记录涉及观察者910的声音信息。例如,声音记录部件400记录下在观察者910向被观察者915询问问题时得到的声音信息。声音记录部件400向图像存储部件320和声音信息比较部件410提供记录的声音信息。 
图像存储部件320在其上存储从图像捕获部件204接收的被观察者915的图像,其与从声音记录部件400接收的声音信息相对应。图像存储部件320可在其上存储图像和声音信息,其与声音记录部件400记录的声音信息的时间有关。图像存储部件320在声音信息比较部件410的控制下,向声音信息比较部件410提供声音信息。当图像捕获部件204捕获到被观察者915的新图像时,在先图像输出控制部件310使输出部件50输出在被观察者信息存储部件300上存储的、与被观察者915有关的被观察者915的在先图像,以及在观察者910观察被观察者915时由图像捕获部件204新近捕获的被观察者915的图像。 
这里,在在先图像输出控制部件310控制之下、由输出部件50输出的被观察者915的在先图像,例如可为上次观察者910观察被观察者915时捕获的被观察者915的图像。可选择地,在先图像可为初诊时捕获的被观察者915的图 像。此外,在先图像输出控制部件310可引起输出部件50输出指示观察者910视点的信息以及被观察者915的在先图像。在先图像输出控制部件310可使得以在被观察者915的图像上重叠的状态显示被观察者915的眨眼次数。当图像捕获部件204捕获被观察者915的新图像时,在先图像输出控制部件310可使得输出部件50输出存储在被观察者信息存储部件300上的与被观察者915有关的被观察者915的在先图像、由图像捕获部件204新近捕获的被观察者915的图像、以及在先和目前眨眼次数之间的差别。 
声音信息比较部件410比较由声音记录部件400新近记录的观察者910的声音信息、与由声音记录部件400之前记录的并存储在图像存储部件320上的观察者910的声音信息。例如,声音信息比较部件410可包括单词发言信息存储部件,以便存储当人说出语句时,观察到的包括了相关语句的声音信息、指示频率成分的信息。声音信息比较部件410以预定时间间隔从频率成分方面分析从声音记录部件400新近接收的声音信息,以产生频率成分信息。随后,声音信息比较部件410比较产生的频率成分信息和指示存储在单词发音信息存储部件上的语句频率成分的信息。以这种方式,声音信息比较部件410计算出由声音记录部件400新近记录的观察者910的声音信息与观察者910在先的声音信息之间的重合等级。声音信息比较部件410向在先图像提取部件420提供计算出的重合等级。 
当从声音信息比较部件410接收的重合等级等于或高于预定等级时,在先图像提取部件420提取存储在图像存储部件320上、与观察者910的在先声音信息有关的被观察者915的在先图像,观察着910在先声音信息显示了接收到的重合等级。这种情况下,在先图像输出控制部件310可使得输出部件50输出由在先图像提取部件420提取的、被观察者915的在先图像,以及由图像捕获部件204新近捕获的被观察者915的图像。输出部件50输出从图像捕获部件204接收到的被观察者915的图像。此外,输出部件50输出从视点输出控制部件220和在先图像提取部件420接收到的图像。另外,输出部件50可以这种状态显示出由眨眼测定部件测定的被观察者915的眨眼次数,即眨眼次数重叠到被观察者915的图像上。这里,输出部件50例如是监视器等。 
对于被观察者915的第二次或随后的观察情况,图像记录装置10可基于观 察者910对被观察者915完成的在先观察结果,取代观察者910向被观察者915询问问题。例如,图像记录装置10可包括问题存储部件,其用于在其上存储与被观察者915行为有关的预定问题。之后,图像记录装置10可根据被观察者915的症状,从问题存储部件上存储的问题中选择合适的问题、显示到作为输出部件50实例的屏幕上,以便鼓励被观察者915回答显示的问题并在其上记录答案。这种情况时,观察者910不需要进行常规的健康问诊。结果,观察者910可比其它情况花费更长的时间观察被观察者。 
涉及本实施例的图像记录装置10判断观察者910是否观察被观察者915的整体、或者关注被观察者915的特定区域,并获得观察者910的视点,视点在观察者910关注被观察者915的特定区域时确定。因此,图像记录装置10可以提取并显示示出被观察者915与观察者910视点相对应的区域的图像。具有这种配置时,图像记录装置10允许观察者910和其它使用者容易地了解,在观察过程中观察者910所关注的被观察者915的区域。此外,图像记录装置10可显示出观察者910的视点,以及在观察者910观察被观察者915时捕获的被观察者915的图像。因此,图像记录装置10使得可以再现观察者910如何观察被观察者915。 
此外,涉及本实施例的图像记录装置10可确定观察者910的视点和视野。当观察者910的视点位于由被观察者915占据的区域内时,或者当被观察者915位于观察者910的视野内时,图像记录装置10能提取被观察者915的图像。以这种方式,图像记录装置10可恰当地判断观察者910关注被观察者915,并正确地提取被观察者915的图像,图像在观察者910观察被观察者915时捕获。结果,图像记录装置10可提取到有助于观察被观察者915的图像。 
另外,本实施例的图像记录装置10可并排显示被观察者915的当前图像和被观察者915在先捕获的图像。因此,图像记录装置10使得可以容易地了解被观察者915状态的改变。此外,涉及本发明的图像记录装置10可以并排显示当观察者910向被观察者915询问特定问题时捕获的被观察者915的当前图像、和之前观察者910向被观察者915询问相同问题时捕获的被观察者915的图像。这种情况下,观察者910能观察被观察者915的状态的同时,比较观察者910向被观察者915询问相同问题时观察到的被观察者915的当前和在先面部表情。
图5示出涉及本实施例的由视点输出控制部件220执行的示例性操作。当观察者910的视点位于由人物900占据的区域内时,视点输出控制部件220引起图像捕获部件204捕获人物900的图像,人物900是被观察者915。应注意,视点输出控制部件220判断由视野测定部件230测定的视点的静止时间周期是否等于或长于预定的时间周期。当肯定地判断时,视点输出控制部件220确定观察者910关注的、包含视点的区域。随后,视点输出控制部件220提取人物900的图像以及人物900的包括了视点的部分图像。 
例如,假定观察者910的视点所在位置由标记800、标记805、和标记810指示。这里,如果由标记800所指示的位置处视点的静止时间周期等于或长于预定时间周期,则视点输出控制部件220提取对应于人物900眼部950区域的图像,其包括了由标记800指示的视点。随后,视点输出控制部件220放大提取的图像以得到放大图像514,并向输出部件50输出放大图像514。这里,视点输出控制部件220可使得输出部件50输出与放大图像514一起的、包括了人物900整体的图像512。在放大图像514中,显示了处于放大状态的包含人物900的眼部950的区域。 
涉及本实施例的视点输出控制部件220可放大观察者910关注的、由被观察者915占据的区域部分,并且并排显示放大的图像和被观察者915的图像。因此,其可以这种方式再现由观察者910完成的观察,使得可以使图像记录装置10的使用者细致地观察在观察者910观察被观察者915时关注的区域。此外,图像记录装置10的使用者可参照由图像记录装置10再现的观察者910完成的观察,学习观察者910进行观察时所使用的程序。 
图6示出涉及本实施例的由在先图像输出控制部件310执行的示例性操作。在先图像输出控制部件310提取人物902的在先图像,其存储在与人物902相关的被观察者信息存储部件300上,人物902是观察者910正在观察的被观察者915。随后,在先图像输出控制部件310使得输出部件50并排输出由图像捕获部件204捕获的人物902的当前图像520、和包括人物902的在先图像522。由在先图像输出控制部件310提取的人物902的在先图像,例如图像522,可为人物902初诊时捕获的图像、当人物902上次被观察时捕获的人物902的图像、或者在由观察者910指定的日期和时间捕获的人物902的图像。
具体地,在图像记录装置10中提供的输入单元60可包括图像捕获时间输入部件。图像捕获时间输入部件允许观察者910输入捕获被观察者915图像的日期和时间。图像捕获时间输入部件将由观察者910输入的日期和时间提供给在先图像输出控制部件310。在先图像输出控制部件310提取在从图像捕获时间输入部件接收的日期和时间捕获的被观察者915的图像,并使得输出部件50输出提取的图像。 
涉及本实施例的在先图像输出控制部件310可使得输出部件50并排显示被观察者915目前和在先的图像。因此,观察者910可通过比较人物902当前和在先面部表情,进行准确的观察。 
图7示出了涉及本实施例的存储在图像存储部件320上的示例性数据结构。图像存储部件320上存储着相互对应的观察者910的声音信息和被观察者915的图像。具体地,在图像存储部件320上存储与由声音记录部件400记录的观察者910的声音信息560的时间有关的、由图像捕获部件204在当时捕获的被观察者915的图像522和观察者910的声音信息560。 
例如,声音记录部件400记录下当观察者910向被观察者915询问问题时得到的声音信息560。声音记录部件400向图像存储部件320和声音信息比较部件410提供声音信息560。图像存储部件320存储从图像捕获部件204接收的被观察者915的图像522、和从声音记录部件400接收的声音信息560,其与声音记录部件400记录声音信息560的时刻有关。图像存储部件320在声音信息比较部件410的控制下,向声音信息比较部件410提供声音信息560。声音信息比较部件410将由声音记录部件400新近记录的观察者910的声音信息、与存储在图像存储部件320上的观察者910在先声音信息560进行比较,以计算出新近记录的声音信息与在先的声音信息560间的重合等级。当由声音信息比较部件410计算出的重合等级等于或高于预定的重合等级时,在先图像输出控制部件310从图像存储部件320中提取图像522,并使得输出部件50输出提取的图像522以及被观察者915的当前图像。以这种方式,图像记录装置10使得可以随后再现之前询问的问题,并再现之前询问问题时观察到的被观察者915的行为。 
涉及本实施例的图像记录装置10可用于医疗领域。具体地,图像记录装置10被用作诊断辅助装置,在其上记录对病人进行诊断的内容。例如,图像记录 装置10是诊断辅助装置,在其上记录对病入进行诊断的内容,被观察者是患精神疾病的病人,而观察者是观察病人的医师。当被观察者915是患精神疾病的病人时,医师通常通过关注病人的、可能显示出紧张的区域进行诊断。涉及本实施例的图像记录装置10使得可以容易地再现,诊断前的上一次诊断过程中医师关注的病人区域。因此,将图像记录装置10用作辅助诊断患精神疾病的病人非常有效。 
图8用于示出涉及第一实施例的图像捕获单元20的另一实例。图像捕获单元20进一步包括其中的图像捕获部件205,阅览者视点测定部件271,以及阅览者视点判断部件272。这里,存储单元30可进一步包括其中的被阅览图像提取部件312。如上所述,在被观察者信息存储部件300上存储由图像捕获部件204和206捕获的被观察者915的图像,其与由观察者视点测定部件210测得的、指示观察者910视点的信息相关。这里,在先图像输出控制部件310读取存储在被观察者信息存储部件300上的被观察者915的图像,并使得输出部件50的显示部件显示读取的图像。图8中示出了该操作。这种情况下,视点输出控制部件220并不引起输出部件50显示指示观察者910视点位置的标记。图像捕获部件205捕获阅览被观察者915图像的阅览者的图像,被观察者915的图像显示在输出部件50的显示部件上,并向阅览者视点测定部件271提供捕获的阅览者的图像。 
阅览者视点测定部件271测定阅览被观察者915图像的阅览者的视点,被观察者915的图像显示在输出部件50上。这里,阅览者可是或不是观察者910。例如,当观察者910是医师时,阅览者是另一医师、护士或者实习生。阅览者视点测定部件271确定在输出部件50的显示部件上显示的被观察者915的区域,阅览者视点出现在该区域,并向阅览者视点判断部件272和被观察者信息存储部件300提供指示阅览者视点的信息。这里,阅览者视点测定部件271可用与观察者视点测定部件210、被观察者视点测定部件214和阅览测定部件230相同的方式,测定阅览者的视点。图8中,图像捕获部件205显示为,例如固定在离阅览者远端位置的照相机。然而,图像捕获部件205可为安装在阅览者头上的头上安装型照相机。如果是这种情况,须预先校准照相机的坐标系统相对于阅览者的眼球位置。此外,预先确定阅览者与输出部件50的显示屏之间的空间 关系。这里,可基于例如角膜反射方法,通过测定阅览者眼球的移动,确定阅览者的视点。在被观察者信息存储部件300上进一步存储由阅览者视点测定部件271测定的阅览者的视点,其与由在先图像输出控制部件310读取的被观察者915的图像有关。 
阅览者视点判断部件272判断由观察者视点测定部件210测定的观察者910的视点、以及由阅览者视点测定部件271测定的阅览者的视点是否一致,并将判断结果提供给被阅览图像提取部件312。具体地,阅览者视点判断部件272判断存储在被观察者信息存储部件300上的、指示观察者910视点的信息,是否与阅览者的视点相重合。当阅览者视点判断部件272判断为否定地时,该被阅览图像提取部件312提取被观察者915的图像,图像与指示视点彼此不重合的信息相一致。在先图像输出控制部件310使得输出部件50输出与指示视点彼此不重合的信息相一致的、并因此由被阅览图像提取部件312提取的被观察者915的图像。这种配置允许阅览者看到观察者910的视点移动以及阅览者自己视点的移动。根据本实施例,因为输出了当视点彼此不重合时的图像,所以,阅览者能够容易地检索到当阅览者与观察者910使用不同的观察程序的情况下检索的图像。这种配置有助于阅览者有效地学习关注哪里,尤其当阅览者为医学实习生时。 
视点输出控制部件220可使得输出部件50输出至少一个分别指示由观察者视点测定部件210测定的观察者910的视点位置、和由阅览者视点测定部件271测定的阅览者视点位置的标记,在这种状态下该标记重叠到被观察者915的图像上。由于显示了指示观察者910视点的标记,因此阅览者可容易地了解阅览者应关注的部位。除了指示观察者910视点的标记,还可显示指示阅览者视点的标记。这种情况下,阅览者可客观地发现自己的错误。 
图9用于示出由阅览者视点判断部件272执行的操作。当由阅览者视点测定部件271测定的阅览者的视点,不位于由观察者视点测定部件210测定的、包括观察者910视点的预定区域内时,阅览者视点判断部件272判断出阅览者917的视点与观察者910的视点彼此不重合。这里,基于观察者910的视点位置,测定包括由观察者视点测定部件210测定的观察者910视点的预定区域。例如,如图9(A)所示,基于由观察者视点测定部件210测定的观察者的视点820, 可确定区域520。当由阅览者视点测定部件271测定的阅览者的视点不位于区域520内时,阅览者视点判断部件272判断出阅览者917与观察者910的视点彼此不重合。 
假定的情况是,由观察者视点测定部件210测定的观察者910的视点移动到多个不同位置。这种情况下,如果由阅览者视点测定部件271测定的阅览者的视点移动到分别对应于观察者910的视点位置附近,则阅览者视点判断部件272可判断出视点彼此重合。这里,所谓的视点移动后的位置的附近可为根据由观察者视点测定部件210测定的观察者的视点确定的区域。而且,当由阅览者视点测定部件271测定的阅览者视点以与观察者910的视点相同顺序地移动到附近区域时,阅览者视点判断部件272可判断出视点彼此重合。在本实施例中,由于指示阅览者917视点的标记826、830、和832均未位于基于观察者910视点确定的区域521、523和524内,因此阅览者视点判断部件272判断为不一致。 
当阅览者917的视点移动到由观察者视点测定部件210测定的观察者910视点相应位置的邻近区域时,阅览者视点判断部件272可判断出这些视点彼此重合,而与阅览者917的视点移动顺序无关。这里,可将包括了观察者910视点的每一个预定区域,定义为将观察者910的视点设定为中心的圆形、正方形或矩形。另外,包括了观察者910视点的每一个预定区域,均可具有与观察者910和阅览者917的视点移动速度中至少一个相一致的确定尺寸。例如,当观察者910的视点移动速度高于预定速度时,阅览者视点判断部件272可设定比包括观察者910视点的每个预定区域都更大的尺寸。同时,当阅览者917的视点移动速度低于预定速度时,阅览者视点判断部件272可设定比包括观察者910视点的每个预定区域都更大的尺寸。这里,预定速度可等于在输出部件50上显示的观察者910的视点平均移动速度,或者等于存储在图像存储部件320上的多个观察者的视点平均移动速度。可选择地,预定速度可等于阅览者917的视点平均视点移动速度,或等于多个阅览者的视点平均移动速度。 
作为可选实例,如参照图9B描述的,当由观察者视点测定部件210测定的观察者910的视点与由阅览者视点测定部件271测定的阅览者的视点,都位于由图像捕获部件206捕获的被观察者915图像的预定区域内时,阅览者视点判断部件272可判断出这些视点彼此重合。根据本实施例,被观察者915图像的 预定区域由至少分别包括被观察者915的眼睛、嘴、和手的多个分离区域构成。详细地,包括眼睛的区域可为包括眼睛的黑色部分(瞳孔和虹膜)的区域、眼睛的黑色和白色面积的区域、或包括眼睛黑色和白色部分的预定圆形、矩形或椭圆形区域。可选择地,包括眼睛的区域可为包括双眼的预定圆形、矩形或椭圆形区域。包括嘴的区域可为对应于嘴唇的区域、由嘴唇定义的区域、或者包括嘴唇的预定圆形、矩形或椭圆形区域。包括手的区域可为对应于手的手掌或手背的区域、或由包括对应于手的手掌或手背区域的预定圆形、矩形、或椭圆形区域。可选择地,包括手的区域可为包括双手的手掌或手背的预定圆形、矩形或椭圆形区域。图9B中示出了作为分别包括被观察者915的眼睛、嘴、和手部区域实例的区域526、528和530。根据本实施例,由于观察者910和阅览者917的视点均位于区域526内,因此阅览者视点判断部件272判断出这些视点彼此重合。具有如上描述的配置,该图像记录装置10可容易地做出这些视点是否彼此重合的判断。 
可选择地,阅览者视点判断部件272可通过进一步组合观察者910的视点移动顺序,做出这些视点是否彼此重合的判断。作为另一可选实例,基于在预定时间周期中、由观察者视点测定部件210和阅览者视点测定部件271测定的观察者910和阅览者的视点位于被观察者915图像的预定区域内的各自相似性,阅览者视点判断部件272可做出这些视点是否彼此重合的判断。这里,当些视点在预定时间周期过程中移动到多个不同位置时,阅览者视点判断部件272可例如通过计算每个视点在多个预定区域中每一个内的视点保持静止的总时间周期,而计算它们的相似性。该阅览者视点判断部件272获得关于每个预定区域计算出的观察者和阅读者的相似性之间的重合等级,并当重合等级等于或高于预定等级时,判断出这些视点彼此重合。 
图10示出了存储在被观察者信息存储部件300上的数据实例。涉及本实施例的在被观察者信息存储部件300上存储每个观察者的、由图像捕获部件206捕获的被观察者915的图像以及指示由观察者视点测定部件210测定的观察者910视点的信息。涉及本实施例的被观察者信息存储部件300在其上存储由图像捕获部件206捕获的被观察者915的图像以及指示时间的信息和指示观察者910视点的坐标数据。此外,涉及本实施例的被观察者信息存储部件300在其上存 储指示阅览者917视点的坐标数据以及指示观察者910视点的坐标数据。 
图11用于示出用输出部件50输出由被阅览图像提取部件312提取的图像的操作。基于由阅览者视点判断部件272做出的判断,被阅览图像提取部件312提取出被观察者915的图像,图像与指示视点未显示重合的坐标数据一起被存储,并且在先图像输出控制部件310使得输出部件50输出由被阅览图像提取部件312提取的图像。这里,在先图像输出控制部件310可使得输出部件50输出由被阅览图像提取部件312提取的多幅图像以再现一个连续移动的图像。可选择地,在先图像输出控制部件310可使得输出部件50以正常速度再现未重合的图像、以及以高于正常速度的更高速度再现相应于未重合的图像。以这种方式,涉及本实施例的图像记录装置10在短时间内,可选择并输出相应于观察者视点和阅览者视点之间未重合的图像。因此,阅览者能够容易地确认视点不一致的图像。 
图12示出涉及第二实施例的图像捕获单元20的示例性功能配置。涉及本实施例的图像捕获单元20包括图像捕获部件200、观察者视点测定部件210、被观察者位置测定部件212、被观察者视点测定部件214、视点移动方法学习部件216、观察者视点判断部件250、视点移动方法存储部件255、以及图像存储控制部件260。本实施例提供了一种用于精确记录对话期间被观察者915面部表情变化的图像记录装置。涉及本实施例的图像捕获单元20可进一步包括共同构成图1至11中描述的图像记录装置10的一些或全部功能及组成单元。在随后的描述中,与图1至11中标有相同附图标记的组件,具有与图1至11中描述的相应组件基本相同的功能,因此不再详细阐释。 
当图像捕获部件200例如是全景照相机时,图像捕获部件200可具有参照图1至11描述的图像捕获部件202、204、206和208的功能。可选择地,与参考图1至11描述的实施例类似,图像捕获单元20可包括其中代替图像捕获部件200的、用于检测观察者910视点的图像捕获部件202、用于测定观察者910所在位置的图像捕获部件208、用于检测被观察者915视点的图像捕获部件204、和用于测定被观察者915所在位置的图像捕获部件206。 
在图像存储控制部件260的控制之下,图像捕获部件200向图像存储控制部件260提供被捕获的被观察者915的图像。此外,图像捕获部件200向被观察 者视点测定部件214提供用于测定被观察者915视点的图像、以及向被观察者位置测定部件212提供用于测定被观察者915所在位置的图像。此外,图像捕获部件200向观察者视点测定部件210提供用于测定观察者910视点的图像。当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210测得观察者910的视点。另外,当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210进一步测定观察者910如何将视线转向被观察者。具体地说,观察者视点测定部件210将观察者910的视点与测定观察者910视点的时间相关联,以便测定观察者910视点的轨迹。当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210进一步测定观察者910视点的移动速度。 
具体地,观察者视点测定部件210能以预定的时间间隔,测定观察者910的视点。例如,观察者视点测定部件210可在第一时间和之后的第二时间测定观察者910的视点。观察者视点测定部件210基于由使用的第一和第二时间计算出的时间周期和由使用在第一和第二时间测定的视点计算出的距离,测定视点的移动速度。观察者视点测定部件210向观察者视点判断部件250和视点移动方法学习部件216提供观察者910视点移动速度和轨迹。 
该被观察者位置测定部件212在图像捕获部件200的预定图像捕获目标区域内,测定被观察者915所在的区域。此处,被观察者位置测定部件212由根据图像捕获目标区域内的预定三维坐标系统定义的坐标数据的形式,得到被观察者915所在位置。涉及本实施例的被观察者位置测定部件212测定对应于被观察者915面部的区域。该被观察者位置测定部件212也可以测定对应于被观察者915眼部的区域。例如,该被观察者位置测定部件212基于从由图像捕获部件200捕获到的图像提取的边缘检测和皮肤颜色,提取被观察者915的面部区域。之后,被观察者位置测定部件212测定对应于被观察者915眼部的区域,区域包含在提取到的被观察者915面部的区域内。被观察者位置测定部件212向观察者视点判断部件250提供指示被观察者915所在区域的坐标数据、和指示对应于眼部区域的坐标数据。 
被观察者视点测定部件214测定被观察者915的视点。具体地,被观察者视点测定部件214可包括用于测定被观察者915左眼视线的第一被观察者视线测 定部件、和用于测定被观察者915右眼视线的第二被观察者视线测定部件。第一和第二被观察者视线测定部件测定被观察者915左眼和右眼的视线方向。例如,第一和第二被观察者视线测定部件用与第一和第二观察者视线测定部件相同的方式,计算被观察者915左眼和右眼的视线。这里,通过预先确定三维坐标系统,可产生相对于被观察者915,指示被观察者915视线指向方向的坐标数据,被观察者915的视线由被观察者视点测定部件214测得。 
图像捕获单元20可进一步包括其中的观察者位置测定部件270,用于测定观察者910在图像捕获部件200的预定图像捕获目标区域内所在的位置。观察者位置测定部件270在图像捕获目标区域内,测定观察者910所在的位置。观察者位置测定部件270根据在图像捕获目标区域内预先确定的三维坐标系统,得到指示观察者910所在位置的坐标数据。观察者位置测定部件270可在相同的坐标系统中确定观察者910和被观察者915两者的位置。观察者位置测定部件270得到包括观察者910所在区域的多个坐标数据,以便确定观察者910占据的区域。 
被观察者视点测定部件214基于由观察者位置测定部件270得到的指示观察者910所在区域的坐标数据、以及由被观察者视点测定部件214测得的被观察者915的视线方向,测得被观察者915视线所在的、观察者910的区域。具体地,被观察者视点测定部件214将由观察者位置测定部件270得到的几组坐标数据确定的观察者910占据的区域、与由被观察者视点测定部件214测定的被观察者915的视线延长线的交点,判断为被观察者915的视点。被观察者视点测定部件214将得到的指示交点的坐标数据作为指示被观察者915视点的坐标数据。 
与观察者视点测定部件210相似,被观察者视点测定部件214可包括的被观察者特征点提取部件,用于提取被观察者915眼部等的特征点。被观察者特征点提取部件提取被观察者915的特征点。当被观察者915移动头部时,被观察者视点测定部件214可跟踪提取的眼部等的特征点,以便跟随被观察者915的移动,并测定被观察者915的视线。具体地,被观察者视点测定部件214可包括用于移动图像捕获部件200的移动控制部件,图像捕获部件200根据被观察者915特征点的移动,捕获被观察者915的图像,这些特征点由被观察者特征 点提取部件提取得到。被观察者视点测定部件214向观察者视点判断部件250提供指示测定的被观察者915视点的信息。 
视点移动方法学习部件216学习观察者910如何将视线转向被观察者915,并向视点移动方法存储部件255提供指示所学到的观察者910如何将视线转向被观察者915的信息。根据本发明实施例,视点移动方法学习部件216学习观察者910如何,基于观察者910向被观察者915询问问题时发出的声音,习惯地移动视线以及观察者910视点的移动轨迹。随后将详细地描述由视点移动方法学习部件216执行的操作。 
在视点移动方法存储部件255上存储观察者910如何将视线转向被观察者915的预定方法。当有多个观察者时,视点移动方法存储部件255可在其上存储每个观察者如何定向其视线的一种或多种方法。在视点移动方法存储部件255与观察者对应存储其从视点移动方法存储部件216接收的指示如何定向视线的方法的信息。视点移动方法存储部件255向观察者视点判断部件250提供指示观察者910如何定向其视线的方法的信息。观察者视点判断部件250判断出从观察者视点测定部件210接收到的观察者910的视点是否位于预定区域内。具体地,观察者视点判断部件250判断观察者910的视点是否位于被观察者915所在的区域内。 
例如,被观察者位置测定部件212可获得多个坐标数据作为被观察者所在的区域,这些坐标数据由根据用于图像捕获部件200的图像捕获目标区域的预定三维坐标系统确定。通过将观察者910的视线方向与指示被观察者915所在区域的坐标数据相比较,观察者视点判断部件250可做出观察者910的视点是否位于被观察者915所在区域内的判断。观察者视点判断部件250还可判断出观察者910的视点是否位于对应于被观察者915眼部的区域内。此外,观察者视点判断部件250进一步判断,从观察者视点测定部件210接收的观察者910的视点轨迹,是否与从视点移动方法存储部件255接收的指示如何定向视线的方法的信息所表明的视点轨迹相一致。观察者视点判断部件250可另外判断由观察者视点测定部件210测定的观察者910的视点移动速度是否落入预定范围内。 
观察者视点判断部件250基于从被观察者视点测定部件214接收的被观察者915的视点和从观察者视点测定部件210接收的观察者910的视点,判断观察者 910与被观察者915的视点是否彼此重合。例如,如果从观察者视点测定部件210测定的观察者910的视点位于对应于被观察者915眼部的区域内、且由被观察者视点测定部件214测定的被观察者915的视点位于对应于观察者910眼部的区域内,则观察者视点判断部件250可判断出观察者910和被观察者915的视线彼此重合。观察者视点判断部件250向图像存储控制部件260提供判断结果。 
79当从观察者视点判断部件250接收到的指示观察者910的视点位于预定区域内的判断结果时,图像存储控制部件260从图像捕获部件200获得被观察者915的图像,并将图像存储到图像存储部件320上。这里,预定区域可为被观察者915所在的区域内,以及被观察者915的眼部的区域内等。这里,图像存储控制部件260可在图像存储部件320上存储被观察者915的图像,该图像由图像捕获部件200在以早于观察者视点判断部件250做出观察者910的视点位于预定区域内的判断的一预定时间的时刻为开始的预定时间周期期间捕获。当观察者视点判断部件250判断出观察者910如何朝向被观察者915定向其视线的方法,与存储在视点移动方法存储部件255上的如何定向视线的方法一致时,图像存储控制部件260可从图像捕获部件200获得被观察者915的图像并将捕获到的图像存储到图像存储部件320上。 
此外,当观察者视点判断部件250判断出观察者910的视线移动速度落入预定范围内时,图像存储控制部件260可从图像捕获部件200获得被观察者915的图像并将获得的图像存储到图像存储部件320上。图像存储控制部件260可在图像存储部件320上存储被观察者915的多幅图像,这些图像由图像捕获部件200在观察者视点判断部件250做出观察者910和被观察者915视线彼此重合的判断的时刻之前及之后捕获。另外,图像存储控制部件260可检测出观察者910向被观察者915询问问题时发出的声音,并当该声音被检测到时,其可从图像捕获部件200获得由图像捕获部件200捕获的被观察者915的图像,并将捕获到的图像存储到图像存储部件320上。 
当观察者910的视点位于预定区域内时,即,当观察者910正在观察被观察者915时,涉及本实施例的图像记录装置10,在观察者910关注被观察者915的时刻,可自动地记录示出观察者910所关注的、被观察者915的区域范围的 图像。这种配置使得可以在观察之后的时间,也能容易地再现当观察者910观察被观察者915时,观察者910关注被观察者915的时刻捕获到的被观察者915的一部分图像。 
此外,如果观察者910的视点移动速度落入预定范围内,那么涉及本实施例的图像记录装置10可记录被观察者915的图像。换句话说,当观察者910不关注被观察者915时,例如,当观察者910的视点移动速度高于预定速度时,图像记录装置10不在其上记录被观察者915的图像。因此,当观察者910观察被观察者915时,图像记录装置10可恰当地仅记录图像是在观察者910关注被观察者915时捕获到的被观察者915的图像。 
此外,当观察者910和被观察者915视点彼此重合时,涉及本实施例的图像记录装置10可记录被观察者915的图像。这种配置,涉及本实施例的图像记录装置10可与观察者910的问诊声音信息一起再现当观察者910和被观察者915视点彼此重合时捕获的被观察者915的图像。因此,涉及本实施例的图像记录装置10可容易地再现被观察者915对应于观察者910询问的问题所表现出的面部表情。 
图13、14和15用于示出由视点移动方法学习部件216所执行的操作。图13示例性地示出当不同观察者910、911和912观察被观察者915时,得到的视点轨迹835、836和837。如图13所示,每个观察者具有使视线指向被观察者915的不同方法。因此,视点移动方法学习部件216确定每个观察者独有的移动视点的方法。具体地,涉及本实施例的视点移动方法学习部件216,通过确定观察者交谈时,观察者视点可能移动到的区域,确定每个观察者独有的移动视点的方法。 
视点移动方法学习部件216从观察者视点测定部件210以预定时间间隔接收指示观察者910视点的信息。此外,视点移动方法学习部件216从声音单元40接收指示是否存在声音的信息,并且当检测到声音时,确定观察者视点所在的区域。这里,视点移动方法学习部件216可确定观察者的视点是否位于被观察者915图像内的预定区域中。例如,在本实施例中,如图13所示,在被观察者915图像内预先确定多个区域。例如,这样的区域包括区域A(眼部)、区域B(口部)、区域C(手部)、区域D(示出被观察者颈部以上但不包括面部的图 像部分)、区域E(身体)、以及区域F(剩余部分)。视点移动方法学习部件216确定观察者视点所在的区域,其与指示是否存在观察者讲话的信息有关。对于每一区域,视点移动方法学习部件216计算出视点位于区域的总时间周期。基于这一操作,视点移动方法学习部件216确定当讲话时视点所在最长时间周期的区域。例如,如图13、14所示观察者910的情况,当观察者910没讲话时视点位于区域D,但是当观察者910讲话时,视点移动到对应于被观察者眼部的区域(区域A)。这种情况的观察者911的情况是将视点移动到对应于被观察者手部的区域(区域C)。 
视点移动方法学习部件216还可通过计算视点位于每一区域的总时间周期,确定未讲话时视点所在最长时间周期的区域。可选择地,视点移动方法学习部件216可计算视点位于每一预定区域的可能性。在上述方式中,视点移动方法学习部件216学习每个观察者如何定向其视线,并且视点移动方法存储部件255在其上存储有关学习到的如何定向视线的方法的信息。 
这里,视点移动方法学习部件216可根据学习到的如何定向视线的方法,改变被观察者915图像的预定区域的尺寸。例如,视点移动方法学习部件216根据讲话时视点位于区域内的时间周期,改变被观察者915图像中的每一预定区域的尺寸。具体地,当讲话时视点长时间地位于预定区域内的情况下,视点移动方法学习部件216缩小预定区域的尺寸。另一方面,当讲话时视点短时间地位于预定区域的情况下,视点移动方法学习部件216增大该预定区域的尺寸。当发言时,每个观察者独有地习惯性方式的行为例如倾向于凝视特定区域或频繁地移动视点。根据本实施例,可根据观察者如何定向其视线的方法,改变在被观察者915的图像中确定的预定区域的尺寸。因此,本实施例可避免当视点移动不同于存储的习惯性方式时捕获到的不必要的图像。 
如图13中示出的由观察者912的轨迹837指示的,一些观察者可能习惯性地观察者患者而不将视点集中到特定的预定区域(图13中,区域B)。考虑到这种习惯,视点移动方法学习部件216可确定观察者的视点极有可能位于的区域,并且当观察者910的视点位于该确定区域内时,可以判断出视线的定向方法彼此一致。 
除了前面描述的因素,视点移动方法学习部件216可使用移动速度学习观察 者如何定向其视线的方法。例如,当声音单元40检测到声音时,视点移动方法学习部件216计算出观察者视点的平均移动速度。这种配置,视点移动方法学习部件216可了解当观察者910朝向被观察者915定向其视线时观察者910表现的习惯,例如,缓慢地移动视线、快速地移动视线、以及在观察过程中凝视被观察者。视点移动方法存储部件255在其上存储计算出的、每个观察者的平均视点移动速度。此外,视点移动方法学习部件216可计算出未检测到声音时,对于每个观察者的视点平均移动速度。 
根据存储在视点移动方法存储部件255中的信息,在观察者910讲话的同时,当观察者910的视点位于观察者910在讲话过程中最可能将其视点移动到的区域内时,观察者视点判断部件250判断出视线的定位方法彼此一致。可选择地,根据存储在视点移动方法存储部件255上的信息,在观察者910讲话的同时,当观察者910的视点位于观察者910在讲话过程中最可能将其视点移动到的区域内时,以及当观察者910的视点移动速度与在讲话过程中观察者910的平均移动速度基本相等时,观察者视点判断部件250可作出定向这些视线的方法彼此一致的判断。 
这里,通过使用涉及本实施例的图像记录装置,观察者910可观察多个被观察者。当由图像捕获部件200捕获的图像包括多个被观察者时,图像存储控制部件260提取并存储指示被观察者的区域,该区域包括了由观察者视点测定部件210测定的观察者910的视点。这种情况下,观察者视点判断部件250判断由观察者视点测定部件210测定的观察者910的视点是否位于由被观察者位置测定部件212计算出的、对应于被观察者面部的区域内。当观察者视点判断部件250肯定地判断时,图像存储控制部件260可存储由图像捕获部件200捕获的被观察者915的图像。这里,图像存储控制部件260可仅提取示出具有观察者910视点的被观察者的区域,并存储提取到的区域,观察者910的视点由观察者视点测定部件210测定。 
与参考图1至11中描述的图像记录装置10相似,观察者910可远距离地观察被观察者915。此外,多个观察者可通过网络观察多个被观察者。图16A和16B示出图像记录装置10用于电视会议的情况。这种情况中,涉及本实施例的图像记录装置可用于电视会议。具体地,分别提供观察者侧和被观察者侧的图 像记录装置、以及通过网络将其彼此连接。每个图像记录装置中提供的声音单元40向其他图像记录装置传输声音,并且每个图像记录装置中提供的输出部件50显示示出显示部件另一侧的图像。 
观察者侧的图像捕获单元20包括其中的图像捕获部件202和208、观察者视点测定部件210和观察者位置测定部件270。被观察者侧的图像捕获单元20包括图像捕获部件204、被观察者位置测定部件212和被观察者视点测定部件214。这里,图像捕获部件202至208的坐标系统可具有彼此预定的关系。例如,在通过网络开始观察之前,校准坐标系统间的关系。如前所述,当观察者910和912在观察显示在包括在观察者侧的输出部件50中的显示部件上的被观察者915和916的图像时,观察者视点测定部件210测定观察者910和912的视点。当被观察者915和916观察显示在包括在被观察者侧的输出部件50中的显示部件上的观察者910和912的图像时,被观察者视点测定部件214测定被观察者915和916的视点。观察者位置测定部件270在预定的图像捕获目标区域内测定观察者910的位置。被观察者位置测定部件212在预定的图像捕获目标区域内测定被观察者915的位置。除了这些操作,前面提到的组件按照前面描述的操作。 
即使当通过网络彼此连接时,这些多个图像记录装置也可精确地记录交谈过程中另一侧的面部表情的变化。特别地,当发言者对多个人进行发言时,图像记录装置可精确地记录在发言过程中发言者所关注的人的面部表情。 
图17示出涉及第三实施例的图像捕获单元20及涉及第二实施例的输入单元60的示例性功能配置。涉及第三实施例的图像捕获单元20包括图像捕获部件200、观察者视点测定部件210、被观察者位置测定部件212、被观察者视点测定部件214和观察者视点判断部件250。涉及第二实施例的输入单元60包括其中的视线信息输入部件600。这些配置目的在于,提供一种在随后的时间可以容易地检索观察者910所关注的被观察者915的图像的图像记录装置。涉及本实施例的图像捕获单元20和输入单元60,可另外包括共同构成参照图1至11描述的图像记录装置10的单元的一些或全部功能及配置。标有与图1至11中相同附图标记的组件具有与图1至11中对应组件的基本相同的功能,因此在后文中不再详细解释。
如在涉及第一和第二实施例的图像捕获单元20的描述中所提到,当图像捕获部件200是全景照相机时,图像捕获部件200可包括图像捕获部件202至208的功能。可选择地,图像捕获单元20可包括代替图像捕获部件200的、用于检测观察者910视线方向的图像捕获部件202、用于测定观察者910所在区域的图像捕获部件208、用于检测被观察者915视线方向的图像捕获部件204、以及用于测定被观察者915所在区域的图像捕获部件206。 
图像捕获部件200捕获被观察者915的图像,并向图像存储部件320提供捕获到的被观察者915的图像。图像捕获部件200向被观察者视点测定部件214提供用于测定被观察者915视点的图像、以及向被观察者位置测定部件212提供用于测定被观察者915所在位置的图像。此外,图像捕获部件200向观察者视点测定部件210提供用于测定观察者910视点的图像。被观察者位置测定部件212在图像捕获部件200的预定图像捕获目标区域内,测定被观察者915所在的区域。被观察者位置测定部件212测定对应于被观察者915眼部的区域。被观察者位置测定部件212向观察者视点判断部件250提供指示被观察者915所在的测定区域的信息、以及指示对应于被观察者915眼部的测定区域的信息。 
当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210测定观察者910的视点。当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210还测定观察者910如何朝向被观察者915定向其视线的方法。当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210还测定观察者910的视点移动速度。观察者视点测定部件210将测定的关于观察者910的信息,例如视点、如何定向其视线的方法、以及视点移动速度,提供给观察者视点判断部件250和图像存储部件320。 
被观察者视点测定部件214测定被观察者915的视点。被观察者视点测定部件214可测定与时间相关的被观察者915的视点,以测定指示被观察者915视点轨迹的信息。被观察者视点测定部件214向观察者视点判断部件250提供指示测定的被观察者915视点的信息和指示视点轨迹的信息。观察者视点判断部件250判断由观察者视点测定部件210测定的观察者910的视点是否位于由被观察者位置测定部件212测定的被观察者915所在的区域内。观察者视点判断部件250还判断由观察者视点测定部件210测定的观察者910的视点是否位 于由被观察者位置测定部件212测定的对应于被观测者915面部或手部的区域内。此外,观察者视点判断部件250可判断由观察者视点测定部件210测定的观察者910的视点是否位于由被观察者位置测定部件212测定的对应于被观察者915眼部的区域内。而且,观察者视点判断部件250判断观察者910的视线与被观察者915的视线是否彼此重合。观察者视点判断部件250向图像存储部件320提供判断结果。 
在图像存储部件320上存储由图像捕获部件200捕获的图像,图像与指示观察者910视点、观察者910如何朝向被观察者915定向其视线的方法、观察者910视点的移动速度的信息、以及指示由观察者视点判断部件250作出的判断结果的信息有关。在视线信息输入部件600的控制下,图像存储部件320向输出部件50提供存储的图像。这里,视线信息输入部件600允许用户917输入指示观察者910视点的信息。具体地说,视线信息输入部件600允许用户917输入指示观察者910视点位于被观察者915所在区域内的信息、或者指示观察者910视点位于对应于被观察者915面部或手部区域内的信息。此外,视线信息输入部件600可允许用户917输入指示观察者910视点位于对应于被观察者915眼部区域内的信息。这里,分别对应于面部的区域、对应于手部的区域和对应于眼部的区域,可为包括面部、手部和眼部及其周围区域的预定尺寸的区域。例如,对应于眼部的区域为具有至少以左眼和右眼中之一的黑色部分为中心、并以1cm为半径的圆确定的区域。可选择地,对应于眼部的区域可为由矩形或椭圆形确定的包括两只眼睛的区域,矩形或椭圆形在面部的水平方向具有长边。视线信息输入部件600可允许用户917输入指示观察者910如何朝向被观察者915定向其视线的方法的信息、指示视点移动速度的信息、以及指示观察者910和被观察者915视线彼此重合的信息。例如,当用户917需要查看观察者910关注被观察者915眼部时捕获的被观察者915的图像时,用户917向视线信息输入部件600中输入指示观察者910的视点位于被观察者915眼部的信息。视线信息输入部件600向输出部件50提供由用户917输入的信息。 
输出部件50输出存储在图像存储部件320上的被观察者915的图像,图像与通过视线信息输入部件600输入的、指示观察者910视点的信息相关。具体地说,输出部件50接收由视线信息输入部件600输入的、指示观察者910视点 的信息,并提取和输出存储在图像存储部件320上的、与从视线信息输入部件600接收的信息相一致的信息有关的图像。 
输出部件50可包括变更问题建议部件。变更问题建议部件建议观察者910应该基于被观察者915视点的变化,询问被观察者915不同的问题。具体地说,变更问题建议部件基于被观察者915的视点轨迹,判断被观察者915是否从观察者910处转移了眼睛。当判断被观察者915从观察者910处转移其眼睛时,变更问题建议部件在输出部件50上显示一字符串,建议观察者910应该向被观察者915询问不同的问题。这里,输出部件50可以声音的方式建议观察者910询问不同的问题。 
根据本实施例,图像记录装置10可在其上存储被观察者915的图像,图像与观察者910观察被观察者915时获得的信息有关,例如观察者910的视点,观察者910如何朝向被观察者915定向其视线的方法,视点的移动速度,以及指示观察者910和被观察者915视线彼此重合的信息。因此,图像记录装置10可在观察者910实际观察被观察者915之后的时间,再现观察者910如何观察被观察者915。另外,图像记录装置10使得可以容易地检索到观察者910关注的被观察者915的图像。 
根据本实施例,在图像存储部件320上存储由图像捕获部件200捕获的被观察者915的图像,图像进一步与指示由被观察者视点测定部件214测定的被观察者915视点的信息有关。这种情况下,视线信息输入部件600进一步允许用户输入指示被观察者915视点的信息。输出部件50基于由视线信息输入部件600输入的指示被观察者915视点的信息和指示观察者910视点的信息,输出存储在图像存储部件320上的被观察者或观察者的图像。具有这种配置时,涉及本实施例的图像记录装置10使得可以基于结合观察者和被观察者的视点,在观察之后的时间再现被观察者的图像。 
图18和19用于说明由观察者视点判断部件250执行的操作。图20示出了存储在图像存储部件320上的一个示例性数据。图18A示出在被观察者915的图像中的多个预定区域850至858,图18B示出在观察者910的图像中的多个预定区域860至868。例如,区域850、852和854是对应于被观察者915的面部、眼部和口部的区域。区域856和858是对应于被观察者915手部(右手和 左手)的区域。区域860和862是对应于观察者910眼部(左眼和右眼)的区域,区域864是对应于观察者910口部的区域。区域866、868和870是未包括观察者910的、分别对应于观察者910右侧、左侧和上部区域。 
当观察者910观察被观察者915时,观察者视点判断部件250判断观察者910的视点是否位于区域850至858中的任一个内。此外,观察者视点判断部件250判断被观察者915的视点是否位于区域860至868中的任一个内。在本实施例中,如图19中所示,观察者视点判断部件250接收指示来自观察者视点测定部件210和被观察者视点测定部件214的这些视点的多个坐标数据,作为指示观察者910和被观察者915的这些视点的信息,并判断这些接收到的视点是否被包括在任一个预定区域内。例如根据图20中示出的数据结构,在图像存储部件320上存储判断结果。根据图20中示出的例子,在图像存储部件320上存储指示观察者视点、以及被观察者915图像中包括观察者视点的区域的坐标数据,其与观察者所看的被观察者的图像有关。在图像存储部件320上还存储指示被观察者视点、以及在观察者910图像中包括被观察者视点的区域的坐标数据,其与被观察者的图像有关。 
例如,视线信息输入部件600允许用户输入观察者910关注的区域的名称,作为指示观察者910视点的信息;以及输入被观察者915关注的区域的名称,作为指示被观察者915视点的信息。例如,假设观察者是医师。这里,如果医师需要检索在医师关注包括患者口部的区域时捕获到的图像,患者为被观察者,医师输入关键词“口部”作为指示观察者910视点的信息。这种情况下,当医师关注患者口部及其周围区域时输出部件50输出捕获到的移动图像1。此外,基于通过视线信息输入部件600输入的指示观察者视点的信息,输出部件50可从存储在图像存储部件320上的被观察者915的图像中,提取并输出对应于输入的视点的预定区域。这种情况下,输出部件50提取并输出存储的、与指示观察者910视点的信息相关的被观察者图像的预定区域,作为对应于输入视点的预定区域。例如,当输入关键词“右眼”作为指示观察者视点的信息时,从存储的、与关键词“右眼”有关的移动图像1中,提取显示对应于患者右眼的区域852的图像,并输出提取到的图像。 
根据本实施例,声音单元40中的声音记录部件400记录观察者910和被观 察者915的声音信息。这里,在图像存储部件320上进一步存储由声音记录部件400记录的、与由图像捕获部件200捕获的被观察者915的图像有关的观察者910的声音信息。视线信息输入部件600允许用户进一步输入指示观察者910声音信息的信息。基于被观察者915的声音信息,输出部件50输出存储在图像存储部件320上的被观察者915的图像。 
注意到,声音信息例如是观察者910观察被观察者915时交流的谈话。视线信息输入部件600存储声音数据和与声音数据内容有关的信息,并将其作为声音信息,其与被观察者915的图像有关。这里,视线信息输入部件600可存储关键词或语句,作为与声音数据内容有关的信息。视线信息输入部件600允许用户输入与观察者910对被观察者915执行观察的内容相关的关键词,作为指示观察者910的声音信息的信息。以这种方式,涉及本实施例的图像记录装置可在观察之后的时间,再现观察者910如何观察被观察者915。此外,涉及本实施例的图像记录装置可基于指示观察过程中观察者910关注的区域的信息,容易地检索被观察者915的图像。此外,涉及本实施例的图像记录装置可基于有关观察者与被观察者间交流的谈话的信息,检索所需的图像。 
这里,涉及本实施例的图像捕获部件200可捕获多个被观察者的图像。这种情况下,捕获到指示图像捕获部件200预定图像捕获目标区域内的、多个被观察者915所在区域的图像,并且被观察者位置测定部件212向观察者视点判断部件250提供指示多个被观察者915所在区域的信息。观察者视点判断部件250确定对应于一个被观察者的区域,由观察者视点测定部件210测定观察者的视点存在于该处。这里,观察者视点判断部件250可判断观察者910的视点是否位于对应于由被观察者位置测定部件212测定的确定被观察者915的面部、手部或眼部的区域,。在图像存储部件320上存储由观察者视点判断部件250确定的被观察者的图像,以便与观察者的视点一致,其与指示观察者视点的信息有关。视线信息输入部件600允许用户输入指示观察者视点的信息,并且输出部件50输出存储在图像存储部件320上的、与指示观察者视点的输入信息有关的被观察者的图像。 
当多个观察者通过网络观察多个被观察者时,可以使用包括涉及本实施例的图像捕获单元20的图像记录装置10。例如,图像记录装置10可用于电视会议。 这种情况下,与观察者侧的讲话者的视点和在被观察者侧显示部件上观察讲话者的听众的视点相关,在图像存储部件320上存储讲话者的图像以及倾听讲话者的听众的图像。此外,图像存储部件320可在其上存储与讲话者所作发言内容相关的讲话者和听众的图像。视线信息输入部件600允许用户输入指示讲话者视点、听众视点、和/或由讲话者所作发言内容的信息。输出部件50输出与指示讲话者视点、听众视点、和/或由讲话者所作发言内容的输入信息有关的、存储的讲话者与听众的图像。以这种方式,涉及本实施例的图像记录装置10使得可以在电视会议之后,通过使用发言者和听众的视点作为关键词检索图像。 
图21示出了包括在图像记录装置10中的涉及第四实施例的图像捕获单元20和涉及第三实施例的输入部件60的示例性功能配置。图像捕获单元20包括图像捕获部件200和图像存储控制部件260。存储单元30包括图像存储部件320和电子医用记录存储部件330。输入单元60包括观察结果输入部件610、输入检测部件620、观察结果信息输入部件630、时间输入部件640、和观察结果存储控制部件650。这里,观察结果输入部件610包括数字输入部件612和写部件614。具有如上描述的配置,涉及本实施例的图像记录装置10目标为,即使观察者910在向电子医用记录等输入观察结果时没有看到被观察者915的面部表情,图像记录装置也能使得在之后的时间合适地再现被观察者915的面部表情。这里,涉及本实施例的图像记录装置10可进一步包括参照图1至11描述的共同构成图像记录装置10的单元的一些或全部功能及配置。与图1至11中标有相同附图标记的组件具有与图1至11中相应组件基本相同的功能,因此在下文中不再详细解释。 
图像捕获部件200捕获被观察者915的图像,并向图像存储部件320提供捕获的被观察者915的图像。图像捕获部件200还向图像存储控制部件260提供图像。电子医用记录存储部件330在其上存储电子医用记录,向电子医用记录中输入对被观察者915的观察结果。具体地说,观察结果输入部件610用于输入由观察者910完成的观察的结果。观察结果输入部件610向输入检测部件620提供指示输入的观察结果的信息。之后观察结果输入部件610向观察结果存储控制部件650提供由观察者910输入的观察结果。观察结果存储控制部件650将从观察结果输入部件610接收的观察结果存储到电子医用记录存储部件330 上,作为电子医用记录。更具体地,包括在观察结果输入部件610中的数字输入部件612,用于向电子医用记录中输入由观察者910完成的观察结果。数字输入部件612,例如是键盘、鼠标、触摸面板等。数字输入部件612向输入检测部件620提供指示观察者910向电子医用记录内输入观察结果的信息。 
观察者910使用观察结果输入部件610中包括的写入部件614,向医用记录中写入观察结果。写入部件614可包括壳体615、压力检测部件616、笔尖617、以及检测结果传输部件618。当观察者910写下观察结果时,压力检测部件616检测出由施加到笔尖617上的压力引起的压力改变。压力检测部件616向检测结果传输部件618提供指示检测到的压力改变的信息。检测结果传输部件618向输入检测部件620提供指示压力变化的信息。检测结果传输部件618可通过有线或无线通信方式向输入检测部件620提供指示压力变化的信息。 
输入检测部件620检测出数字输入部件612用于向存储在电子医用记录存储部件330上的电子医用记录中输入由观察者910完成的观察的结果。此外,输入检测部件620检测出写部件614用于向医用记录中写入由观察者910完成的观察的结果。注意到,写部件614可用于向纸张医用记录中写入观察结果。写部件614可为用于数字白板的笔等。当写部件614为用于数字白板的笔等时,写部件614可用于通过数字白板向电子医用记录中写入观察结果。这种情况中,由使用写入部件614写入的观察结果被提供给观察结果存储控制部件650。 
当输入检测部件620检测到输入的由观察者910完成的观察的结果时,图像存储控制部件260将由图像捕获部件200捕获的被观察者915的图像存储到图像存储部件320上。具体地,当接收到来自输入检测部件620指示通过使用观察结果输入部件610输入的由观察者910完成的观察结果的信息时,图像存储控制部件260从输入检测部件620获得由图像捕获部件200捕获的被观察者915的图像。之后,图像存储控制部件260向图像存储部件320上存储获得的被观察者915的图像。可选择地,图像存储控制部件260在图像存储部件320上存储被观察者915的图像,图像是在早于输入检测部件620检测到输入的由观察者910完成的观察结果的时刻一预定时间周期的时刻为起始时间的预定时间周期,该图像由图像捕获部件200捕获。图像存储部件320存储由图像捕获部件200捕获的图像,其与指示通过观察结果输入部件610输入的由观察者910 完成的观察的结果的信息、以及观察者910输入观察结果的时间有关。这里,指示观察结果的信息可包括疾病名、症状、症状的进展情况、以及症状的改善程度。在观察结果信息输入部件630和时间输入部件640的控制下,图像存储部件320将在其上存储的图像提供给输出部件50。 
观察结果信息输入部件630允许用户917输入指示由观察者910完成的观察结果的信息。这里,用户917例如可为观察者910、除观察者910之外的其它观察者、或者被观察者915。例如,当用户917需要了解被观察者915的何种面部表情有助于观察者910判断被观察者915的症状时,用户917向观察结果信息输入部件630输入由观察者910观察出的症状名称,作为指示观察结果的信息。观察结果信息输入部件630使得输出部件50输出存储在图像存储部件320上的、与用户917输入的症状名称有关的被观察者915的图像。时间输入部件640允许用户917输入时间。例如,当用户917需要看到被观察者915在先的图像时,用户917通过时间输入部件640输入对应于所需图像的时间。时间输入部件640使得输出部件50输出存储在图像存储部件320上、与用户917输入的时间有关的被观察者915的图像。 
输出部件50输出存储在图像存储部件320上、与指示观察者910完成的观察结果的信息有关的被观察者915的图像,该观察结果信息通过观察结果信息输入部件630输入。此外,输出部件50输出存储在图像存储部件320上、与通过时间输入部件640输入的时间有关的被观察者915的图像。输出部件50可为例如显示屏幕的显示装置。输出部件50可按时间顺序并排显示被观察者915的图像。可选择地,输出部件50可在预定的时间间隔按时间顺序每次一张地显示被观察者915的图像。 
输出部件50可为头部安装型显示器。当输出部件50为头部安装型显示器时,例如即使向电子或纸张医用记录内输入观察结果时,观察者910仍可通过提供的头部安装型显示器输出部件50,看到被观察者915的图像。这种情况下,输出部件50可在不使观察者910向电子医用记录等内输入观察结果变得困难的区域中,显示被观察者915的图像。例如,头部安装型显示器可包括观察者视线检测部件,以便检测观察者910的视线。输出部件50可在不同的区域显示这些图像,些区域的选择取决于由观察者视线检测部件检出的观察者910的视线。 当观察者910面对被观察者915时,输出部件50可不需要在头部安装型显示器上显示被观察者915的这些图像。这里,例如可在诊所的入口和出口处提供图像捕获部件200,以便当被观察者915走进和走出诊所时,捕获到被观察者915表现出的面部表情。 
当观察者910向电子或纸张医用记录中输入或写入观察被观察者915的结果时,涉及本实施例的图像记录装置10检测到观察者910输入和写入的时刻,并在检测到的时刻时自动地捕获被观察者915的图像。以这种方式,其可以在随后的时间再现被观察者915的一些面部表情,由于表现这些面部表情时观察者910在向电子医用记录等中输入观察结果,因而这些面部表情实际上未被观察者910观察到。 
此外涉及本实施例的图像记录装置10,可获得以在早于观察者910向电子医用记录中输入观察被观察者915的观察结果的时刻一预定时间周期的时刻为起始时间的一预定时间周期中捕获到的被观察者915的图像,以便允许观察者910按时间顺序看到错过的被观察者915的图像。以这种方式,可以可靠地防止观察者910错过示出被观察者915的图像,图像可能对被观察者915的观察结果有影响。 
图22示出涉及本实施例的写部件614的一个实例。该写部件614包括壳体615、压力检测部件616、笔尖617、以及检测结果传输部件618。当压力施加到笔尖617上时,压力检测部件616检测到施加到笔尖617上的压力。例如,当观察者910在纸390上写下字母等时,压力检测部件616检测到施加于笔尖617上的压力。压力检测部件616向检测结果传输部件618提供指示检测到的压力的信息。检测结果传输部件618向输入检测部件620提供指示压力检测部件616检测到的压力的信息。检测结果传输部件618和输入检测部件620可通过有线或无线互连彼此耦合。 
图23示出涉及本实施例的在图像存储部件320上存储的示例性数据。根据图23中示出的实例,图像存储部件320在其上存储由图像捕获部件200在以早于输入该观察结果三分钟的时间为开始时间、并且以输入该观察结果的时间为终点的时间周期中,捕获的移动图像。注意到,当图像捕获部件200捕获被观察者915的图像时,声音单元40中包括的声音记录部件400记录下观察者910 的声音信息。这里,声音信息例如是当观察者910观察被观察者915时交流的谈话。视线信息输入部件600存储声音数据以及与被观察者915的图像有关的关于声音数据内容的信息,作为声音信息。这种情况下,观察结果输入部件610可存储关键词或语句,作为关于该声音数据内容的信息。图像存储部件320在其上存储由图像捕获部件200捕获的、进一步与由声音记录部件400记录的观察者910的声音信息有关的被观察者915的些图像。观察结果输入部件610可允许用户输入关于观察者910对被观察者915的观察内容的关键词,并且输出部件50可输出存储在图像存储部件320上、与观察者910的声音信息有关的被观察者915的图像。 
图24、25A和25B用于示出涉及本实施例的电子医用记录500。输出部件50在输出部件50中包括的显示部件上,显示存储在电子医用记录存储部件330上的电子医用记录。图24示出用于电子医用记录500的示例性用户界面。涉及本实施例的电子医用记录存储部件330,以示意性地示出患者身体的图像504的形式,在其上存储观察结果。示意性地示出患者身体的图像504可为示出部分人体的图像,例如上半身体、下半身体、四肢、以及面部、或者示出整个人体的图像。 
电子医用记录存储部件330,存储指示在有关示意性地示出人体的图像504的预定区域是否发现疾病的信息。具体地,该电子医用记录500具有分别对应于示意地示出人体的图像504的预定区域的检验栏。这里,取决于通过数字输入部件612是否发现疾病,而检查或清空这些检验栏。图24中示出的电子医用记录500具有分别对应于患者面部不同区域的多个检验栏502。具有这种配置,观察者910可快速地完成向电子医用记录中输入观察结果。 
这里,示意性地示出一名可用由图像捕获部件200捕获的被观察者915的实际图像所取代患者的图像504。如果是这种情况,电子医用记录500具有分别对应于由图像捕获部件200捕获的被观察者915实际图像的预定区域的检验栏。可选择地,电子医用记录500可具有对应于由图像捕获部件200捕获的被观察者915图像的至少部分区域的检验栏。这里,被观察者915图像的部分区域可为指示患者身体预定区域的区域,例如被观察者915的面部、眼部、口部和鼻子。图25A和25B用于示出使用被观察者915实际图像的示例性电子医用记录。
当根据通过数字输入部件612的输入,检查一个或多个检验栏时,图像存储部件320在其上存储与检验栏有关的被观察者915的图像,以及指示观察结果的信息。以这种方式,涉及本实施例的图像存储部件320,基于通过数字输入部件612的输入,存储由图像捕获部件200捕获的被观察者915图像的至少部分区域,其与指示观察结果的信息有关。这里,当通过检查些检验栏输入观察结果时,图像存储部件320在其上存储在以早于输入检测部件620检测输入观察结果的时刻一预定时间周期的时刻为起始时间的预定时间周期内,由图像捕获部件200捕获的被观察者915的一些图像。输出部件50可显示通过放大被观察者915的至少部分图像而获得的图像,图像存储在图像存储部件320上。可选择地,输出部件50可在电子医用记录内以时间顺序,显示存储在图像存储部件320上的被观察者915的每一幅图像的至少部分。 
如上所述,涉及本实施例的电子医用记录500使用被观察者915的实际图像,由此允许精确地了解症状的改变。此外,由于电子医用记录500使用被观察者915的部分图像,因此可以保护被观察者915的隐私。 
图26示出了涉及第五实施例的图像捕获单元20的示例性功能配置。图像捕获单元20包括图像捕获部件200、观察者视点测定部件210、被观察者位置测定部件212、被观察者视点测定部件214、观察者视点判断部件250、图像存储控制部件260、观察者位置测定部件270、以及视线重合判断部件280。基于涉及本实施例的图像记录装置10用于医用领域的假设,进行下面的描述。当观察者910观察被观察者915时,涉及本实施例的图像记录装置10确定被观察者915的身体状态,并在其上记录确定的身体状态。基于此,涉及本实施例的图像记录装置10目的为,当最近观察观察对象者时,输出指示观察对象者可能患有的候选疾病的信息。此外,图像记录装置10目的为通过产生对应于疾病的图像而有利于观察。 
这里,例如当图像捕获部件200为全景照相机时,图像捕获部件200可包括用于检测观察者910视点的图像捕获部件202的功能、用于测定观察者910所在区域的图像捕获部件208的功能、用于检测被观察者915视点的图像捕获部件204的功能、以及用于测定被观察者915所在区域的图像捕获部件206的功能。可选择地,图像捕获单元20可包括取代图像捕获部件200的、用于检测观 察者910视线方向的图像捕获部件202、用于测定观察者910所在区域的图像捕获部件208、用于检测被观察者915视线方向的图像捕获部件204、和用于测定被观察者915所在区域的图像捕获部件206。 
图27示出涉及第四实施例的输入单元60的示例性功能配置。涉及本实施例的输入单元60包括图像输入部件602、疾病信息输入部件604、观察结果输入部件610、和观察结果存储控制部件650。图28示出涉及第二实施例的分析单元70的示例性功能配置。分析单元70包括观察者视点位置判断部件705、图像提取部件710、身体状况数值化部件715、身体状况数据存储部件720、身体状况计算部件725、数值化数据提取部件730、身体状况比较部件735、疾患可能性计算部件740、疾病图像生成部件745、预测疾病输出控制部件750、和图像输出控制部件755。这里,涉及本实施例的图像记录装置10可进一步包括参照图1至11描述的共同构成图像记录装置10的些单元的一些或全部功能及配置。与图1至11中标有相同附图标记的组件具有与图1至11中对应组件基本相同的功能,因此下文中不再详细解释。 
图像捕获部件200捕获被观察者915的图像。图像捕获部件200可捕获被观察者915的移动图像。在图像存储控制部件260的控制之下,图像捕获部件200向图像存储控制部件260提供捕获的图像。此外,图像捕获部件200向被观察者视点测定部件214提供用于测定被观察者915视点的图像,并向被观察者位置测定部件212提供用于测定被观察者915所在位置的图像。另外,图像捕获部件200向观察者视点测定部件210提供用于测定观察者910视点的图像,并向观察者位置测定部件270提供用于测定观察者910所在位置的图像。当图像捕获部件200捕获被观察者915的图像时,观察者视点测定部件210测定观察者910的视点。观察者视点测定部件210向观察者视点判断部件250和视线重合判断部件280提供测定的视点。 
当图像捕获部件200捕获被观察者915的图像时,被观察者视点测定部件214测定被观察者915的视点。被观察者视点测定部件214向观察者视点判断部件250和视线重合判断部件280提供测定的视点。观察者位置测定部件270在图像捕获部件200的预定图像捕获目标区域内测定观察者910的位置。观察者位置测定部件270向观察者视点判断部件250和视线重合判断部件280提供指 示测定的观察者910位置的信息。被观察者位置测定部件212在图像捕获目标区域内测定被观察者915所在的位置。被观察者位置测定部件212向观察者视点判断部件250和视线重合判断部件280提供指示测定的被观察者915位置的信息。 
观察者视点判断部件250判断从观察者视点测定部件210接收的观察者910的视点是否位于预定区域内。这里,预定区域可为被观察者915占据的区域、对应于被观察者915眼部的区域等。具体地,基于从观察者视点测定部件210、观察者位置测定部件270、被观察者视点测定部件214和被观察者位置测定部件212接收的测定结果,观察者视点判断部件250判断观察者910的视点是否位于预定区域内。观察者视点判断部件250向图像存储部件320提供指示由观察者视点测定部件210测定的观察者910视点的信息、以及指示观察者910视点位于预定区域内的信息和指示观察者910视点没位于预定区域内的信息中之一。 
视线重合判断部件280基于由被观察者视点测定部件214测定的被观察者915的视点、和由观察者视点测定部件210测定的观察者910的视点,判断观察者910和被观察者915的视线是否彼此重合。具体地说,视线重合判断部件280基于由被观察者位置测定部件212和观察者视点测定部件210提供的测定结果,判断观察者910的视点是否位于对应于被观察者915眼部的区域内。例如,视线重合判断部件280判断指示观察者910视点的座标是否被包括在由多个座标确定的、对应于被观察者915眼部的区域内。以相同方式,视线重合判断部件280基于由观察者位置测定部件270和被观察者视点测定部件214提供的测定结果,判断被观察者915的视点是否位于对应于观察者910眼部的区域内。当观察者910的视点位于对应于被观察者915眼部的区域内、并且被观察者915的视点位于对应于观察者910眼部的区域内时,视线重合判断部件280判断出观察者910和被观察者915的视线彼此重合。视线重合判断部件280向图像存储控制部件260提供判断结果。这种情况下,视线重合判断部件280可向图像存储控制部件260提供判断结果,作为被观察者视点位置的信息。 
图像存储控制部件260从图像捕获部件200获得被观察者915的图像,并向图像存储部件320提供获得的图像。图像存储控制部件260还从视线重合判断部件280向图像存储部件320提供判断结果。观察结果输入部件610用于输入 由观察者910完成的观察被观察者915的结果。例如,这里,观察结果可为疾病,并且通过观察结果输入部件610输入的疾病为疾病名。观察结果输入部件610可被用于输入指示观察者910观察到的疾病症状的信息。当观察者910判断被观察者915未患疾病时,作为由观察者910进行的对被观察者915观察的结果,观察结果输入部件610用于输入指示未发现疾病的信息。观察结果输入部件610向观察结果存储控制部件650提供输入的疾病。观察结果存储控制部件650向图像存储部件320提供通过观察结果输入部件610输入的疾病。 
图像输入部件602用于输入观察对象者的图像。图像输入部件602可用于输入由图像捕获部件200捕获的被观察者915的图像。这里,观察对象者可为观察者910新近观察的被观察者915。同时,被观察者915可为观察者910已经观察过的人,并且他的图像已经存储在图像存储部件320上了。图像输入部件602可用于输入当该人未患疾病时捕获的观察对象者的图像、以及当观察者910观察新的被观察者915时由图像捕获部件200获得的观察对象者的图像。图像输入部件602向身体状况计算部件725提供输入的观察对象者的图像。疾病信息输入部件604用于输入指示疾病的信息。具体地说,观察者910使用疾病信息输入部件604输入指示被观察者915的疾病的信息。疾病信息输入部件604向数值化数据提取部件730提供指示被观察者915疾病的信息。 
图像存储部件320在其上存储从观察结果输入部件610接收的疾病、以及由观察者视点测定部件210测定的指示观察者910视点的观察者视点位置信息,其与由图像捕获部件200捕获的被观察者915的图像有关。这里,观察者视点位置信息可指示由视线重合判断部件280做出的判断结果,即,被观察者视点位置信息、以及观察者910是否看着被观察者915。图像存储部件320进一步在其上存储通过观察结果输入部件610输入的、指示未发现疾病的信息,其与由图像捕获部件200捕获的被观察者915的图像有关。图像存储部件320向观察者视点位置判断部件705提供观察者视点位置信息。此外,图像存储部件320向图像提取部件710和身体状况数值化部件715提供被观察者915的图像。 
基于存储在图像存储部件320上的观察者视点位置信息,观察者视点位置判断部件705判断当捕获到被观察者915的图像时,观察者910是否看着被观察者915,被观察者915的图像被存储在图像存储部件320上并与观察者视点位置 信息有关。具体地,如果由观察者视点位置信息表面的观察者910的视点位于被观察者915的区域内,则观察者视点位置判断部件705可判断出观察者910看着被观察者915。当判断出观察者910看着被观察者915时,观察者视点位置判断部件705向图像提取部件710提供观察者视点位置信息。当从图像存储部件320接收到表明视线重合判断部件280判断观察者910与被观察者915的视线彼此重合的观察者视线位置信息时,观察者视点位置判断部件705向图像提取部件710提供接收到的观察者视点位置信息。 
图像提取部件710提取存储在图像存储部件320上、与从观察者视点位置判断部件705接收到的观察者视点位置信息有关的被观察者915的图像。图像提取部件710可提取存储在图像存储部件320上、与观察者视点位置信息有关的多幅被观察者915的图像。具体地说,图像提取部件710提取在早于捕获到的存储在图像存储部件320上、并与观察者视点位置信息有关的被观察者915图像的图像捕获时间一预定时间周期的时刻捕获到的被观察者915的图像,以及当图像捕获时间之后经过一预定时间周期时捕获到的被观察者915的图像。例如,图像提取部件710可提取在预定时间周期内捕获的被观察者915的多幅图像,预定时间周期由对应于捕获到与观察者视点位置信息有关的、被存储的被观察者915图像时的图像捕获时间确定。图像提取部件710向身体状况数值化部件715提供被提取的这些图像。 
身体状况数值化部件715关于与从图像提取部件710接收的被观察者915的图像有关的、存储在图像存储部件320上的每种疾病,分析由图像提取部件710提取的被观察者915的多幅图像。身体状况数值化部件715数值化被观察者915的身体状况。这里,被观察者915的身体状况可包括例如关于被观察者915瞳孔尺寸、视点、在预定时间周期内测定的眨眼次数、眼睑或面部的痉挛、面部的颜色、面部的温度、面颊的凹陷、面部的肿胀、以及皮肤状况(发疹等)的信息。具体地说,身体状况数值化部件715通过比较在预定时间周期内捕获的被观察者915的多幅图像,在观察者910观察被观察者915时,数值化身体状况的变化。当观察者910观察多个被观察者时,身体状况数值化部件715数值化每个被观察者的身体状况的变化,并计算出这些数值化的变化的平均值。 
例如,图像提取部件710提取出当观察者视点位置判断部件705判断观察者 910看着对应于被观察者915眼部区域时捕获到的被观察者915的图像、以及当捕获上述图像的时间之后经过一预定时间周期时捕获到的被观察者915的图像。身体状况数值化部件715从被观察者915瞳孔尺寸的方面比较由图像提取部件710提取的些图像,计算出瞳孔尺寸的变化。随后,身体状况数值化部件715数值化计算出的瞳孔尺寸的变化。例如,身体状况数值化部件715可计算出从观察者910看着对应于被观察者915眼部区域时检测到的被观察者915的瞳孔尺寸、到预定时间周期已经过去时检测到的被观察者915的瞳孔尺寸的变化率,作为瞳孔尺寸的变化量,其中前一尺寸用作参考值。随后,身体状况数值化部件715计算出多个被观察者被计算出的这些变化量的平均值。身体状况数值化部件715也可数值化被观察者915视点位置的变化以及眨眼次数的变化。 
此外,对于存储在图像存储部件320上、与由图像提取部件710提取的被观察者915的些图像有关的每种疾病,身体状况数值化部件715将存储在图像存储部件320上、与疾病有关的被观察者915的图像,与存储在图像存储部件320上、与指示未发现疾病的信息有关的被观察者915的图像相比较。身体状况数值化部件715可基于比较的结果,数值化被观察者915身体状况的差别,以计算出身体状况差别数值化的数据。身体状况数值化部件715可通过比较被观察者915患与未患疾病时被观察者915示出的身体状态,获得瞳孔尺寸的差别,并数值化获得的差别,以产生身体状况差别数值化的数据。 
身体状况数值化部件715可通过比较被观察者915患与未患疾病时示出的瞳孔尺寸,获得被观察者915瞳孔尺寸的差别,并数值化获得的差别。此外,身体状况数值化部件715可获得被观察者915患疾病时与被观察者915未患疾病时之间被观察者915视点位置改变的差别,并数值化获得的差别。此外,身体状况数值化部件715可获得当被观察者915患疾病与被观察者915未患疾病时之间被观察者915眨眼次数的差别,并数值化获得的差别。身体状况数值化部件715数值化多个被观察者的身体状况,并基于总体数值化的身体状况,计算出平均值。身体状况数值化部件715可使用计算出的平均值作为身体状况数值化的数据。身体状况数值化部件715向身体状况数据存储部件720提供该身体状况数值化数据以及身体状况差别数值化数据。 
身体状况数据存储部件720在其上存储关于每种疾病的从身体状况数值化 部件715接收的身体状况数值化数据。身体状况数据存储部件720向数值化数据提取部件730、身体状况比较部件735、以及预测疾病输出控制部件750提供身体状况数值化的数据。身体状况计算部件725分析从图像输入部件602接收的观察对象者的图像,以计算并数值化观察对象者的身体状况。具体地说,身体状况计算部件725数值化观察对象者的身体状况。身体状况计算部件725也可具有身体状况差别计算部件的功能,以便通过分析在人未患疾病时捕获的、并从图像输入部件602接收的观察对象者的图像以及新近捕获的观察对象者的图像,计算出观察对象者身体状况的差别。 
具体地,身体状况计算部件725通过分析从图像输入部件602接收的观察对象者的多幅图像,数值化观察对象者图像中示出的观察对象者的身体状况。更具体地,身体状况计算部件725通过比较按时间顺序在预定时间周期内捕获的观察对象者的图像,可数值化该观察对象的身体状况。例如,身体状况计算部件725可计算出在预定时间周期内观察对象者眨眼的次数,并使用计算出的次数作为数值化的身体状况。身体状况计算部件725向身体状况比较部件735提供指示观察对象者数值化的身体状况的信息。 
身体状况比较部件735将从身体状况计算部件725接收的指示观察对象者身体状况的信息,与存储在身体状况数据存储部件720上的身体状况数值化数据相比较。身体状况比较部件735可计算出一致性等级作为比较的结果。具体地,身体状况比较部件735将从身体状况计算部件725接收的指示数值化的身体状况的信息,与存储在身体状况数据存储部件720上的身体状况的数值化数据相比较。例如,身体状况比较部件735可计算出一致性等级,并假定当指示从身体状况计算部件725接收的数值化身体状况的信息,与存储在身体状况数据存储部件720上的身体状况数值化数据一致时,达到最高一致性等级。身体状况比较部件735也可具有身体状况差别比较部件的功能,以便比较由身体状况计算部件725计算出的观察对象者的身体状况,与存储在身体状况数据存储部件720上的身体状况差别数值化数据的差异。身体状况比较部件735向疾患可能性计算部件740和预测疾病输出控制部件750提供比较的结果。 
疾患可能性计算部件740基于指示由身体状况比较部件735完成的比较结果的一致性等级,计算出每种疾病的可能性。具体地,疾患可能性计算部件740 对由身体状况比较部件735完成的比较结果示出最高一致性等级的疾病,判断为观察对象者最可能患有的疾病。例如,疾患可能性计算部件740将计算出的概率100%可能性的疾病作为最可能的疾病。疾患可能性计算部件740可将由身体状况比较部件735完成的比较结果显示出高于预定等级的多种疾病,判断为观察对象者可能患有的疾病。疾患可能性计算部件740向预测疾病输出控制部件750提供计算出的可能性。预测疾病输出控制部件750使得输出部件50输出身体状况比较部件735完成的比较结果,与大于等于预定的一致度的身体状况数值化数据对应地、表示身体状况数据存储部件720上存储的疾病的信息。 
数值化数据提取部件730提取存储在身体状况数据存储部件720上、与指示通过疾病信息输入部件604输入的疾病的信息有关的身体状况数值化数据。数值化数据提取部件730向疾病图像生成部件745提供提取的身体状况数值化数据。疾病图像生成部件745基于从数值化数据提取部件730接收的身体状况数值化数据,生成由通过疾病信息输入部件604输入的信息指示的患病病人的图像。具体地,疾病图像生成部件745可包括疾病模板图像存储部件,在其上存储的模板图像唯一地确定一个病人患有的一种特定疾病。疾病模板图像存储部件在其上存储多个模板图像,每一个模板图像示出一个病人患有的一种特定疾病。存储在疾病模板图像存储部件上的模板图像可示出患有特定疾病患者的静止或移动的图像。 
疾病图像生成部件745提取存储在疾病模板图像存储部件上、与通过疾病信息输入部件604输入的信息指示的疾病有关的模板图像。随后,疾病图像生成部件745基于从数值化数据提取部件730接收的身体状况数值化数据指示的身体状况以及提取的模板图像,生成患病病人的图像。这里,疾病图像生成部件745可生成显示患病病人的移动图像。例如,对于特定疾病,患病病人显示的身体状况为在预定时间周期内视点位置的改变。这种情况下,疾病图像生成部件745基于模板图像以及由身体状况数值化数据指示的视点位置的改变,生成显示出移动视线的患病病人的移动图像。图像输出控制部件755引起输出部件50输出由疾病图像生成部件745生成的图像。 
从隐私的方面,不允许记录数字格式的患病者917的图像。然而,根据本实施例,不需要记录患病病人的图像。可选择地,本实施例可基于由身体状况计 算部件725计算的身体状况数值化数据和在先提供的模板图像,生成患病病人的图像。 
在预测疾病输出控制部件750的控制下,输出部件50输出身体状况比较部件735完成的比较结果,与在预定的一致度以上的身体状况数值化数据对应地、表示身体状况数据存储部件720上存储的疾病的信息。例如,输出部件50输出观察对象者最可能患有的疾病名,其被确定为由身体状况比较部件735在视点位置上的改变与指示在视点位置上改变的身体状况数值化数据之间完成比较的结果。输出部件50可输出指示多种疾病的信息,以及由疾患可能性计算部件740计算出的多种疾病的各自可能性。具体地,输出部件50按照多个疾患可能性降序的顺序输出疾病的名称、症状以及疾病的其它相关信息。另外,输出部件50输出从图像输出控制部件755接收的、由疾病图像生成部件745生成的图像。输出部件50可输出身体状况比较部件完成的比较结果,与在预定的一致度以上的身体状况数值化数据对应地、表示身体状况数据存储部件720上存储的疾病的信息。 
当观察者910观察被观察者915时,涉及本实施例的图像记录装置10数值化被观察者915的身体状况,并记录数值化的身体状况。因此,图像记录装置10可将新近被观察的观察对象者的身体状况,与在其上已经记录的数值化的身体状况相比较,以输出指示观察对象者可能患有的疾病的信息。以这种方式,当观察者910观察被观察者915时,图像记录装置10可辅助观察者910确定准确的疾病。 
此外,当输入疾病名时,基于被观察者915或观察对象者的图像、以及通过数值化被观察者915或观察对象者的身体状况而获得的身体状况数值化数据,涉及本实施例的图像记录装置10可生成显示患有对应于输入名称疾病的患者的图像。以这种方式,图像记录装置10的用户可学习从疾病的方面,通过将生成的图像与被观察者915或观察对象者相比较,如何观察被观察者915。 
涉及本实施例的图像记录装置10包括其中的观察者视点位置判断部件705。然而,在其它实施例中,图像记录装置10可放弃观察者视点位置判断部件705,并以这样的方式配置,即观察者视点判断部件250具有观察者视点位置判断部 件705的功能。如果是这种情况,当捕获到被观察者图像时,观察者视点判断部件250判断观察者是否看着被观察者,并且当观察者视点判断部件250做出肯定判断时,图像提取部件提取被观察者的图像。 
图29示出涉及本实施例的身体状况计算部件725的示例性功能。这里,身体状况计算部件725也可具有身体状况差别计算部件的功能,以便通过比较人未患疾病时捕获的并从图像输入部件602接收的观察对象者的图像、与新近捕获的观察对象者的图像,计算出观察对象者的身体状况差别。 
首先,身体状况计算部件725分析从图像输入部件602接收的观察对象者的图像。例如,身体状况计算部件725基于在预定的时间周期内,即,如图表1000中示出的从时刻t0至时刻t30的时间周期捕获的图像,分析观察对象者的瞳孔尺寸。例如,身体状况计算部件725分析并确定在t0、t10、t20、和t30时刻,观察对象者瞳孔1010、1020、1030、和1040的瞳孔直径。关于t0时刻的瞳孔直径,身体状况计算部件725计算出t10、t20、和t30时刻的瞳孔直径的变化量,并把这些计算出的变化量加起来。随后,身体状况计算部件725可使用合计值结果,作为观察对象者的身体状况。 
图30示出涉及本实施例的存储在身体状况数据存储部件720上的数据的示例性结构。身体状况数据存储部件720在其上存储一一对应于多种疾病的多组身体状况数值化数据。身体状况数值化数据可包括通过数值化例如被观察者915的瞳孔尺寸、视点位置的改变量、预定时间周期内眨眼次数的改变量、眼睑或面部抽搐的变化量的数据,而产生的多组数据。例如,身体状况数据存储部件720在其上存储指示与每种疾病有关的被观察者915眼部移动的多组数据。多组数据包括指示视点位置改变量的视线数据、指示瞳孔尺寸改变量的瞳孔数据、以及指示眨眼次数改变量的眨眼数据。身体状况数据存储部件720可在其上存储由身体状况数值化部件715获得的关于每种疾病的身体状况数值化数据。例如,身体状况数据存储部件720在其上存储关于疾病780的、分别在多个部件中的视线数据、瞳孔数据、和眨眼数据的多组身体状况数值化数据。 
关于疾病780的多组身体状况数值化数据,些指示性数值按照视线数据、眨眼数据和瞳孔数据的顺序降低。这意味着,当从疾病780的方面观察被观察者915时,可关注视线数据进行观察。通过排他地查看存储在身体状况数据存储部 件720上的这些多组视线数据,这些身体状况数值化数据的数值按照疾病780、782、和784的顺序降低。因此,通过将由数值化视点位置的改变量而获得的身体状况数值化数据、与存储在身体状况数据存储部件720上的多组身体状况数值化数据(即多组视线数据)相比较,身体状况比较部件735可判断疾病780、782、和784中的哪一个是最可能的。例如,身体状况比较部件735,通过用存储在身体状况数据存储部件720上的多组身体状况数值化数据(多组视线数据)除以从身体状况计算部件725接收的身体状况数值化数据(视线数据),计算出疾病的可能性。之后,身体状况比较部件735向预测疾病输出控制部件750提供根据计算结果显示出最高可能性的疾病名。预测疾病输出控制部件750向输出部件50输出接收的疾病名。 
应注意,涉及本发明的图像记录装置10不仅可用于医用领域的观察,还可用于例如美容和体育领域。当图像记录装置10应用于美容和体育领域时,术语“疾病”(disease)比“病”(illness)或“生病”(sickness)用于更宽泛的含义。例如,当涉及本发明的图像记录装置10用于美容领域时,疾病意味着用户不喜欢观察结果,例如皱纹、皮肤粗糙等。当涉及本发明的图像记录装置10用于体育领域时,疾病意味着每种体育类型的不正确形式及坏习惯。 
当涉及本发明的图像记录装置10用于美容领域时,在图像存储部件320上存储示出人体随着年龄的增长已经改变的不同区域的图像。例如,身体状况数值化部件715基于图像处理,计算出例如“皱纹”、“色素斑”以及“粗糙皮肤”等疾病的特征量,以确定疾病的类型。身体状况数值化部件715还数值化由例如“皱纹”、“色素斑”、和“粗糙皮肤”的疾病表明的老化程度。观察结果输入部件610用于输入关于美容观察被观察者的结果,例如“人有皱纹”或“人有粗糙皮肤”,作为指示疾病的观察结果。身体状况计算部件725以与身体状况数值化部件715相同的方式数值化观察对象者的输入图像。身体状况比较部件735将观察对象者的数值化数据、与存储在身体状况数据存储部件720上的数据相比较,以确定观察对象者的皱纹或皮肤粗糙的程度。 
疾病图像生成部件745可在其上预存储示出人体随着年龄增长已经改变的不同区域的这些图像,作为模板图像。例如,疾病图像生成部件745在其上预存储“显示女性十多岁时外眼角的图像”、“显示女性二十多岁时外眼角的图 像”、“显示女性十多岁时皮肤的图像”、“显示女性四十多岁时皮肤的图像”等。身体状况计算部件725基于输入的观察对象者的图像,计算疾病的特征值。基于该结果,可以改变存储在疾病图像生成部件745上的这些模板图像。以这种方式,输出部件50可显示观察对象者未来可能患有的疾病。例如,输出部件50显示一幅图像,图像示出观察对象者不做美容五年后可能具有的皱纹。如上所述,当用于美容领域时,图像记录装置10可用于确定患者的症状。 
当涉及本发明的图像记录装置10用于体育领域时,在图像存储部件320上存储示出对应于特定体育不同优选等级形式的移动图像。这里,使用篮球中击打形式作为例子进行下面的描述。身体状况数值化部件715基于图像处理,计算出例如“仅使用手部力量击打”、“击打者未低下下巴”以及“击打者未看篮球”的不正确形式的特征量,以便确定这些形式的特征值。身体状况数值化部件715可数值化这些形式的不正确程度。观察结果输入部件610用于输入观察被观察者的结果,例如“使用手部力量击打”、“击打者未低下抬起了下巴”、以及“击打者未看篮球”,作为指示疾病的观察结果。身体状况计算部件725以与身体状况数值化部件715相同的方式数值化输入的观察对象者的移动图像。身体状况比较部件735将观察对象者的数值化数据、与存储在身体状况数据存储部件720上的数据相比较,以确定观察对象者形式的不正确程度。如上所述,当用于体育领域时,图像记录装置10可用于确定运动员的习惯。 
图31示出涉及本发明的图像记录装置10的示例性硬件配置。图像记录装置10由CPU周围部件、输入/输出(I/O)部件以及传统I/O部件构成。CPU周围部件包括通过主控制器1582彼此连接的CPU1505、RAM1520、图解控制器1575、以及显示器件1580。I/O部件包括通过I/O控制器1584连接到主控制器1582的通信接口1530、硬盘驱动器1540、以及CD-ROM驱动器1560。传统I/O部件包括连接到I/O控制器1584的ROM1510、软盘驱动器1550、以及I/O芯片1570。 
主控制器1582将RAM1520连接到CPU1505和图解控制器1575,其以高传输速度存取RAM1520。CPU1505根据存储在ROM1510和RAM1520上的程序运行,以控制些组件。图解控制器1575获得由CPU1505等在RAM1520内提供的帧缓冲器上生成的图像数据,并使得显示器件1580显示获得的图像数据。 可选择地,图解控制器1575可包括帧缓冲器,用于在其上存储由CPU1505等生成的图像数据。 
I/O控制器1584将以相对高速运行的I/O器件,即通信接口1530、硬盘驱动器1540、和CD-ROM驱动器1560连接到主控制器1582。通信接口1530通过网络与不同器件通信。硬盘驱动器1540在其上存储图像记录装置10中提供的CPU使用的程序和数据。CD-ROM驱动器1560从CD-ROM1595中读取程序和数据,并通过RAM1520向硬盘驱动器1540提供读取的程序和数据。 
I/O控制器1584还连接到相对低速运行的I/O器件,即ROM1510、软盘驱动器1550以及I/O芯片1570。在ROM1510上存储由图像记录装置10在启动时执行的启动程序,针对图像记录装置10硬件的程序等。软盘驱动器1550从软盘1590读取程序和数据,并通过RAM1520向硬盘驱动器1540提供读取的程序和数据。I/O芯片1570用于例如通过并行口、串行口、键盘端口、鼠标端口等连接不同的I/O器件,例如软盘驱动器1550。 
通过RAM1520提供给硬盘驱动器1540的图像记录程序,是由用户在其存储于例如软盘1590、CD-ROM1595和IC卡上的状态下提供的。从记录媒介读取图像记录程序,通过RAM1520将其安装到图像记录装置10中的硬盘驱动器1540中,并由CPU1505执行。被安装的并因此由图像记录装置10执行的图像记录程序,使得CPU1505等,如参照图1至30描述的图像捕获单元20、存储单元30、声音单元40、输出部件50、输入单元60和分析单元70以及这些单元和部件20至70的构件,操作图像记录装置10。 
尽管已经描述了本发明的实施例,但本发明的技术范围不限于前述描述的实施例。本领域技术人员可明了不同的变形及改进可增加到前述的实施例中。还可从权利要求的范围明了增加到这些实施例中的这样的变形及改进可被包括在本发明技术范围内。

Claims (15)

1.一种用于辅助观察者观察被观察者的图像输出装置,包括:
图像捕获部件,其捕获被观察者的图像;
观察者视点测定部件,当图像捕获部件捕获被观察者的图像时,其测定该观察者的视点;
输出部件,其输出由图像捕获部件捕获的被观察者的图像;
视点输出控制部件,其使得输出部件将表示由观察者视点测定部件测定的观察者视点的信息,和由图像捕获部件捕获的被观察者的图像一起输出;
视点图像提取部件,其从由所述图像捕获部件捕获的所述被观察者的图像中,提取包括了由所述观察者视点测定部件测定的所述观察者视点的部分图像,其中:所述视点输出控制部件使得所述输出部件放大由所述视点图像提取部件提取的部分图像而获得的图像,并和由所述图像捕获部件捕获的所述被观察者的图像一起输出;
视野测定部件,其测定观察者的视野,其中:所述视点图像提取部件从由所述图像捕获部件捕获的所述被观察者的图像中,提取对应于由所述视野测定部件测定的所述观察者视野的图像。
2.如权利要求1中所述的图像输出装置,其中
所述视点输出控制部件使得所述输出部件将表示由所述观察者视点测定部件测定的所述观察者视点的标记,重合到由所述图像捕获部件捕获的所述被观察者的图像上输出。
3.如权利要求1中所述的图像输出装置,进一步包括
被观察者信息存储部件,在其上存储由所述图像捕获部件捕获的与被观察者有关的所述被观察者的图像;以及
在先图像输出控制部件,当所述图像捕获部件重新捕获了被观察者的图像时,其使得所述输出部件将存储在所述被观察者信息存储部件上的与被观察者有关的所述被观察者的在先图像,和由所述图像捕获部件新捕获的所述被观察者的图像一起输出。
4.如权利要求3中所述的图像输出装置,其中
所述被观察者信息存储部件进一步在其上存储由所述观察者视点测定部件测定的与被观察者有关的观察者的视点,以及
所述在先图像输出控制部件使得所述输出部件将指示观察者视点的信息和所述被观察者的在先图像一起输出。
5.如权利要求3中所述的图像输出装置,进一步包括
声音记录部件,当所述图像捕获部件捕获所述被观察者的图像时,其记录观察者的声音信息;
图像存储部件,在其上存储由所述声音记录部件记录的与所述图像捕获部件捕获的所述被观察者的图像有关的观察者的声音信息;
声音信息比较部件,其将所述声音记录部件新近记录的观察者的声音信息与所述声音记录部件在先记录的并存储在所述图像存储部件上的观察者的声音信息相比较;以及
在先图像提取部件,基于所述声音信息比较部件完成的比较结果,其提取存储在所述图像存储部件上、与观察者在先声音信息有关的被观察者的在先图像,其对应于显示出与所述声音记录部件新近记录的观察者的声音信息在预定的一致度以上的所述观察者的在先声音信息,其中
所述在先图像输出控制部件使得所述输出部件将由所述在先图像提取部件提取的所述被观察者的在先图像,和由所述图像捕获部件捕获的被观察者的新图像一起输出。
6.如权利要求1中所述的图像输出装置,其中
所述输出部件为显示部件,
所述图像输出装置进一步包括:
被观察者信息存储部件,其存储由所述图像捕获部件捕获的、与所述观察者视点测定部件测定的观察者的视点有关的所述被观察者的图像;
所述在先图像输出控制部件,其读取存储在所述被观察者信息存储部件上的被观察者的图像,并使得所述显示部件显示读取的所述被观察者的图像;以及
阅览者视点测定部件,其测定阅览在所述显示部件上显示的所述被观察者图像的阅览者的视点,其中
所述被观察者信息存储部件进一步在其上存储指示由所述阅览者视点测定部件测定的所述阅览者视点的信息,其与所述在先图像输出控制部件读取的被观察者的图像对应。
7.如权利要求6中所述的图像输出装置,进一步包括
阅览者视点判断部件,其判断所述观察者视点测定部件测定的所述观察者的视点是否与所述阅览者视点测定部件测定的阅览者的视点重合;以及
被阅览图像提取部件,当所述阅览者视点判断部件为否定地判断时,其提取对应于指示这些视点彼此不重合的信息的图像,其中
所述在先图像输出控制部件使得所述输出部件输出对应于由所述被阅览图像提取部件提取的、指示这些视点彼此不重合的信息的图像。
8.如权利要求7中所述的图像输出装置,其中
当阅览者的视点未位于包括观察者视点的预定区域内时,所述阅览者视点判断部件判断所述观察者视点测定部件测定的所述观察者的视点未与所述阅览者视点测定部件测定的阅览者的视点重合。
9.如权利要求7中所述的图像输出装置,其中
当所述观察者视点测定部件测定的观察者的视点向多个不同位置移动时,如果阅览者的视点移动到该视点移动的各个位置的附近时,则所述阅览者视点判断部件判断所述观察者的视点与所述阅览者视点测定部件测定的所述阅览者的视点重合。
10.如权利要求9中所述的图像输出装置,其中
如果所述阅览者视点测定部件测定的阅览者的视点以和所述观察者的视点移动的顺序相同顺序移动时,则所述阅览者视点判断部件判断观察者的视点与阅览者的视点重合。
11.如权利要求8中所述的图像输出装置,其中
如果所述观察者视点测定部件测定的观察者的视点和所述阅览者视点测定部件测定的阅览者的视点都位于所述图像捕获部件捕获的所述被观察者图像的预定区域内,则所述阅览者视点判断部件判断观察者的视点与阅览者的视点重合。
12.如权利要求11中所述的图像输出装置,其中
所述图像的预定区域包括被观察者的眼部、口部和手部中至少之一者。
13.如权利要求6中所述的图像输出装置,其中
所述视点输出控制部件使得所述输出部件将指示所述观察者视点测定部件测定的观察者视点位置的标记、以及指示所述阅览者视点测定部件测定的阅览者视点位置的标记中的至少一个标记重叠到所述被观察者的图像上输出。
14.一种用于辅助观察者观察被观察者的图像输出方法,包括:
捕获被观察者的图像;
在图像捕获期间,测定观察者的视点;
输出在视点测定中测定的指示观察者视点的信息,以及在图像捕获中捕获的被观察者的图像;
从捕获的所述被观察者的图像中,提取包括了测定的所述观察者视点的部分图像,其中:放大提取的部分图像而获得的图像,并和捕获的所述被观察者的图像一起输出;
测定观察者的视野,其中:从捕获的所述被观察者的图像中,提取对应于测定的所述观察者视野的图像。
15.一种用于辅助被观察者的图像输出系统,该图像输出系统包括:
图像捕获部件,其捕获被观察者的图像;
观察者视点测定部件,当图像捕获部件捕获被观察者图像时,其测定观察者的视点;
输出部件,其输出图像捕获部件捕获的被观察者的图像;以及
视点输出控制部件,其使得输出部件输出指示由观察者视点测定部件测定的观察者视点的信息,以及由图像捕获部件捕获的被观察者的图像;
视点图像提取部件,其从由所述图像捕获部件捕获的所述被观察者的图像中,提取包括了由所述观察者视点测定部件测定的所述观察者视点的部分图像,其中:所述视点输出控制部件使得所述输出部件放大由所述视点图像提取部件提取的部分图像而获得的图像,并和由所述图像捕获部件捕获的所述被观察者的图像一起输出;
视野测定部件,其测定观察者的视野,其中:所述视点图像提取部件从由所述图像捕获部件捕获的所述被观察者的图像中,提取对应于由所述视野测定部件测定的所述观察者视野的图像。
CN2007800195192A 2006-03-27 2007-03-26 图像输出装置、图像输出方法以及图像输出系统 Active CN101453941B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2006086703 2006-03-27
JP086703/2006 2006-03-27
JP2007042174A JP5317415B2 (ja) 2006-03-27 2007-02-22 画像出力装置、画像出力方法、および画像出力プログラム
JP042174/2007 2007-02-22
PCT/JP2007/057332 WO2007116849A1 (en) 2006-03-27 2007-03-26 Image output apparatus, image output method and image output program

Publications (2)

Publication Number Publication Date
CN101453941A CN101453941A (zh) 2009-06-10
CN101453941B true CN101453941B (zh) 2011-06-01

Family

ID=38581140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800195192A Active CN101453941B (zh) 2006-03-27 2007-03-26 图像输出装置、图像输出方法以及图像输出系统

Country Status (5)

Country Link
US (1) US8243132B2 (zh)
EP (1) EP2004039B1 (zh)
JP (1) JP5317415B2 (zh)
CN (1) CN101453941B (zh)
WO (1) WO2007116849A1 (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6358370A (ja) * 1986-08-29 1988-03-14 Ricoh Co Ltd 複写機の制御装置
JP5044237B2 (ja) * 2006-03-27 2012-10-10 富士フイルム株式会社 画像記録装置、画像記録方法、および画像記録プログラム
DK2012304T3 (da) * 2007-07-06 2012-11-19 Zero To One Technology Comscope Fremgangsmåder til elektronisk analyse af en dialog samt tilsvarende systemer
JP5503432B2 (ja) * 2009-10-02 2014-05-28 花王株式会社 美容カウンセリングシステム
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP5725897B2 (ja) 2011-02-16 2015-05-27 株式会社イシダ 包装機
JP5897382B2 (ja) * 2011-04-06 2016-03-30 花王株式会社 行為支援方法および行為支援装置
US20130188825A1 (en) * 2012-01-19 2013-07-25 Utechzone Co., Ltd. Image recognition-based startup method
JP2017076182A (ja) * 2015-10-13 2017-04-20 ソフトバンク株式会社 表示制御装置及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
JPH0591394A (ja) * 1991-09-26 1993-04-09 Canon Inc ビデオカメラ
US5341181A (en) 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
JPH06189906A (ja) * 1992-12-26 1994-07-12 Nissan Motor Co Ltd 視線方向計測装置
JP3372096B2 (ja) * 1993-12-28 2003-01-27 株式会社東芝 画像情報アクセス装置
WO1999005988A2 (en) * 1997-07-30 1999-02-11 Applied Science Laboratories An eye tracker using an off-axis, ring illumination source
JP2000201289A (ja) * 1999-01-07 2000-07-18 Sony Corp 映像入出力装置及び映像取得方法
AU4400601A (en) * 2000-03-31 2001-10-15 University Technologies International Inc. A diagnostic test for attention deficit hyperactivity disorder
US6478425B2 (en) 2000-12-29 2002-11-12 Koninlijke Phillip Electronics N. V. System and method for automatically adjusting a lens power through gaze tracking
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US7054473B1 (en) * 2001-11-21 2006-05-30 R2 Technology, Inc. Method and apparatus for an improved computer aided diagnosis system
JP2004064409A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報記録装置、情報記録方法及び情報記録用プログラム
JP2004267273A (ja) 2003-03-05 2004-09-30 Sangaku Renkei Kiko Kyushu:Kk 医用システム
JP4491295B2 (ja) * 2004-07-22 2010-06-30 キヤノン株式会社 画像再生方法及び画像再生装置
JP4869699B2 (ja) * 2005-12-13 2012-02-08 オリンパス株式会社 内視鏡装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JP特开2004-64409A 2004.02.26
JP特开平5-91394A 1993.04.09
JP特开平7-200632A 1995.08.04

Also Published As

Publication number Publication date
EP2004039B1 (en) 2014-05-07
EP2004039A4 (en) 2011-12-28
JP2007289658A (ja) 2007-11-08
US20100165092A1 (en) 2010-07-01
EP2004039A1 (en) 2008-12-24
JP5317415B2 (ja) 2013-10-16
CN101453941A (zh) 2009-06-10
US8243132B2 (en) 2012-08-14
WO2007116849A1 (en) 2007-10-18

Similar Documents

Publication Publication Date Title
CN101453941B (zh) 图像输出装置、图像输出方法以及图像输出系统
CN101453938B (zh) 图像记录装置
CN101453943B (zh) 图像记录装置和图像记录方法
US7506979B2 (en) Image recording apparatus, image recording method and image recording program
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
EP2829221B1 (en) Asperger's diagnosis assistance device
JP5958825B2 (ja) 感性評価システム、感性評価方法、およびプログラム
US20110279665A1 (en) Image recording apparatus, image recording method and image recording program
CN103597530A (zh) 用于针对涉及具有隐匿解剖结构的身体部位的医学检查而进行训练的系统、方法和计算机程序
CN113192600A (zh) 基于虚拟现实和眼动追踪的认知评估与矫正训练系统
WO2024024064A1 (ja) 推定プログラム、推定方法および推定装置
CN116153510B (zh) 矫正镜控制方法、装置、设备、存储介质及智能矫正镜
WO2024024062A1 (ja) 症状検出プログラム、症状検出方法および症状検出装置
JP2023092114A (ja) タグ付け方法、ゲーム解析システム、タグ付け装置および付加情報付きゲーム動画生成装置
Cangelosi et al. A Gaze Detection System for Neuropsychiatric Disorders Remote Diagnosis Support
CN117612244A (zh) 一种教学互动方法、装置、设备及存储介质
WO2022243304A1 (en) Image capturing method
CN118452925A (zh) 一种基于增强现实的眼动检测系统
JP2021105935A (ja) 物体検索装置、物体検索方法、及びコンピュータプログラム
CN114863093A (zh) 基于眼动技术的神经网络训练方法及建筑设计方法和系统
JP2014236332A (ja) 視聴状態推定装置及びそのプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant