CN105144704B - 显示设备和显示方法 - Google Patents

显示设备和显示方法 Download PDF

Info

Publication number
CN105144704B
CN105144704B CN201480016456.5A CN201480016456A CN105144704B CN 105144704 B CN105144704 B CN 105144704B CN 201480016456 A CN201480016456 A CN 201480016456A CN 105144704 B CN105144704 B CN 105144704B
Authority
CN
China
Prior art keywords
image
display
face
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480016456.5A
Other languages
English (en)
Other versions
CN105144704A (zh
Inventor
仓金博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN105144704A publication Critical patent/CN105144704A/zh
Application granted granted Critical
Publication of CN105144704B publication Critical patent/CN105144704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • H04N5/645Mounting of picture tube on chassis or in housing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

一种显示设备包括:第一和第二壳体,所述第一和第二壳体连接到彼此而使得能够相对地移动;第一图像捕获单元,其被提供在第一壳体中并且对第一图像进行成像;第二图像捕获单元,其被提供在第二壳体中并且对第二图像进行成像;第一显示单元,其被提供在第一壳体中;第二显示单元,其被提供在第二壳体中;面部识别单元,其确定第一图像和第二图像是否包括从正面看到的面部;以及显示控制单元,在面部识别单元确定第一图像包括从正面看到的面部时,所述显示控制单元使第一显示单元显示第一图像和第二图像,在面部识别单元确定第二图像包括从正面看到的面部时,所述显示控制单元使第二显示单元显示第一图像和第二图像。

Description

显示设备和显示方法
技术领域
本发明涉及显示设备、显示方法和显示程序。
背景技术
例如,存在使用两个图像捕获单元对用户的两侧的人像(figure)进行成像并且在显示单元上显示作为已经被捕获的两侧图像的组合的图像的设备(例如,参考专利文献1)。
还存在通过两个图像捕获单元对从用户的正面看到的人像和从用户的背面看到的人像进行成像的设备。例如,该设备在显示单元上显示从正面看到的人像,并且通过反射镜中的映像向用户显示表示从侧面看到的人像的图像(例如,参考专利文献2)。
[现有技术文献]
[专利文献]
[专利文献1]日本未经审查的专利申请,首次公开号2010-87569
[专利文献2]PCT国际公开号WO 2012/124612。
发明内容
发明要解决的问题
然而,在专利文献1中公开的设备中,必须对应于用户的站立位置安装照相机,导致整个设备的构成在规模上变大。针对该原因,存在不能将这种技术应用于平板终端、移动终端等的问题。
在专利文献2中公开的设备中,显示单元显示示出用户的不同的第一和第二图像。由显示单元显示的第二图像被反射在反射镜中。以该方式,因为需要反射镜,所以整个设备的构成在规模上变大。出于该原因,存在不能将这种技术应用于平板终端、移动终端等的问题。
鉴于以上情况,实现本发明。本发明的示例性目的是提供一种能够解决前文提及的问题的显示设备、显示方法和显示程序。
用于解决问题的方法
根据本发明的示例性方面的显示设备包括:第一和第二壳体,所述第一和第二壳体连接到彼此而使得能够相对地移动;第一图像捕获单元,其被提供在第一壳体中并且对第一图像进行成像;第二图像捕获单元,其被提供在第二壳体中并且对第二图像进行成像;第一显示单元,其被提供在第一壳体中;第二显示单元,其被提供在第二壳体中;面部识别单元,其确定第一图像和第二图像是否包括从正面看到的面部;以及显示控制单元,在面部识别单元确定第一图像包括从正面看到的面部时,所述显示控制单元使第一显示单元显示第一图像和第二图像,在面部识别单元确定第二图像包括从正面看到的面部时,所述显示控制单元使第二显示单元显示第一图像和第二图像。
根据本发明的示例性方面的显示方法被用于显示设备,所述显示设备包括:第一和第二壳体,所述第一和第二壳体连接到彼此而使得能够相对地移动;第一图像捕获单元和第一显示单元,其被提供在第一壳体中;以及第二图像捕获单元和第二显示单元,其被提供在第二壳体中。该显示方法包括:由第一图像捕获单元对第一图像进行成像;由第二图像捕获单元对第二图像进行成像;确定第一图像和第二图像是否包括从正面看到的面部;在确定第一图像包括从正面看到的面部时,使第一显示单元显示第一图像和第二图像;以及在确定第二图像包括从正面看到的面部时,使第二显示单元显示第一图像和第二图像。
根据本发明的示例性方面的程序使包括连接到彼此而使得能够相对地移动的第一和第二壳体、被提供在第一壳体中的第一图像捕获单元和第一显示单元、以及被提供在第二壳体中的第二图像捕获单元和第二显示单元的显示设备执行以下操作:由第一图像捕获单元对第一图像进行成像;由第二图像捕获单元对第二图像进行成像;确定第一图像和第二图像是否包括从正面看到的面部;在确定第一图像包括从正面看到的面部时,使第一显示单元显示第一图像和第二图像;以及在确定第二图像包括从正面看到的面部时,使第二显示单元显示第一图像和第二图像。
发明效果
根据本发明的示例性实施例,在一个屏幕中显示从多个不同方向看到的用户的人像是可能的。
附图说明
图1是示出了根据本发明的示例性实施例的显示设备的框图。
图2是示意性地示出了在图1中示出的显示设备的外观的透视图。
图3是示意性地示出了在图1中示出的显示设备的外观的透视图。
图4是用于描述在图1中示出的显示设备的操作示例的流程图。
图5是用于描述在图1中示出的显示设备的第一操作示例的视图。
图6是用于描述第一操作示例的示意性平面图。
图7是用于描述在图1中示出的显示设备的第二操作示例的视图。
图8是用于描述第二操作示例的示意性平面图。
图9是用于描述在图1中示出的显示设备的第三操作示例的视图。
图10是用于描述第三操作示例的示意性平面图。
具体实施方式
在下文中,将参考附图描述本发明的示例性实施例。图1是示出了根据本发明的示例性实施例的显示设备1的框图。图2和图3是示意性地示出了显示设备1的外观的透视图。在图中,以相同的附图标记表示相同的构成。
在图1中示出的显示设备1包括第一图像捕获单元11、第一显示单元21、第二图像捕获单元12、第二显示单元22、面部识别单元30以及显示控制单元40。
显示设备1还在内部包括未图示的一个或多个中央处理单元(CPU)、存储器以及输入/输出接口电路等等。面部识别单元30和显示控制单元40由执行预先确定的程序的CPU构成。
此外,显示设备1被提供有输入单元,诸如与例如第一显示单元21和第二显示单元22中的每个整体地构成的触摸面板。
第一图像捕获单元11在其内部具有光学系统、图像捕获元件、以及执行图像捕获元件的驱动和信号转换的控制电路。第一图像捕获单元11输出已经被捕获的运动图像或静止图像(在下文中称为第一图像)作为预先确定的图像信号。
第一显示单元21可以是例如液晶显示面板。第一显示单元21基于显示控制单元40已经输出的信号来显示运动图像或静止图像。
如在图2中示出的,第一图像捕获单元11以及第一显示单元21可以例如被提供在第一壳体61中。第一显示单元21的显示表面21a与垂直于第一图像捕获单元11的图像捕获方向(即,光轴方向)的表面平行。在从显示控制单元40输入预先确定的显示停止信号的情况下,第一显示单元21停止显示操作。
第二图像捕获单元12具有与第一图像捕获单元11相同的构成。即,第二图像捕获单元12在其内部具有光学系统、图像捕获元件、以及执行图像捕获单元的驱动和信号转换的控制电路。第二图像捕获单元12输出已经被捕获的运动图像或静止图像(在下文中称为第二图像)作为预先确定的图像信号。
第二显示单元22可以是例如液晶显示面板。第二显示单元22基于显示控制单元40已经输出的信号来显示运动图像或静止图像。
如在图2中示出的,第二图像捕获单元12以及第二显示单元22可以例如被提供在第二壳体62中。第二显示单元22的显示表面22a与垂直于第二图像捕获单元12的图像捕获方向的表面平行。在从显示控制单元40输入预先确定的显示停止信号的情况下,第二显示单元22停止显示操作。
面部识别单元30基于第一图像捕获单元11已经输出的图像信号来对第一图像执行预先确定的面部图像识别过程。此外,面部识别单元30基于第二图像捕获单元12已经输出的图像信号来对第二图像执行预先确定的面部图像识别过程。该面部识别单元30确定是否可以在第一图像或第二图像中识别从正面看到的面部,即,第一图像或第二图像是否包括从正面看到的面部。
不特别限制面部图像识别过程和面部方向确定过程的方法。作为确定过程的方法,其可以使用公知的方法来执行。例如,通过比较提前准备的多个图案来识别面部轮廓、眼睛、鼻子、嘴巴等等,并且基于轮廓中的眼睛、鼻子、嘴巴等等的相对位置来识别面部的方向。
面部识别单元30向显示控制单元40输出表示第一图像的图像信号以及表示第二图像的图像信号。此外,面部识别单元30向显示控制单元40输出上文提及的确定结果。还可以从第一图像捕获单元11和第二图像捕获单元12直接向显示控制单元40输入表示第一图像的图像信号以及表示第二图像的图像信号。
显示控制单元40基于第一图像捕获单元11和第二图像捕获单元12分别获得的第一图像和第二图像来控制显示在第一显示单元21和第二显示单元22上的图像。
在面部识别单元30已经确定第一图像包括从正面看到的面部的情况下,显示控制单元40在第一显示单元21上显示第一图像和第二图像。在面部识别单元30已经确定第二图像包括从正面看到的面部的情况下,显示控制单元40在第二显示单元22上显示第一图像和第二图像。
将描述面部识别单元30已经确定第一图像包括从正面看到的面部的情况。在该情况下,显示控制单元40可以生成被输入到第一显示单元21的图像信号,而使得第一图像被布置在第一显示单元21的显示区域(显示表面21a)的上部中,并且第二图像被布置在第一显示单元21的显示区域的下部中。
将描述面部识别单元30已经确定第二图像包括从正面看到的面部的情况。在该情况下,显示控制单元40可以生成被输入到第二显示单元22的图像信号,而使得第二图像被布置在第二显示单元22的显示区域(显示表面22a)的上部中,并且第一图像被布置在第二显示单元22的显示区域的下部中。
在面部识别单元30已经确定第一图像包括从正面看到的面部的情况下,显示控制单元40停止在第二显示单元22上的显示。
在面部识别单元30已经确定第二图像包括从正面看到的面部的情况下,显示控制单元40停止在第二显示单元22上的显示。
在停止显示中,显示控制单元40可以切断第一显示单元21或第二显示单元22的功率,或者可以在第一显示单元21或第二显示单元22上显示完全黑或完全白的图像。
如在图2中示出的那样,显示设备1具有第一壳体61、第二壳体62和铰链70。第一壳体61具有第一图像捕获单元11和第一显示单元21。第二壳体62具有第二图像捕获单元12和第二显示单元22。铰链70以可自由旋转的方式将第一壳体61和第二壳体62相连接。即,第一壳体61和第二壳体62以可相互移动的方式连接。
如在图3中示出的那样,可以将铰链70的旋转范围设置成使得能够折叠第一壳体61和第二壳体62,而使得第一显示单元21和第二显示单元22面对彼此。在如在图2中示出的那样定位第一壳体61和第二壳体62的情况下,第一图像捕获单元11的光轴与第二图像捕获单元的光轴不互相平行而是相交。即,在图2中示出的位置关系中,第一图像捕获单元11与第二图像捕获单元12的光轴可以对分别从不同方向看到的用户进行成像。
参考图4,将描述在图1中示出的显示设备1的操作示例。通过由未在显示设备1中示出的内部CPU执行预先确定的程序来控制在图1中示出的单元,由此执行在图4中示出的过程。在图4中示出的确定过程可以以单帧单位执行,或者可以以预先确定的多个帧单位(或者预先确定的时间单位)执行。
显示设备1并行地执行以下描述的步骤S101、S102、S105的过程以及步骤S103至S105的过程。
(步骤S101)
在CPU控制之下激活第一图像捕获单元11。第一图像捕获单元11捕获第一图像并且输出图像信号。
(步骤S102)
第一显示单元21基于从第一图像捕获单元11输出的图像信号来显示第一图像。
(步骤S103)
同时,在CPU控制之下激活第二图像捕获单元12。第二图像捕获单元12捕获第二图像并且输出图像信号。
(步骤S104)
第二显示单元22基于从第二图像捕获单元12输出的图像信号来显示第二图像。
(步骤S105)
面部识别单元30确定第一图像和第二图像是否包括从正面看到的面部。在面部识别单元30已经确定第一图像不包括从正面看到的面部的情况下,显示控制单元40返回到步骤S102并且在第一显示单元21中显示第一图像。在面部识别单元30已经确定第一图像不包括从正面看到的面部的情况下,显示控制单元40返回到步骤S104并且在第二显示单元22中显示第二图像。
(步骤S106)
在已经确定第一图像或第二图像包括从正面看到的面部的情况下,面部识别单元30确定其中包括从正面看到的面部的图像是否为第一图像和第二图像中的任一个。
(步骤S107)
在面部识别单元30已经确定第一图像包括从正面看到的面部的情况下,显示控制单元40在第一显示单元21上显示第一图像和第二图像。例如,显示控制单元40可以执行成像过程,以用于在第一显示单元21的第一显示区域中显示第一图像捕获单元11的捕获的图像(第一图像)并且用于在第一显示单元21的第二显示区域中显示第二图像捕获单元12的捕获的图像(第二图像)。第一显示单元21的第一显示区域是例如定位在图5中示出的第一显示单元21的上半部分中的区域211。第一显示单元21的第二显示区域是例如定位在图5中示出的第一显示单元21的下半部分中的区域212。
(步骤S108)
显示控制单元40停止在第二显示单元22上的显示。
(步骤S109)
在面部识别单元30已经确定第二图像包括从正面看到的面部的情况下,显示控制单元40在第二显示单元22上显示第一图像和第二图像。例如,显示控制单元40可以执行成像过程,以用于在第二显示单元22的第一显示区域(例如,上部中的显示区域)中显示第二图像捕获单元12的捕获的图像(第二图像)并且用于在第二显示单元22的第二显示区域(例如,下部中的显示区域)中显示第一图像捕获单元11的捕获的图像(第一图像)。第二显示单元22的第一显示区域是例如定位在图7中示出的第二显示单元22的上半部分中的区域221。第二显示单元22的第二显示区域是例如定位在图7中示出的第二显示单元22的下半部分中的区域222。
(步骤S110)
显示控制单元40停止在第二显示单元22上的显示。
通过上述过程,显示设备1可以在第一显示单元21或第二显示单元22的显示屏幕中显示第一图像捕获单元11的捕获的图像(第一图像)和第二图像捕获单元12的捕获的图像(第二图像)。即,显示设备1可以在用户注视的位置(视野)处的屏幕中显示从不同角度看到的用户的面部的图像。由此,用户可以通过注视一个显示屏幕来确认注视显示屏幕的从正面看到的面部以及从不同角度看到的面部。即使在根据本示例性实施例的显示设备1的构成是平板终端或移动终端的情况下,在一个显示单元中容易地同时显示从不同角度看到的用户的人像也是可能的。
此外,根据上文提及的构成,用户可以看到第一显示单元21或第二显示单元22的显示图像而不用插入半反射镜或以反射镜反射它们。通过执行利用在显示单元中显示的图像进行观察,有可能减少从正面看到的面部的图像质量与从侧面看到的面部的图像质量之间的差异,并且因此它们变得更容易看到。
将参考图5和图6描述已经参考图1至图3描述的显示设备1的第一操作示例。图5是用于描述显示设备1的第一操作示例的视图。图6是用于描述在第一操作示例中的光的行进(progress)的示例的示意性平面图。
在图5和图6中示出的第一操作示例中,显示设备1利用第一图像捕获单元11对用户100的面部的正面直接成像(即,对实际图像进行成像),并且通过第二图像捕获单元12对反射到反射镜200的反射表面201上的用户100的面部的侧面的镜像91进行成像。在第一操作示例中,当用户启动该功能时,通过两个图像捕获单元11和图像捕获单元12启动成像,并且在两个显示单元21和22中显示两个捕获的图像。
用户100在观察显示单元21或22的显示时调整铰链70的角度,以使得可以通过一个图像捕获单元(在该情况下,第一图像捕获单元11)对从正面看到的自身的人像进行成像,并且可以通过其他图像捕获单元(在该情况下,第二图像捕获单元12)对在反射镜200中反射的自身的从背面看到的外形或人像进行成像。
接着,显示设备1对两个图像捕获单元11和12已经成像的图像执行面部识别过程。
显示设备1继续被布置在与已经对其中可以识别用户100的从正面看到的面部的图像(在该情况下,第一图像)进行成像的图像捕获单元(在该情况下,第一图像捕获单元11)相同的壳体(在该情况下,第一壳体61)中的显示单元(在该情况下,第一显示单元21)的显示。
此外,显示设备1停止其他显示单元(在该情况下,第二显示单元22)的显示。
在该情况下,在第一操作示例中,第一图像捕获单元11通过接收由用户100的面部的正面反射的光L1来对第一图像进行成像。
第二图像捕获单元12通过接收光L3来对第二图像进行成像,所述光L3是由用户100的面部的侧面反射的光L2由反射表面201反射的。
在该情况下,因为面部识别单元30在第一图像中识别面部正面图像,所以在第一显示单元21的第一显示区域211中显示面部的正面图像81(即,第一图像),并且在第一显示区域212中显示面部的侧面图像83(即,第二图像)。
此外,停止第二显示单元22的显示操作。
在第一操作示例中,由反射表面201反射的、用户100的面部的侧面的镜像91被第二显示单元21成像。在该情况下,因为除了壳体61和壳体62的角度的调整之外,还有可能调整反射镜200的角度,所以有可能增加调整的自由度。
接着,将参考图7和图8描述已经参考图1至图3描述的显示设备1的第二操作示例。图7是用于描述显示设备1的第二操作示例的视图。图8是用于描述在第二操作示例中的光的行进的示例的示意性平面图。
在图7和图8中示出的第二操作示例中,显示设备1利用第二图像捕获单元12对用户100的面部的正面直接成像,并且利用第一图像捕获单元11对在反射镜200的反射表面201中反射的用户100的面部的侧面的镜像91进行成像。
在第二操作示例中,第二图像捕获单元12通过接收由用户100的面部的正面反射的光L1来对第二图像进行成像。
第一图像捕获单元11通过接收光L3来对第一图像进行成像,所述光L3是由用户100的面部的侧面反射的光L2由反射表面201反射的。
在该情况下,因为面部识别单元30在第二图像中识别面部正面图像,所以在第二显示单元22的第一显示区域221中显示面部的正面图像81(即,第二图像),并且在第二显示区域222中显示面部的侧面图像83(即,第一图像)。此外,停止第一显示单元21的显示操作。
虽然在第一操作示例中使第一壳体61面对用户100的正面,但是在第二操作示例中使第二壳体62面对用户100的正面。即使在第二操作示例中,也有可能以与第一操作示例相同的方式在面对用户100的正面的显示单元中显示两个捕获的图像。
接着,将参考图9和图10描述已经参考图1至图3描述的显示设备1的第三操作示例。图9是用于描述显示设备1的第三操作示例的视图。图10是用于描述在第三操作示例中的光的行进的示例的示意性平面图。
在图9和图10中示出的第三操作示例中,显示设备1利用第一图像捕获单元11对用户100的面部的正面直接成像,并且利用第二图像捕获单元12对用户100的面部的侧面直接成像。在第三操作示例中,第一图像捕获单元11通过接收由用户100的面部的正面反射的光L1来对第一图像进行成像。第二图像捕获单元12通过接收由用户100的面部的侧面反射的光L2来对第二图像进行成像。在该情况下,因为面部识别单元30在第一图像中识别面部正面图像,所以在第一显示单元12的第一显示区域221中显示面部的正面图像81(即,第一图像),并且在第二显示区域222中显示面部的侧面图像82(即,第二图像)。此外,停止第二显示单元22的显示操作。
在第三操作示例中,在不使用反射镜200的情况下对用户100的正面的图像以及不同于正面的图像进行成像。在该情况下,不同于用户100的正面的图像不能充当接近于背表面或者完全侧表面的人像的图像,但是有可能在不使用反射镜200的情况下同时显示正表面和不同于正表面的图像。
如上文示出的那样,根据本示例性实施例,使用包括多个图像捕获单元和多个显示单元的显示设备来实现与双面镜或组合镜等等相同的功能是可能的。此外,有可能通过在左和右之间进行切换的使用方法来以类似的方式观察面部的左和右侧。此外,通过自动地停止非使用中的显示设备的显示,实现功耗方面的减少是可能的。
本发明的示例性实施例不限于上文描述的实施例。例如,可以改变相同壳体之内的图像捕获单元和显示单元的位置关系。此外,可以做出改变而使得如果停止显示操作,则在用于停止显示操作的条件已经继续了特定时间的情况下执行停止显示的控制。还可以使用CPU和CPU执行的程序来构成根据本发明的示例性实施例的显示设备。可以经由计算机可读记录介质或通信线路分布该程序的部分或全部。
根据本发明的示例性实施例,例如,在第一显示单元21和第二显示单元22中的任一个上显示由第一图像捕获单元11和第二图像捕获单元12从两个不同方向看到的用户的人像是可能的。这样做时,在用户的面部是可识别的情况下,在处于用户的正面方向上的第一显示单元21和第二显示单元22中的任一个中执行显示,其中停止其他的显示。
在该情况下,用户有可能在不使用反射镜等等的情况下直接地观察第一显示单元21和第二显示单元22的显示图像。由此,容易实现功耗方面的减少是可能的。
根据本发明的示例性实施例的显示设备可以在内部具有计算机系统。操作的过程可以以程序的形式被存储在计算机可读记录介质中,并且可以通过计算机系统读取该程序并执行该程序来执行上文提及的过程。此处的“计算机系统”包括CPU、各种类型的存储器、OS和诸如外围设备之类的硬件。
在使用WWW系统的情况下,“计算机系统”还包括主页提供环境(或显示环境)。
通过在计算机可读记录介质上记录用于实现每个步骤的程序,或者通过在计算机可读记录介质中记录用于实现该功能的程序,被存储在该记录介质中的程序可以被读取到计算机系统中并且被执行。
“计算机可读记录介质”包括诸如磁盘、ROM和闪速存储器之类的可写的非易失性存储器、诸如CD-ROM之类的便携式介质、以及诸如被收容在计算机系统中的硬盘之类的存储设备。
“计算机可读记录介质”还包括在给定的时间段内保留程序的计算机可读记录介质,诸如在程序经由诸如因特网的网络或者诸如电话线路的通信线路被传输的情况下用作服务器或客户端的计算机系统中的易失性存储器(例如DRAM(动态随机存取存储器))。
上文提及的程序可以从将该程序存储在其存储设备中的计算机系统经由传输介质或通过在传输介质中的传输波传输到另一计算机系统。传输程序的术语“传输介质”包括具有用于传送信息的功能的介质,诸如,诸如因特网之类的网络(通信网络)或者诸如电话线路之类的通信线路(通信线缆)。
此外,程序可以用于实现上文提及的功能的一部分。
更进一步地,其可以是所谓的差分文件(差分程序),由此可以通过与已经记录在计算机系统中的程序的组合来实现上文描述的功能。
上文已经参考示例性实施例描述了本发明,但是本发明不限于该示例性实施例。可以在本发明的范围内对本发明的结构和细节做出可以被本领域技术人员理解的各种改变。
本发明基于在2013年3月27日提交的日本专利申请号2013-066752,并且根据其要求优先权,所述专利申请的公开内容通过引用以其全部内容并入本文中。
产业可应用性
本发明可以被应用于显示设备、显示方法和显示程序。
附图标记
1 显示设备
11 第一图像捕获单元
12 第二图像捕获单元
21 第一显示单元
22 第二显示单元
30 面部识别单元
40 显示控制单元
61 第一壳体
62 第二壳体
70 铰链
200 反射镜
201 反射表面。

Claims (5)

1.一种显示设备,其包括:
第一和第二壳体,所述第一和第二壳体连接到彼此而使得能够相对地移动;
第一图像捕获单元,其被提供在第一壳体中并且对第一图像进行成像;
第二图像捕获单元,其被提供在第二壳体中并且对第二图像进行成像;
第一显示单元,其被提供在第一壳体中;以及
第二显示单元,其被提供在第二壳体中,
其中
由第一图像捕获单元对从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像中的一个进行成像作为第一图像与由第二图像捕获单元对从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像中的另一个进行成像作为第二图像并行地处理,并且
所述显示设备还包括:
面部识别单元,其确定第一图像和第二图像是否包括从正面看到的用户的面部;以及
显示控制单元,在面部识别单元确定第一图像包括从正面看到的用户的面部时,所述显示控制单元使第一显示单元显示从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像,在面部识别单元确定第二图像包括从正面看到的用户的面部时,所述显示控制单元使第二显示单元显示从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像。
2.根据权利要求1所述的显示设备,
其中第一显示单元具有垂直于第一图像捕获单元的光轴方向的第一显示表面,并且
第二显示单元具有垂直于第二图像捕获单元的光轴方向的第二显示表面。
3.根据权利要求1或权利要求2所述的显示设备,
其中当面部识别单元确定第一图像包括从正面看到的用户的面部时,显示控制单元使第二显示单元停止显示,并且
当面部识别单元确定第二图像包括从正面看到的用户的面部时,显示控制单元使第一显示单元停止显示。
4.根据权利要求1或权利要求2所述的显示设备,其中第一图像或第二图像是由反射镜反射的镜像。
5.一种用于显示设备的显示方法,所述显示设备包括:第一和第二壳体,所述第一和第二壳体连接到彼此而使得能够相对地移动;第一图像捕获单元和第一显示单元,其被提供在第一壳体中;以及第二图像捕获单元和第二显示单元,其被提供在第二壳体中,所述方法包括:
由第一图像捕获单元对第一图像进行成像;以及
由第二图像捕获单元对第二图像进行成像,
其中
由第一图像捕获单元对从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像中的一个进行成像作为第一图像与由第二图像捕获单元对从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像中的另一个进行成像作为第二图像并行地处理,并且
所述显示方法还包括:
由显示设备的面部识别单元确定第一图像和第二图像是否包括从正面看到的用户的面部;
在面部识别单元确定第一图像包括从正面看到的用户的面部时,由显示设备的显示控制单元使第一显示单元显示从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像;以及
在面部识别单元确定第二图像包括从正面看到的用户的面部时,由显示控制单元使第二显示单元显示从正面看到的用户的面部的图像和从不同于正面的角度看到的用户的面部的图像。
CN201480016456.5A 2013-03-27 2014-03-12 显示设备和显示方法 Active CN105144704B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013066752 2013-03-27
JP2013-066752 2013-03-27
PCT/JP2014/056535 WO2014156661A1 (ja) 2013-03-27 2014-03-12 表示装置、表示方法及び表示プログラム

Publications (2)

Publication Number Publication Date
CN105144704A CN105144704A (zh) 2015-12-09
CN105144704B true CN105144704B (zh) 2018-10-23

Family

ID=51623644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480016456.5A Active CN105144704B (zh) 2013-03-27 2014-03-12 显示设备和显示方法

Country Status (5)

Country Link
US (1) US10936855B2 (zh)
EP (1) EP2981074B1 (zh)
JP (1) JP6528680B2 (zh)
CN (1) CN105144704B (zh)
WO (1) WO2014156661A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11284003B2 (en) * 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US10284823B1 (en) * 2016-10-12 2019-05-07 Google Llc Capturing photographs based on rotation of device
CN108605087B (zh) * 2017-01-26 2020-06-02 华为技术有限公司 终端的拍照方法、拍照装置和终端
US10481856B2 (en) * 2017-05-15 2019-11-19 Microsoft Technology Licensing, Llc Volume adjustment on hinged multi-screen device
CN107566736A (zh) * 2017-09-30 2018-01-09 努比亚技术有限公司 一种抓拍方法及移动终端
JP7022622B2 (ja) * 2018-03-08 2022-02-18 キヤノン株式会社 情報処理装置およびその制御方法、並びにプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63231431A (ja) * 1987-03-20 1988-09-27 Janome Sewing Mach Co Ltd 多面ハ−フミラ−を備えたカメラ装置
JPH11112970A (ja) * 1997-10-08 1999-04-23 Sony Corp メイク機能付きテレビジョン受像機
JP2001025004A (ja) * 1999-07-09 2001-01-26 Mitsuru Takashima 電子鏡システム
JP2008111886A (ja) 2006-10-27 2008-05-15 Digital Electronics Corp 自動ドア、画面表示装置、画面表示制御プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8177441B2 (en) * 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
CN101779460B (zh) 2008-06-18 2012-10-17 松下电器产业株式会社 电子镜装置
JP2010087569A (ja) 2008-09-29 2010-04-15 Panasonic Electric Works Co Ltd 姿見装置
US8648880B2 (en) * 2010-06-03 2014-02-11 Sony Corporation Terminal device, display method, and application computer program product
US20120075166A1 (en) * 2010-09-29 2012-03-29 Samsung Electronics Co. Ltd. Actuated adaptive display systems
KR101841570B1 (ko) * 2010-11-18 2018-03-26 삼성전자 주식회사 듀얼디스플레이 접이식단말기
US8902156B2 (en) * 2011-01-14 2014-12-02 International Business Machines Corporation Intelligent real-time display selection in a multi-display computer system
KR101802522B1 (ko) * 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
JP4934758B1 (ja) * 2011-03-07 2012-05-16 株式会社ノングリッド 電子ミラーシステム
JPWO2012124612A1 (ja) 2011-03-15 2014-07-24 シャープ株式会社 表示装置
JP5085759B2 (ja) * 2011-03-31 2012-11-28 株式会社東芝 表示制御装置、電子機器及び制御プログラム
KR101180119B1 (ko) * 2012-02-23 2012-09-05 (주)올라웍스 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
KR101951228B1 (ko) * 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
KR102241291B1 (ko) * 2013-03-14 2021-04-16 삼성전자주식회사 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US10936855B2 (en) 2021-03-02
WO2014156661A1 (ja) 2014-10-02
EP2981074A1 (en) 2016-02-03
EP2981074B1 (en) 2017-11-01
JP6528680B2 (ja) 2019-06-12
JPWO2014156661A1 (ja) 2017-02-16
US20160283781A1 (en) 2016-09-29
EP2981074A4 (en) 2016-08-31
CN105144704A (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN105144704B (zh) 显示设备和显示方法
US10284817B2 (en) Device for and method of corneal imaging
US20180103194A1 (en) Image capture systems, devices, and methods that autofocus based on eye-tracking
CN104580992B (zh) 一种控制方法及移动终端
US9076033B1 (en) Hand-triggered head-mounted photography
CN107924589B (zh) 通信系统
AU2015348151A1 (en) Real-time visual feedback for user positioning with respect to a camera and a display
EP2824541A1 (en) Method and apparatus for connecting devices using eye tracking
CN106020480B (zh) 一种虚拟现实设备和虚拟现实图像处理方法
WO2020036821A1 (en) Identification method and apparatus and computer-readable storage medium
KR20210052570A (ko) 분리가능한 왜곡 불일치 결정
US20230418078A1 (en) Electronic Devices With Deformation Sensors
WO2021169853A1 (zh) 一种显示方法、装置、终端设备及存储介质
KR20200144196A (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
CN107592520A (zh) Ar设备的成像装置及成像方法
US20150116202A1 (en) Image processing device and method, and program
TW201518994A (zh) 液晶顯示器顯示視角的調整方法、裝置和系統
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US10902265B2 (en) Imaging effect based on object depth information
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
US20230309824A1 (en) Accommodation tracking based on retinal-imaging
WO2022056821A1 (en) Electric device, controlling method of controlling electric device, and computer readable storage medium
WO2021057420A1 (zh) 控制界面显示的方法及头戴式显示器
JP2016133541A (ja) 電子眼鏡および電子眼鏡の制御方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant