CN101360198B - 电子装置及面部图像显示方法 - Google Patents

电子装置及面部图像显示方法 Download PDF

Info

Publication number
CN101360198B
CN101360198B CN2008101301890A CN200810130189A CN101360198B CN 101360198 B CN101360198 B CN 101360198B CN 2008101301890 A CN2008101301890 A CN 2008101301890A CN 200810130189 A CN200810130189 A CN 200810130189A CN 101360198 B CN101360198 B CN 101360198B
Authority
CN
China
Prior art keywords
image
face
row
viewing area
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008101301890A
Other languages
English (en)
Other versions
CN101360198A (zh
Inventor
早濑健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynabook Inc
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN101360198A publication Critical patent/CN101360198A/zh
Application granted granted Critical
Publication of CN101360198B publication Critical patent/CN101360198B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4112Peripherals receiving signals from specially adapted client devices having fewer capabilities than the client, e.g. thin client having less processing power or no tuning capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver

Abstract

根据一个实施例,二维面部缩略图像显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域。通过用所述多个列的列数以相等的时间间隔平分视频内容数据的总时间长度得到的每一个都具有相同时间长度的多个时间区域被分别分配给该多个列。面部图像列表显示处理单元(301)通过按面部图像出现的时间顺序排列该面部图像而基于与每一个面部图像对应的时间标记信息(TS)在每一列的与行数相同数目的面部图像显示区域中显示属于分配给每个列的时间区域的面部图像。

Description

电子装置及面部图像显示方法
技术领域
本发明的一个实施例涉及一种电子装置及用于显示出现在视频内容数据中的面部图像的面部图像显示方法。
背景技术
通常,诸如视频录像机或个人计算机的电子装置能够记录及播放诸如TV广播节目数据的各种视频内容数据。在这种情况下,虽然存储在电子装置中的各个视频内容数据项都加上了标题,但是用户单从标题仍难以了解每个视频内容数据包含哪些内容。因此,为了了解每个视频内容数据的内容,必须播放该视频内容数据。然而,在播放长总时间的视频内容数据的情况下,即便使用快进功能等仍需要大量时间。
第2001-309269号日本专利申请公开公报公开了一种具有呈现人物列表的显示功能的设备。该设备具有按排列顺序将出现在视频内容中的人物的面部图像显示为出现在该视频内容中的人物的列表的功能。
然而,即便仅显示人物列表,用户仍不能了解这样的人物出现在视频内容数据条目中的哪一个时间区域。举例来说,在有些情况下用户希望有选择地播放用户感兴趣的一个人物(或多个人物)出现的时间区域内的视频内容。
因此,必须实现在整个视频内容数据中的哪一个时间区域呈现什么样的人物以及按什么样的顺序呈现的新颖功能。
发明内容
本发明的目的是提供一种电子装置及面部图像显示方法,该装置和方法能够在整个视频内容数据的哪一个时间区域向用户呈现什么样的人物都不需要播放该视频内容数据。
根据本发明的一个实施例提供的电子装置包括:配置成从组成视频内容数据的多个帧中提取人物面部图像以及输出指示所提取的面部图像出现的时间点的时间标记信息的面部图像提取单元;和配置成在二维显示区域上显示所提取的面部图像的列表的面部图像列表显示处理单元,其中二维显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域,通过用所述多个列的列数以相等的时间间隔平分视频内容数据的总时间长度得到的每一个都具有相同时间长度的多个时间区域被分别分配给该多个列,以及面部图像列表显示处理单元配置成基于与每一个所提取的面部图像相对应的时间标记信息通过按面部图像出现的时间次序排列该面部图像而在每一列的面部图像显示区域中显示属于分配给每一列的时间区域的面部图像。
本发明的其他目的和优点将在下文的说明中进行描述,并且一部分内容通过该说明是显而易见的,或者可以通过实施本发明得到理解。本发明的目的及优点可以通过尤其是下文指出的方法手段和各种组合实现和获得。
附图说明
结合在说明书中并构成说明书的一部分的附图用于说明本发明的实施例,并且与上文的总体说明和下文对实施例的详细说明一起对本发明的原理进行说明。
图1是显示根据本发明的实施例的电子装置的外观实例的示例性立体图;
图2是显示根据该实施例的电子装置的系统配置实例的示例性框图;
图3是描述根据该实施例的电子装置的面部图像列表显示功能的示例性框图;
图4是显示用于根据该实施例的电子装置的程序的功能结构的示例性框图;
图5显示由根据该实施例的电子装置在显示装置上显示的索引查看屏幕的实例;
图6显示包括在图5所示的索引查看屏幕中的面部缩略图像显示区域的结构实例;
图7是说明包括在图5所示的索引查看屏幕中的面部缩略图像显示区域和褶叠缩略图像显示区域之间的关系的示例图;
图8是显示由根据该实施例的电子装置执行的面部图像列表显示处理的流程实例的示例性流程图;
图9显示由根据该实施例的电子装置将面部图像分类成各种类别的状态;
图10是说明由根据该实施例的电子装置执行的播放处理的流程实例的示例性流程图;以及
图11是说明由根据该实施例的电子装置执行的用于改变面部缩略图像显示区域中的行数和列数的处理的流程实例的示例性流程图。
具体实施方式
下文将参考附图描述根据本发明的各个实施例。通常,根据本发明的一个实施例,电子装置包括面部图像提取单元和面部图像列表显示处理单元。面部图像提取单元配置成从组成视频内容数据的多个帧中提取人物的面部图像,以及输出指示所提取的面部图像出现的时间点的时间标记信息。面部图像列表显示处理单元配置成在二维显示区域中显示所提取的面部图像的列表。二维显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域,通过用所述多个列的列数以相等的时间间隔平分视频内容数据的总时间长度得到的、每一个都具有相同时间长度的多个时间区域被分别分配给该多个列。面部图像列表显示处理单元基于与每一个所提取的面部图像相对应的时间标记信息通过按面部图像出现的时间次序排列该面部图像而在每一列的面部图像显示区域中显示属于分配给每一列的时间区域的面部图像。
首先,参照图1和图2描述根据本发明的实施例的电子装置的结构。根据本实施例的电子装置举例来说通过起信息处理装置作用的笔记本型便携式个人计算机10来实现。
个人计算机10能够记录和播放诸如广播节目数据和从外部设备输入的视频数据的视频内容数据。具体地说,个人计算机10具有用于执行观看/收听以及记录通过TV广播信号传播的广播节目数据的TV功能。举例来说,该TV功能例如通过预装在个人计算机10中的TV应用程序实现。此外,TV功能包括记录从外部AV设备输入的视频数据的功能,以及播放所记录的视频数据和所记录的广播节目数据的功能。
进一步,个人计算机10具有用于显示例如存储在个人计算机10中的出现在诸如视频数据和广播节目数据的视频内容数据中的人物的面部图像列表的面部图像列表显示功能。该面部图像列表显示功能举例来说被实现为包括在TV功能中的一个功能。面部图像列表显示功能是用于向用户呈现例如视频内容数据的大纲的视频索引功能之一。该面部图像列表显示功能可以向用户呈现在整个视频内容数据中的哪个时间区域出现什么样的人物以及以什么样的顺序出现。
图1是显示计算机10的显示单元被打开的状态的立体图。计算机10包括计算机机身11和显示单元12。由TFT-LCD(Thin Film Transistor Liquid Crystal Display(薄膜晶体管液晶显示屏))组成的显示装置17内置在显示单元12中。
显示单元12附接到计算机机身11上以致显示单元12可以在暴露计算机机身11的上表面的开启位置和覆盖计算机机身11的上表面的闭合位置之间自由转动。计算机机身11具有薄盒形的外壳。键盘13,用于打开/关闭计算机10的电源的电源按钮14,输入操作面板15,触摸板16和扬声器18A,18B设置在计算机机身11的上表面上。
输入操作面板15是输入相应于按钮的事件的输入装置。输入操作面板15具有用于激活多个功能的多个按钮。该按钮包括用于控制TV功能(观看/收听,记录和播放所记录的广播节目数据/视频数据)的操作按钮。此外,执行与控制计算机10的TV功能的遥控单元通信的遥控单元接口单元20设置在计算机机身11的前表面上。遥控接口单元20由例如红外信号接收单元构成。
举例来说,用于TV广播的天线端子19设置在计算机机身11的右侧表面上。此外,在计算机机身11的背面设置相应于例如HDMI(High-Definition Multimedia Interface(高清晰度多媒体接口))标准的外部显示器接线端子。外部显示器接线端子用于向外部显示器输出诸如广播节目数据的视频内容数据中包括的视频数据(动态视频数据)。
下文将参照图2描述计算机10的系统配置。
如图2所示,计算机10包括CPU 101,北桥102,主存储器103,南桥104,图形处理单元(GPU)105,视频存储器(VRAM)105A,声音控制器106,BIOS-ROM 109,LAN控制器110,硬盘驱动器(HDD)111,DVD驱动器112,视频处理器113,存储器113A,无线LAN控制器114,IEEE 1394控制器115,嵌入式控制器/键盘控制器IC(EC/KBC)116,TV调谐器117和EEPROM 118。
CPU 101是控制计算机10的操作的处理器。CPU 101执行从硬盘驱动器(HDD)111加载到主存储器103中的操作系统(OS)201和诸如TV应用程序202的各种应用程序。TV应用程序202是用于执行TV功能的软件。举例来说,TV应用程序202执行用于观看/收听由TV调谐器117收到的广播节目数据的实况处理,用于将广播节目数据记录到HDD111中的记录处理,和用于播放所记录的广播节目数据/视频数据的播放处理。CPU 101也执行存储在BIOS-ROM 109中的系统BIOS(Basic Input/Output System(基本输入/输出系统))。系统BIOS是用于硬件控制的程序。
北桥102是连接CPU 101的本地总线和南桥104的桥接装置。北桥102包括访问-控制主存储器103的存储控制器。北桥102具有通过例如PCI EXPRESS串行总线执行与GPU105通信的功能。
GPU 105是用于控制用作计算机10的显示监视器的LCD 17的显示控制器。由GPU105生成的显示信号被发送给LCD 17。此外,GPU 105可以通过HDMI控制电路3和HDMI端子2向外部显示装置1发送数字视频信号。
HDMI端子2是上文提到的外部显示器接线端子。HDMI端子2能够通过单电缆向诸如TV的外部显示装置1发送非压缩数字视频信号和数字音频信号。HDMI控制电路3是用于通过HDMI端子2向被称作“HDMI监视器”的外部显示装置1发送数字视频信号的接口。
南桥104控制在LPC(Low Pin Count(低引脚计数))总线上的装置和在PCI(PeripheralComponent Interconnect(外设部件互连))总线上的装置。此外,南桥104包括用于控制硬盘驱动器(HDD)111和DVD驱动器112的IDE(Integrated Drive Electronics(集成驱动器电子电路))控制器。南桥104也包括执行与声音控制器106通信的功能。
此外,视频处理器113通过例如PCI EXPRESS串行总线与南桥104连接。
视频处理器113是执行与上述视频索引有关的各种处理的处理器。视频处理器113举例来说用作执行面部图像提取处理的面部图像提取单元。具体地说,在面部图像提取处理中,视频处理器113从组成视频内容数据的多个帧中提取人物的面部图像,并输出例如指示所提取的面部图像出现的时间点的时间标记信息。面部图像的提取举例来说通过用于从每一帧中检测面部区域的面部检测处理和用于从所述帧中裁剪所检测的面部区域的裁剪处理(修饰处理)执行。面部区域的检测举例来说能够通过分析每一帧中的图像特征和搜索具有类似于预置的面部图像特征样品的特性的区域来执行。面部图像特征样品是通过统计处理多个人物的面部图像特征得到的特征数据。存储器113A用作视频处理器113的工作存储器。
执行面部图像提取处理要求大量运算。在本实施例中,作为专用处理器且不同于CPU101的视频处理器113用作后端处理器,并且执行面部图像提取处理。因此,面部图像提取处理能够在不增加CPU 101的负荷的情况下执行。
声音控制器106是声源装置,并向扬声器18A,18B或HDMI控制电路3输出将要被播放的音频数据。
无线LAN控制器114是执行例如IEEE 802.11标准的无线通信的无线通信装置。IEEE1394控制器115通过IEEE 1394串行总线执行与外部设备的通信。
嵌入式控制器/键盘控制器IC(EC/KBC)116是集成用于电源管理的嵌入式控制器和用于控制键盘(KB)13和触摸板16的键盘控制器的单片微机。嵌入式控制器/键盘控制器IC(EC/KBC)116具有响应用户对电源按钮14的操作开启/关闭计算机10的电源的功能。此外,嵌入式控制器/键盘控制器IC(EC/KBC)116具有执行与遥控装置接口20通信的功能。
TV调谐器117是接收通过电视(TV)广播信号传播的广播节目数据的接收装置,并且与天线端子19连接。举例来说,TV调谐器117实现为能够接收诸如地波数字式TV广播节目数据的数字式广播节目数据的数字式TV调谐器。TV调谐器117也具有获取从外部设备输入的视频数据的功能。
下文将参照图3给出对由TV应用程序202执行的面部图像列表显示功能的说明。
如上所述,用于诸如广播节目数据的视频内容数据的面部图像提取处理由视频处理器113执行。在TV应用程序202的控制下,举例来说,视频处理器113对诸如所记录的广播节目数据的视频内容数据执行用户指定的面部图像提取处理。此外,视频处理器113能够与将由TV调谐器117接收到的广播节目数据存储在HDD 111中的记录处理平行地对广播节目数据执行面部图像提取处理,
在面部图像提取处理中,视频处理器113以帧为单位分析由动态视频数据组成的视频内容数据。视频处理器113从组成视频内容数据的多个帧中提取人物的面部图像,并输出指示所提取的面部图像出现的时间点的时间标记信息。作为相应于每个面部图像的时间标记信息,可以利用例如从视频内容数据开始到面部图像出现为止流逝的时间,或者利用面部图像被提取的帧的帧编号。
此外,视频处理器113输出每一个所提取的面部图像的尺寸(分辨率)。从视频处理器113输出的面部检测结果数据(面部图像,时间标记信息TS以及尺寸)存储在数据库111A中作为索引数据。数据库111A是设置在HDD 111中的用于存储索引数据的存储区域。
视频处理器113与面部图像提取处理平行地进一步执行缩略图像获取处理。缩略图像是相应于以相等时间间隔从视频内容数据中提取的多个帧中的每一帧的图像(或者可以是经减少的图像)。具体地说,无论帧是否包括面部图像,视频处理器113都以预定的相等时间间隔从视频内容数据中提取多个帧,并输出相应于所提取帧的图像(缩略图像)和指示缩略图像出现的时间点的时间标记信息TS。从视频处理器113输出的缩略图像获取结果数据(缩略图像,时间标记信息TS)也存储在数据库111中作为索引数据。
TV应用程序202包括用于执行面部图像列表显示功能的面部图像列表显示处理单元301。面部图像列表显示处理单元301从数据库111A读出面部检测结果数据(面部图像,时间标记信息TS以及尺寸),并利用面部检测结果数据在二维显示区域(以下称为“面部缩略图像显示区域”)显示出现在视频内容数据中的人物的面部图像列表。在这种情况下,面部图像列表显示处理单元301将视频内容数据的总时间长度分成相等时间间隔的多个时间区域,并从所提取的面部图像中选择出现在每个时间区域中的预定数量的面部图像。面部图像列表显示处理单元301通过按面部图像的出现次序排列面部图像以时间区域为单位显示所选择的预定数量的面部图像。
具体地说,二维面部缩略图像显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域。通过用所述多个列的列数以相等的时间间隔平分视频内容数据的总时间长度得到的每一个都具有相同时间长度的多个时间区域被分别分配给该多个列。基于相应于每个面部图像的时间标记信息TS,面部图像列表显示处理单元301通过按出现的时间次序排列面部图像而在每一列的面部图像显示区域中显示属于被分配给每个列的时间区域的面部图像。每一列的面部图像显示区域的数目等于行的数目。
通过该面部图像列表显示功能,可以向用户呈现在整个视频内容数据中的哪个时间区域出现什么样的人物以及以什么样的顺序出现。面部缩略图像显示区域的特定结构实例将在下文参照图5及随后的附图进行描述。
此外,面部图像列表显示处理单元301从数据库111A读出缩略图像获取结果数据(缩略图像,时间标记信息TS),并且利用该缩略图像获取结果数据通过将缩略图像按出现的时间次序排列成直线而在设置在面部缩略图像显示区域的上侧或下侧的缩略图像显示区域(以下称为“褶叠(bellows)缩略图像显示区域”)中显示缩略图像。
取决于视频内容数据存在其中没有面部图像出现的时间区域。因此,通过显示缩略图像显示区域以及面部缩略图像显示区域,可以向用户呈现没有面部图像出现的时间区域中的视频内容数据的内容。
下文将参照图4描述TV应用程序202的功能结构。
除了上述的面部图像列表显示处理部301之外,TV应用程序202还包括记录处理单元401,索引控制单元402和播放处理单元403。
记录处理单元401执行将由TV调谐器117收到的广播节目数据或从外部设备输入的视频数据记录在HDD 111中的记录处理。此外,记录处理单元401还执行利用调谐器117接收由用户预置的编程-记录信息(频道编号,日期/时间)指定的广播节目数据并将所接收的广播节目数据记录在HDD 111中的编程-记录处理。
索引控制单元402控制视频处理器113并使视频处理器113执行用于视频索引的各个处理(面部图像提取处理,缩略图像获取处理)。用户能够与每一个将要被记录的广播节目数据相关联地指定是否将要执行索引处理。举例来说,关于索引处理已经因此而被指令执行的将要被记录的广播节目数据,当广播节目数据被记录在HDD 111中之后索引处理自动启动。此外,用户可以从已经存储在HDD 111中的视频内容数据中指定索引处理将要因此而被执行的视频内容数据。
播放处理单元403执行用于播放存储在HDD 111中的每个视频内容数据的处理。播放处理单元403具有这样一种功能,即当在一定的视频内容数据的面部图像列表中的一个面部图像被选中的状态下通过用户的操作输入播放指令事件时,播放处理单元403从所选中面部图像出现的时间点之前预定时间的时间点开始播放视频内容数据。
下文将参照图5到图7描述面部缩略图像显示区域的具体结构。
图5显示由面部图像列表显示处理单元301显示在LCD 17上的索引查看屏幕的实例。索引查看屏幕显示面部图像列表和缩略图像列表。面部图像列表和缩略图像列表都通过使一定的广播节目数据受到索引处理而得到。索引查看屏幕包括上述用于显示面部图像列表的面部缩略图像显示区域,和上述用于以褶叠形式显示缩略图像列表的褶叠缩略图像显示区域。
这里,术语“褶叠形式”是所选定的缩略图像以正常尺寸显示而其他的缩略图像以横向减小的尺寸显示的显示形式。在图5中,距离所选定的缩略图像有更大距离的缩略图像在其横向尺寸上被减小得更多。
图6显示面部缩略图像显示区域的结构的实例。
面部缩略图像显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域。在图6中,面部缩略图像显示区域包括6行×16列。包括在面部缩略图像显示区域中的面部图像显示区域的数目是96个。
每一个都具有通过用列的数目(16)以相等的时间间隔平分视频内容数据的总时间长度得到的相同的时间长度T的多个时间区域被分别分配给列1到16。
举例来说,如果视频内容数据的总时间长度是两个小时,则该两个小时以相等的时间间隔分成16个时间区域。在这种情况下,每个时间区域的时间长度T是7.5分钟。举例来说,从0:00:00(开始)到0:07:30的时间区域被分配给列1,从0:07:30到0:15:00的时间区域被分配给列2,以及从0:15:00到0:22:30的时间区域被分配给列3。每个时间区域的时间长度T根据视频内容数据的总时间长度而改变。
基于与由视频处理器113提取的面部图像相对应的时间标记信息,面部图像列表显示处理单元301通过按出现的时间次序从上侧到下侧排列六个面部图像而在相关联的列的六个面部图像显示区域中显示属于分配给每个列的时间区域的面部图像。在这种情况下,面部图像列表显示处理单元301从属于分配给作为显示处理的目标的列的时间区域的面部图像中选择其数目等于行数(6)的面部图像,并且排列及显示所选择的其数目等于行数的面部图像。
如上所述,在面部缩略图像显示区域中使用具有作为原点的左端位置(1,1)和作为视频内容数据的终点的右端位置(6,16)的时间轴。
用户能够从“大”,“中”,“小”中选择显示在面部缩略图像显示区域的每个面部图像显示区域中的面部图像的尺寸。行数和列数根据由用户选择的面部图像的尺寸而改变。面部图像的尺寸和行数及列数之间的关系如下。
(1)“大”:3行×8列
(2)“中”:6行×16列
(3)“小”:10行×24列。
在“大”的情况下,每个面部图像以例如180×180像素的尺寸显示。在“中”的情况下,每个面部图像以例如90×90像素的尺寸显示。在“小”的情况下,每个面部图像以例如60×60像素的尺寸显示。举例来说,默认的面部图像尺寸设定为“中”。
面部缩略图像显示区域中的每个面部图像设定成两种状态中的一种,也就是,未选择的“标准”状态和选中的“焦点”状态。在“焦点”状态中的面部图像的尺寸设定为比在“标准”状态中的面部图像的尺寸(180×180,90×90或60×60)大。在图6中,坐标(1,12)的面部图像处于“焦点”状态。
在褶叠缩略图像显示区域中显示的缩略图像的数目根据用户设定被设定为240,144,96和48中的一个。默认值是例如240。
缩略图像设定为两种状态中的一种,也就是未选择“标准”状态和选中的“焦点”状态。在“焦点”状态中的缩略图像的尺寸设定为大于其他缩略图像的尺寸。
下文将参照图7描述面部缩略图像显示区域和褶叠缩略图像显示区域之间的关系。
属于相同列的一组面部图像显示区域,也就是说,在面部缩略图像显示区域中的每一列,被称为“大部”。“大部”的每个分部被称为“小部”。包括在一个大部中的小部的数目由显示在褶叠缩略图像显示区域中的缩略图像的数目除以面部缩略图像显示区域的列数的商给出。举例来说,如果面部缩略图像显示区域的尺寸是6行×16列以及显示在褶叠缩略图像显示区域中的缩略图像的数目是240,则包括在一个大部中的小部的数目是15(=240÷16)。一个大部包括15个小部。换句话说,15个缩略图像属于相应于一个大部的时间区域。
当褶叠缩略图像显示区域中的一定的缩略图像被选中时,基于所选中的缩略图像的时间标记信息,面部图像列表显示处理部301在面部缩略图像显示区域中从多个列(多个大部)中选择被选中的缩略图像所属的时间区域被分配到的一个列(大部)。被选定的大部是包括作为小部被选定的缩略图像的大部。面部图像列表显示处理部301突出显示所选定的大部。
进一步,面部图像列表显示处理部301显示连接所选择的缩略图像和所选定的大部的直条。该直条用于指示相应于所选择的缩略图像的小部对应于所选定大部中包括的15个小部中的哪一个小部。所述直条在所选定大部中包括的15个小部中对应于所选择的缩略图像的小部的位置处显示。举例来说,如果所选择的缩略图像是属于相应于一定的大部的时间区域的15个缩略图像中的第一个图像,也就是相应于该大部的第一小部的图像,则所选择的缩略图像由所述直条连接到该大部的左端。另一方面,举例来说,如果所选择的缩略图像是属于相应于一定的大部的时间区域的15个缩略图像中的最后一个图像,也就是相应于该大部的最后一个小部的图像,则所选择的缩略图像由所述直条连接到该大部的右端。
如上所述,当褶叠缩略图像显示区域中的缩略图像被选中时,所选中的缩略图像所属的时间区域被分配到的一个列(大部)从面部缩略图像显示区域中的多个列中被自动选中。因此,用户能够识别所选中的缩略图像对应于面部缩略图像显示区域中的哪一个列(大部)。进一步,通过所述直条,用户还可以识别所选中的缩略图像相对应于哪一个列(大部)中的哪一个时间点。
此外,基于所选择的缩略图像的时间标记信息,面部图像列表显示处理单元301在指示所选择缩略图像出现的时间点的索引查看屏幕上显示该时间信息。
“当前位置变化”按钮是用于改变被选择的缩略图像的操作按钮。如果用户在“当前位置变化”按钮被聚焦的状态下操作键盘13上的左光标键或右光标键,则将要被选择的缩略图像举例来说以一个小部为单位移向左侧或右侧。
下文将参照图8的流程图给出对由面部图像列表显示处理单元301执行的显示处理的流程的叙述。
作为开始,基于与这些面部图像相对应的时间标记信息,面部图像列表显示处理单元301按照面部图像出现的时间顺序对存储在数据库111A中的面部图像进行分类(步骤S101)。然后,面部图像列表显示处理单元301根据由用户指定的面部图像的尺寸确定行的数目和列的数目,并且通过将作为索引目标的视频内容数据的总时间长度除以列的数目计算分配给每一列(大部)的时间区域。然后,面部图像列表显示处理单元301从属于分配给作为显示处理的目标的列的时间区域的面部图像中选择等于行的数目的面部图像(步骤S102)。如果属于分配给作为显示处理的目标的列的时间区域的面部图像的数目大于行的数目,则面部图像列表显示处理单元301择优地选择例如出现的时间顺序中较早的面部图像。
代替对出现时间次序中较早的面部图像的优先选择,面部图像列表显示处理单元301可以择优地选择出现频率高的面部图像。
在这种情况下,面部图像列表显示处理单元301从属于分配给作为显示处理的目标的列的时间区域的面部图像中择优地选择该时间区域中出现频率高的面部图像。举例来说,视频处理器113可以基于所提取的面部图像的特征数据之间的相关性将同一人物的面部图像分类为相同的类别。在这种情况下,如图9所示,面部图像以逐人为基础(即以逐类别为基础)分类并存储在数据库111A中。在图9中,类别1代表人物A的一组面部图像,类别2代表人物B的一组面部图像,以及类别3代表人物C的一组面部图像。面部图像列表显示处理单元301择优地选择出现频率高的人物的面部图像。
在属于分配给作为显示处理的目标的列的时间区域的面部图像的数目大于行的数目的情况中,基于存储在数据库111A中的每个面部图像的尺寸信息,面部图像列表显示处理单元301可以从属于分配给作为显示处理的目标的列的时间区域的面部图像中择优地选择具有大尺寸的面部图像。
从显示面部特写的帧中提取的面部图像的尺寸相对大。相应地,因为所提取的面部图像的尺寸较大,因此非常可能所提取的面部图像的人物是高重要性的人物。通过择优地选择具有较大尺寸面部图像,可以择优地显示高重要性的人物的面部图像。
随后,面部图像列表显示处理单元301通过按照出现的时间顺序排列面部图像而在作为显示处理的目标的列中的多个面部图像显示区域中显示所选择的面部图像(步骤S103)。具有较早出现时间的面部图像被显示在更靠上的面部图像显示区域中,而具有较晚出现时间的面部图像被显示在更靠下的面部图像显示区域中。
步骤S102和S103的处理被重复执行,直至对所有列的处理完成,同时作为显示处理的目标的列被更新(步骤S104,S105)。
如果属于分配给作为显示处理的目标的列的时间区域的面部图像的数目小于行的数目,则属于相对应的时间区域的缩略图像也可以被显示在作为显示处理的目标的列中。
如果对所有列的处理完成(在步骤S104为否),则面部图像列表显示处理单元301通过按缩略图像出现的时间次序排列该缩略图像而基于缩略图像的时间标记信息在褶叠缩略图像显示区域中显示存储在数据库111A中的缩略图像(步骤S106)。
下文将参照图10的流程图对由播放处理单元403执行的播放处理的流程进行描述。
当指令播放视频内容数据的事件根据用户的操作被输入时(步骤S201为是),播放处理单元403配合面部图像列表显示处理单元301并确定视频内容数据的面部缩略图像显示区域中的面部图像是否被选择(步骤S202)。如果有被选择的面部图像(步骤S202为是),则播放处理单元403基于所选择的面部图像的时间标记信息检测所选择的面部图像出现的时间点(步骤S203)。播放处理单元403从所检测到的时间点之前预定时间的时间点,举例来说,从两秒之前的时间点开始播放视频内容数据(步骤S204)。
当在褶叠缩略图像显示区域中的一定的缩略图像被选择的状况下输入指令播放视频内容数据的事件时,基于所选择的缩略图像的时间标记信息,播放处理单元403从所检测到的被选择缩略图像出现的时间点之前预定时间的时间点,举例来说,从两秒之前的时间点开始播放视频内容数据。
下文将参照图11的流程图说明在用户指令改变面部图像尺寸的情况下由面部图像列表显示处理单元301执行的处理的流程。
如果用户指令改变面部图像尺寸,也就是说改变面部图像显示区域的尺寸,则举例来说,在索引查看屏幕被显示的状态中(步骤S301为是),面部图像列表显示处理单元30根据所指定改变的面部图像尺寸改变面部缩略图像显示区域的行的数目和列的数目(步骤S302)。然后,面部图像列表显示处理单元301基于视频内容数据的总时间长度和改变后的列数改变分配给面部缩略图像显示区域中的各个列的时间区域(步骤S303)。在步骤S303中,面部图像列表显示处理单元301通过将视频内容数据的总时间长度除以改变后的列数确定分配给各个列的时间区域。基于分配给各个列的时间区域和改变后的行数,面部图像列表显示处理单元301执行已参照图8中的步骤S101到S105描述的面部列表显示处理(步骤S304)。
如上所述,在本实施例中,从视频内容数据获取的人物的面部图像列表被显示在索引查看屏幕的面部缩略图像显示区域中。在这种情况下,通过用所述多个列的列数以相等的时间间隔平分视频内容数据的总时间长度得到的每一个都具有相同时间长度的多个时间区域被分配给沿面部缩略图像显示区域的水平轴排列并显示的多个竖直方向延伸的列(多个大部)。在每一列中,属于分配给该列的时间区域的面部图像以面部图像按其出现的时间次序排列这样的方式被显示。仅在一定的时间区域出现的人物的面部图像仅在对应于该时间区域的列中被显示。另一方面,出现在若干时间区域中的人物的面部图像在对应于这些时间区域的若干列中被显示。这样就可以容易理解地向用户呈现在整个视频内容数据中哪一个人物出现在视频内容数据的哪一个时间区域以及以什么样的顺序出现。因此,不需要播放每一个所记录的视频内容数据用户就能够容易地了解在整个视频内容数据中每个人物出现在哪一个时间区域。
此外,在本实施例中,当指令改变每个面部图像显示区域的尺寸(面部图像显示尺寸)的事件被输入时,包括在面部缩略图像显示区域中的列的数目根据由该事件指定的改变后的尺寸自动地改变,以及分配给包括在面部缩略图像显示区域中的各个列的时间区域也根据视频内容数据的总时间长度和改变后的列数自动地改变。因此,即使在面部图像显示尺寸被用户改变的情况中,也可以向用户呈现每个人物出现在整个视频内容数据中的哪一个时间区域。
取决于视频内容数据,在有些情况下,存在没有人物出现的时间区域。然而,在本实施例中显示褶叠缩略图像以及面部缩略图像。因此,即使在没有人物出现的时间区域中,该时间区域中的视频内容数据的内容也能够被呈现给用户。
本实施例的记录编程处理的流程全部能够通过软件实现。因此,通过计算机可读的存储媒介在普通的计算机中安装该软件,与在本实施例中相同的有利的效果能够很容易地实现。
本实施例的电子装置不仅能够用计算机10实现,也可以用诸如HDD录像机,DVD录像机以及TV装置的各种消费电子设备实现。在这种情况下,TV应用程序202的功能能够通过诸如DSP或微机的硬件实现。
其他的优点和修改对于本技术领域的熟练人员是容易实现的。因此,本发明在其广阔的各个方面不局限于本文显示和描述的具体细节和说明性实施例。因此,可以进行各种修改而不背离由附后的权利要求及其等效内容定义的总体发明概念的精神和范围。

Claims (10)

1.一种电子装置,其特征在于,该电子装置包括:
配置成从组成视频内容数据的多个帧中提取人物面部图像,并输出指示所提取的面部图像出现的时间点的时间标记信息的面部图像提取单元;和
配置成在二维显示区域中显示所提取的面部图像的列表的面部图像列表显示处理单元,
其中所述二维显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域,通过用所述多个列的列数以相等的间隔平分所述视频内容数据的总时间长度得到的、每一个都具有相同时间长度的多个时间区域被分别分配给所述多个列,以及所述面部图像列表显示处理单元配置成通过按所述面部图像出现的时间顺序排列所述面部图像,基于与每一个所提取的面部图像相对应的所述时间标记信息在每个列的面部图像显示区域中显示属于分配给每个列的所述时间区域的面部图像。
2.如权利要求1所述的电子装置,其特征在于,所述面部图像列表显示处理单元配置成基于与每一个所提取的面部图像相对应的所述时间标记信息从属于分配给作为显示处理的目标的列的所述时间区域的面部图像中选择与所述行的数目相同的数目的面部图像,以及通过按所述面部图像出现的时间次序排列面部图像,在所述作为显示处理的目标的列中的面部图像显示区域中显示与所述行的数目相同的数目的所选择的面部图像。
3.如权利要求2所述的电子装置,其特征在于,在属于分配给所述作为显示处理的目标的列的所述时间区域的面部图像的数目大于所述行的数目的情况下,所述面部图像列表显示处理单元从属于分配给所述作为显示处理的目标的列的所述时间区域的面部图像中择优地选择在该时间区域中出现频率高的面部图像。
4.如权利要求2所述的电子装置,其特征在于,在属于分配给所述作为显示处理的目标的列的所述时间区域的面部图像的数目大于所述行的数目的情况下,所述面部图像列表显示处理单元从属于分配给所述作为显示处理的目标的列的所述时间区域的面部图像中择优地选择具有大尺寸的面部图像。
5.如权利要求1所述的电子装置,其特征在于,当指令改变每一个所述面部图像显示区域的尺寸的事件被输入时,所述面部图像列表显示处理单元根据由该事件指定的改变的尺寸改变包括在所述二维显示区域中的所述行的数目和所述列的数目,以及基于所述视频内容数据的总时间长度和所改变的列数改变分配给包括在所述二维显示区域中的所述列的时间区域。
6.如权利要求1所述的电子装置,其特征在于,所述面部图像列表显示处理单元通过将缩略图像按直线排列,在所述二维显示区域的上侧或下侧设置的缩略图像显示区域中显示相应于从所述视频内容数据以相等时间间隔提取的多个帧的多个缩略图像,以及在所述缩略图像显示区域中的某个缩略图像被用户指定的情况下选择所述二维显示区域中的所述多个列中所指定的缩略图像所属的时间区域被分配到的一个列。
7.如权利要求1所述的电子装置,其特征在于,该电子装置进一步包括播放处理单元,该单元在二维显示区域上显示的一个面部图像被选择的状态下,且指令播放所述视频内容数据的事件被输入时,基于所选择的面部图像的所述时间标记信息从所选择的面部图像出现的时间点之前预定时间的时间点开始播放所述视频内容数据。
8.一种显示出现在视频内容数据中的人物的面部图像列表的面部图像显示方法,其特征在于,该方法包括:
进行从组成视频内容数据的多个帧中提取人物面部图像和输出指示所提取的面部图像出现的时间点的时间标记信息的面部图像提取处理;和
通过使用由所述面部图像提取处理提取的所述面部图像进行在二维显示区域中显示出现在所述视频内容数据中的人物的面部图像列表的面部图像列表显示处理,
其中所述二维显示区域包括以包括多行多列的矩阵排列的多个面部图像显示区域,通过用所述多个列的列数以相等的间隔平分所述视频内容数据的总时间长度得到的、每一个都具有相同时间长度的多个时间区域被分别分配给所述多个列,以及所述面部图像列表显示处理包括通过按所述面部图像出现的时间顺序排列所述面部图像,基于与每一个所提取的面部图像相对应的时间标记信息在每个列的面部图像显示区域中显示属于分配给每个列的时间区域的面部图像。
9.如权利要求8所述的面部图像显示方法,其特征在于,所述面部图像列表显示处理包括当指令改变每一个面部图像显示区域的尺寸的事件被输入时根据由该事件指定的改变的尺寸改变包括在所述二维显示区域中的所述行的数目和列的数目,和根据视频内容数据的总时间长度及改变后的列数改变分配给包括在该二维显示区域中的各个列的时间区域。
10.如权利要求8所述的面部图像显示方法,其特征在于,所述面部图像列表显示处理包括通过按直线排列缩略图像,在所述二维显示区域的上侧或下侧设置的缩略图像显示区域中显示相应于从视频内容数据以相等时间间隔提取的多个帧的多个缩略图像,和当所述缩略图像显示区域中的一定的缩略图像被用户指定时选择所述二维显示区域中的多个列中所指定的缩略图像所属的时间区域被分配到的一个列。
CN2008101301890A 2007-08-02 2008-08-01 电子装置及面部图像显示方法 Active CN101360198B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007-202321 2007-08-02
JP2007202321A JP2009038680A (ja) 2007-08-02 2007-08-02 電子機器および顔画像表示方法
JP2007202321 2007-08-02

Publications (2)

Publication Number Publication Date
CN101360198A CN101360198A (zh) 2009-02-04
CN101360198B true CN101360198B (zh) 2010-06-23

Family

ID=40332523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101301890A Active CN101360198B (zh) 2007-08-02 2008-08-01 电子装置及面部图像显示方法

Country Status (3)

Country Link
US (2) US20090034806A1 (zh)
JP (1) JP2009038680A (zh)
CN (1) CN101360198B (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666223B2 (en) 2008-09-25 2014-03-04 Kabushiki Kaisha Toshiba Electronic apparatus and image data management method
JP5319311B2 (ja) * 2009-01-21 2013-10-16 任天堂株式会社 表示制御プログラムおよび表示制御装置
JP4768846B2 (ja) * 2009-11-06 2011-09-07 株式会社東芝 電子機器及び画像表示方法
US8340727B2 (en) * 2010-01-26 2012-12-25 Melzer Roy S Method and system of creating a video sequence
JP4709929B2 (ja) * 2010-01-28 2011-06-29 株式会社東芝 電子機器および表示制御方法
JP2011239075A (ja) * 2010-05-07 2011-11-24 Sony Corp 表示装置、表示方法及びプログラム
JP2012165240A (ja) * 2011-02-08 2012-08-30 Sony Corp 動画像処理装置、動画像処理方法、及びプログラム
KR101801141B1 (ko) 2011-04-19 2017-11-24 엘지전자 주식회사 영상표시장치 및 그 동작방법
CN102364960B (zh) * 2011-11-04 2015-05-27 播思通讯技术(北京)有限公司 移动数字电视画中画和频道缩略图的播放方法及移动终端
CN103123629B (zh) * 2011-11-21 2016-09-28 腾讯科技(深圳)有限公司 缩略图显示方法及装置
TWI486794B (zh) * 2012-07-27 2015-06-01 Wistron Corp 影片預覽方法及系統及其電腦程式產品
CN103677698B (zh) * 2012-09-11 2018-04-27 腾讯科技(深圳)有限公司 一种显示内容的方法及装置
CN102955858B (zh) * 2012-11-09 2016-07-27 北京百度网讯科技有限公司 视频文件的搜索排序方法、系统及服务器
KR20140100784A (ko) * 2013-02-07 2014-08-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US20150009363A1 (en) * 2013-07-08 2015-01-08 Htc Corporation Video tagging method
EP3046327A1 (en) * 2013-09-09 2016-07-20 Olympus Corporation Image display apparatus, encoding method, and encoding program
USD753146S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD753149S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10366487B2 (en) * 2014-03-14 2019-07-30 Samsung Electronics Co., Ltd. Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
USD759665S1 (en) * 2014-05-13 2016-06-21 Google Inc. Display panel or portion thereof with animated computer icon
CN105592282B (zh) * 2014-10-22 2019-12-17 鸿富锦精密工业(武汉)有限公司 Hdmi信号改善电路
US10068213B2 (en) 2015-09-09 2018-09-04 Mastercard International Incorporated Systems and methods for facilitating cross-platform purchase redirection
US9864925B2 (en) * 2016-02-15 2018-01-09 Ebay Inc. Digital image presentation
US10121515B2 (en) * 2016-06-06 2018-11-06 Avigilon Corporation Method, system and computer program product for interactively identifying same individuals or objects present in video recordings
CN106231233B (zh) * 2016-08-05 2019-12-20 北京邮电大学 一种基于权值的实时融屏方法
US10438630B2 (en) * 2017-02-10 2019-10-08 Canon Kabushiki Kaisha Display control apparatus that performs time-line display, method of controlling the same, and storage medium
JP7102121B2 (ja) * 2017-10-06 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN108882049B (zh) * 2017-11-30 2021-04-06 视联动力信息技术股份有限公司 一种数据展示方法及视联网终端
CN109977247B (zh) * 2019-03-27 2022-03-25 联想(北京)有限公司 图像处理方法和图像处理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315888B2 (ja) 1997-02-18 2002-08-19 株式会社東芝 動画像表示装置および表示方法
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
JP4587416B2 (ja) 2000-04-25 2010-11-24 富士通株式会社 デジタル映像コンテンツ閲覧装置及び方法
US6711587B1 (en) * 2000-09-05 2004-03-23 Hewlett-Packard Development Company, L.P. Keyframe selection to represent a video
US20060110128A1 (en) * 2004-11-24 2006-05-25 Dunton Randy R Image-keyed index for video program stored in personal video recorder
US7881505B2 (en) * 2006-09-29 2011-02-01 Pittsburgh Pattern Recognition, Inc. Video retrieval system for human face content
JP4496264B2 (ja) * 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法

Also Published As

Publication number Publication date
US20090034806A1 (en) 2009-02-05
JP2009038680A (ja) 2009-02-19
CN101360198A (zh) 2009-02-04
US8913834B2 (en) 2014-12-16
US20120120319A1 (en) 2012-05-17

Similar Documents

Publication Publication Date Title
CN101360198B (zh) 电子装置及面部图像显示方法
US8503832B2 (en) Electronic device and facial image display apparatus
US8559683B2 (en) Electronic apparatus and scene-type display method
US8166420B2 (en) Electronic apparatus and image display control method of the electronic apparatus
US8121349B2 (en) Electronic apparatus and video processing method
US8935169B2 (en) Electronic apparatus and display process
US8201105B2 (en) Electronic apparatus and image display control method of the electronic apparatus
US7986819B2 (en) Electronic apparatus and video display method
US20100275164A1 (en) Authoring apparatus
US20090074304A1 (en) Electronic Apparatus and Face Image Display Method
CN101513048A (zh) 控制接收机的方法和使用该方法的接收机
CN102547193A (zh) 信息处理装置、信息处理方法和程序
JP4856105B2 (ja) 電子機器および表示処理方法
CN104756484A (zh) 信息处理设备、重放状态控制方法及程序
CN101599241A (zh) 信息处理设备
CN102165766A (zh) 数字广播接收装置
US20120128325A1 (en) Authoring device and authoring method
US20100162162A1 (en) Display control device and input device
CN201079197Y (zh) 具有多重显示功能的数位相框装置
US20100058389A1 (en) Display control apparatus, display control method and communication system
JP2009200827A (ja) 電子機器および画像表示方法
JP2009088904A (ja) 情報処理装置および顔画像表示方法
JP5284426B2 (ja) 電子機器および画像表示方法
JP5318171B2 (ja) 電子機器および画像表示制御方法
JP5377624B2 (ja) 電子機器および顔画像表示装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190110

Address after: No. 6, 15, 5 Dingmu, Toyota, Tokyo, Japan

Patentee after: Toshiba terminal Solutions Ltd

Address before: Tokyo, Japan port area Zhi Pu Ding Ding 1, No. 1

Patentee before: Toshiba Corp