CN101807370B - 信息处理装置和信息处理方法 - Google Patents
信息处理装置和信息处理方法 Download PDFInfo
- Publication number
- CN101807370B CN101807370B CN2010101122385A CN201010112238A CN101807370B CN 101807370 B CN101807370 B CN 101807370B CN 2010101122385 A CN2010101122385 A CN 2010101122385A CN 201010112238 A CN201010112238 A CN 201010112238A CN 101807370 B CN101807370 B CN 101807370B
- Authority
- CN
- China
- Prior art keywords
- display unit
- content
- information
- face
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Processing (AREA)
Abstract
本发明公开了信息处理装置和信息处理方法。信息处理装包括图像摄取部件;显示部件;用于检测对象相对于显示部件的位置的位置检测部件;用于从所摄得的图像中检测脸部的脸部检测部件;用于获取对象的属性信息的属性获取部件;用于至少基于检测到的对象的属性信息来确定对象所属的群组的群组确定部件;用于基于对象的群组信息以及对象的属性信息中的至少一个来确定要提供给对象的内容的内容确定部件;以及用于以根据对象位置的显示样式来将要提供给对象的内容的内容信息显示在显示部件上的显示处理部件。
Description
技术领域
本发明涉及信息处理装置和信息处理方法,并且更具体地涉及用于提供数字标牌(digital signage)的信息处理装置和信息处理方法。
背景技术
近年来,随着网络技术和显示性能的改进,开始关注数字标牌在显示装置上显示视频和信息并将信息发送给对象的方法。数字标牌比现有的海报、广告显示装置等具有更好的表达能力,并且可以根据时间的地点来显示内容。这种数字标牌的使用可以给对象极深刻的印象并且直接传播信息。
为了有效地将内容分发给对象,获得关于对象的信息是有效的。例如,设想感兴趣的内容取决于对象的性别和年龄。作为获得对象信息的方法,例如日本专利申请早期公开No.2008-282089公开了一种用于通过分析对象的脸部图像来确定诸如性别、年龄、种族等之类的对象的脸部属性的方法。此外,日本专利申请早期公开No.2006-092396公开了一种用于基于对象的行为来从各个对象的诸如性别、年龄等之类的属性信息确定对象的群组类型的方法。
日本专利申请早期公开No.2007-080057公开了一种通过获得对象的脸部属性信息并使用其结果来向对象提供信息或内容的系统。例如,这种系统可以应用于使如下的顺序处理具有娱乐性的娱乐设备:对对象的脸部进行图像摄取,确定脸部的属性并且显示其结果。
发明内容
然而,在JP 2007-080057中公开的系统是这样的系统:基于对对象脸部图像的分析结果提供适合于对象的内容,但是不基于对象的状态在较好的定时下来提供内容。例如,对象的状态根据对象的结构以及与显示装置的位置关系而每秒都在变化。如果根据这种变化来提供内容,则所提供的内容对于对象可能更有效。
鉴于上面的问题,希望提供能够根据对象的状态改变并且在较好的定时下来提供适合于对象的内容的信息处理装置和信息处理方法。
根据本发明的一个实施例,提供了一种信息处理装置,该信息处理装置包括:图像摄取部件,该图像摄取部件摄取图像;显示部件,该显示部件显示图像;位置检测部件,该位置检测部件检测对象相对于显示部件的位置;脸部检测部件,该脸部检测部件从由图像摄取部件摄得的图像中检测脸部;属性获取部件,该属性获取部件基于由脸部检测部件检测到的检测结果来获取对象的属性信息;群组确定部件,该群组确定部件至少基于由脸部检测部件检测到的对象的属性信息来确定对象所属的群组;内容确定部件,该内容确定部件基于表示对象所属群组的群组信息以及对象的属性信息中的至少一个,来确定将要提供给对象的一个或多个内容;以及显示处理部件,该显示处理部件以根据对象位置的显示样式来将要提供给对象的内容的内容信息显示在显示部件上。
根据本发明,脸部检测部件检测到其脸部的对象的属性信息被获得,并且位置检测部件获取对象的位置信息。然后,至少将对象的属性信息用作基础来确定被检测到脸部的对象所属的群组。内容确定部件将对象的群组信息或属性信息用作基础来确定适合于对象的内容。然后,显示处理部件以根据对象的位置信息而变化的形式来将内容信息显示在显示装置上。这使得能够根据对象的状态变化并且在较好的定时下提供适合于对象的内容。
这里,当对象与显示部件之间的距离等于或小于第一距离时,显示处理部件可以基于被识别出脸部的对象的属性信息来将包含多条内容信息的项目集合显示在显示部件上。
此外,当对象与显示部件之间的距离等于或小于第二距离并且第二距离小于第一距离时,群组确定部件可以确定被识别出脸部的对象的群组。并且内容确定部件基于群组信息来确定要提供给对象的内容。
此外,当对象与显示部件之间的距离等于或小于第三距离并且第三距离小于第二距离时,显示处理部件可以以对象可以操作内容信息的方式来将内容信息显示在显示部件上。
此外,当对象与显示部件之间的距离等于或小于第一距离并且大于第三距离时,显示处理部件可以以内容信息移动着的方式来将内容信息显示在显示部件上。当对象与显示部件之间的距离等于或小于第三距离时,显示处理部件可以将内容信息显示为停止移动。
此外,显示处理部件可以剪切出由脸部检测部件检测到的脸部的脸部图像,并且将脸部图像显示在显示部件上。显示处理部件可以在脸部图像周围显示脸部框架,并且脸部框架示出对象的属性信息以及群组信息中的至少一种。此外,显示处理部件可以在脸部图像的预定最大大小与最小大小之间的区域中将剪切出的脸部图像放大显示。此外,显示处理部件可以将脸部图像显示在显示部件的上面部分,并且将内容信息显示在显示部件的下面部分。
此外,群组确定部件可以基于从脸部检测部件检测到的对象的属性信息中获得的对象的性别和年龄类别以及当对象包括多个对象时检测到的对象的数目,来确定对象所属的群组。这里,群组确定部件可以基于由位置检测部件检测到的对象之间的距离来确定对象所属的群组。
此外,信息处理装置还可以包括:模式切换部件,该模式切换部件在第一模式与第二模式之间切换,第一模式呈现一条或多条内容信息,第二模式呈现与从所呈现内容信息中选出的一条内容信息相对应的内容。模式切换部件根据由位置检测部件检测到的对象的位置信息确定对象的操作,以从第一模式切换到第二模式,并且模式切换部件基于第二模式的预设终止条件从第二模式切换到第一模式。
根据本发明的另一实施例,提供了一种信息处理方法,包括以下步骤:摄取图像;将图像显示在显示部件上;由位置检测部件检测对象相对于显示部件的位置;从所摄得的图像中检测脸部;基于检测到的脸部的信息获取对象的属性信息;至少基于被检测到脸部的对象的属性信息来确定对象所属的群组;基于指示对象所属群组的群组信息以及对象的属性信息中的至少一个来确定要提供给对象的内容;以及以根据对象位置的显示样式来将要提供给对象的内容的内容信息显示在显示部件上。
根据上述本发明的实施例,可以提供能够根据对象的状态改变并且在较好的定时下提供适合于对象的内容的信息处理装置和信息处理方法。
附图说明
图1是图示出根据本发明第一示例性实施例的信息处理装置的概略结构的说明图;
图2是图示出根据示例性实施例的控制器的硬件配置的框图;
图3是图示出根据示例性实施例的信息处理装置的功能框图;
图4是示意性地图示出了根据示例性实施例的信息处理装置的功能的说明图;
图5A是图示出根据示例性实施例的内容提供功能的处理的流程图;
图5B是图示出根据示例性实施例的内容提供功能的处理的流程图;
图5C是图示出根据示例性实施例的内容提供功能的处理的流程图;
图5D是图示出根据示例性实施例的内容提供功能的处理的流程图;
图6是图示出显示在显示部件上的图像的画面结构的说明图;
图7是图示出群组属性确定处理的流程图;
图8A是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8B是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8C是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8D是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8E是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8F是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8G是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;
图8H是图示出根据示例性实施例的内容提供功能的处理的示例的说明图;以及
图9是图示出基于微笑程度(smile level)的项目显示的一个示例的说明图。
具体实施方式
下面,将参考附图详细描述本发明的优选实施例。注意,在本说明书和附图中,用相同的标号来表示具有基本上相同的功能和结构的结构元件,并且省略对这些结构元件的重复描述。
将以下面的顺序来进行描述。
1.信息处理装置的结构(信息处理装置的概略结构、控制器的硬件配置、信息处理装置的功能结构)
2.信息处理装置进行的内容提供处理(内容提供功能的基本结构、内容提供功能的一个处理示例、群组属性确定处理、优点、基于微笑程度的项目显示、内容提供处理的扩展)
<1.信息处理装置的结构>
[信息处理装置的概略结构]
首先,参考图1描述根据本发明示例性实施例的信息处理装置100的概略结构。在下面的描述中,信息处理装置100是能够向对象提供内容的信息处理装置。该信息处理装置100具有如图1所示的控制器110、图像摄取部件120、显示部件130以及操作器140。
控制器110是执行控制以根据对象的状态和属性提供内容的功能部件,并且例如可由可以执行控制处理的计算机构成。控制器110控制基于从操作器140获得的操作信息以及从图像摄取部件120获得视频来提供内容的信息处理装置,并且对显示在显示部件130上的图像执行图像构造处理。
图像摄取部件120是用于获取视频的功能部件。例如,图像摄取部件120具有图像摄取传感器以及用于将物体的图像引入图像摄取传感器的光学构件。图像摄取传感器例如是CCD(电荷耦合器件)图像传感器、CMOS(互补金属氧化物半导体)图像传感器等。
显示部件130将诸如内容之类的信息提供给对象。显示部件130例如是液晶显示面板显示装置等,并且显示由控制器110生成的图像。
操作器140是用于获取对象的操作信息的功能部件。操作器140例如是非接触型传感器面板。利用这种结构,操作器140可以以三维坐标(x,y,z)的形式检测操作体位置,例如对象是与操作器140接触还是与操作器140接近。另外,操作器140被布置在显示部件130的表面侧处的显示部件130上。利用这种布置,操作器140可以向对象提供对显示在显示部件130上的图像进行直接操作的感觉。
控制器110、图像摄取部件120、显示部件130以及操作器140例如通过线缆150相连,以使得它们可以彼此通信。然而,它们也可以无线地连接。此外,根据示例性实施例的信息处理装置100具有用于输出声音的输出部件(未示出),例如扬声器等。
到此为止,已描述了根据本示例性实施例的信息处理装置100的概略结构。接下来,将参考图2更详细地描述根据示例性实施例的信息处理装置100的控制器110的硬件配置。图2是图示出根据示例性实施例的控制器110的硬件配置的框图。
[控制器的硬件配置]
本示例性实施例的控制器110包括CPU(中央处理单元)101、ROM(只读存储器)102、RAM(随机存取存储器)103以及主机总线104a。另外,控制器110包括桥接器104、外部总线104b、接口105、输入设备106、输出设备107、存储设备(HDD)108、驱动器109、连接端口111以及通信设备112。
CPU 101用作算术处理单元和控制器,并且根据各种程序控制控制器110内部的全部操作。另外,CPU 101可以是微处理器。ROM 102存储在CPU 101中使用的程序、计算参数等。RAM 103临时存储CPU 101运行时所使用的程序,在程序运行时适当变化的参数等。这些通过主机总线104a彼此相连,主机总线104a由CPU总线等构成。
主机总线104a经由桥接器104连接到诸如PCI(外围组件互连/接口)总线之类的外部总线104b。顺便提及,主机总线104a、桥接器104以及外部总线104b不一定是分开的组件,而可以由一条总线构成。
输入设备106具有供用户输入信息的诸如鼠标、键盘、触摸面板、按钮、麦克风、开关和操作杆之类的输入装置,以及用于基于用户的输入生成输入信号并将信号输出到CPU 101的输入控制电路。控制器110的用户操作输入设备106,从而能够将各种数据和指示处理操作输入到控制器110中。
输出设备107包括显示设备,例如CRT(阴极射线管)显示装置、液晶显示装置(LCD)、OLED(有机发光二极管)设备以及灯。此外,输出设备107包括诸如扬声器和耳机之类的声音输出设备。该输出设备107是与信息处理装置100的显示部件130相分离的设备,并且用于显示用于操作控制器110的信息。
存储设备108是用于存储数据的设备,其被配置作为控制器110的存储器设备的一个示例。存储设备108可以包括存储介质、用于将数据记录在存储介质中的记录设备、用于从存储介质读取数据的读取设备、用于删除记录在存储介质中的数据的删除设备等。存储设备108例如可以具有HDD(硬盘驱动器)。存储设备108启动硬盘以存储各种数据以及由CPU101执行的程序。
驱动器109是用于存储介质的读写器,并且安装在控制器110的内部或外部。驱动器109读取存储在诸如磁盘、光盘、磁光盘、半导体存储器等之类的可移除记录介质中的信息,并且将信息输出到RAM 103。
连接端口111是连接到外部设备的接口,并且是能够向外部设备发送数据的诸如USB(通用串行总线)之类的连接端口。此外,通信设备112例如是由用于连接到通信网络等的通信设备构成的通信接口。此外,通信设备112可以是用于无线LAN(局域网)的通信设备、用于无线USB的通信设备或者用于有线或线缆通信的有线通信设备。
到此为止,描述了根据示例性实施例的控制器110的硬件配置。该控制器110用于根据示例性实施例的信息处理装置100,以根据对象的状态和属性向对象提供内容。下面将参考图3和图4描述根据本示例性实施例的信息处理装置100的功能。这里,图3是图示出根据示例性实施例的信息处理装置100的功能框图。图4是示意性地图示出根据示例性实施例的信息处理装置100的功能的说明图。
[图像处理装置的功能结构]
首先,参考图3描述根据本示例性实施例的图像处理装置的功能结构。根据本示例性实施例的信息处理装置100包括如图3所示的如下功能部件:输入/输出部件210、图像摄取部件220、图像处理部件230、属性获取部件240、内容确定部件250、显示处理部件260、回放处理部件270、选择确定部件280、模式切换部件290等。
输入/输出部件210是用于获取对象的信息并且向对象提供信息的功能部件。输入/输出部件210可以包括位置检测部件212、显示部件214和声音输出部件216。位置检测部件212对应于图1的操作器140,并且检测操作器140与对象之间的距离(z)以及操作部件在操作器140中的位置(x,y),作为对象的位置信息。位置检测部件212将检测到的位置信息输出到属性获取部件240、群组确定部件242、选择确定部件280以及模式切换部件290。显示部件214对应于图1的显示部件130,并且显示由作为控制器110的一种功能的显示处理部件260生成的图像。声音输出部件216是诸如扬声器之类的输出设备,并且被配置为输出由作为控制器110的一种功能的回放处理部件270回放的音乐等。
图像摄取部件220是用于获取图像的功能部件,并且对应于图1的图像摄取部件120。如上所述,图像摄取部件220具有诸如镜头之类的光学构件以及图像摄取传感器。图像摄取部件220接收光学构件获得的对象的光学图像,并且对由图像摄取传感器获得的图像执行光电转换,从而生成图像摄取信号。图像摄取部件220将生成的图像摄取信号输出到图像处理部件230。
图像处理部件230是用于处理从图像摄取部件220输入的图像摄取信号的功能部件。图像处理部件230以使得信号变得适合于下面的处理的方式来处理图像摄取信号,并且将图像摄取信号输出给显示处理部件260和脸部检测部件232。
脸部检测部件232是用于从由图像摄取信号表达的图像中检测脸部的功能部件。脸部检测部件232执行脸部检测以便从由图像摄取部件220摄取的图像中检测出人。可以由相关技术中的装置来执行脸部检测处理。一旦脸部检测部件232从图像中检测到人的脸部,则其将检测到的脸部的信息(脸部信息)输出到脸部跟踪部件234和显示处理部件260。
脸部跟踪部件234是用于基于从图像检测到的人的脸部信息来跟踪脸部的功能部件。脸部跟踪部件234将所跟踪的脸部的脸部信息输出给属性获取部件240。
属性获取部件240是用于从图像获取检测到的人的属性的功能部件。属性获取部件240获取诸如性别、年龄和种族之类的信息,作为人的属性。此外,属性获取部件240可以获取其它信息,例如诸如微笑之类的人的表情、佩戴或未佩戴眼镜等。属性获取部件240将所获得的属性信息输出到群组确定部件242和内容确定部件250。
群组确定部件242是用于对从图像检测到的人进行分组的功能部件。群组确定部件242基于人的属性信息将人分类到给定群组中。群组例如包括情侣、家庭、朋友等。群组确定部件242确定图像中的人所属的群组,并且将确定结果作为群组信息输出到内容确定部件250。
内容确定部件250是用于确定提供给对象的内容的功能部件。内容确定部件250确定作为对象的人,并且基于人的属性信息和群组信息来确定提供给对象的内容。下面将描述用于确定内容的详细处理。一旦内容确定部件250确定了要提供的内容,其就向内容获取部件252输出获取内容的指令。
内容获取部件252是用于从内容存储部件254获取内容信息的功能部件。内容获取部件252从内容确定部件250和选择确定部件280接收获取内容的指令,并且从内容存储部件254获取内容以及与内容有关的信息。内容获取部件252将获得的信息输出给显示处理部件260和回放处理部件270。
内容存储部件254是用于存储可由信息处理装置100提供的内容的存储部件。内容存储部件254存储各种内容,包括音乐信息、诸如电影和戏剧之类的视频信息、诸如书和杂志之类的书志目录(biblio)信息等。内容存储部件254可以经由接口(未示出)和网络连接到外部内容提供服务器,并且更新所存储的内容。
显示处理部件260是用于生成显示在显示部件214上的图像的功能部件。显示处理部件260将从图像处理部件230、脸部检测部件232以及内容获取部件252输入的信息用作基础来生成要显示的图像。显示处理部件260将所生成的图像输出给显示部件214。
回放处理部件270是用于生成将从声音输出部件216输出的声音的功能部件。回放处理部件270处理将要重放的、从内容获取部件252输入的内容中的声音,并且将其输出给声音输出部件216。
选择确定部件280是用于确定由对象选择的内容的处理部件。选择确定部件280将由位置检测部件212获得的对象的位置信息用作基础,来确定显示在显示部件214上的内容中由对象选出的内容。然后,选择确定部件280将确定结果输出给内容获取部件252。
模式切换部件290是用于在信息处理装置100中切换处理模式的功能部件。模式切换部件290基于预定条件来控制对信息处理装置100中的处理模式的切换。在此示例性实施例中,模式切换部件290将从位置检测部件212输入的位置信息、从回放处理部件270输入的内容的回放信息、定时器292的处理时间等用作基础,来确定对处理模式的切换。然后,模式切换部件290将确定结果用作基础,来向显示处理部件260和回放处理部件270给出指令。
定时器292是用于对时间进行计时的功能部件。在本示例性实施例中,定时器292对时间进行计时,以作为用于由模式切换部件290确定对处理模式的切换的信息。例如,定时器292对预定功能部件中的预定处理开始之后所经过的时间进行计时,并将时间输出给模式切换部件290。
<2.由信息处理装置进行的内容提供处理>
[内容提供功能的基本结构]
上面已描述了根据本示例性实施例的信息处理装置100的功能结构。根据本示例性实施例的这种信息处理装置100具有如图4所示的两种处理模式,即,用于检测对象以搜索要提供的内容的操作模式302,以及用于提供内容的海报模式(poster mode)304。操作模式302是这样的模式,该模式用于检测对象以从由图像摄取部件220所摄得的图像中提供内容,并且在基于对象的位置信息改变内容的呈现状态的同时提供内容。另一方面,海报模式304是用于提供由对象选择的内容的模式。
信息处理装置100将操作模式302作为基本模式来执行,并且当对象在操作模式302中选择了内容(项目)时,信息处理装置100从操作模式302切换到海报模式304。当信息处理装置100执行海报模式304时,其判断海报模式304是否终止。当判定满足了终止条件时,其返回操作模式302。海报模式304的终止条件例如包括对象是否与操作器140接触、在将模式切换到海报模式304之后是否经过了预定时间、所播放的内容是否结束,等等。当未满足终止条件时,信息处理装置100继续执行海报模式304。
接下来,参考图5A至图8H详细描述根据本示例性实施例的信息处理装置100的内容提供功能的示例。图5A至图5D是图示出根据本示例性实施例的内容提供功能的处理的流程图。图6是图示出显示在显示部件130上的图像的画面结构的说明图。图7是图示出群组属性确定处理的流程图。图8A至图8H的每个是图示出根据本示例性实施例的内容提供功能的一个处理示例的流程图。在图8A至图8H中,上面的视图图示出了从侧面看见的显示部件130与对象之间的距离,而下面的视图图示出了显示在显示部件130上的图像。此外,下面将“内容”解释为“项目”。
[内容提供功能的一个处理示例]
如上所述,根据本示例性实施例的信息处理装置100首先启动操作模式302(S100)。在操作模式302中,由图像摄取部件120(图像摄取部件220)摄得的当前图像显示在显示部件130(显示部件214)上。
显示在显示部件130上的图像具有四层,如图6所示。它们是背景层132、相机层134、人物层136以及项目层138。在背景层132中,显示了与当前所选项目有关的信息。在相机层134中,显示了由图像摄取部件120所摄得的当前图像。在本示例性实施例中,由图像摄取部件120所摄得的图像在经过透化(permeabilization)之前,图像被水平翻转,并且然后图像被显示在相机层134上。在人物层136中,显示了从图像摄取部件120所摄得的图像中检测到的人。然后,在项目层138中,显示了要提供给对象的诸如内容之类的项目的信息。
当操作模式302被启动时,仅显示其中显示了图像摄取部件120所摄得的当前图像的背景层132的图像。因此,当图像摄取部件120的图像显示在显示部件130上时,能够引起对象的兴趣,并且存在显示部件130识别出对象的效果。
然后,脸部检测部件232从图像摄取部件120所摄得的图像中检测人的脸部(S102)。重复处理,直到脸部检测部件232从图像中检测到人的脸部为止。此时,例如如图8A的下面的视图所示,图像摄取部件120所摄得的当前图像被水平翻转,并且经受透化,然后被显示在显示部件130上。这种显示状态与操作模式302被启动时的显示状态相同。此时,人的脸部未被检测到,并且如图8A的上面的视图所示,对象常常不在位置检测部件212可以检测到对象的区域。
然后,当脸部检测部件232在S102中从图像中检测到人的脸部后,检测识别出的人的属性信息(S104)。此时,脸部跟踪部件234对由脸部检测部件232检测到的脸部执行跟踪处理。通过由脸部跟踪部件234跟踪检测到的脸部并且获取预定定时的脸部信息,可以获得平均脸部信息。这可以防止因视角引起的、利用临时检测到的脸部信息进行的不适当处理。在S104中,属性获取部件240获取作为检测到的人的脸部信息的信息,诸如性别、年龄和种族之类。在本示例性实施例中,例如从人的脸部信息中获取人的属性信息,即男性(成年男性)、女性(成年女性)或孩子。人的属性信息可以基于脸部信息的类型和应用目的而表示出年龄、种族等中的更详细差异。
将在S104中获得的人的属性信息用作基础来表示识别出的人的脸部框架(S106)。在S106中,识别出的人的脸部图像被从摄取图像剪切出,并且显示在背景层132中所显示的相对应的人附近的上部。例如,剪切出的脸部图像被剪成圆形,其中,约为检测到的脸部的1.6倍大的区域被剪切出,并且由双线表示的脸部框架位于脸部图像周围。在脸部框架中,内框以根据人属性信息的颜色来显示。例如,对于男性,以黑色显示框架,对于女性,以白色显示框架,而对于孩子,以黄色显示框架。另一方面,脸部框架的外框以根据人所属群组的颜色来显示。下面将详细描述群组属性。剪切出的脸部图像的大小和形状不限于上述示例,而是可以根据画面的大小和形状、人属性信息等而适当地改变。
例如,如图8B的上面的视图所示,假设男性M和女性F靠近显示部件130。此时,当从图像摄取部件120所摄得的图像中检测到他们的脸部时,如图8B的下面的视图所示,男性M和女性F的脸部图像310a、310b被剪切出,并且剪切出的图像显示在他们头部附近。然后,男性M的脸部图像310a的内框312a例如以黑色显示,并且女性F的脸部图像310b的内框以白色来显示。这里,由于尚未确定他们的群组属性,因此,未显示外框。这些脸部图像310a和310b显示在人物层134上。
此外,在每个脸部图像的下侧,显示了项目集合(item set)(下面将描述)。因此,脸部图像被显示在画面上部约三分之一的区域内。项目集合的显示位置不限于脸部图像的下侧,而是,项目集合还可以显示在脸部图像的上侧或脸部图像附近。在这些情况中,优选地,项目集合以对象可以容易地操作以选择项目的方式而被显示。此外,对于脸部图像的大小,可以设定其最大大小和最小大小,以防止脸部图像太大或太小。脸部图像的大小可以根据距离适当地改变,以使得对象可以在视觉上容易地识别出脸部图像。
然后,判断对象与显示部件130之间的距离是否等于或小于第一距离(S108)。即,在S108中,判断对象是否靠近显示部件130。可以利用对由图像摄取部件120摄得的图像的分析结果或位置检测部件212来检测对象与显示部件130之间的距离。在此示例性实施例中,当距离可能不由位置检测部件212来检测时,在脸部检测中检测到的脸部的大小用来获取距离的近似值,并且将此近似值用于简单的处理。然后,对于脸部大小,可以用相同阈值来确定距离,而不管对象的年龄如何,然而,如果将取决于年龄的脸部大小考虑在内,则可以提高距离计算的准确度。此外,为了获得更准确的距离,可由多个图像摄取部件来测量离对象的距离。
当对象与显示部件130之间的距离大于第一距离时,如图8B所示的图像显示在显示部件130上。另一方面,当对象与显示部件130之间的距离等于或小于第一距离时,项目集合显示在显示部件130上(S110)。当对象靠近显示部件130时,则根据对象的人属性信息来显示项目集合以引起对象的兴趣。项目集合包含推荐给每个个体或群组的多个项目的图像。例如,假设项目是音乐。然后,如图8C所示,项目集合320a和320b显示在男性M和女性F的脸部图像310a和310b的各自的下侧。项目集合320a包含推荐给男性M的音乐的CD封套,而项目集合320b包含推荐给女性F的音乐的CD封套。
项目集合320a和320b的项目可以显示为根据各个脸部图像310a和310b的位置而摆动(oscillating)。由于项目显示为在预定区域内可活动地移动,因此,可以表现出每个项目的浮动状态。项目集合的这种显示方法可以更多地引起对象的兴趣。此外,一个框架可以显示在一个项目集合的周围,就像脸部图像310a和310b的框架那样。在此情况中,如果以与脸部框架相同的颜色来显示框架,则能够容易地知道所显示的项目是推荐给哪个对象的。
接下来,如图5B所示,判断对象与显示部件130之间的距离是否等于或小于第二距离(S112)。第二距离短于第一距离,并且对象需要更靠近显示部件130以便与显示部件130接触。此距离是可识别显示在显示部件130上的信息的距离。图8C所示的图像显示在显示部件130上,直到对象与显示部件130之间的距离变得等于或小于第二距离为止。
另一方面,当对象与显示部件130之间的距离等于或小于第二距离时,群组确定部件242执行群组属性确定处理(S114)。群组属性确定处理例如可通过图7所示的方法来执行。
[群组属性确定处理]
在图7所示的群组属性确定处理中,对象被分类为三组,即情侣、家庭和其它,以及一个作为判断他们是否为情侣的一种中间状态的情侣判定组。在该群组属性确定处理中,首先判断是否检测到了一个男性和一个女性的脸部并且未检测到孩子(S210)。在S210中,当判定检测到一个男性和一个女性的脸部并且未检测到孩子时,则判断男性与女性之间的距离(S220)。当男性与女性之间的距离等于或小于预定距离时,他们被判定为“情侣”(S230)。另一方面,当男性与女性之间的距离大于预定距离时,他们被判定为属于“情侣判定”组(S240)。
当可能需要时,可以根据男性与女性之间的距离来进行“情侣”状态与“情侣判定”状态之间的转变。即,当男性与女性之间的距离从“情侣判定”状态变得更短时,则他们被确定为“情侣”。另一方面,当男性与女性之间的距离与“情侣”状态相比变得成长时,则他们被确定为属于“情侣判定”状态。顺便提及,S220的判断处理不仅可以基于男性与女性之间的距离来进行,而且可以基于可从脸部信息获得的人的微笑程度来进行。例如,当男性与女性之间的距离等于或小于预定距离并且他们的微笑程度等于或大于预定值时,则该男性与女性可被确定为情侣。
返回图7的流程图,当在S210中确定的状态不是检测到男性与女性的脸部并且未检测到孩子时,则判断是否检测到一个或多个男性或女性的脸部并且是否存在任何孩子(S250)。在S250中,判断他们是否是包括至少一个成人(男性或女性)和至少一个孩子的群组。当在S250中判定检测到至少一个成人的脸部并且存在至少一个孩子时,群组确定部件242判定他们是“家庭”(S260)。另一方面,当在S250中确定的状态不是检测到至少一个成人的脸部并且存在至少一个孩子时,群组确定部件242判定他们属于“其它群组”(S270)。其它群组例如包括朋友群组。
返回图5B,当在S114中确定了群组属性时,则根据群组属性显示项目集合(S116)。例如,当在S114中他们被确定为“情侣”时,则显示包含推荐给情侣的项目的项目集合,而当他们被确定为“家庭”时,则显示包含推荐给家庭的项目的项目集合。这里,对于显示在显示部件130上的项目集合,可以使基于群组属性的项目集合优先于基于个人属性信息的项目集合。
例如,检测到一个男性和一个女性的脸部并且不存在孩子的状态被确定为“情侣”状态,并且如图8D的下面的视图所示,显示出包含推荐给情侣的项目的项目集合320c。此时,可以显示将属于同一群组的人的脸部图像围起来的群组框架330。该群组框架330对应于上述脸部框架的外框。与脸部框架类似,群组框架330可以根据群组属性改变颜色,以便清晰地示出对象所属的群组。
另外,当检测到一个男性和一个女性的脸部时,“情侣”状态中的群组框架330分别将男性和女性的脸部框架310a和310b围起来。另一方面,在“情侣判定”状态中,可以以将他们绘制为彼此相对的形状来显示男性和女性的脸部框架310a和310b的外框。然后,当男性和女性从“情侣判定”状态中靠近彼此并且他们被确定为“情侣”状态时,可以以将他们粘在一起的形状来显示男性和女性的脸部框架310a和310b的外框。
然后,判断对象与显示部件130之间的距离是否等于或小于第三距离(S118)。这里,第三距离可以是对象可与显示部件130接触的距离。当对象与显示部件130之间的距离大于第三距离时,如图8D所示的图像显示在显示部件130中。另一方面,当对象与显示部件130之间的距离等于或小于第三距离时,对项目集合的操作停止(S120)。组成项目集合的项目根据脸部图像不断地移动,如上所述。当对象试图操作它时,项目操作被停止以使得对象可以容易地进行操作。当项目正在移动时,如图8C所示,它们显示为彼此重叠,而当项目操作被停止以进入操作状态时,如图8E所示,项目可以显示为减少重叠项目。通过这种显示,可以更清晰地显示项目,并且对象可以容易地选择项目。
此时,可以放大与对象最接近的项目的图像,以使得可以显示出该项目的说明(S122)。通过这种显示,对象可以容易地选择该项目。
例如,如图8E的上面的视图所示,假设男性M使他的手指接近显示部件130。则,显示处理部件260停止项目移动。位置检测部件212检测男性的手指的位置,并且放大显示与手指的位置340相对应的项目322c。然后,作为项目322c的说明,可由回放处理部件270回放与项目322c相对应的曲子的诱人歌词(hook-line)。以这种方式,由于关于项目的信息提供给了对象,因此可以辅助项目选择。
接下来,判断对象是否与显示部件130接触(S124)。这里,对象实际上接触的是设置在显示部件130前面的操作器140,然而,在下面的描述中,假设当检测到与操作器140的接触时,对象与显示部件130接触。当在S124中判定对象未与显示部件130接触时,则重复该处理。另一方面,当判定对象与显示部件130接触时,则改变背景层132的画面,并且显示对象所接触的项目的详细信息(S126)。
例如,如图8F的上面的视图所示的,假设男性M使手指与显示部件130接触。此时,显示处理部件260将与男性M所接触的位置340相对应的项目324c的放大图像350显示在项目层138上,并且将项目324c的说明显示在说明区域352上。因此,可以将与项目有关的更详细的信息提供给对象。
此外,判断对象是否脱离了与显示部件130的接触(S 128)。当在S124的操作序列中来看该操作时,在S128中判断对象是否敲击了显示在显示部件130上的项目。当在S128中判定对象持续与显示部件130接触时,则重复处理。另一方面,在S128中判定对象脱离了显示部件130的接触时,则模式切换部件290将处理模式从操作模式302切换到海报模式304(S130)。
在S130,当对象与显示部件130接触并且离开它时,判定选择了一个项目。即,基于对象的操作执行从操作模式302到海报模式304的切换。当处理模式从操作模式302切换到海报模式304后,显示处理部件260进行操作以不显示背景层132的图像。然后,回放处理部件270从开始起回放所选项目的曲子(S132)。
如上所述,由于模式从操作模式302切换到海报模式304,因此,例如如图8G的下面的视图所示,由图像摄取部件120摄得的当前图像变得不显示。然后,在显示部件130上,显示人物层135的脸部图像310a和310b、项目层138的项目的放大图像350以及说明区域352。然后,所选项目的曲子从开始起被播放。
然后,判断是否满足海报模式304的终止条件(S134)。海报模式304的终止条件例如是对象与显示部件130接触、完成对项目的曲子的回放、转换到海报模式304后经过了预定时间,等等。终止条件可以是单个条件或多个条件。当设置了多个终止条件时,例如,可以在满足了终止条件中的任一条件的状况下来终止海报模式304。当满足了海报模式304的终止条件时,重复这种处理。然后,当在S134中判定满足了海报模式304的终止条件时,模式从海报模式304改变为操作模式302(S136)。
当在S136中将模式切换到操作模式302后,可以根据显示部件130与对象之间的距离来确定下面的处理。换言之,当显示部件130与对象之间的距离等于或小于第二距离时,过程返回到S114以进行下面处理(S138)。当显示部件130与对象之间的距离等于或小于第一距离时,过程返回到S110以进行下面处理(S140)。然后,当在S140中判定对象与显示部件130之间的距离大于第一距离时,过程返回S102并且仅显示背景层132的图像,直到检测到另一人的脸部为止。例如,如图8H所示,当对象远离显示部件130时,处理状态变得与图8A所示的状态相同,并且在显示部件130上仅显示由图像摄取部件120摄得的当前图像。
[根据本示例性实施例的内容提供处理的效果]
如上所述,已描述了根据本示例性实施例的内容提供处理的示例。在根据本示例性实施例的内容提供处理中,由图像摄取部件120获得的对象的脸部信息用来使对象进行分组。此外,位置检测部件212获取显示部件130与对象之间的位置关系。然后,将对象属性信息、群组信息和位置信息用作基础,来根据状态并且在好的定时下向对象提供内容。
换言之,通过根据对象的脸部信息来对对象进行分组可以较好地理解对象的属性,从而能够向对象提供适当内容。此外,关于显示部件130与对象之间的位置关系,识别出了三种状态,即,对象离显示部件130足够远的第一状态、对象接近显示部件130以使得对象可以操作操作器140的第三状态,以及位于第一和第三状态之间的第二状态。通过识别这三种状态,内容显示样式被改变。内容显示样式包括所提供的内容本身、所提供的内容信息的量、信息的显示方式等。
在显示部件130与对象之间的距离大于第一距离的第一状态中,在显示部件130上仅显示由图像摄取部件120摄得的图像或者当脸部被检测到时的脸部图像。当显示部件130与对象之间的距离变得等于或小于第一距离时,与对象的人的属性相对应的项目集合显示在显示部件130上。然后,当显示部件130与对象之间的距离等于或小于第二距离时,执行群组属性确定处理并且将与群组属性相对应的项目集合显示在显示部件130上。当显示部件130与对象之间的距离等于或小于第一距离并且大于第三距离时,为显示内容的第二状态。此外,当显示部件130与对象之间的距离等于或小于第三距离时,为第三状态,在第三状态中,显示为摆动的项目停止它们的移动并且显示被改变,以使得对象可以容易地选择项目。
简言之,根据显示部件130与对象之间的位置关系提供了三种状态,即,用于显示由图像摄取部件120摄得的背景图像或者对象的脸部图像的第一状态、用于显示将要提供给对象的项目集合的第二状态以及供对象选择项目的第三状态。以这种方式,由于根据对象与显示部件130之间的距离、对象之间的距离、脸部表情等来交互式地改变内容,因此,能够引起每个对象的兴趣。
此外,这种内容提供方法的使用使得能够告知对象信息处理装置100识别出了该对象。此外,由于图像摄取部件120用来摄取对象的图像,因此,可以预期到将注意力集中到标牌上的效果。以这种方式,能够有效地向对象提供内容。
[基于微笑程度的项目显示]
在如上所述根据本示例性实施例的内容提供处理的一个示例中,如图8C和8D所示,取决于对象与显示部件130之间的距离来显示或不显示项目集合。在项目集合的这种显示中,还可以考虑到其它信息来改变包含在项目集合中的项数。
例如,如图9所示,可以使用对象的微笑程度。项目集合320包含多个项322、324...。顺便提及,项目集合320的显示位置可以如上述示例的情况中那样在对象的脸部图像之下,或者如图9所示在脸部图像之上。当图像摄取部件120检测到对象脸部时,属性获取部件240获取对象的微笑程度作为属性信息。然后,内容确定部件250根据所获得的对象的微笑程度来改变包含在项目集合320中的项目322、324...的数目。
例如,当表示微笑程度的值为小时,项目集合320的项目322、324...的数目减少,而随着微笑程度的值变大,项目集合320的项目322、324...的数目增大。以这种方式,由于将要显示的项目322、324...的数目随着微笑程度改变,因此,能够引起对象对内容或装置的更多兴趣。
[内容提供处理的扩展]
在根据本示例性实施例的图像处理装置100的内容提供处理中,将音乐用作项目。然而,这不意图限制本发明,并且内容提供处理还可以用于提供任何其它项目。例如,项目可以是将推荐给个体或群组的项目,例如时装、书籍、饭店、娱乐场所等。如在上述示例中,所推荐的项目是基于可从脸部检测部件232获得的脸部信息来确定的,然而这种处理不意欲限制本发明。例如,对于对象的服装,可以将颜色直方图分布等用来获得服装潮流,并且可以基于该服装潮流来确定所推荐的项。此外,可获得作为脸部信息的种族信息可以优先用来向外国人推荐外国音乐。
此外,在根据本示例性实施例的信息处理装置100中,能够从由图像摄取部件120摄得的图像中确定对象的属性信息以及群组属性信息,并且识别出对象利用操作器140选择的内容。就此而言,对于人的属性以及他们希望观看或收听的内容类型,操作记录可以被累积起来并且影响将推荐给对象的内容。此外,通过经由网络将操作记录发送给服务器,可以收集每种属性或群组的内容的优先信息。当从实际上所提供的图像摄取部件120或显示部件130获得这种信息时,可以基于时间、日期或区域来分析信息。此外,当由图像摄取部件120所摄得的图像用来能够识别出脸部时,可以对未接近显示部件130的人、未表现出兴趣的人的类型进行分析。
本领域的技术人员应当明白,可以根据设计要求和其它因素进行各种修改、组合、子组合和变更,只要它们在所附权利要求或其等同物的范围之内。
例如,在上述示例性实施例中,群组框架是以包括属于同一群组的对象的脸部框架的方式来显示的;然而,这不意图限制本发明。例如,属于同一群组的对象的脸部框架可以显示为通过线条等彼此链接在一起。这使得能够更清晰地显示属于同一群组的对象。
例如,在上述示例性实施例中,当在S126中对象与显示部件130接触时,背景画面改变,并且当在S128中撤销接触状态时,从开始起回放音乐。然而,这不意图限制本发明。例如,可以在对象将他的/她的手放在显示部件130之上时改变将要播放的音乐或者背景画面。
本申请包含与2009年2月13日向日本专利局提交的日本优先专利申请JP 2009-032027中公开的主题有关的主题,该申请的全部内容通过引用结合于此。
Claims (9)
1.一种信息处理装置,包括:
图像摄取部件,该图像摄取部件摄取图像;
显示部件,该显示部件显示所述图像;
位置检测部件,该位置检测部件检测对象相对于所述显示部件的位置;
脸部检测部件,该脸部检测部件从由所述图像摄取部件摄得的图像中检测脸部;
属性获取部件,该属性获取部件基于由所述脸部检测部件检测到的检测结果来获取对象的属性信息;
群组确定部件,该群组确定部件至少基于由所述脸部检测部件检测到的对象的属性信息来确定对象所属的群组;
内容确定部件,该内容确定部件基于表示对象所属群组的群组信息以及对象的属性信息中的至少一个,来确定将要提供给对象的一个或多个内容;以及
显示处理部件,该显示处理部件以根据对象位置的显示样式来将要提供给对象的内容的内容信息显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于第一距离时,所述显示处理部件基于被识别出脸部的对象的属性信息来将包含多条内容信息的项目集合显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于第二距离并且所述第二距离小于所述第一距离时,所述群组确定部件确定被识别出脸部的对象的群组,并且所述内容确定部件基于群组信息来确定要提供给对象的内容,
其中,当对象与所述显示部件之间的距离等于或小于第三距离并且所述第三距离小于所述第二距离时,所述显示处理部件以对象可以操作内容信息的方式来将内容信息显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于所述第一距离并且大于所述第三距离时,所述显示处理部件以所述内容信息移动着的方式将所述内容信息显示在所述显示部件上,
并且其中,当对象与所述显示部件之间的距离等于或小于所述第三距离时,所述显示处理部件以停止移动的方式显示所述内容信息。
2.根据权利要求1所述的信息处理装置,其中,所述显示处理部件剪切出由所述脸部检测部件检测到的脸部的脸部图像,并且将所述脸部图像显示在所述显示部件上。
3.根据权利要求2所述的信息处理装置,其中,所述显示处理部件在所述脸部图像周围显示脸部框架,并且所述脸部框架示出对象的属性信息以及群组信息中的至少一种。
4.根据权利要求2所述的信息处理装置,其中,所述显示处理部件在脸部图像的预定最大大小与最小大小之间的区域中将剪切出的脸部图像放大显示。
5.根据权利要求2所述的信息处理装置,其中,所述显示处理部件将所述脸部图像显示在所述显示部件的上面部分,并且将所述内容信息显示在所述显示部件的下面部分。
6.根据权利要求1所述的信息处理装置,其中,所述群组确定部件基于从所述脸部检测部件检测到的对象的属性信息中获得的对象的性别和年龄类别以及当对象包括多个对象时检测到的对象的数目,来确定对象所属的群组。
7.根据权利要求6所述的信息处理装置,其中,所述群组确定部件基于由所述位置检测部件检测到的对象之间的距离来确定对象所属的群组。
8.根据权利要求1所述的信息处理装置,还包括:
模式切换部件,该模式切换部件在第一模式与第二模式之间切换,所述第一模式呈现一条或多条内容信息,所述第二模式呈现与从所呈现内容信息中选出的一条内容信息相对应的内容,
所述模式切换部件根据由所述位置检测部件检测到的对象的位置信息确定对象的操作,以从所述第一模式切换到所述第二模式,
并且所述模式切换部件基于所述第二模式的预设终止条件从所述第二模式切换到所述第一模式。
9.一种信息处理方法,包括以下步骤:
摄取图像;
将所述图像显示在显示部件上;
由位置检测部件检测对象相对于所述显示部件的位置;
从所摄得的图像中检测脸部;
基于检测到的脸部的信息获取对象的属性信息;
至少基于被检测到脸部的对象的属性信息来确定对象所属的群组;
基于指示对象所属群组的群组信息以及对象的属性信息中的至少一个来确定要提供给对象的内容;以及
以根据对象位置的显示样式来将要提供给对象的内容的内容信息显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于第一距离时,基于被识别出脸部的对象的属性信息来将包含多条内容信息的项目集合显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于第二距离并且所述第二距离小于所述第一距离时,确定被识别出脸部的对象的群组,并且基于群组信息来确定要提供给对象的内容,
其中,当对象与所述显示部件之间的距离等于或小于第三距离并且所述第三距离小于所述第二距离时,以对象可以操作内容信息的方式来将内容信息显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于所述第一距离并且大于所述第三距离时,以所述内容信息移动着的方式将所述内容信息显示在所述显示部件上,
其中,当对象与所述显示部件之间的距离等于或小于所述第三距离时,以停止移动的方式显示所述内容信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-032027 | 2009-02-13 | ||
JP2009032027A JP5347549B2 (ja) | 2009-02-13 | 2009-02-13 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101807370A CN101807370A (zh) | 2010-08-18 |
CN101807370B true CN101807370B (zh) | 2013-07-10 |
Family
ID=42164204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101122385A Expired - Fee Related CN101807370B (zh) | 2009-02-13 | 2010-02-08 | 信息处理装置和信息处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8659649B2 (zh) |
EP (1) | EP2219134A3 (zh) |
JP (1) | JP5347549B2 (zh) |
CN (1) | CN101807370B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5764869B2 (ja) * | 2010-03-31 | 2015-08-19 | 富士通株式会社 | 広告装置、広告方法および広告出力プログラム |
JP2012103746A (ja) * | 2010-11-05 | 2012-05-31 | Avix Inc | 見る人の関心を惹きつける表示制御の方法、デジタルサイネージシステム、コンピュータープログラム |
JP5807399B2 (ja) * | 2011-06-13 | 2015-11-10 | ソニー株式会社 | 情報処理装置及びプログラム |
JP2013050883A (ja) | 2011-08-31 | 2013-03-14 | Nintendo Co Ltd | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 |
US20130155308A1 (en) * | 2011-12-20 | 2013-06-20 | Qualcomm Incorporated | Method and apparatus to enhance details in an image |
US20130195322A1 (en) * | 2012-01-27 | 2013-08-01 | Soma Sundaram Santhiveeran | Selection of targeted content based on content criteria and a profile of users of a display |
JP6031258B2 (ja) * | 2012-05-23 | 2016-11-24 | シャープ株式会社 | 表示装置 |
JP2014132408A (ja) * | 2013-01-07 | 2014-07-17 | Toshiba Tec Corp | 電子メニュー装置及び電子メニュープログラム |
WO2014138352A1 (en) | 2013-03-06 | 2014-09-12 | Zito Arthur J Jr | Multi-media presentation system |
US20150020086A1 (en) * | 2013-07-11 | 2015-01-15 | Samsung Electronics Co., Ltd. | Systems and methods for obtaining user feedback to media content |
JP6021089B2 (ja) * | 2014-03-25 | 2016-11-02 | パナソニックIpマネジメント株式会社 | 情報表示システム及び情報表示方法 |
JP2015216518A (ja) * | 2014-05-12 | 2015-12-03 | 富士通株式会社 | 情報処理方法、プログラム及び情報処理装置 |
WO2017047584A1 (ja) | 2015-09-18 | 2017-03-23 | 株式会社 東芝 | 街頭情報処理システム、街頭情報処理システムに適用されるクライアントおよびサーバ、ならびにこれらの方法およびプログラム |
US20170092150A1 (en) * | 2015-09-30 | 2017-03-30 | Sultan Hamadi Aljahdali | System and method for intelligently interacting with users by identifying their gender and age details |
JP6028188B1 (ja) * | 2015-12-15 | 2016-11-16 | 一般社団法人日本ファッションスタイリスト協会 | 情報提供装置及び情報提供方法 |
CN108228122B (zh) * | 2016-12-22 | 2020-12-25 | 华为技术有限公司 | 一种表盘呈现的方法、装置和智能手表 |
JP6573936B2 (ja) * | 2017-06-02 | 2019-09-11 | チームラボ株式会社 | 位置測定用の端末装置,コンピュータプログラム,及びシステム |
CN111652197B (zh) * | 2018-02-08 | 2023-04-18 | 创新先进技术有限公司 | 入离场状态检测方法和装置 |
EP3660728A1 (en) * | 2018-11-30 | 2020-06-03 | Essilor International (Compagnie Generale D'optique) | A server, method, and computer-readable storage medium for selecting eyewear equipment |
JP7328011B2 (ja) * | 2019-06-03 | 2023-08-16 | Jx金属株式会社 | 電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法 |
JP7328012B2 (ja) * | 2019-06-03 | 2023-08-16 | Jx金属株式会社 | 電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法 |
JP7113045B2 (ja) * | 2020-06-10 | 2022-08-04 | パラマウントベッド株式会社 | 表示制御装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2007080057A (ja) * | 2005-09-15 | 2007-03-29 | Kddi Corp | 顔による属性判定娯楽装置 |
CN101102489A (zh) * | 2006-07-04 | 2008-01-09 | 索尼株式会社 | 信息处理装置和方法、及程序 |
JP2008282089A (ja) * | 2007-05-08 | 2008-11-20 | Omron Corp | 人物属性推定装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6288704B1 (en) * | 1999-06-08 | 2001-09-11 | Vega, Vista, Inc. | Motion detection and tracking system to control navigation and display of object viewers |
JP2001134225A (ja) * | 1999-08-26 | 2001-05-18 | Toppan Printing Co Ltd | 広告提供装置及び広告提供装置用の記憶媒体、展示具、表示パネル、表示ケース |
US20020046100A1 (en) * | 2000-04-18 | 2002-04-18 | Naoto Kinjo | Image display method |
US20030032890A1 (en) * | 2001-07-12 | 2003-02-13 | Hazlett Richard L. | Continuous emotional response analysis with facial EMG |
US7113916B1 (en) * | 2001-09-07 | 2006-09-26 | Hill Daniel A | Method of facial coding monitoring for the purpose of gauging the impact and appeal of commercially-related stimuli |
EP2204118B1 (en) * | 2002-10-15 | 2014-07-23 | Volvo Technology Corporation | Method for interpreting a drivers head and eye activity |
JP2004227158A (ja) * | 2003-01-21 | 2004-08-12 | Omron Corp | 情報提供装置および情報提供方法 |
EP1566788A3 (en) * | 2004-01-23 | 2017-11-22 | Sony United Kingdom Limited | Display |
JP2006053646A (ja) * | 2004-08-10 | 2006-02-23 | Nec Corp | 店舗案内情報提供システム,方法,店舗情報提供サーバおよびプログラム |
US8218080B2 (en) * | 2005-12-05 | 2012-07-10 | Samsung Electronics Co., Ltd. | Personal settings, parental control, and energy saving control of television with digital video camera |
JP4966778B2 (ja) | 2007-07-26 | 2012-07-04 | シャープ株式会社 | 表示装置 |
US8401248B1 (en) * | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
-
2009
- 2009-02-13 JP JP2009032027A patent/JP5347549B2/ja not_active Expired - Fee Related
- 2009-12-24 EP EP09252904.9A patent/EP2219134A3/en not_active Ceased
-
2010
- 2010-02-02 US US12/698,884 patent/US8659649B2/en active Active
- 2010-02-08 CN CN2010101122385A patent/CN101807370B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2007080057A (ja) * | 2005-09-15 | 2007-03-29 | Kddi Corp | 顔による属性判定娯楽装置 |
CN101102489A (zh) * | 2006-07-04 | 2008-01-09 | 索尼株式会社 | 信息处理装置和方法、及程序 |
JP2008282089A (ja) * | 2007-05-08 | 2008-11-20 | Omron Corp | 人物属性推定装置 |
Also Published As
Publication number | Publication date |
---|---|
US20100208051A1 (en) | 2010-08-19 |
CN101807370A (zh) | 2010-08-18 |
EP2219134A3 (en) | 2014-07-23 |
EP2219134A2 (en) | 2010-08-18 |
US8659649B2 (en) | 2014-02-25 |
JP5347549B2 (ja) | 2013-11-20 |
JP2010191487A (ja) | 2010-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101807370B (zh) | 信息处理装置和信息处理方法 | |
US11599148B2 (en) | Keyboard with touch sensors dedicated for virtual keys | |
CN104081319B (zh) | 信息处理设备和信息处理方法 | |
JP5869558B2 (ja) | 表示制御装置、集積回路、表示制御方法およびプログラム | |
CN104636413A (zh) | 视频搜索系统和方法 | |
KR102707660B1 (ko) | 인터렉티브 방법, 장치, 디바이스 및 기록 매체 | |
CN108022543B (zh) | 一种广告自主演示方法、系统和广告机及应用 | |
CN101727938B (zh) | 信息处理装置、信息处理方法 | |
CN102436626A (zh) | 计算交互式广告会话的逐个交互的费用 | |
CN101833391A (zh) | 信息处理设备、信息处理方法及程序 | |
US20150215674A1 (en) | Interactive streaming video | |
CN103221968A (zh) | 信息通知系统、信息通知方法、信息处理设备及其控制方法和控制程序 | |
KR20180024200A (ko) | 영상 검색 정보 제공 방법, 장치 및 컴퓨터 프로그램 | |
JP2002344946A (ja) | 監視装置 | |
CN111158573B (zh) | 基于图片构架的车机交互方法、系统、介质及设备 | |
CN104516650A (zh) | 一种信息处理方法及电子设备 | |
JP6476678B2 (ja) | 情報処理装置及び情報処理プログラム | |
KR102605355B1 (ko) | 이미지 기반 정보 제공 방법 및 장치 | |
CN103309565A (zh) | 对象显示方法及装置 | |
CN111222596A (zh) | 衣物管理方法、装置、衣柜 | |
CN103984593A (zh) | 一种移动终端游戏时中断处理方法及装置 | |
KR101871925B1 (ko) | 영상 검색 정보 제공 방법, 장치 및 컴퓨터 프로그램 | |
JP7495380B2 (ja) | 情報処理装置、プログラム及び関係図生成方法 | |
CN115086774B (zh) | 资源显示方法、装置、电子设备及存储介质 | |
KR102557178B1 (ko) | 동영상 컨텐츠 융합형 상품 검색 서비스 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130710 Termination date: 20150208 |
|
EXPY | Termination of patent right or utility model |