CN103200359A - 信息处理设备、信息处理方法和程序 - Google Patents
信息处理设备、信息处理方法和程序 Download PDFInfo
- Publication number
- CN103200359A CN103200359A CN201210422995.1A CN201210422995A CN103200359A CN 103200359 A CN103200359 A CN 103200359A CN 201210422995 A CN201210422995 A CN 201210422995A CN 103200359 A CN103200359 A CN 103200359A
- Authority
- CN
- China
- Prior art keywords
- comment
- subject
- image
- parts
- subject image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了信息处理设备,信息处理方法和程序。提供一种信息处理设备,包括图像获取部件,所述图像获取部件获得通过拍摄被摄对象的图像而获得的被摄对象图像;图像分析部件,所述图像分析部件分析利用图像获取部件获得的被摄对象图像中的被摄对象的摄像状态;和评论决定部件,所述评论决定部件关于摄像状态,根据图像分析部件的分析结果,决定添加到被摄对象图像中的显示在显示屏上的评论。
Description
技术领域
本公开涉及信息处理设备,信息处理方法和程序。
背景技术
近年来,摄像设备被多功能化,例如,存在一种以缩略图图像的形式,排列和显示利用摄像设备拍摄的许多摄影图像的技术。在这种技术中,多个缩略图图像被显示成矩阵形状。
此外,在日本专利申请公报2011-013384(下面称为专利文献1)中说明了一种不仅用于显示摄影图像,而且用于舞台监督(stage-managing),以允许感知摄影图像中的人物的感情等的技术。专利文献1描述了能够以与图像数据中的人物的表情对应的速度和音量,自动输出语音评论数据的图像处理设备。
发明内容
顺便提及,一些摄像设备自动拍摄被摄对象的图像,并把所述图像显示在显示屏上。在这种情况下,被摄对象的摄像状态毫无变化会产生其中在显示屏上显示图像的相似构图,从而导致难以进行合适的构图。
理想的是提出一种当拍摄被摄对象的图像,并把所述图像显示在显示屏上时,能够优化构图的方法。
按照本公开的实施例,提供一种信息处理设备,包括图像获取部件,所述图像获取部件获得通过拍摄被摄对象的图像而获得的被摄对象图像,图像分析部件,所述图像分析部件分析利用图像获取部件获得的被摄对象图像中的被摄对象的摄像状态,和评论决定部件,所述评论决定部件关于摄像状态,根据图像分析部件的分析结果,决定添 加到被摄对象图像中并显示在显示屏上的评论。
此外,按照本公开的实施例,提供一种信息处理方法,包括获得通过拍摄被摄对象的图像而获得的被摄对象图像,分析获得的被摄对象图像中的被摄对象的摄像状态,和关于摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
此外,按照本公开的实施例,提供一种使计算机执行以下步骤的程序:获得通过拍摄被摄对象的图像而获得的被摄对象图像,分析获得的被摄对象图像中的被摄对象的摄像状态,和关于摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
另外,按照本公开,分析获得的被摄对象图像中的被摄对象的摄像状态,并关于摄像状态,决定基于分析结果添加到被摄对象图像中并显示在显示屏上的评论。从而,被摄对象看到显示在显示屏上的评论,然后改变摄像状态。这样,由于被摄对象的构图将被改变(在所述构图中,将拍摄图像,之后显示拍摄的图像),因此能够优化构图。
如上所述,按照本公开,当拍摄被摄对象的图像,并把所述图像显示在显示屏上时,能够优化构图,从而更容易获得更好的构图。
附图说明
图1是图解说明按照一个实施例的图像显示系统的概略结构的示图;
图2是图解说明按照一个实施例的图像显示系统的结构的方框图;
图3是图解说明按照一个实施例的图像显示系统的结构的变形的方框图;
图4是图解说明按照一个实施例的摄像设备的详细结构的方框图;
图5是图解说明按照一个实施例的显示设备的详细结构的方框图;
图6是概念地图解说明其中排列被摄对象图像的虚拟三维空间的 示图;
图7是在显示屏上,以二维图像的形式显示其中排列被摄对象图像的虚拟三维空间的例子的示图;
图8是图解说明被附加评论的被摄对象图像的显示例子的示图;
图9是图解说明显示控制设备的功能结构的方框图;
图10是说明被附加评论的被摄对象图像的示图;
图11是说明评论的内容的示图;
图12是图解说明评论决定部件的评论决定处理的流程的示意图;
图13是说明基于笑脸分数和世代(Generation)的评论例子的示图;
图14是说明基于面部朝向的评论例子的示图;
图15是说明基于人物之间的位置关系的评论例子的示图;
图16是图解说明从拍摄被摄对象图像到把所述被摄对象图像排列在虚拟三维空间中为止的时段的示意图;
图17是图解说明用户的年龄段与注意时段和反应的关系的表格;
图18是图解说明用户的年龄段与评论阅读时段的关系的表格;
图19是图解说明与被摄对象相应的评论显示处理的流程图;
图20是图解说明第一评论决定处理的流程图;
图21是图解说明评论决定对象的被摄对象的面部的示意图;
图22是图解说明基于笑脸和世代的评论决定处理的流程图;
图23是说明面部信息FacialInfo的示意图;
图24是图解说明评论数据库的表格;
图25是图解说明基于面部朝向的评论决定处理的流程图;
图26是图解说明评论数据库的表格;
图27是图解说明基于面部位置的评论决定处理的流程图;
图28是说明面部编号的提取的示意图;
图29是说明附有评论的被摄对象的识别处理的流程图;
图30是说明CommentHolder[faceldx]的示意图。
具体实施方式
下面参考附图,详细说明本公开的优选实施例。注意在说明书和附图中,功能和结构基本相同的构成元件用相同的附图标记表示,这些构成元件的重复说明被省略。
这里,将按照以下顺序进行说明。
1.图像显示系统的结构
2.摄像设备的结构
3.显示设备的结构
4.显示控制设备的结构
4-1.评论决定处理
4-2.评论显示时间的获取处理
5.图像显示系统在处理评论显示时的操作
5-1.第一评论决定处理
5-1-1.基于笑脸和世代的评论决定处理
5-1-2.基于面部朝向的评论决定处理
5-2.基于面部位置的评论决定处理
5-3.附加评论的被摄对象的识别处理
6.结论
<1.图像显示系统的结构>
下面参考图1和图2,说明按照本公开的一个实施例的图像显示系统10的结构。图1是图解说明按照一个实施例的图像显示系统10的概略结构的示图。图2是图解说明按照一个实施例的图像显示系统10的结构的方框图。
图像显示系统10在虚拟三维空间中排列拍摄的被摄对象图像,并把其中排列被摄对象图像的虚拟三维空间显示成二维图像。如图1和图2中图解所示,图像显示系统10包括摄像设备20、旋转云台(camera platform)30、显示设备40和大屏幕显示设备50。
摄像设备20例如是数字静态照相机,拍摄被摄对象的图像。摄 像设备20还可拍摄作为宽范围图像的一个例子的全景图像。摄像设备20能够实现其中在诸如聚会之类集会的时候,通过自动进行旋转(摇移)、角度调整(俯仰)和推拉,检测被摄对象的面部,并自动拍摄被摄对象的图像的功能(聚会摄影功能)。摄像设备20把拍摄的图像保存在存储器中。
旋转云台30是在摄像设备20位于其上的状态下,可旋转360°的云台。旋转云台30具有自动跟踪摇移、俯仰和推拉各个动作以及被摄对象的面部的功能。通过把放置的摄像设备20连接到旋转云台30,实现上述聚会摄影功能。另外,在旋转云台30中,可以设置用于拍摄全景图像的操作部分。
摄像设备20可通过无线网络等,与显示设备40通信。然后,摄像设备20把利用聚会摄影功能自动拍摄的被摄对象图像(保存在存储器中的被摄对象图像)传送给显示设备40。此时,除被摄对象图像之外,摄像设备20还传送诸如在拍摄被摄对象图像时,旋转云台30的旋转角之类的信息。另外,摄像设备20的详细结构在后面说明。
显示设备40把各种图像显示在显示屏幕上,把从摄像设备20接收的被摄对象图像(利用聚会摄影功能自动拍摄的被摄对象图像)排列在虚拟三维空间中,并把其中排列被摄对象图像的虚拟三维空间显示成二维图像。显示设备40把虚拟三维空间显示在显示设备40的显示屏上,或者显示在与显示设备40相连的大屏幕显示设备50上。另外,虚拟三维空间的细节在后面说明。
大屏幕显示设备50连接到显示设备40,在大屏幕显示设备50和显示设备40之间交换数据。大屏幕显示设备50把其中排列利用摄像设备20自动拍摄的被摄对象图像的虚拟三维空间显示在其显示屏上。
另外,在上面的说明中,摄像设备20被假定是数字静态照相机,不过并不局限于此。摄像设备20只需要具有拍摄被摄对象的图像的功能,例如可以是移动电话机、智能电话机、PDA(个人数字助手)、便携式AV播放器、电子书、电子辞典等。
此外,在上面的说明中,显示设备40被认为从摄像设备20接收排列在虚拟三维空间中的被摄对象图像,不过并不局限于此。例如,如图3中图解所示,显示设备40可接收保存在服务器中的被摄对象图像,并在虚拟三维空间中排列和显示这样接收的被摄对象图像。
图3是图解说明按照一个实施例的图像显示系统10的结构的变形的方框图。按照图3中的变形的摄像设备20通过无线网络等,把自动拍摄的被摄对象图像传送给服务器70,而不是显示设备40。服务器70保存从摄像设备20接收的被摄对象图像,响应来自显示设备40的请求,把被摄对象图像传送给显示设备40。
<2.摄像设备的结构>
下面参考图4,说明按照本公开的一个实施例的摄像设备20的详细结构。图4是图解说明按照一个实施例的摄像设备20的详细结构的方框图。
如图4中图解所示,摄像设备20包括控制部分110、显示器120、摄像部分130、通信部分140、存储器150、输入部分160和电子指南针170。
控制部分110在它自己和摄像设备20的每个模块之间交换信号,以进行各种计算,并控制摄像设备20的整体操作。例如,控制部分110包括CPU、ROM和RAM。
显示器120例如是诸如TFT(薄膜晶体管)或OLED(有机电致发光显示器)之类的LCD,把各种图像显示在其显示屏上。显示器120显示例如拍摄图像时的预览图像。
摄像部分130利用诸如CMOS(互补金属氧化物半导体)和CCD(电荷耦合器件)传感器之类的图像传感器,拍摄诸如静态图像(照片)和运动图像之类的被摄对象图像。摄像部分130具有检测被摄对象的面部的功能。此外,摄像部分130能够拍摄全景图像。另外,在实现聚会摄影功能期间,摄像部分130自动拍摄多个被摄对象图像。
摄像部分130不仅能够获得被摄对象图像,而且能够获得关于摄像时间和摄像位置的信息。摄像时间是从内置于摄像设备20中的时钟 (未示出)获得的。根据例如GPS传感器(未示出)从GPS卫星接收的时间信息,可校正内置时钟的时间和日期。
通信部分140具有网络接口卡、调制解调器等,并通过诸如因特网和LAN(局域网)之类的网络,进行它自己和其它设备之间的通信处理。通信部分140可包括无线LAN模块或WWAN(无线广域网)模块。通信部分140把拍摄的被摄对象图像和全景图像传送给诸如显示设备40之类的其它设备。
存储器150例如是闪速存储器,保存利用摄像部分130拍摄的被摄对象图像。此外,存储器150保存控制部分110执行的控制程序。
输入部分160接受用户的操作,并把输入信号输出给控制部分110。输入部分160包括电源开关、快门释放按钮等。输入部分160可包括与显示器120一体设置的触摸面板。
电子指南针170包括检测地球产生的地磁的磁性传感器,并根据检测的地磁,计算摄像设备20面对的方向(方位)。电子指南针170把计算的摄像设备20的方位输出给控制部分110。
<3.显示设备的结构>
下面参考图5,说明按照本公开的一个实施例的显示设备40的详细结构。图5是图解说明按照一个实施例的显示设备40的详细结构的方框图。
如图5中图解所示,显示设备40包括控制部分210、存储器220、通信部分230、显示器240、输入部分250和外部I/F(接口)260。
控制部分210在它自己和显示设备40的每个模块之间交换信号,以进行各种计算,并控制显示设备40的整体操作。控制部分210进行诸如下面说明的虚拟三维空间中的被摄对象图像的排列处理之类的处理。例如,控制部分210包括CPU、ROM和RAM。
存储器220是例如闪速存储器和/或HDD(硬盘驱动器),保存从摄像设备20接收的被摄对象图像。此外,存储器220保存控制部分210执行的控制程序。
通信部分230包括例如网络接口卡、调制解调器等,通过诸如因 特网和LAN(局域网)之类的网络,进行它自己和其它设备(摄像设备20和/或服务器70)之间的通信处理。通信部分230从摄像设备20或服务器70(也称为摄像设备20等),接收利用摄像设备20自动拍摄的被摄对象图像。
显示器240是例如具有TFT(薄膜晶体管)的LCD或OLED(有机电致发光显示器)。显示器240把通信部分230从摄像设备20接收的被摄对象图像排列在虚拟三维空间中,并把其中排列被摄对象图像的虚拟三维空间作为二维图像,显示在其显示屏上。
图6是概念地图解说明其中排列被摄对象图像的虚拟三维空间的示图。如图6中图解所示,虚拟三维空间是在中心位于用户的视点的圆的半径方向上,具有与被摄对象图像的摄像日期和时间对应的时间轴,并且在所述圆的圆周方向上,具有与被摄对象图像的摄像位置对应的方位轴的虚拟空间。
图7是图解说明把其中排列被摄对象图像的虚拟三维空间作为二维图像,显示在显示屏S上的例子的示图。显示器240绘制和显示虚拟三维空间,以致它是从用户的视点看见的场景。在图7中,虚拟三维空间中的水平轴、垂直轴和深度轴分别对应于方位、高度和时间。即,水平轴指示从摄像设备20的当前位置看的拍摄被摄对象图像的场所的方位。深度轴指示从当前日期和时间看的拍摄被摄对象图像的日期和时间。垂直轴指示拍摄被摄对象图像的场所距地表的高度。
在图7中,摄像日期和时间彼此不同,并且从不同方位拍摄的5个被摄对象图像I1-I5被排列在虚拟三维空间中,并被显示成二维图像。此外,图7中图解所示的虚拟三维空间在深度方向具有远近感,被摄对象图像的大小随被摄对象图像距当前位置的距离而不同。即,最接近当前位置的被摄对象图像I1最大,离当前位置最远的被摄对象图像I5最小。另外,虚拟三维空间可不在深度方向具有远近感,或者说被摄对象图像I1-I5的大小可以是相同的大小。通过按照这种方式显示,用户能够容易地掌握多个被摄对象图像的摄像位置与摄像日期和时间之间的关系。
在把被摄对象图像排列在虚拟三维空间中之前,显示器240把关心的被摄对象图像放大和显示预定时间,如图8中图解所示。此时,显示器240向被摄对象图像添加具有评论("Smiiiiile Moooore!")的气泡框G,以显示该被摄对象图像。图8是图解说明被添加具有评论的气泡框的被摄对象图像的显示例子的示图。另外,当用户从图7中图解所示的多个被摄对象图像中选择一个被摄对象图像时,显示器240把评论添加到选择的被摄对象图像中,从而如图8中图解所示地显示。
输入部分250是例如与显示器240一体设置的触摸面板。例如在通过执行图像显示应用程序,显示图像或GUI(图形用户界面)的状态下,输入部分250检测用户的触摸操作,以便输出给控制部分210。此外,在图像显示应用程序的执行期间,触摸面板用于用户选择图像,以进行全屏显示,或者移动视点(放大或缩小)。
外部I/F 260依照各种标准,比如HDMI(高清多媒体接口)和USB(通用串行总线),与外部设备(例如,大屏幕显示设备50)连接,并在它们之间交换数据。例如,显示设备40通过外部I/F 260,传送显示在大屏幕显示设备50的显示屏上的被摄对象图像和全景图像。
<4.显示控制设备的结构>
参见图9,说明显示控制设备300的功能结构,显示控制设备300是控制图像显示系统10中的图像显示的信息处理设备的一个例子。图9图解说明显示控制设备300的功能结构的方框图。
显示控制设备300进行控制,以便决定关于用摄像设备20拍摄的被摄对象图像的评论,然后把这样决定的评论附加到被摄对象图像上,以便显示。如图9中图解所示,显示控制设备300包括图像获取部件310、图像分析部件320、评论决定部件330、显示控制器340和显示时间获取部件350。另外,图像获取部件310、图像分析部件320、评论决定部件330、显示控制器340和显示时间获取部件350是归因于例如显示设备40的控制部分210的功能实现的。
图像获取部件310获得通过拍摄被摄对象的图像而得到的被摄对象图像。例如,图像获取部件310从摄像设备20或服务器70获得被 摄对象图像。被摄对象图像由位于能够自由旋转的旋转云台30之上,并且与旋转云台30的旋转联动地旋转的摄像设备20拍摄。另外,当利用摄像设备20自动拍摄了多个被摄对象图像时,所述多个被摄对象图像是顺序获得的。这样获得的一个被摄对象图像可以是其中拍摄多个被摄对象的图像的图像。
图像获取部件310获得指示被摄对象图像的摄像日期和时间的摄像日期和时间信息,和指示当获得被摄对象图像时,被摄对象图像的摄像位置的摄像位置信息。图像获取部件310获得与被摄对象图像关联的摄像日期和时间信息及摄像位置信息。图像获取部件310把获得的图像输出给图像分析部件320和显示控制器340。
图像分析部件320分析从图像获取部件310输入的图像。例如,图像分析部件320分析利用图像获取部件310获得的被摄对象图像中的被摄对象的摄像状态。摄像状态包括多个状态,比如被摄对象的笑脸分数,被摄对象面对的朝向,和多个被摄对象之间的位置关系。此外,图像分析部件320分析被摄对象图像中的被摄对象(人物)的数目。此外,图像分析部件320分析被摄对象的年龄,并判定所述年龄对应于预先划分的多个年龄段中的哪个年龄段。图像分析部件320把作为分析结果的分析信息输出给评论决定部件330。
评论决定部件330根据从图像分析部件320输入的分析信息,决定待附到作为分析对象的被摄对象图像上的评论。评论决定部分330决定关于被摄对象的摄像状态,对被摄对象方的评论和/或来自被摄对象方的评论。此外,评论决定部件330决定通过拍摄多个被摄对象的图像而获得的被摄对象图像中的每个被摄对象的评论。另外,对被摄对象方的评论是关于该被摄对象作出的评论,或者是对该被摄对象所想的评论。另一方面,来自被摄对象方的评论是被摄对象作出的评论,或者是被摄对象所想的评论。
例如,评论决定部件330可决定与被摄对象的笑脸分数、被摄对象面对的朝向、被摄对象的年龄和被摄对象对应的年龄段相应的评论。此外,当一个被摄对象图像中的多个被摄对象之间的位置关系在预定 范围内时,评论决定部件330能够决定与位置关系相应的评论。此外,评论决定部件330能够把多个状态的程度转换成各个分数,然后决定与所述多个状态之中分数最高的状态相关的评论。从而,将决定与被摄对象的状态相应的适当评论。
评论决定部件330把这样决定的评论输出给显示控制器340和显示时间获取部件350。另外,评论决定部件330的评论决定处理的细节在后面说明。
显示控制器340把从图像获取部件310输入的被摄对象图像显示在显示屏上。例如,显示控制器340把被添加评论的被摄对象图像显示在虚拟三维空间中的预定绘制位置。通过进行这种显示,即使当自动拍摄的图像被顺序显示在显示屏上时,所述图像也会是令人愉悦的,而不会单调乏味。
当顺序把被摄对象图像显示在显示屏上时,显示控制器340把由评论决定部件330决定的评论添加到被摄对象图像中,以便显示。例如,显示控制器340进行显示,以致评论被排列在气泡框中(参见图8)。此外,显示控制器340对相应的对应被摄对象添加和显示确定的多个评论。从而,被摄对象看到显示在显示屏上的评论,从而改变摄像状态。这样,由于被摄对象的构图将被改变(在所述构图中,将拍摄图像,之后顺序显示拍摄的图像),因此能够进行想像丰富的显示。另外,摄像者一方的评论可包括对下次摄像时的姿势和/或表情的要求内容。
显示时间获取部件350获得利用评论决定部件330决定的评论被添加到被摄对象图像中从而被显示的显示时间。例如,显示时间获取部件350获得按照被摄对象对应的年龄段显示已被添加评论的被摄对象图像的显示时间。从而,由于显示时间是按照观察显示屏的用户的年龄段等配置的,因此用户能够恰当地领会评论。
这里,显示时间是通过相加预期的到观察显示屏的用户注意到显示的评论为止的第一时间、用户阅读所述评论的第二时间、和用户关于所述评论作出反应的第三时间而获得的时间。另外,当多个气泡框 G(评论)被附加到一个被摄对象图像时,显示时间是通过相加关于所述多个评论的第一时间到第三时间而获得的时间。显示时间获取部件350把这样获得的显示时间输出给显示控制器340。另外,显示时间的获取处理的细节在后面说明。
(4-1.评论决定处理)
下面参考图10-图15,说明评论决定部件330的评论决定处理的细节。
图10是说明附有评论的被摄对象图像的示图。在图10中,不同的评论被添加到各个被摄对象图像I1-I6中。添加的评论包括反映图像中的人物的表情、摄像场景等的内容。另外,图10中图解所示的附有评论的被摄对象图像实际上是被逐一显示在显示屏上的。
在图10中,在被摄对象的面部附近绘制气泡框G。此外,对于一个被摄对象图像,添加一个评论(气泡框G),然而气泡框的数目并不局限于1个。可以显示其数目与图像中的人数对应的气泡框。例如,当图像中有两人的时候,为每个人显示气泡框。不过,由于过多的气泡框可使图像难以看见,因此可以配置气泡框的最大数目。
图11是说明评论的内容的示图。决定的评论被大致分成主观表达和客观表达。这里,主观表达是来自作为被拍摄的被摄对象的人物P1一方的评论。客观表达是作为拍摄被摄对象的图像的人的摄像者P2一方的评论(换句话说,摄像者P2对被摄对象方的评论)。选择主观表达和客观表达的任意评论,以便添加到被摄对象图像中。另外,评论呈现字符信息,不过它们可以包括图形等。
另外,评论决定部件330如下所述进行客观表达和主观表达的选择。例如,评论决定部件330可以随机地选择主观表达的评论和客观表达的评论,或者可以交替地选择主观表达的评论和客观表达的评论。此时,评论决定部件330可以进行选择,以致显示的主观表达的评论的数目和显示的客观表达的数目之间的差值不超过预定数。此外,评论决定部件330可在图像中的被摄对象的面部的面积大于预定面积的时候,选择主观表达的评论,而在所述面部的面积小于预定面积的时 候,选择客观表达的评论。此外,评论决定部件330可在图像中的被摄对象的面部的朝向在预定朝向范围内的时候,选择主观表达的评论,而在所述面部的朝向在预定朝向范围之外的时候,选择客观表达的评论。通过采用上述选择方法,能够进行想像丰富的显示。
顺便提及,如图10中图解所示,主观表达的评论的基准点的位置不同于客观表达的评论的基准点的位置。具体地,包括主观表达的评论的气泡框G2和G4的基准点位于被摄对象图像I2和I4内,而包括客观表达的评论的气泡框G1、G3、G5和G6的基准点位于被摄对象图像I1、I3、I5和I6之外。从而,主观表达的评论和客观表达的评论的气泡框的位置之间的辨别使查看显示屏中的评论时,主观表达或客观表达的感知变得更容易。
此外,如在图11的表格Ta1中图解所示,评论的内容被分成主观表达和客观表达,并被进一步分成要求内容、感想内容和中性内容。另外,表格中的评论是预先创建的。此外,表格中的UGC(用户生成内容)表示用户新近创建的评论。
图12是图解说明评论决定部件330的评论决定处理的流程的示意图。评论决定处理包括如图12中图解所示的5个步骤。另外,下面说明其中决定客观表达的评论的情况。
在第一步中,评论决定部件330按照包括在一个被摄对象图像中的人数,对被摄对象图像分类。具体地,评论决定部件330把被摄对象图像分成其中存在1人的图像IM1、其中存在2人或3人的图像IM2、其中存在4人以上的图像IM3、和其中无人的图像IM4。另外,无人意味发现图像中没有任何人,另外,意味难以检测人物的存在与否。
在第二步中,评论决定部件330决定与分类的图像相应的评论。具体地,评论决定部件330根据笑脸分数(SmileScore)和世代(GenerationScore),关于其中存在1人的图像IM1、其中存在2人或3人的图像IM2和其中存在4人以上的图像IM3,决定评论。
图13是说明基于笑脸分数和世代的评论例子的示图。如在图13 中的评论例子中图解所示,评论是根据笑脸分数(SmileScore)和世代(GenerationScore)的组合决定的。这里,笑脸分数被分成6个分区。世代被分成老人(Elder)、成人(Adult)、儿童(Baby)和未检出(所有世代(All Generation))。另外,当存在匹配某个世代的关联度的可能性大于60%时,判定存在匹配所述某个世代的关联度。
例如,当世代为成人,并且笑脸分数为15%时,决定评论“请再笑些”。此外,当世代为儿童,并且笑脸分数为60%时,决定评论“微笑!”。这里,由于世代是儿童,因此评论被配置成易于理解。另外,与笑脸分数(SmileScore)和世代(GenerationScore)的组合对应的评论是从多个评论中随机选择的。
在图12中图解说明的第二步中,就其中没有人物的图像IM4来说,对应于摄像场景确定中性评论。另外,就其中没有人物的图像IM4来说,不进行下面提及的第三步到第五步。
在第三步中,评论决定部件330根据面部朝向(Orientation),决定关于其中存在1人的图像IM1、其中存在2人或3人的图像IM2、和其中存在4人以上的图像IM3的评论。具体地,决定与世代和面部朝向的组合相应的评论。另外,面部朝向是根据在相互垂直的三轴的方向(侧偏(Yaw)、滚动(Roll)和俯仰(Pitch)的方向)的面部朝向判定的。
图14是说明基于面部朝向的评论例子的示图。这里,在上述相互垂直的三轴中的一轴的方向(Yaw方向),举例说明面部朝向。在图14中,按照面部面对的朝向(左面、右面或前面),配置YawScore。YawScore被配置成-45~45的值。例如,当世代是成人,并且YawScore为-31°(面向右面)时,决定评论“看着我,请看着我!”。
在第四步中,评论决定部件330根据人物之间的位置关系,决定关于其中存在2人或3人的图像IM2,和其中存在4人以上的图像IM3的评论。具体地,评论决定部件330比较人物的面部的相对大小,然后决定评论。另外,就其中只存在一个人物的图像IM1来说,不进行第四步骤。
图15是说明基于人物之间的位置关系的评论例子的示图。在图15中,拍摄在到摄像者的距离不同的位置的两个被摄对象F1和F2的图像。接近摄像者的被摄对象F1的面部面积较大,而远离摄像者的被摄对象F2的面部面积较小。例如,当其面部面积较小的被摄对象F2的世代是成人,并且被摄对象F2的面部面积相对于被摄对象F1的面部面积的相对大小(Relative Size)等于或小于0.5时,决定评论"可否再靠近些?"。
在第五步中,关于其中存在4人以上的图像IM3,识别被赋予评论的人物。这是因为添加的评论的数目应有限,否则,当在一个被摄对象图像包括4人以上的情况下,所有人都被给予评论时,图像本身会难以看到。由于上述的一系列处理,将决定与图像中的被摄对象的数目和/或被摄对象的状态相应的适当评论。
(4-2.评论显示时间的获取处理)
下面参考图16-图18,具体说明显示时间获取部件350进行的附有评论的被摄对象图像的显示时间的具体获取处理。
图16是图解说明从拍摄了被摄对象图像起,到把所述被摄对象图像排列在虚拟三维空间中为止的时段的示意图。如图16中图解所示,从拍摄了被摄对象图像起,到把所述被摄对象图像排列在虚拟三维空间中为止的时段包括图像传送时段T1、显示开始时段T2、评论显示时段T3和图像排列时段T4。
图像传送时段T1是到摄像设备20拍摄的被摄对象图像被传送给显示设备40为止的时段。显示开始时段T2是到显示设备40收到的被摄对象图像被显示在显示屏上为止的时段。例如,显示开始时段T2是其间进行诸如被摄对象图像的淡入之类的过渡动画的时段。
评论显示时段T3是评论被附加到显示的被摄对象图像以便显示的时段。评论显示时段T3由注意时段T3a、评论阅读时段T3b和反应时段T3c构成。
注意时段T3a是到用户注意到带有评论的被摄对象图像被显示在显示屏上为止的时段。注意时段T3a可包括例如显示屏切换和用户 转动面部的时间。
评论阅读时段T3b是用户开始阅读评论和完成阅读的时段。
反应时段T3c是其间在完成阅读之后,用户作出反应的时段。例如,反应时段T3c是其间在阅读评论之后,用户发笑,解释评论所指,或者与其它用户愉快交谈的时段。另外,假定上述用户是被摄对象图像中的被摄对象。这是因为在聚会摄影功能中,其图像被自动拍摄的被摄对象看到上面显示通过拍摄关心的被摄对象的图像而获得的被摄对象图像的显示屏,然后作出反应。
图像排列时段T4是从被附加评论的被摄对象图像从显示屏消失起,到关心的被摄对象图像被排列在虚拟三维空间中为止的时段。例如,图像排列时段T4是其间完成诸如被摄对象图像的淡出之类的过渡动画的时段。
下面参考图17和图18,说明评论显示时段T3的计算方法。图17是图解说明用户的年龄段与注意时段T3a和反应时段T3c的关系的表格Ta2。图18是图解说明用户的年龄段与评论阅读时段T2b的关系的表格Ta3。
如图17中图解所示,注意时段T3a是根据与用户的年龄段相应的常数计算的。当用户的年龄段变得越大时,注意时段(WT:醒来时间T3a)变得越长。例如,儿童(Baby)的注意时段T3a为1(s),成人(Adult)的注意时段T3a为2(s),而老人(Elder)的注意时段T3a为3(s)。儿童(Baby)的注意时段T3a最短的原因在于与其它年龄段相比,儿童往往会观察显示屏。另外,这样的时间只是例子,可以配置不同的值。
如图18中图解所示,评论阅读时段T3b也是根据与用户的年龄段相应的常数计算的。具体地,利用以下公式计算评论阅读时段(BRT:气泡框阅读时间)T3b。
BRT=CC/RS+EMT
这里,CC(字符计数)是文本中的字符的数目。CC被配置成包括与年龄段相应的每行的字符数和字符总数。RS(阅读速度)表示用户阅读文本的速度(字符数/秒)。EMT(眼睛移动时间)是预期的把视点移动 到另一个气泡框的时间。另外,当存在一个气泡框时,EMT为0(s)。
例如,当把评论“请再笑些”附加到包括成人的面部的图像上时,评论阅读时段T3b为9(字符)/3(字符/s)=3(s)。
如图17中图解所示,反应时段T3c是根据与用户的年龄段相应的常数计算的。另外,当用户的年龄段越高时,反应时段T3c变得越长。
显示时间获取部件350通过相加如上所述计算的注意时段T3a、评论阅读时段T3b和反应时段T3c,获得评论显示时段T3。显示控制器340把评论显示由显示时间获取部件350获得的评论显示时段T3。从而,由于显示时间是按照用户的年龄段等配置的,因此用户能够恰当地领会评论。
<5.图像显示系统在处理评论显示时的操作>
下面参考图19,说明与被摄对象相应的评论显示处理。图19是图解说明与图像中的被摄对象相应的评论显示处理的流程图。图19从利用摄像设备20自动拍摄的被摄对象图像开始。
所述处理由执行保存在ROM中的程序的CPU实现。另外,执行的程序可被保存在诸如CD(光盘)、DVD(数字通用光盘)和存储卡之类的记录介质中,可以通过因特网从服务器等下载。
首先,图像获取部件310获得被摄对象图像(步骤S102)。之后,图像分析部件320根据获得的被摄对象图像,获得被摄对象的面部信息(步骤S104)。
之后,图像分析部件320根据获得的面部信息,判定面部的数目N(步骤S106)。当在步骤S106中,判定面部的数目N为1以上时(是),评论决定部件330进行第一评论决定处理(步骤S108)。
(5-1.第一评论决定处理)
下面参考图20和图21,说明步骤S108中的第一评论决定处理。图20是图解说明第一评论决定处理的流程图。图21是图解说明评论决定对象的被摄对象的示意图。在图21中,在一个图像中示出了作为评论决定对象的面部的faceldx=1的面部F1、faceldx=2的面部F2和 faceldx=3的面部F3。
首先,评论决定部件330把faceldx设定为1(步骤S202)。然后评论决定部件330根据笑脸和世代,进行评论决定处理(步骤S204)。
(5-1-1.基于笑脸和世代的评论决定处理)
下面参考图22,说明基于笑脸和世代的评论决定处理。图22是图解说明基于笑脸和世代的评论决定处理的流程图。
首先,评论决定部件330获得评论决定对象的面部信息FacialInfo(步骤S302)。这里,假定获得faceldx=1的面部F1的面部信息FacialInfo。
图23是说明面部信息FacialInfo的示意图。为对象的每个面部构成面部信息FacialInfo,在图23中,示出了faceldx=1的面部F1的面部信息FacialInfo。面部信息FacialInfo包括SmileScore,ElderScore,AdultScore,BabyScore等。这里,SmileScore表示被摄对象笑的程度。ElderScore,AdultScore和BabyScore分别表示对应于老人、成人和儿童的相关性的可能性。此外,Roll,Pitch和Yaw表示在相互垂直的3轴方向的被摄对象的面部朝向。
评论决定部件330判定ElderScore是否大于0.60(步骤S304)。当在步骤S304,判定ElderScore大于0.60时(是),评论决定部件330把FacialGeneration(笑脸世代)设定为Elder(老人)(步骤S312)。
当在步骤S304,判定ElderScore不大于0.60时(否),评论决定部件330判定AdultScore是否大于0.60(步骤S306)。当在步骤S306,判定AdultScore大于0.60时(是),评论决定部件330把FacialGeneration设定为Adult(成人)(步骤S314)。
当在步骤S306,判定AdultScore不大于0.60时(否),评论决定部件330判定BabyScore是否大于0.60(步骤S308)。当在步骤S308,判定BabyScore大于0.60时(是),评论决定部件330把FacialGeneration设定为Baby(儿童)(步骤S316)。
当在步骤S308,判定BabyScore不大于0.60时(否),评论决定部件330把FacialGeneration设定为All(所有世代),它不是关于Elder 或Adult或Baby识别的世代(步骤S310)。
这里,由于图23中图解所示的faceldx=1的面部F1的面部信息FacialInfo代表为0.65的AdultScore,因此评论决定部件330把面部F1的FacialGeneration设定为Adult。
之后,评论决定部件330根据设定的FacialGeneration,和面部信息FacialInfo的SmileScore,从图24中图解所示的评论数据库中获得评论一览表(步骤S318)。
图24是图解说明评论数据库的表格Ta4。如图24中图解所示,在评论数据库中,评论是按SmileScore和Generation分类的。例如,由于面部F1的FacialGeneration为Adult,并且其SmileScore为0.80,因此评论决定部件330选择评论数据库中,对其来说,0.80≤SmileScore,并且Generation为Adult的分区C1的评论一览表。
之后,评论决定部件330从获得的评论一览表中随机地选择一个评论(步骤S320)。从而,完成关于faceldx=1的面部F1的基于笑脸和世代的评论决定处理,然后处理返回图20中图解说明的流程图。于是,评论决定部件330对faceldx=1的面部F1,进行基于面部朝向的评论决定处理(步骤S206)。
(5-1-2.基于面部朝向的评论决定处理)
下面参考图25,说明基于面部朝向的评论决定处理。图25是图解说明基于面部朝向的评论决定处理的流程图。
首先,评论决定部件330获得评论决定对象的面部信息FacialInfo(步骤S402)。这里,假定获得faceldx=1的面部F1的面部信息FacialInfo。
之后,评论决定部件330根据面部信息FacialInfo的ElderScore,AdultScore和BabyScore,设定FacialGeneration(步骤S404-S416)。这些处理类似于上面说明的基于笑脸和世代的评论决定处理中的步骤S304-S306,评论决定部件330把面部F1的FacialGeneration设定为Adult。
之后,评论决定部件330利用这样设定的FacialGeneration,和 面部信息FacialInfo的Roll,Pitch和Yaw之中的最大值,从图26中图解所示的评论数据库中获得评论一览表(步骤S418)。
图26是图解说明评论数据库的表格Ta5。如在图26中图解所示,在评论数据库中,评论是按面部朝向(Orientation)和Generation分类的。例如,由于面部F1的FacialGeneration为Adult,并且Roll为最大值(7),因此评论决定部件330选择评论数据库中,对其来说,0<Roll<9,并且Generation为Adult的分区C2的评论一览表。
之后,评论决定部件330从获得的评论一览表中随机地选择一个评论(步骤S420)。从而,完成关于faceldx=1的面部F1的基于面部朝向的评论决定处理,然后处理返回图20中图解说明的流程图。
在完成faceldx=1的面部F1的基于笑脸和世代的评论,和基于面部朝向的评论的决定处理之后,评论决定部件330把faceldx加1(步骤S208)。然后,评论决定部件330判定递增之后的faceldx值是否大于识别的面部的数目N(步骤S210)。
当在步骤S210,判定faceldx值不大于N时(否),评论决定部件330重复上述步骤S204-S208中的处理。即,评论决定部件330分别对于图21中图解所示的faceldx=2的面部F2,和faceldx=3的面部F3,进行基于笑脸和世代的评论,和基于面部朝向的评论的决定处理。
当在步骤S210,判定faceldx大于N时(是),完成第一评论决定处理,处理返回图19中图解所示的流程图。
评论决定部件330判定在步骤S104中识别的面部的数目N是否等于或大于2(步骤S110)。于是,当在步骤S110,判定面部的数目N等于或大于2时(是),评论决定部件330进行基于面部位置的评论决定处理(步骤S112)。
(5-2.基于面部位置的评论决定处理)
下面参考图27,说明步骤S112中的基于面部位置的评论决定处理。图27是图解说明基于面部位置的评论决定处理的流程图。
首先,评论决定部件330提取具有最大面部面积的面部编号bigFaceldx(步骤S502)。之后,评论决定部件330提取具有最小面部 面积的面部编号smallFaceldx(步骤S504)。
图28是解释面部编号的提取的示意图。被摄对象的面部的大小(面部面积)与距摄像设备20的距离成比例。即,面部面积较大的面部的位置是接近摄像设备20的位置,而面部面积较小的面部的位置是远离摄像设备20的位置。面部面积(faceArea)是通过相乘宽度(fwidth)和高度(fheight)计算的。在图28中,面部面积最大的面部是faceldx=1的面部F1,而面部面积最小的面部是faceldx=3的面部F3。于是,面部编号bigFaceldx=1,面部编号smallFaceldx=3。
之后,评论决定部件330判定具有面部编号bigFaceldx的面部面积是否大于具有面部编号smallFaceldx的面部面积的2倍(步骤S506)。然后,当在步骤S506中判定具有面部编号bigFaceldx的面部面积大于具有面部编号smallFaceldx的面部面积的2倍时(是),评论决定部件330决定关于具有面部编号smallFaceldx的面部(这里,faceldx=3的面部F3)的评论(步骤S508)。
之后,评论决定部件330关于具有面部编号smallFaceldx的面部,从评论数据库中随机地决定与面部位置相应的评论(步骤S510)。之后,评论决定部件330向具有面部编号smallFaceldx的面部赋予评论分数0.80(步骤512),从而完成基于面部位置的评论决定处理。
另外,当在步骤S506,判定具有面部编号bigFaceldx的面部面积不大于具有面部编号smallFaceldx的面部面积的2倍时(否),评论决定部件330结束该处理,而不决定评论。之后,处理返回图19中图解说明的流程图。
评论决定部件330判定在步骤S104识别的面部的数目N是否等于或大于4(步骤S114)。于是,当在步骤S114,判定面部的数目N等于或大于4时(是),评论决定部件330进行被附加评论的被摄对象的识别处理(步骤S116)。
(5-3.附有评论的被摄对象的识别处理)
下面参考图29,说明在步骤S116中,被附加评论的被摄对象的识别处理。图29是图解说明附有评论的被摄对象的识别处理的流程 图。
首先,评论决定部件330把faceldx设定为1(步骤S602)。之后,评论决定部件330从CommentHolder[faceldx]中挑选关于图30中图解所示的faceldx=1的面部F1的评论一览表FacialComment[](步骤S604)。
图30是说明CommentHolder[faceldx]的示意图。如图30中图解所示,为每个面部设定CommentHolder[faceldx]。CommentHolder[faceldx]包括FacialComment(笑脸和世代评论,位置评论1,位置评论2和朝向评论)。
之后,评论决定部件330选择评论,所述评论具有这样挑选的4种FacialComment之中分数最高的评论(步骤S606)。由于在图30中,笑脸和世代评论具有最高的分数,因此评论决定部件330选择笑脸和世代评论("好的笑脸")。
之后,评论决定部件330把faceldx加1(步骤S608)。然后,评论决定部件330判定递增之后的faceldx值是否大于识别出的面部的数目N(步骤S610)。
当在步骤S610,判定faceldx值不大于N时(否),评论决定部件330重复上面说明的步骤S602-S608中的处理。即,评论决定部件330选择图30中图解所示的4个面部之中分数最高的评论。
当在步骤S610,判定faceldx值大于N时(是),评论决定部件330选择4个面部之中分数最高的3个面部,并对这些面部设定显示标记(步骤S612)。从而,完成被附加评论的被摄对象的识别处理,然后处理返回图19中图解所示的流程图。
显示控制器340把包括评论的气泡框显示在显示屏上(步骤S120)。显示控制器340关于在图29的步骤S612中,对其设定显示标记的3个面部,显示气泡框。
另外,当在步骤S106,判定识别的面部的数目N为0时(否),评论决定部件330决定中性评论(步骤S118)。随后,显示控制器340把决定的中性评论显示在显示屏上(步骤S120)。
此外,当在步骤S110,判定识别的面部的数目N小于2时(否),显示控制器340为每个面部显示笑脸和世代评论及朝向评论中分数较高的评论。从而,完成与被摄对象相应的评论显示处理。
<6.结论>
如上所述,按照本公开的信息处理设备分析获得的被摄对象图像中的被摄对象的摄像状态,并根据分析结果,关于所述摄像状态,判定添加到待显示在显示屏上的被摄对象图像中的评论。从而,被摄对象看到显示在显示屏上的评论,从而改变摄像状态。这样,由于被摄对象的构图将被改变(在所述构图中,将拍摄图像,之后显示拍摄的图像),因此能够进行想像丰富的显示。
如上所述,参考附图详细说明了本公开的优选实施例,然而,本公开的技术范围并不局限于这样的例子。本领域的技术人员应明白,根据设计要求和其它因素,可以产生各种修改、组合、子组合和变更,只要它们在所附的权利要求或其等同物的范围之内,并且所述各种修改、组合、子组合和变更自然属于本公开的技术范围。
另外在上面,图9中图解说明的图像获取部件310、图像分析部件320和评论决定部件330是归因于显示设备40的控制部分210的功能实现的,然而它们并不局限于此。例如,图3中图解说明的服务器70可以是包括图像获取部件310、图像分析部件320和评论决定部件330的信息处理设备。即,服务器70分析获得的被摄对象图像中的被摄对象的摄像状态,并根据分析结果,关于所述摄影状态,决定添加到待显示在显示屏上的被摄对象图像的评论。在这种情况下,关于在服务器70中决定的评论的信息被传送给显示设备40,显示设备40根据接收的所述关于评论的信息,显示被摄对象图像和评论。
此外,在上述实施例的流程图中举例说明的步骤自然包括按照所述顺序,时序地进行的处理,还包括并行或单独地,而不必时序地进行的处理。此外,不必过分强调的是在一些情况下,即使时序地进行的步骤的处理顺序也可被适当改变。
在本说明书中说明的显示控制设备进行的处理可以利用软件、硬 件或软件与硬件的组合来实现。构成软件的程序被预先保存在设置在每个设备之内或之外的记录介质中。随后,在执行时,每个程序被读入RAM(随机存取存储器)中,然后被诸如CPU之类的处理器执行。
另外还可如下构成本技术。
(1)一种信息处理设备,包括:
图像获取部件,所述图像获取部件获得通过拍摄被摄对象的图像而获得的被摄对象图像;
图像分析部件,所述图像分析部件分析利用图像获取部件获得的被摄对象图像中的被摄对象的摄像状态;和
评论决定部件,所述评论决定部件关于摄像状态,根据图像分析部件的分析结果,决定添加到被摄对象图像中并显示在显示屏上的评论。
(2)按照(1)所述的信息处理设备,还包括:
显示控制器,在把被摄对象图像显示在显示屏上时,所述显示控制器把利用评论决定部件决定的评论添加到被摄对象图像中,并显示所述评论。
(3)按照(1)或(2)所述的信息处理设备,其中
摄像状态包括被摄对象的笑脸分数,
评论决定部件决定与笑脸分数相应的评论。
(4)按照(1)-(3)任意之一所述的信息处理设备,其中
被摄对象图像是通过拍摄多个被摄对象的图像而获得的图像,
摄像状态包括所述多个被摄对象之间的位置关系,和
当所述位置关系在预定范围之内时,评论决定部件决定与所述位置关系相应的评论。
(5)按照(1)-(4)任意之一所述的信息处理设备,其中
摄像状态包括被摄对象面对的朝向,和
评论决定部件决定与所述朝向相应的评论。
(6)按照(1)-(5)任意之一所述的信息处理设备,其中
图像分析部件判定被摄对象的年龄,或者所述年龄对应于划分的 多个年龄段中的哪个年龄段,和
评论决定部件决定与被摄对象的年龄,或者被摄对象对应的年龄段相应的评论。
(7)按照(1)-(6)任意之一所述的信息处理设备,其中
被摄对象图像是通过拍摄多个被摄对象的图像而获得的图像,
评论决定部件决定关于被摄对象图像中的各个被摄对象的评论,和
显示控制器进行决定的关于各个对应被摄对象的多个评论的添加和显示。
(8)按照(1)-(7)任意之一所述的信息处理设备,其中
摄像状态包括多个状态,
评论决定部件:
把多个状态的程度转换成各个分数,和
决定与多个状态中分数最高的状态相关的评论。
(9)按照(1)-(8)任意之一所述的信息处理设备,其中
评论决定部件还关于摄像状态,决定对被摄对象方的评论,或者来自被摄对象方的评论。
(10)按照(9)所述的信息处理设备,还包括
显示控制器,当把被摄对象图像显示在显示屏上时,所述显示控制器把利用评论决定部件决定的评论添加到被摄对象图像中,并显示所述评论,其中
显示控制器:
把环绕所述评论的气泡框添加到被摄对象图像中,并显示所述气泡框,
显示所述气泡框,以致就对被摄对象方的评论来说,气泡框的基准点位于在显示屏内的被摄对象图像之外,和
显示所述气泡框,以致就来自被摄对象方的评论来说,气泡框的基准点位于在显示屏内的被摄对象图像之内。
(11)按照(1)-(10)任意之一所述的信息处理设备,还包括
显示时间获取部件,所述显示时间获取部件获得利用评论决定部件决定的评论被添加到被摄对象图像中以便被显示的显示时间。
(12)按照(11)所述的信息处理设备,其中
图像分析部件判定被摄对象的年龄,或者所述年龄对应于划分的多个年龄段中的哪个年龄段,和
显示时间获取部件获得与被摄对象的年龄或者被摄对象对应的年龄段相应的显示时间。
(13)按照(11)或(12)所述的信息处理设备,其中
显示时间是通过相加以下时间而获得的时间:
在观察显示屏的用户注意到显示的评论之前的第一时间,
用户阅读所述评论的第二时间,和
用户对于所述评论作出反应的第三时间。
(14)按照(1)-(13)任意之一所述的信息处理设备,其中
显示控制器在虚拟空间中的预定绘制位置,绘制被添加评论的被摄对象图像,所述虚拟空间在中心位于用户的视点的圆的半径方向上,具有与摄像日期和时间对应的时间轴,并且在所述圆的圆周方向上,具有与摄像位置对应的方位轴。
(15)一种信息处理方法,包括:
获得通过拍摄被摄对象的图像而获得的被摄对象图像;
分析获得的被摄对象图像中的被摄对象的摄像状态;和
关于摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
(16)一种使计算机执行以下步骤的程序:
获得通过拍摄被摄对象的图像而获得的被摄对象图像;
分析获得的被摄对象图像中的被摄对象的摄像状态;和
关于摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
本公开包含与在2011年11月7日向日本专利局提交的日本优先权专利申请JP 2011-243390中公开的主题相关的主题,该专利申请的整个内容在此引为参考。
Claims (16)
1.一种信息处理设备,包括:
图像获取部件,所述图像获取部件获得通过拍摄被摄对象的图像而获得的被摄对象图像;
图像分析部件,所述图像分析部件分析利用图像获取部件获得的被摄对象图像中的被摄对象的摄像状态;以及
评论决定部件,所述评论决定部件对于摄像状态,根据图像分析部件的分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
2.按照权利要求1所述的信息处理设备,还包括:
显示控制器,在把被摄对象图像显示在显示屏上时,所述显示控制器把利用评论决定部件决定的评论添加到被摄对象图像中并显示所述评论。
3.按照权利要求1所述的信息处理设备,其中
所述摄像状态包括被摄对象的笑脸分数,以及
评论决定部件根据所述笑脸分数决定评论。
4.按照权利要求1所述的信息处理设备,其中
所述被摄对象图像是通过拍摄多个被摄对象的图像而获得的图像,
所述摄像状态包括所述多个被摄对象之间的位置关系,以及
当所述位置关系在预定范围之内时,评论决定部件根据所述位置关系决定评论。
5.按照权利要求1所述的信息处理设备,其中
所述摄像状态包括被摄对象面对的朝向,以及
评论决定部件根据所述朝向决定评论。
6.按照权利要求1所述的信息处理设备,其中
图像分析部件判定被摄对象的年龄或者所述年龄对应于划分的多个年龄段中的哪个年龄段,以及
评论决定部件根据被摄对象的年龄或者被摄对象对应的年龄段决定评论。
7.按照权利要求1所述的信息处理设备,其中
所述被摄对象图像是通过拍摄多个被摄对象的图像而获得的图像,
评论决定部件决定针对所述被摄对象图像中的各个被摄对象的评论,以及
所述显示控制器进行所决定的关于各个对应被摄对象的多个评论的添加和显示。
8.按照权利要求1所述的信息处理设备,其中
所述摄像状态包括多个状态,并且
所述评论决定部件:
把所述多个状态的程度转换成各个分数,以及
决定与所述多个状态中分数最高的状态相关的评论。
9.按照权利要求1所述的信息处理设备,其中
评论决定部件还针对摄像状态,决定对被摄对象方的评论或者来自被摄对象方的评论。
10.按照权利要求9所述的信息处理设备,还包括
显示控制器,当把被摄对象图像显示在显示屏上时,所述显示控制器把利用评论决定部件决定的评论添加到被摄对象图像中并显示所述评论,其中
显示控制器:
把环绕所述评论的气泡框添加到被摄对象图像中并显示所述气泡框,
显示所述气泡框,使得在对被摄对象方的评论的情况下,气泡框的基准点位于在显示屏内的被摄对象图像之外,以及
显示所述气泡框,使得在来自被摄对象方的评论的情况下,气泡框的基准点位于在显示屏内的被摄对象图像之内。
11.按照权利要求1所述的信息处理设备,还包括
显示时间获取部件,所述显示时间获取部件获得利用评论决定部件决定的评论被添加到被摄对象图像中以显示的显示时间。
12.按照权利要求11所述的信息处理设备,其中
图像分析部件判定被摄对象的年龄或者所述年龄对应于划分的多个年龄段中的哪个年龄段,以及
显示时间获取部件根据被摄对象的年龄或者被摄对象对应的年龄段获得显示时间。
13.按照权利要求11所述的信息处理设备,其中
所述显示时间是通过相加以下时间而获得的时间:
在观察显示屏的用户注意到显示的评论之前的第一时间,
用户阅读所述评论的第二时间,以及
用户对于所述评论作出反应的第三时间。
14.按照权利要求1所述的信息处理设备,其中
显示控制器在虚拟空间中的预定绘制位置绘制被添加评论的被摄对象图像,所述虚拟空间在中心位于用户的视点的圆的半径方向上具有与摄像日期和时间对应的时间轴,并且在所述圆的圆周方向上具有与摄像位置对应的方位轴。
15.一种信息处理方法,包括:
获得通过拍摄被摄对象的图像而获得的被摄对象图像;
分析获得的被摄对象图像中的被摄对象的摄像状态;以及
针对摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
16.一种使计算机执行以下步骤的程序:
获得通过拍摄被摄对象的图像而获得的被摄对象图像;
分析获得的被摄对象图像中的被摄对象的摄像状态;以及
针对摄像状态,根据分析结果决定添加到被摄对象图像中并显示在显示屏上的评论。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011243390A JP2013097773A (ja) | 2011-11-07 | 2011-11-07 | 情報処理装置、情報処理方法、及びプログラム |
JP2011-243390 | 2011-11-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103200359A true CN103200359A (zh) | 2013-07-10 |
Family
ID=48223446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210422995.1A Pending CN103200359A (zh) | 2011-11-07 | 2012-10-30 | 信息处理设备、信息处理方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130113952A1 (zh) |
JP (1) | JP2013097773A (zh) |
CN (1) | CN103200359A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184608A (zh) * | 2015-08-27 | 2015-12-23 | 宇龙计算机通信科技(深圳)有限公司 | 一种多媒体内容的点评方法及用户终端 |
CN107851324A (zh) * | 2015-07-28 | 2018-03-27 | 索尼公司 | 信息处理系统、信息处理方法和记录介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9305085B2 (en) * | 2013-11-26 | 2016-04-05 | International Business Machines Corporation | Online thread retrieval using thread structure and query subjectivity |
JP6447992B2 (ja) * | 2014-10-23 | 2019-01-09 | キヤノン株式会社 | 画像管理装置及びその制御方法 |
US11189063B2 (en) * | 2019-08-23 | 2021-11-30 | International Business Machines Corporation | Commenting in 360 degree view image |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050206751A1 (en) * | 2004-03-19 | 2005-09-22 | East Kodak Company | Digital video system for assembling video sequences |
US7636450B1 (en) * | 2006-01-26 | 2009-12-22 | Adobe Systems Incorporated | Displaying detected objects to indicate grouping |
US20100238323A1 (en) * | 2009-03-23 | 2010-09-23 | Sony Ericsson Mobile Communications Ab | Voice-controlled image editing |
US20120266084A1 (en) * | 2011-04-18 | 2012-10-18 | Ting-Yee Liao | Image display device providing individualized feedback |
US9087048B2 (en) * | 2011-06-10 | 2015-07-21 | Linkedin Corporation | Method of and system for validating a fact checking system |
-
2011
- 2011-11-07 JP JP2011243390A patent/JP2013097773A/ja active Pending
-
2012
- 2012-10-26 US US13/661,887 patent/US20130113952A1/en not_active Abandoned
- 2012-10-30 CN CN201210422995.1A patent/CN103200359A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107851324A (zh) * | 2015-07-28 | 2018-03-27 | 索尼公司 | 信息处理系统、信息处理方法和记录介质 |
CN107851324B (zh) * | 2015-07-28 | 2022-12-20 | 索尼公司 | 信息处理系统、信息处理方法和记录介质 |
CN105184608A (zh) * | 2015-08-27 | 2015-12-23 | 宇龙计算机通信科技(深圳)有限公司 | 一种多媒体内容的点评方法及用户终端 |
Also Published As
Publication number | Publication date |
---|---|
JP2013097773A (ja) | 2013-05-20 |
US20130113952A1 (en) | 2013-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4266244A1 (en) | Surface defect detection method, apparatus, system, storage medium, and program product | |
CN101540844B (zh) | 构图确定设备和构图确定方法 | |
JP5847924B2 (ja) | 拡張現実表現のための二次元画像取込み | |
EP3786894A1 (en) | Method, device and apparatus for repositioning in camera orientation tracking process, and storage medium | |
CN105447864B (zh) | 图像的处理方法、装置及终端 | |
US8769437B2 (en) | Method, apparatus and computer program product for displaying virtual media items in a visual media | |
US9699375B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
CN105283905B (zh) | 使用点和线特征的稳健跟踪 | |
US11636610B2 (en) | Determining multiple camera positions from multiple videos | |
CN106982387A (zh) | 弹幕的显示、推送方法及装置及弹幕应用系统 | |
CN104700353B (zh) | 图像滤镜生成方法及装置 | |
CN104111778B (zh) | 图片显示方法和装置 | |
CN108141511A (zh) | 图像处理装置、摄像装置、图像处理方法以及程序 | |
CN103200359A (zh) | 信息处理设备、信息处理方法和程序 | |
CN103093741A (zh) | 信息处理设备,信息处理方法和程序 | |
CN101567973A (zh) | 构图确定装置、构图确定方法以及程序 | |
US20110102854A1 (en) | Image providing system and method | |
CN105825521B (zh) | 信息处理设备及其控制方法 | |
CN107567632A (zh) | 具有可跟踪性测量结果的关键点检测 | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
EP3933753A1 (en) | Method for processing image, related device and storage medium | |
CN105980905B (zh) | 摄像装置及对焦控制方法 | |
CN103731599A (zh) | 拍照方法及相机 | |
US20220084249A1 (en) | Method for information processing, electronic equipment, and storage medium | |
CN105005599A (zh) | 一种照片分享方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130710 |