CN110214445A - 信息处理系统及信息处理装置 - Google Patents

信息处理系统及信息处理装置 Download PDF

Info

Publication number
CN110214445A
CN110214445A CN201780084122.5A CN201780084122A CN110214445A CN 110214445 A CN110214445 A CN 110214445A CN 201780084122 A CN201780084122 A CN 201780084122A CN 110214445 A CN110214445 A CN 110214445A
Authority
CN
China
Prior art keywords
composograph
image
unit
described image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780084122.5A
Other languages
English (en)
Inventor
中尾直之
大宫聪之
金丸义胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of CN110214445A publication Critical patent/CN110214445A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明的目的是使用户能够比过去具有更多乐趣。信息处理装置(10)对使用显示装置(20)摄像的图像执行图像识别。信息处理装置(10)指示显示装置(20)将根据图像识别结果变化的第一合成图像与拍摄图像合成,并且还在第一合成图像中的预定位置合成第二合成图像。例如,如果显示装置(20))拍摄了风景(图7中的(A))时,则根据风景显示表示跑步者的角色图像作为第一合成图像(G1)(图7中的(B))。在第一合成图像(G1)中,对应于人的头部的区域(G2)是空白的。当用户使用显示装置(20)拍摄其面部时(图7中的(C)),在第一合成图像的对应于头部的区域(G2)中将用户面部图像作为第二合成图像(G3)合成(图7中的(D))。

Description

信息处理系统及信息处理装置
技术领域
本发明涉及用于合成和显示图像的技术。
背景技术
专利文献1公开了将根据成像位置的图像与拍摄图像合成并显示所合成的图像的技术。利用该技术,例如,如果成像位置是旅游景点,则将旅游景点中的著名建筑物等的图像与拍摄图像一起合成并显示。
引用列表
专利文献
专利文献1:JP 2003-274396A
发明内容
技术问题
本发明的目的是通过观看合成图像使用户能够比以往感受到更多乐趣。
技术方案
本发明提供了一种信息处理系统,所述信息处理系统其包括:图像识别单元,其被配置为识别图像;以及图像合成单元,其被配置为将根据图像识别单元的识别结果而变化的第一合成图像与所述图像合成并在与所述图像合成的所述第一合成图像中的预定位置处合成第二合成图像。
所述图像合成单元可以将根据所述图像识别单元的识别结果在外观、尺寸、位置、运动和数量中的至少任何一个方面变化的所述第一合成图像与所述图像合成。
所述图像合成单元可以将根据所述图像识别单元的识别结果而变化的所述第二合成图像与所述图像合成。
所述图像合成单元可以将根据所述图像识别单元的识别结果在外观、尺寸、位置、运动和数量中的至少任何一个方面变化的所述第二合成图像与所述图像合成。
所述图像合成单元可以从包括人的头部的拍摄图像中提取对应于该人的头部的部分图像,并把该部分图像作为所述第二合成图像与所述图像合成。
所述图像合成单元可以将根据所述图像识别单元的识别结果在该人的面部的方向或该面部的表情方面变化的所述第二合成图像与所述图像合成。
所述图像合成单元可以将根据要合成的所述第一合成图像而变化的所述第二合成图像与所述图像合成。
当所述图像识别单元识别出所述图像中包括的对象所属的类别时,所述图像合成单元可以在所述图像中的预定位置处根据所述类别合成所述第一合成图像。
当所述图像识别单元识别出所述图像中包括的对象的位置时,所述图像合成单元可以在与所述对象有关的预定位置处根据所述对象合成所述第一合成图像。
本发明还提供了一种信息处理装置,该信息处理装置包括图像合成指示单元,该图像合成指示单元被配置为指示显示装置将根据图像的识别结果而变化的第一合成图像与所述图像合成,并指示所述显示装置在与所述图像合成的所述第一合成图像中的预定位置处合成第二合成图像。
本发明的有益效果
根据本发明,通过观看合成图像,用户能够感受到比以往更多乐趣。
附图说明
图1是例示了根据本发明实施方式的信息处理系统的配置的图。
图2是示出了显示装置的硬件配置的一个示例的框图。
图3是示出了信息处理装置的硬件配置的一个示例的框图。
图4是示出了信息处理装置中存储的合成图像确定表单的一个示例的图。
图5是示出了信息处理系统的功能配置的一个示例的框图。
图6是示出了信息处理系统的操作过程的一个示例的流程图。
图7是例示了显示装置上的显示的一个示例的图。
图8是例示了显示装置上的显示的一个示例的图。
附图标记列表
1...信息处理系统;10...信息处理装置;11...图像识别单元;12...第一合成图像确定单元;13...图像合成指示单元;20...显示装置;21...图像拍摄单元;22...第二合成图像获取单元;23...图像数据创建单元;24...显示单元;90...网络;101...CPU;102...RAM;103...ROM;104...辅助存储装置;105...通信IF;201...CPU;202......ROM;203......RAM;204......辅助存储装置;205......通信IF;206...摄像头;207......UI装置
具体实施方式
下面参照附图描述本发明的一个实施方式。
配置
图1是例示了根据本发明的一实施方式的信息处理系统1的配置的图。信息处理系统1包括:识别图像的信息处理装置10、拍摄并显示图像的显示装置20、以及将信息处理装置10和显示装置20可通信地彼此连接的网络90。网络90例如是局域网(LAN)、广域网(WAN)或它们的组合,并且可以包括有线部分或无线部分。虽然图1示出了单个信息处理装置10和单个显示装置20,但是可以提供多个信息处理装置和/或多个显示装置。
信息处理装置10获取显示装置20拍摄图像,并针对拍摄图像执行图像识别。信息处理装置10指示显示装置20将根据图像识别结果而变化的第一合成图像与拍摄图像合成,并进一步在第一合成图像中的预定位置处合成第二合成图像。例如,如果显示装置20拍摄了风景(后面描述的图7中的(A)),则根据风景合成表示跑步者的移动角色图像作为第一合成图像G1(图7中的(B))。这里,第一合成图像G1中的预定位置(区域G2)是空白的,该预定位置对应于第一合成图像G1所表示的人的头部。当用户使用显示装置20拍摄他们面部时(图7中的(C)),在第一合成图像G1的区域G2中将所拍摄的面部图像作为第二合成图像G3合成(图7中的(D))。因此,表示具有用户面部的跑步者的移动角色图像与在显示装置20上显示的风景图像合成,并且用户能够欣赏这些图像的有趣组合或运动。
图2是例示了显示装置20的硬件配置的图。例如,显示装置20是诸如智能电话、平板电脑或个人计算机的能够执行通信的计算机。显示装置20包括中央处理单元(CPU)201、只读存储器(ROM)202、随机存取存储器(RAM)203、辅助存储装置204、通信IF 205、摄像头206和UI装置207。CPU 201是执行各种操作的处理器。ROM 202是其中存储用于例如启动显示装置20的程序和数据的非易失性存储器。RAM 203是用作CPU 201执行程序时的工作区的易失性存储器。辅助存储装置204是诸如硬盘驱动器(HDD)或固态驱动器(SSD)的非易失性存储装置,例如,其中存储显示装置20中所使用的程序和数据。作为CPU 201执行程序的结果,显示装置20用作计算机装置,并且实现后面将描述的图5所示的功能。通信IF 205是用于根据预定通信标准经由网络90执行通信的接口。通信标准可以是用于无线通信的标准或用于有线通信的标准。在无线通信的情况下,例如,通信IF 205包括根据诸如长期演进(LTE)或Wi-Fi(注册商标)的通信标准操作的天线和通信电路。摄像头206包括镜头和光学元件,并创建指示拍摄图像的图像数据。摄像头206包括设置在显示装置20的前侧的前置摄像头和设置在显示装置20的后侧的后置摄像头。前置摄像头主要在用户自拍时使用,后置摄像头主要在用户拍摄除自身之外的风景等时使用。UI装置207包括操作单元、显示单元和音频输出单元,该操作单元例如包括诸如键和触摸传感器的操作器,该显示单元例如包括液晶面板和液晶驱动电路,该音频输出单元诸如是扬声器和耳机终端。应当注意,显示装置20可以包括除了图2中所示的单元之外的诸如全球定位系统(GPS)单元的其他单元。
图3是例示了信息处理装置10的硬件配置的图。信息处理装置10是包括CPU101、ROM 102、RAM 103、辅助存储装置104和通信IF 105的计算机装置。CPU 101是执行各种操作的处理器。ROM 102是其中存储用于例如启动信息处理装置10的程序和数据的非易失性存储器。RAM 103是用于当CPU 101执行程序时的工作区的易失性存储器。辅助存储装置104是诸如HDD或SSD的非易失性存储装置,例如,其中存储信息处理装置10中使用的程序和数据。作为CPU 101执行程序的结果,实现随后描述的图5中所例示的功能。通信IF105是用于根据预定通信标准经由网络90执行通信的接口。信息处理装置10可以包括除了图3中所例示的单元之外的诸如UI装置的其他单元。
辅助存储装置104存储执行图像识别的图像识别引擎和用于在显示装置20上显示上述第一合成图像的第一合成图像数据组,以及用于确定要在显示装置20上显示的第一合成图像的合成图像确定表单。
图4是例示了合成图像确定表单的图。在合成图像确定表单中,图像识别的识别类型、图像识别结果、用于标识第一合成图像的第一合成图像ID和第一合成图像的显示位置彼此相关联。
识别类型包括分类和对象检测。分类也称为通用对象识别,并且仅指识别图像中包含的对象所属的类别或对象的专有名词,而不识别对象在图像中的位置。通过例如通过图像的特征提取计算矢量量化直方图并将计算结果应用于预先准备的各个类别或专有名词的直方图来实现分类。
另一方面,对象检测也称为特定对象识别,并且指识别图像中包括的对象的类别或专有名词以及对象在图像中的位置(以及还有对象的形状以及对象与另一个对象之间的边界)。通过例如提取图像的局部特征并将统计学习方法应用于提取结果来实现对象检测。信息处理装置10尝试识别显示装置20拍摄图像,并且作为识别的结果,有时能够执行分类,有时不仅能够执行分类而且能够执行对象检测,有时分类和对象检测都无法执行。
在图4中,规定了,如果作为信息处理装置10执行图像识别的结果,图像中包括的对象被分类为例如“桥”,则具有与对象的类别或专有名词相关联的第一合成图像ID“C001”的第一合成图像将要在图像中的绝对坐标X1,Y1处显示。这里所指的绝对坐标是根据在显示装置20的显示区域中预先定义的X坐标轴和Y坐标轴的坐标。即,在这种情况下,第一合成图像被合成在显示装置20的显示区域中使用绝对坐标指定的位置(例如,显示区域的中央部分),而与图像中的作为“桥”的对象的位置无关。
还规定了,如果针对图像中包括的对象,通过作为信息处理装置10执行的图像识别的结果的对象检测获得了图像中对象的类别“建筑物”、专有名词“钟楼”以及位置,具有与对象(类别或专有名词)相关联的第一合成图像ID“C020”的第一合成图像将要在相对坐标x1,y1处显示。这里所指的相对坐标是根据参照作为“钟楼”的检测对象所定义的x坐标轴和y坐标轴(例如,以对象的重心被设置为原点而定义的并且具有根据对象尺寸的单位比例的x坐标轴和y坐标轴)的坐标。在这种情况下,第一合成图像在使用关于图像中的对象“钟楼”的位置的相对坐标所指定的位置处合成,因此第一合成图像的显示位置根据图像中的对象“钟楼”的位置变化。例如,如图7所示,第一合成图像G1总是显示在沿重力方向位于对象“钟楼”的屋顶部分的上方的位置处。
应当注意,辅助存储装置104中存储的各条第一合成图像数据包括指定了第二合成图像在第一合成图像中的显示位置的数据。例如,如果合成了表示跑步者的运动角色图像,作为第一合成图像G1(图7中的(B)),则第一合成图像数据包括指定与第一合成图像G1中的人的头部相对应的区域G2的位置作为预定位置的数据。
图5是示出了信息处理系统1的功能配置的框图。如图5所示,在显示装置20中实现以下配置:即,拍摄图像的图像拍摄单元21、获取第二合成图像的第二合成图像获取单元22、通过把第一合成图像和第二合成图像与图像拍摄单元21所拍摄图像进行合成来创建图像数据的图像数据创建单元23、以及显示与图像数据创建单元23所创建的图像数据相对应的图像的显示单元24。在信息处理装置10中实现以下配置,即,识别图像拍摄单元21所拍摄图像的图像识别单元11、确定根据图像识别单元11的识别结果而变化的第一合成图像的第一合成图像确定单元12、以及图像合成指示单元13,该图像合成指示单元13指示显示装置20把第一合成图像确定单元12所确定的第一合成图像与图像拍摄单元21所拍摄图像合成并且在与拍摄图像合成的第一合成图像中的预定位置处合成第二合成图像。
图像拍摄单元21和第二合成图像获取单元22由显示装置20的摄像头206实现,图像数据创建单元23由显示装置20的CPU 201实现,并且显示单元24由显示装置20的UI装置207实现。图像识别单元11由信息处理装置10的CPU 101实现,第一合成图像确定单元12由信息处理装置10中的CPU 101和辅助存储装置104实现,并且图像合成指示单元13由信息处理装置10中的CPU 101和通信IF 105实现。根据本发明的信息处理系统1中包括的图像合成单元30由图像数据创建单元23和图像合成指示单元13实现。图像合成单元30将根据图像识别单元11的识别结果而变化的第一合成图像与图像拍摄单元21所拍摄图像合成。
操作
将参照图6至图8描述信息处理系统1执行的显示控制的示例。首先,用户激活显示装置20的图像拍摄单元21(后置摄像头)并开始拍摄期望对象(步骤S11)。图像拍摄单元21的拍摄结果实时显示在显示装置20的显示区域中,并且如果图像拍摄单元21的拍摄方向改变了,则显示区域中显示的图像也改变。例如,如果用户用被指向能够拍摄包括钟楼的风景的方向的显示装置20执行预定操作,则在显示装置20的显示区域中显示拍摄图像,如图7中的(A)所示。指示拍摄图像的拍摄图像数据在用户执行操作时或者从执行操作开始连续地或周期性地从通信IF 205发送到信息处理装置10(步骤S12)。此时,期望显示装置20适当地压缩拍摄图像数据以减小数据尺寸。
信息处理装置10的图像识别单元11尝试通过将图像识别引擎应用于拍摄图像数据来执行图像识别(步骤S13)。如果图像识别成功,则第一合成图像确定单元12基于识别结果来确定要与显示装置20拍摄的拍摄图像合成的第一合成图像(步骤S14)。这里,如果图像识别单元11分类成功,则第一合成图像确定单元12识别与图4所示的表单中的对象的类别相关联的第一合成图像ID并且从辅助存储装置104读出具有第一合成图像ID的第一合成图像数据。图像合成指示单元13把所读取的第一合成图像数据与图4中所示表单中的与类别相关联的绝对坐标一起作为图像合成指示发送给显示装置20(步骤S15)。此时,如上所述,第一合成图像数据包括指定第二合成图像在第一合成图像中的显示位置的数据。
另选地,如果对象检测成功,则第一合成图像确定单元12识别与图4所示的表单中的对象的类别或专有名词相关联的第一合成图像ID,并且从辅助存储装置104读出具有第一合成图像ID的第一合成图像数据。图像合成指示单元13把读取的第一合成图像数据与对象在显示装置20的显示区域中的坐标以及与图4所示的表单中的类别或专有名词相关联的相对坐标一起,作为图像合成指令发送到显示装置20(步骤S15)。此时,如上所述,第一合成图像数据包括指定第二合成图像在第一合成图像中的显示位置的数据。
显示装置20的图像数据创建单元23获取上述第一合成图像数据等(步骤S16),然后在显示单元24所显示的拍摄图像上在使用坐标(绝对坐标或相对坐标)指定的位置处显示第一合成图像。例如,如果用户已经拍摄包括钟楼的风景,则如图7中的(B)所示,在钟楼的屋顶部分上方显示第一合成图像G1,该第一合成图像G1是表示跑步者的移动图像。
然后,图像数据创建单元23引导用户拍摄第二合成图像(步骤S17)。该引导能够通过例如显示诸如“拍摄你的面部”的消息并在显示装置20的显示区域中指定面部的拍摄位置来实现。
响应于该引导,用户使用图像拍摄单元21(前置摄像头)拍摄他们的面部。在这种情况下,例如,如图7中的(C)所示,在显示装置20的显示区域中显示用户身体的包括面部的上半部分。图像数据创建单元23使用图像识别技术等从该图像中提取对应于用户头部的部分图像,并获取部分图像作为第二合成图像(步骤S18)。然后,图像数据创建单元23通过将第一合成图像和第二合成图像与拍摄图像合成来创建图像数据(步骤S19),并显示与图像数据相对应的图像(步骤S20)。结果,例如,如图7中的(D)所示,示出了用户面部的第二合成图像被布置在表示跑步者的第一合成图像中的头部位置处,并且这些图像被显示在钟楼的屋顶部分上方。
图8是示出与上述不同的显示的另一示例的图。例如,如果显示装置20拍摄A公司发行的用于给予用户特权的点卡作为对象(图8中的(A)),则根据对象来合成表示跳舞者的移动角色图像作为第一合成图像G4(图4中的第一合成图像ID:C022),并且进一步合成与人一起共舞的动画人物的图像作为另一第一合成图像G6(图4中的第一合成图像ID:C023)(图8中的(B))。在第一合成图像G4中,对应于人的头部的区域G5是空白的。当用户使用显示装置20拍摄他们的面部时(图8中的(C)),将用户的面部图像作为第二合成图像G7合成在第一合成图像G4的区域G5中的(图8中的(D))。因此,表示具有用户面部的人的角色图像和与人一起跳舞的动画角色的图像与显示装置20上显示的点卡合成,并且用户能够欣赏这些图像的组合、排列、或运动。
根据上述实施方式,例如,表示具有用户面部(第二合成图像)的跑步者的运动角色图像(第一合成图像)与显示装置20上显示的拍摄图像合成,并且用户通过观看这些图像的组合、排列或运动能够感受到新的乐趣。由于第一合成图像根据显示装置20上显示的拍摄图像的识别结果而变化,所以当用户拍摄各种对象时,用户能够预期将合成什么类型的第一合成图像并享受期望的结果。此外,由于用户的面部图像被用作第二合成图像,因此用户能够感觉仿佛处于拍摄图像中的虚拟空间中。此外,用户在观看与拍摄图像合成的第一合成图像之后拍摄他们的面部作为第二合成图像,因此用户能够改变要合成的他们面部的方向或表情,以通过例如朝向一侧看或者采取滑稽表情或绝望表情来与拍摄图像和第一合成图像的氛围相匹配。这也为用户增添了乐趣。
变型例
变型例1
上述实施方式能够如下所述地变型。此外,以下变型中的任何两个或更多个可以组合实现。
图像合成单元30不限于根据图像识别单元11的识别结果合成外观变化的第一合成图像,并且可以合成例如尺寸、位置、运动或数量中的至少任何一个变化的第一合成图像。此外,第一合成图像不限于移动图像,并且可以是静止图像。
除了图像识别单元11的识别结果之外,图像合成单元30还可以合成根据用户的属性或显示装置20的位置而变化的第一合成图像。
仅需要图像合成单元30合成根据图像识别单元11的识别结果而变化的第一合成图像,并且,如果例如拍摄建筑物,则图像合成单元30可以识别建筑物所在的地面的平面并且在该平面上合成第一合成图像。
如果第一合成图像的各种元素如上所述地根据图像识别结果而变化,则用户的乐趣增加。
变型例2
在该实施方式中,图像合成单元30总是使用用户拍摄的面部图像作为第二合成图像而与图像识别单元11的识别结果无关,但是图像合成单元30可以合成根据图像识别单元11的识别结果而变化的第二合成图像。例如,用户拍摄具有各种表情的他们面部或从各个方向拍摄他们面部并且将拍摄图像预先存储在显示装置20的辅助存储装置204中,并且进一步给予拍摄图像标签,该标签指示用户与面部的表情或方向相关联的状态(例如,欢乐、悲伤、微笑、哭泣、呆萌或无表情)。标签可以由用户给出或由显示装置20或信息处理装置10使用图像识别技术给出。图像合成单元30使用具有与图像识别单元11的识别结果相关联的标签的面部图像作为第二合成图像。在这种情况下,图像识别单元11的识别结果和用户的状态类型在辅助存储装置204中彼此相关联地存储,并且图像合成单元30识别与图像识别单元11的识别结果相关联的标签,并从辅助存储装置204读出具有该标签的面部的图像数据。此外,图像合成单元30可以根据图像识别单元11识别的结果来合成第二合成图像,该第二合成图像在外观、尺寸、位置、运动和数量中的至少任何一个方面变化,而不限于如上所述的面部表情。应当注意,第二合成图像不限于拍摄图像,并且可以是诸如化身或动画图像的任何图像。如果第二合成图像的各种元素如上所述地根据图像识别结果而变化,则用户的乐趣增加。
变型例3
图像合成单元30可以合成根据第一合成图像而变化的第二合成图像。例如,如果显示装置20拍摄风景,则合成对应于风景的第一合成图像G1。图像合成单元30例如根据第一合成图像G1向用户提出多个第二合成图像候选,并且合成用户从候选中选择的第二合成图像。
作为将从多个第二合成图像中选择的第二合成图像与第一合成图像组合的示例,如果第一合成图像是例如表示逐渐爬上拍摄的建筑物的人的身体运动和位置变化的移动图像,则在该人正在攀爬建筑物的较低楼层的同时展示出带有欢快表情的面部的第二张合成图像可以与第一张合成图像组合,而随着人登上更高楼层展示出带有痛苦表情的面部的第二张合成图像可以与第一合成图像组合。也就是说,可以根据第一合成图像的运动或位置变化来改变第二合成图像。
如果第二合成图像的各种元素如上所述地根据第一合成图像而变化,则用户的乐趣增加。
变型例4
第一合成图像数据可以存储在显示装置20中而不是信息处理装置10中,并且信息处理装置10可以使用第一合成图像ID来仅给予显示装置20关于要使用哪个第一合成图像数据的指示。在这种情况下,能够减少信息处理装置10和显示装置20之间传输的数据量。
变型例5
第一合成图像和第二合成图像不仅可以与图像拍摄单元21实时拍摄图像合成,而且可以与从图像拍摄单元21过去拍摄的并且存储在辅助存储装置204中的图像中选择的图像或显示装置20从另一装置获取的图像合成。在这种情况下,用户能够从许多选项中选择要与第一合成图像和第二合成图像合成的图像。
变型例6
第一合成图像或第二合成图像可以用作广告。
例如,可以使用表示持有制造商销售的宠物瓶(广告目标)的制造商的角色的图像作为第一合成图像,或者使用表示穿着中央例示有宠物瓶(广告目标)的衣服的角色的图像作为第一合成图像。
另选地,当显示装置20被保持在饮料制造商销售的宠物瓶(广告目标)上方时,饮料制造商的角色的图像可以作为第一合成图像显示在宠物瓶的一位置处并且用户面部可以作为第二合成图像与角色图像组合。
在另一示例中,当显示装置20被保持在城镇中的大型交叉口上时,可以在安装于交叉口处的屏幕面板的区域中合成第一合成图像,并且可以在第一合成图像上再现表示广告目标的运动图像作为第二合成图像。在这种情况下,看起来仿佛正在城镇中再现广告。
可以根据用户的属性、显示装置20的位置或广告商支付的单位成本来改变第一合成图像和第二合成图像的组合。
因此,本发明能用于广告。
其它变型例
在实施方式的以上描述中使用的框图以功能为单位示出了块。这些功能块(组成单元)通过硬件和/或软件的任何组合来实现。此外,对用于实现功能块的装置没有特别限制。换句话说,功能块可以通过一个物理和/或逻辑组合的装置,或者直接和/或间接连接(例如,以有线和/或无线方式)的多个物理和/或逻辑分离的装置来实现。
本说明书中解释的方面/实施方式还可以应用于使用长期演进(LTE)、LTE-高级(LTE-A)、超级3G、IMT-高级、4G、5G、未来无线电接入(FRA)、W-CDMA(注册商标)、GSM(注册商标)、CDMA2000、超移动宽带(UMB)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE802.20、超宽带(UWB)、蓝牙(注册商标)或其他适当的系统,和/或基于它们扩展的下一代系统的系统。
只要不产生矛盾,可以改变本说明书中描述的实施方式的处理过程中的顺序。例如,在本说明书中解释的方法以示例的顺序示出了各种步骤元素,并且不限于所示的特定顺序。本说明书中描述的实施方式或变型例也可以单独使用或组合使用,或者也可以在实现时进行切换。此外,预定信息的通知(例如,“是X”的通知)不限于明示地执行,并且也可以隐式地执行(例如,不执行预定信息的通知)。
本说明书中使用的术语“系统”和“网络”能够以可互换的方式使用。
在本说明书中使用的术语“确定”可以包括各种类型的操作。术语“确定”能够包括判断、计算、算出、处理、导出、调查、查找(例如,查找表单、数据库或其他数据结构)或确认被视为“确定”的情况。此外,术语“确定”能够包括接收(例如,接收信息)、发送(例如,发送信息)、输入、输出或访问(例如,访问存储器中的数据)被视为“确定”的情况。此外,术语“确定”能够包括解决、选择、选定、建立或比较视为“确定”的情况。换句话说,术语“确定”能够包括一些操作被视为“确定”的情况。
除非另有说明,否则本说明书中使用的短语“基于”和“根据”并不意味着“仅基于”和“仅根据”。换句话说,短语“基于”能够表示“仅基于”和“至少基于”二者。对于“根据”,同样如此。术语“包括”、“包含”和其他形式旨在是详尽的,只要它们在本说明书或权利要求中使用,类似于术语“提供有”。此外,在本说明书或权利要求中使用的术语“或”不是排他性的。在本公开的全部内容中,当通过翻译添加冠词时,例如,英语中“a”、“an”和“the”,这些冠词也表示复数形式,除非从上下文中另外明示。
无论软件是被称为软件、固件、中间件、微代码、硬件描述语言或任何其他名称,它都应被广泛地解释为指令、指令集、代码、代码段、程序代码、程序、子程序、软件模块、应用程序、软件应用程序、软件包、例程、子例程、对象、可执行文件、执行线程、过程、功能等。
也可以经由传输介质发送/接收软件、指令等。例如,如果使用有线技术(诸如同轴电缆、光纤电缆、双绞线或数字用户线(DSL))和/或使用红外光、无线电波、微波等的无线技术,从网站、服务器或其他远程源传输软件,则传输介质的定义将包括有线技术和/或无线技术。
术语“连接”和“结合”或其任何其他形式表示两个或更多个元件之间的任何类型的直接或间接连接或结合,并且能够包括彼此“连接”或“结合”的两个元件之间存在一个或多个中间元件的情况。元件可以经受物理结合或连接,逻辑结合或连接,或物理和逻辑结合/连接的组合。当在本说明书中使用时,两个元件能够被认为通过使用一条或多条线、线缆和/或印刷电连接件彼此“连接”或“结合”,并且使用诸如波长在射频范围、微波范围和光(可见光和不可见光二者)范围内的电磁能的电磁能,作为一些非限制性和非包括的示例。
根据本发明的信息处理装置能够通过整体具有如实施方式中描述的所有功能的装置来实现,或者可以是其中装置的功能进一步分布在多个装置中的系统。
本发明能够作为显示装置1执行的信息处理方法或用于使计算机用作显示装置1的程序来实施。例如,该程序可以以记录在记录介质(诸如光盘)上的模式提供,或者可以以经由诸如因特网之类的网络下载到计算机并且安装在计算机中以使其可用的模式来提供。无论该程序是称为软件、固件、中间件、微代码、硬件描述语言或任何其他名称,都应广义地解释为指令、指令集、代码、代码段、程序代码、程序、子程序、软件模块、应用程序、软件应用程序、软件包、例程、子例程、对象、可执行文件、执行线程、过程、功能等。

Claims (10)

1.一种信息处理系统,该信息处理系统包括:
图像识别单元,所述图像识别单元被配置为识别图像;以及
图像合成单元,所述图像合成单元被配置为将根据所述图像识别单元的识别结果而变化的第一合成图像与所述图像合成,并且在与该图像合成的所述第一合成图像中的预定位置处合成第二合成图像。
2.根据权利要求1所述的信息处理系统,
其中,所述图像合成单元将根据所述图像识别单元的识别结果在外观、尺寸、位置、运动和数量中的至少任何一个方面变化的所述第一合成图像与所述图像合成。
3.根据权利要求1或2所述的信息处理系统,
其中,所述图像合成单元将根据所述图像识别单元的识别结果而变化的所述第二合成图像与所述图像合成。
4.根据权利要求3所述的信息处理系统,
其中,所述图像合成单元将根据所述图像识别单元的识别结果在外观、尺寸、位置、运动和数量中的至少任何一个方面变化的所述第二合成图像与所述图像合成。
5.根据权利要求4所述的信息处理系统,
其中,所述图像合成单元从包括人的头部的拍摄图像中提取对应于该人的头部的部分图像,并将该部分图像作为所述第二合成图像与所述图像合成。
6.根据权利要求5所述的信息处理系统,
其中,所述图像合成单元将根据所述图像识别单元的识别结果在该人的面部的方向或该面部的表情方面变化的第二合成图像与所述图像合成。
7.根据权利要求1或2所述的信息处理系统,
其中,所述图像合成单元将根据要合成的所述第一合成图像而变化的所述第二合成图像与所述图像合成。
8.根据权利要求1至7中的任一项所述的信息处理系统,
其中,当所述图像识别单元识别出所述图像中包括的对象所属的类别时,所述图像合成单元在所述图像中的预定位置处根据所述类别合成所述第一合成图像。
9.根据权利要求1至8中的任一项所述的信息处理系统,
其中,当所述图像识别单元识别出所述图像中包括的对象的位置时,所述图像合成单元在与所述对象有关的预定位置处根据所述对象合成所述第一合成图像。
10.一种信息处理装置,该信息处理装置包括:
图像合成指示单元,所述图像合成指示单元被配置为指示显示装置将根据图像的识别结果而变化的第一合成图像与所述图像合成,并指示所述显示装置在与所述图像合成的所述第一合成图像中的预定位置处合成第二合成图像。
CN201780084122.5A 2017-01-23 2017-12-25 信息处理系统及信息处理装置 Pending CN110214445A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-009643 2017-01-23
JP2017009643 2017-01-23
PCT/JP2017/046428 WO2018135246A1 (ja) 2017-01-23 2017-12-25 情報処理システム及び情報処理装置

Publications (1)

Publication Number Publication Date
CN110214445A true CN110214445A (zh) 2019-09-06

Family

ID=62908455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780084122.5A Pending CN110214445A (zh) 2017-01-23 2017-12-25 信息处理系统及信息处理装置

Country Status (5)

Country Link
US (1) US11010947B2 (zh)
EP (1) EP3557865A4 (zh)
JP (1) JP6730461B2 (zh)
CN (1) CN110214445A (zh)
WO (1) WO2018135246A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7245451B2 (ja) * 2018-08-06 2023-03-24 住友電気工業株式会社 オブジェクト検出方法、オブジェクト検出装置及びコンピュータプログラム
WO2020031423A1 (ja) * 2018-08-06 2020-02-13 住友電気工業株式会社 オブジェクト検出方法、オブジェクト検出装置及びコンピュータプログラム
KR102641424B1 (ko) * 2019-08-09 2024-02-28 삼성전자주식회사 컴퓨팅 장치 및 그 동작 방법
US20210390752A1 (en) * 2020-06-12 2021-12-16 Disney Enterprises, Inc. Real-time animation motion capture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120268552A1 (en) * 2011-04-19 2012-10-25 Samsung Electronics Co., Ltd. Apparatus and method for compositing image in a portable terminal
CN103778376A (zh) * 2012-10-23 2014-05-07 索尼公司 信息处理装置和存储介质
US20150172560A1 (en) * 2013-12-12 2015-06-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN106161939A (zh) * 2016-07-27 2016-11-23 北京锤子数码科技有限公司 一种照片拍摄方法及终端
CN106210526A (zh) * 2016-07-29 2016-12-07 维沃移动通信有限公司 一种拍摄方法及移动终端
CN106303293A (zh) * 2016-08-15 2017-01-04 广东欧珀移动通信有限公司 视频处理方法、装置及移动终端

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP3853678B2 (ja) 2002-03-14 2006-12-06 富士写真フイルム株式会社 画像処理装置、画像処理システム、及び画像処理プログラム
JP4181923B2 (ja) * 2003-05-29 2008-11-19 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP4671192B2 (ja) * 2006-05-02 2011-04-13 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP5058842B2 (ja) * 2008-02-15 2012-10-24 オリンパス株式会社 仮想風景表示装置
JP5131257B2 (ja) * 2009-08-27 2013-01-30 カシオ計算機株式会社 表示制御装置及び表示制御プログラム
JP5423379B2 (ja) * 2009-08-31 2014-02-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5024465B2 (ja) * 2010-03-26 2012-09-12 株式会社ニコン 画像処理装置、電子カメラ、画像処理プログラム
JP2012065263A (ja) * 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
JP5022498B2 (ja) * 2010-10-15 2012-09-12 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム
US9381426B1 (en) * 2013-03-15 2016-07-05 University Of Central Florida Research Foundation, Inc. Semi-automated digital puppetry control
KR102124617B1 (ko) 2013-09-03 2020-06-19 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치
JP6637650B2 (ja) * 2014-10-31 2020-01-29 ティフォン インコーポレーテッドTyffon Inc. ゲームプログラム、コンピュータの制御方法、情報処理装置、画像出力装置、画像出力方法および画像出力プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120268552A1 (en) * 2011-04-19 2012-10-25 Samsung Electronics Co., Ltd. Apparatus and method for compositing image in a portable terminal
CN103778376A (zh) * 2012-10-23 2014-05-07 索尼公司 信息处理装置和存储介质
US20150172560A1 (en) * 2013-12-12 2015-06-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN106161939A (zh) * 2016-07-27 2016-11-23 北京锤子数码科技有限公司 一种照片拍摄方法及终端
CN106210526A (zh) * 2016-07-29 2016-12-07 维沃移动通信有限公司 一种拍摄方法及移动终端
CN106303293A (zh) * 2016-08-15 2017-01-04 广东欧珀移动通信有限公司 视频处理方法、装置及移动终端

Also Published As

Publication number Publication date
EP3557865A4 (en) 2020-01-08
EP3557865A1 (en) 2019-10-23
JP6730461B2 (ja) 2020-07-29
US11010947B2 (en) 2021-05-18
JPWO2018135246A1 (ja) 2019-11-07
US20200126279A1 (en) 2020-04-23
WO2018135246A1 (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
US11715473B2 (en) Intuitive computing methods and systems
US10902262B2 (en) Vision intelligence management for electronic devices
US20200310532A1 (en) Systems, apparatuses, and methods for gesture recognition and interaction
WO2018142756A1 (ja) 情報処理装置及び情報処理方法
CN107993191B (zh) 一种图像处理方法和装置
CN110168530B (zh) 电子设备和操作该电子设备的方法
US10657676B1 (en) Encoding and decoding a stylized custom graphic
CN109688451B (zh) 摄像机效应的提供方法及系统
EP2559030B1 (en) Intuitive computing methods and systems
CN110214445A (zh) 信息处理系统及信息处理装置
CN111652678A (zh) 物品信息显示方法、装置、终端、服务器及可读存储介质
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
US9633479B2 (en) Time constrained augmented reality
US20090161963A1 (en) Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
US20190012717A1 (en) Appratus and method of providing online sales information of offline product in augmented reality
US20200258189A1 (en) Multistage neural network processing using a graphics processor
CN111491187B (zh) 视频的推荐方法、装置、设备及存储介质
JP2016509705A (ja) 視線追跡を使用して拡張現実を可能にする
KR101545138B1 (ko) 증강 현실을 이용한 광고 제공 방법과 그를 위한 시스템, 장치 및 단말기
CN108697934A (zh) 与目标图像有关的引导信息
CN111353519A (zh) 用户行为识别方法和系统、具有ar功能的设备及其控制方法
CN114780181B (zh) 资源显示方法、装置、计算机设备及介质
KR101754993B1 (ko) 증강 현실을 이용한 포토존 촬영 장치
JP6857537B2 (ja) 情報処理装置
CN109523941A (zh) 基于云识别技术的室内伴随导游方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190906

WD01 Invention patent application deemed withdrawn after publication