CN103907138A - 信息处理设备、显示控制方法和程序 - Google Patents

信息处理设备、显示控制方法和程序 Download PDF

Info

Publication number
CN103907138A
CN103907138A CN201280053464.8A CN201280053464A CN103907138A CN 103907138 A CN103907138 A CN 103907138A CN 201280053464 A CN201280053464 A CN 201280053464A CN 103907138 A CN103907138 A CN 103907138A
Authority
CN
China
Prior art keywords
depth
context
image
degree
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280053464.8A
Other languages
English (en)
Other versions
CN103907138B (zh
Inventor
铃木诚司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103907138A publication Critical patent/CN103907138A/zh
Application granted granted Critical
Publication of CN103907138B publication Critical patent/CN103907138B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Abstract

提供一种信息处理设备,包括:判断单元,用于通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及显示控制单元,用于基于由判断单元判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。

Description

信息处理设备、显示控制方法和程序
技术领域
本发明涉及信息处理设备、显示控制方法和程序。
背景技术
提出了作为虚拟试穿系统的用于将其中拍摄有用户的拍摄图像与衣服图像合成的各种试穿图像产生技术。
例如,在专利文献1中公开了将用户身体图像与衣服图像合成的处理。具体地说,在专利文献1中描述的图像处理服务器改变衣服图像的大小并基于附加在用户身体图像上的身体轮廓数据(诸如身高和肩宽)和图像中的身体的朝向来调整衣服图像的朝向,并将其合成到身体图像上。
文献列表
专利文献
专利文献1:JP2006-304331A
发明内容
技术问题
但是,使用在专利文献1中描述的试穿图像产生技术,衣服图像被合成到用户身体图像上,因此虚拟衣服总是被绘制在实际物体(身体)的前面。例如,此外,当用户的手在躯干前面时,虚拟衣服被绘制在前面,因此手被隐藏在虚拟衣服后面。
如上所述,当实际物体与虚拟物体之间的前后关系复杂时,难以适当地产生合成图形。
因此,本公开提出一种新颖的、改进的信息处理设备以及显示控制方法和程序,该信息处理设备能够针对每个部分来判断实际物体与虚拟物体之间的前后关系。
问题的解决方案
根据本公开的实施例,提供一种信息处理设备,包括:判断单元,用于通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及显示控制单元,用于基于由判断单元判断的前后关系,将投影了所述虚拟物体的虚拟图像重叠显示在拍摄了所述实际物体的拍摄图像上。
根据本公开实施例,提供一种显示控制方法,包括以下步骤:通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及基于在判断步骤中判断的前后关系,将投影了所述虚拟物体的虚拟图像重叠显示在拍摄了所述实际物体的拍摄图像上。
根据本技术实施例,提供一种使得计算机执行如下处理的程序:通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及基于通过判断处理判断的前后关系,将投影了所述虚拟物体的虚拟物体重叠显示在拍摄了所述实际物体的拍摄图像上。
本发明的有益效果
如上所述,根据本公开,可以针对每个部分判断实际物体与虚拟物体之间的前后关系。
附图说明
图1是用于说明根据本公开的一个实施例的AR试穿系统的概要的示图。
图2是用于说明示例性覆盖衣服图像的示图。
图3是用于说明另一个示例性覆盖衣服图像的示图。
图4是示出根据本公开的一个实施例的信息处理设备的结构的框图。
图5是用于说明在现实空间中照相机与被摄体之间的位置关系,以及其中拍摄有被摄体的拍摄图像的示图。
图6是用于说明根据本公开的一个实施例的骨骼信息的示图。
图7是用于说明根据本公开的一个实施例的深度信息的示图。
图8是用于说明在虚拟空间中虚拟照相机与虚拟衣服之间的位置关系,以及虚拟衣服被投影到其中的虚拟衣服图像的示图。
图9是示出根据本公开的一个实施例的在AR试穿图像显示中的基本显示控制处理的流程图。
图10是示出根据本公开的一个实施例的基于深度信息的AR试穿图像绘制控制的流程图。
图11是用于说明根据本公开的一个实施例的示例性的绘制的AR试穿图像的示图。
图12是用于说明根据本公开的一个实施例的示例性的绘制的AR试穿图像的示图。
具体实施方式
在下文中,将参照附图详细地描述本公开的优选实施例。要注意,在本说明书和附图中,基本上具有相同的功能和结构的元件用相同的附图标记表示,并且省略重复说明。
将按照以下顺序进行说明。
1.根据本公开的一个实施例的AR试穿系统的概要
2.信息处理设备的结构
3.显示控制
3-1.基本显示控制
3-2.根据前后关系绘制AR试穿图像
4.总结
<1.根据本公开的一个实施例的AR试穿系统的概要>
近年来,一种用于将附加信息重叠在真实世界上并将其呈献给用户的被称为增强现实(augmented reality,AR)的技术受到了关注。在AR技术中要被呈献给用户的信息可通过使用诸如文本、图标或动画的各种形式的虚拟物体被可视化。AR技术应用于的一个主要领域是支持真实世界中的用户的活动。在下文中,AR技术被应用于试穿系统。
通过利用AR技术的试穿系统,与用户的活动的协同地,虚拟衣服图像被重叠显示,从而使得可实时地体验虚拟试穿。根据本公开的一个实施例的AR试穿系统判断作为真实物体的被摄体与作为虚拟物体的虚拟衣服之间的前后关系,并且基于判断的前后关系将虚拟图像重叠显示。
将参考图1来描述根据本公开的一个实施例的AR试穿系统的概要。如图1所示,根据本公开的一个实施例的AR试穿系统1具有信息处理设备10、照相机15、传感器17和显示装置19。安装AR试穿系统1的场所没有特别的限制。例如,AR试穿系统1可被安装在用户家中或者可被安装在店铺中。
在图1中示出的示例中,构成AR试穿系统1的多个单元(信息处理设备10、照相机15、传感器17和显示装置19)被分开构造,但是根据本公开的AR试穿系统1的结构不限于此。构成AR试穿系统1的某些单元的组合可被集成。例如,构成AR试穿系统1的多个单元可被并入到智能电话、PDA(个人数字助理)、移动电话、便携式音乐播放器、便携式视频处理器或便携式游戏机中。
照相机15(拍摄装置)拍摄存在于真实空间中的物体。在真实空间中存在的物体没有特别的限制,并且可以是诸如人或动物的生物,或者除了生物以外的任何东西,诸如车库或电视柜。在图1中示出的示例中,作为真实空间物体的被摄体A(例如,人)由照相机15来拍摄。由照相机15拍摄的图像(可被称为拍摄图像)被显示在显示装置19上。在显示装置19上显示的拍摄图像可以是RGB图像。照相机15将拍摄图像发送到信息处理设备10。
传感器17具有检测来自真实空间的参数的功能,并且将检测数据发送到信息处理设备10。例如,当传感器17由红外传感器构成时,传感器17可检测来自真实空间的红外线,并将基于红外线的电信号作为检测数据提供给信息处理设备10。例如,信息处理设备10可基于该检测数据来识别真实空间物体。传感器17的类型并不限于红外传感器。在图1中示出的示例中,假定检测数据被从传感器17供应到信息处理设备10,但是要供应到信息处理设备10的检测数据可以是由照相机15拍摄的图像。
信息处理设备10根据对真实空间物体的识别结果将虚拟物体与拍摄图像合成或者修改拍摄图像,从而处理拍摄图像。显示装置19可显示由信息处理设备10处理的图像。
例如,如图1所示,信息处理设备10可识别在真实空间中的被摄体A,并且实时地在显示装置19上显示合成了衣服图像的试穿图像。在本文中,用户身体是真实空间视频,要试穿的衣服的图像是要被重叠显示在真实空间视频上的虚拟物体。因此,AR试穿系统1可提供实时的虚拟试穿。
在本文中,通过虚拟试穿系统,衣服图像被覆盖在拍摄有被摄体的拍摄图像上,因此虚拟物体(虚拟衣服)总是被绘制在实际物体(被摄体)前面。下面将参考图2和图3来描述由于衣服图像的覆盖而导致的不良效果。
图2是用于说明示例性覆盖衣服图像的示图。如图2所示,如果在被摄体的手位于躯干前面时虚拟衣服被覆盖在被摄体上,则位于被摄体的躯干前面的手被隐藏在虚拟衣服后面,因此手与虚拟衣服之间的前后关系未被正确地表达。
还提出一种方法,该方法试图通过使用颜色信息来适当地表达前后关系。例如,衣服图像不被绘制在拍摄图像中的肉色部分上。从而,当手放置在被摄体的躯干前面时,衣服图像不被绘制在手上。但是,当被摄体穿上接近肉色的衣服时,使用该方法很难适当地绘制衣服图像。如图3所示,当被摄体穿上长袖衣服时,使用该方法使得仅有手看起来被隔离在躯干的中心处。
还提出了另外一种方法,该方法试图通过对拍摄图像中的物体分区来适当地表达前后关系。分区就是以诸如“人”和“衣服”的物体为单位将图像分成多个区域,并且比较每个物体的前后关系,因此可以确定“‘衣服’在‘人’前面”或者“‘人’在‘衣服’前面”。但是,例如,如图2所示,当手位于躯干前面时,很难连续地确定“‘衣服’在‘人’前面和‘人’再次在前面”。因此,即使使用分区也很难正确地确定实际物体与虚拟物体之间的前后关系。
很难正确地确定诸如上述的手或躯干的“人”的一个物体的每个部分与虚拟物体之间的前后关系。如果前后关系不能被正确地确定,那么虚拟衣服不能在任意部分被适当地绘制,这导致了虚拟试穿系统的精确性的降低。
根据本公开的一个实施例的AR试穿系统通过使用深度信息,针对每个部分确定被摄体与虚拟衣服之间的前后关系,并基于确定的前后关系以重叠方式显示衣服图像。因此,使用根据本实施例的AR试穿系统,例如,如图1所示,即使当手位于被摄体A的躯干前面时,具有被摄体与虚拟衣服之间的正确前后关系的试穿图像可被显示在显示装置19上。
<2.信息处理设备的结构>
下面,将参考图4来描述实现根据本公开的AR试穿系统的信息处理设备10的结构。如图4所示,信息处理设备10具有控制单元100、操作输入单元120和存储单元130。控制单元100具有骨骼位置计算单元101、显示控制单元105、深度计算单元113和前后关系判断单元115。信息处理设备10以有线或无线方式与照相机15、传感器17以及显示装置19连接。
控制单元100与诸如CPU(中央处理单元)或DSP(数字信号处理器)的处理器对应。控制单元100执行存储在存储单元130或其它存储介质上的程序,从而操作稍后描述的控制单元100的各种功能。所有构成控制单元100的各个块可以不包括在同一装置中,并且它们中的一部分可被并入到其它装置(诸如服务器)中。
存储单元130通过使用诸如半导体存储器或硬盘的存储介质来存储用于由信息处理设备10进行的处理的程序和数据。例如,它存储用于使计算机充当控制单元100的程序。此外,例如,存储单元130将控制单元100要使用的数据存储在其中。根据本实施例的存储单元130将关于衣服饰品的3D数据作为要显示的虚拟物体进行存储。在本说明书中,衣服饰品包括衣服和饰品。饰品包括:眼镜、帽子、腰带等。
操作输出单元120由输入部件和输入控制电路构成,输入部件诸如为鼠标、键盘、触摸面板、按钮、麦克风、开关、控制杆或遥控器,用户通过其来输入信息,输入控制电路用于基于用户的输入来产生输入信号并将其输出到控制单元100中。用户可通过操作操作输入单元120来指示信息处理设备10的电源的开启/关闭或者激活AR试穿系统程序。
照相机15(拍摄装置)通过使用诸如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)的拍摄装置来拍摄真实空间,从而产生拍摄图像。根据本公开实施例,假定照相机15与信息处理设备10分开构造,但是照相机15也可以是图像处理设备10的一部分。
照相机15将拍摄时的照相机15的设置信息供应给信息处理设备10。在本文中,图5示出了用于说明在真实空间中照相机15与被摄体A之间的位置关系以及其中拍摄有被摄体A的拍摄图像A’的示图。在图5中,为了方便,作为照相机15的透镜(未示出)的光学中心的主点与照相机15的成像装置(未示出)之间的焦距freal,以及在成像装置上拍摄的被摄体A(3D,xyz坐标)的拍摄图像A’(2D,xy坐标)在被摄体一侧示出。如稍后所述,照相机15与被摄体A之间的距离dreal被计算为深度信息。照相机15的视角θreal主要依赖于焦距freal来确定。照相机15将诸如焦距freal(或视角θreal)和拍摄图像A’的像素数量的照相机15的设置信息供应给信息处理设备10。
传感器17具有从真实空间检测参数的功能。例如,当传感器17由红外传感器构成时,传感器17可检测来自真实空间的红外线,并将基于红外线的电信号作为检测数据提供给信息处理设备10。传感器17的类型不限于红外传感器。当由照相机15拍摄的图像被作为检测数据供应到信息处理设备10时,传感器17可不存在。
显示装置19是由LCD(液晶显示器)、OLED(有机发光二极管)或CRT(阴极射线管)构成的显示模块。根据本公开的实施例,假定显示装置19与信息处理设备10分开构成,但是显示装置19也可以是图像处理设备10的一部分。
随后,将描述控制单元100的功能结构。如上所述,控制单元100具有骨骼位置计算单元101、显示控制单元105、深度计算单元113和前后关系判断单元115。
(骨骼位置计算单元101)
骨骼位置计算单元101基于检测数据来计算在拍摄图像中拍摄的物体的骨骼位置。用于计算拍摄图像中拍摄的物体的真实空间骨骼位置的方法没有特别的限制。例如,骨骼位置计算单元101识别在拍摄图像中存在物体的区域(在下文中也将被称为“物体存在区域”)并且从深度计算单元113获取拍摄图像中的物体的深度信息。然后,骨骼位置计算单元101可识别在拍摄图像中拍摄的物体的真实空间部位(诸如头、左肩、右肩和腹部),并基于物体存在区域的深度和形状(特征量)来计算每个部位的中心位置作为骨骼位置。骨骼位置计算单元101使用存储在存储单元130中的特征量字典,将从拍摄图像确定的特征量与之前登记在特征量字典中的物体的每个部位的特征量相关联,从而识别包含在拍摄图像中的物体的部位。
多种方法可被假定为用于识别物体存在区域的方法。例如,当拍摄图像被作为检测数据供应到图像处理设备10时,骨骼位置计算单元101可基于未拍摄有物体的拍摄图像与拍摄有物体的拍摄图像之间的差值来识别物体存在区域。更具体地说,骨骼位置计算单元101可识别未拍摄有物体的拍摄图像与拍摄有物体的拍摄图像之间的差值超出阈值的区域,作为物体存在区域。
例如,当由传感器17检测到的参数被作为检测数据供应到信息处理设备10时,骨骼位置计算单元101可基于该检测数据来识别物体存在区域。更具体地说,骨骼位置计算单元101可识别检测到的红外线的量超出阈值的区域,作为物体存在区域。
骨骼位置计算单元101基于使用上述各种方法获取的物体存在区域的深度和形状(特征量),识别在拍摄图像中拍摄的物体的真实空间部位(诸如头和肩),并计算每个部位的骨骼位置的坐标。下面将参考图6来描述包含在骨骼位置计算单元101中计算的构成被摄体A的一个或多个部位的骨骼位置的骨骼信息。
图6是用于说明骨骼信息的示图。在图6中示出的示例中,使用指示构成被摄体A的15个部位的位置的坐标B1到B3、B6、B7、B9、B12、B13、B15、B17、B18、B20到B22和B24来指示骨骼信息,但是包含在骨骼信息中的部位的数量并没有特别的限制。
坐标B1指示“头”的坐标,坐标B2指示“颈”的坐标,坐标B3指示“躯干”的坐标,坐标B6指示“右肩”的坐标,坐标B7指示“右肘”的坐标。坐标B9指示“右手”的坐标,坐标B12指示“左肩”的坐标,坐标B13指示“左肘”的坐标,坐标B15指示“左手”的坐标。
坐标B17指示“右髋”的坐标,坐标B18指示“右膝”的坐标,坐标B20指示“右脚”的坐标,坐标B21指示“左髋”的坐标。坐标B22指示“左膝”的坐标,坐标B24指示“左脚”的坐标
(深度计算单元113)
深度计算单元113基于检测数据来计算在拍摄图像中的物体的深度信息。用于计算在拍摄图像中拍摄的物体的真实空间深度(在本文中为距照相机15的距离)的方法没有特别的限制,可假定各种方法。
例如,深度计算单元113可基于由传感器17检测到的参数来计算在拍摄图像中的物体的深度信息。更具体地说,当诸如红外线的光从照射装置(未示出)照射到物体上时,深度计算单元113分析由传感器17检测到的光,从而计算在拍摄图像中的物体的深度信息。
例如,深度计算单元113可基于由传感器17检测到的光的相位延迟来计算在拍摄图像中的物体的深度信息。该方法可被称为TOF(Time Of Flight,飞行时间)方式。或者,当从照射装置(未示出)照射的光由众所周知的模式构成时,深度计算单元113分析构成由传感器17检测到的光的模式的失真,从而计算在拍摄图像中的物体的深度信息。
已经描述了设置在控制单元100中的深度计算单元113。在本文中,具有计算在拍摄图像中的物体的深度信息的功能的成像装置被称为深度照相机,并且可通过立体照相机或激光测距扫描仪来实现。当信息处理设备10可从诸如深度照相机的外部装置获取深度信息时,深度计算单元113可以不存在。
由深度计算单元113计算或从深度照相机等获取的深度信息将在下面描述。例如,深度信息是按拍摄图像的每个像素的实际尺寸(按厘米)获取的。图7是在图像中表示这样的深度信息的示图。在图7中示出的图像中,深度的程度以灰阶的方式来指示。具体地说,深度的程度越高(距照相机15距离越长),被表示得越白,深度的程度越低(距照相机15距离越近),被表示得越黑。以这种方式,在拍摄图像中的深度信息可以按每个像素的实际尺寸(按厘米)来获取。
(前后关系判断单元115)
前后关系判断单元115通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系。
更具体地说,例如,前后关系判断单元115将拍摄图像中的物体的深度信息(参见图5中指示的距离dreal)与虚拟图像中的物体的深度信息(参见图8中示出的距离dvertual)进行比较,从而判断每个像素的前后关系。
前后关系判断单元115可从深度计算单元113获取拍摄图像中的物体的深度信息并且从显示控制单元105获取虚拟图像中的物体的深度信息。
在本文中,可假定当深度越小(越浅)时,照相机与物体之间的距离越短。可假定当深度越大(越深)时,照相机与物体之间的距离越长。因此,根据本实施例的前后关系判断单元115将拍摄图像中的物体的深度信息与虚拟图像中的物体的深度信息进行比较,并判断出具有较小深度的物体位于前面并且具有较大深度的物体位于后面。此外,前后关系判断单元115将判断结果输出到显示控制单元105。
(显示控制单元105)
显示控制单元105产生虚拟衣服被重叠显示在拍摄图像中拍摄的被摄体上的AR试穿图像,并将该AR试穿图像显示在显示装置19上。基于由前后关系判断单元115判断的拍摄图像中的物体(诸如被摄体A)与虚拟物体(诸如虚拟衣服C)之间的针对每个部分的前后关系,根据本实施例的显示控制单元105显示要重叠的虚拟衣服。从而,即使在被摄体A与虚拟图像C之间的前后关系复杂时,根据本实施例的显示控制单元105也可控制显示正确的AR试穿图像。
将参考图8来描述要重叠在拍摄图像上的虚拟图像的产生。图8是用于说明在虚拟空间中的虚拟照相机25与虚拟衣服C之间的位置关系,以及其中虚拟衣服C被投影(渲染)的虚拟衣服图像C’(也被称为虚拟图像)的示图。在图8中,渲染的虚拟衣服图像C’被示出在虚拟衣服的一侧,类似于图5中拍摄了真实空间的拍摄图像A’。
虚拟照相机25的设置(内部参数)是根据用于拍摄真实空间的照相机15的设置(内部参数)来确定的。例如,照相机的设置(内部参数)是焦距f、视角θ、像素数量等。显示控制单元105设置虚拟照相机25以与真实空间照相机15匹配(这可被称为初始化)。
然后,基于拍摄图像中的物体的深度信息,显示控制单元105将针对被摄体的骨骼位置调整的虚拟衣服C布置在与虚拟照相机25相距同照相机15与被摄体A之间的真实空间距离dreal相同的距离dvertual的位置处。显示控制单元105可基于之前建模的3D数据来产生虚拟衣服C。例如,如图8所示,虚拟衣服C的表面以一组三角形构成,从而显示控制单元105可更真实地表示虚拟衣服的3D形状。当被摄体A的骨骼位置随着时间改变时,显示控制单元105可改变虚拟衣服C的布置以跟踪骨骼位置。
通过虚拟照相机25,渲染的或3D衣服图像C被投影到2D平面图像上,从而显示控制单元105获取到虚拟衣服图像C’(虚拟图像)。
当将衣服图像C’重叠显示在拍摄图像A’上(参见图5)时,显示控制单元105针对每个部分(诸如像素),基于前后关系判断单元115判断结果来控制绘制的衣服图像C’的有无。由显示控制单元105进行的显示控制将在下面的<3.显示控制>中详细地描述。
实现根据本公开的一个实施例的AR试穿系统的信息处理设备10的结构已经在上文中详细描述。随后,将描述由信息处理设备10进行的对AR试穿图像的显示控制。
<3.显示控制>
[3-1.基本显示控制]
图9是示出由信息处理设备10进行的对AR试穿图像的基本显示控制处理的流程图。如图9所示,首先,在步骤S110中,显示控制单元105初始化虚拟空间中的虚拟照相机25的设置,以与真实空间中的照相机15的设置匹配。
然后,在步骤S113中,骨骼位置计算单元101计算拍摄的真实空间中的被摄体A的骨骼位置(xyz坐标),并将其输出到显示控制单元105。
接下来,在步骤S116中,显示控制单元105布置虚拟衣服C以调整适于在虚拟空间中的被摄体A的骨骼位置(xyz坐标)。
然后,在步骤S119中,显示控制单元105渲染虚拟衣服C以获取衣服图像C’(虚拟图像),绘制衣服图像C’被重叠在拍摄图像A’上的AR试穿图像,并将其显示在显示装置19上(AR显示控制)。
信息处理设备10在步骤S122中重复地执行步骤S113到S119,直到结束指令被发出。从而,信息处理设备10可提供实时地跟踪被摄体A的运动的AR试穿图像。
在上文中已经描述了基本显示控制处理。在步骤S119中,根据本实施例的信息处理设备10基于被摄体A与虚拟衣服C之间的前后关系来控制AR试穿图像的绘制。将在下面参考图10具体地描述根据本实施例的根据前后关系的AR试穿图像的绘制。
[3-2.根据前后关系绘制AR试穿图像]
图10是示出根据本实施例的信息处理设备10的基于深度信息的AR试穿图像绘制控制处理的流程图。更具体地说,图10示出,在图9中示出的步骤S119中的显示控制中,显示控制单元105针对每个部分(诸如像素)基于由前后关系判断单元115的判断结果来控制重叠显示在拍摄图像A’上的绘制的衣服图像C’的有无。
首先,在图10中的步骤S125中,显示控制单元105基于如图8所示的虚拟衣服C的3D坐标P(x,y,z)来计算虚拟图像C’的坐标p(x,y)。例如,显示控制单元105将3D坐标P(x,y,z)乘以从照相机15的内部参数求得的投影矩阵,从而计算在图像平面上的2D坐标p(x,y)。
然后,在步骤S127中,显示控制单元105计算如图8所示的虚拟照相机25与虚拟衣服C的坐标P(x,y,z)之间在虚拟空间中的距离dvertual。显示控制单元105将计算的2D坐标p(x,y)和距离dvertual输出到前后关系判断单元115。
然后,在步骤S128中,前后关系判断单元115获取与衣服图像C’(虚拟图像)的2D坐标p(x,y)对应的拍摄图像A’的2D坐标o(x,y)处的真实空间深度(参见在图5中示出的距离dreal)。具体地说,例如,基于由深度计算单元113计算的如图7所示的每个像素(2D坐标)的深度信息,与衣服图像C’的2D坐标p对应的拍摄图像A’的2D坐标o(x,y)处的深度被获取。在本文中,如图5所示,照相机15与被摄体A的3D坐标O(x,y,z)之间的距离dreal被获取。
随后,在步骤S131中,前后关系判断单元115将虚拟空间中的距离dvertual与真实空间中的距离dreal进行比较。当距离dvertual比距离dreal短时,前后关系判断单元115判断出虚拟衣服C位于被摄体A的前面(更近),并且处理前进到步骤S134。当距离dvertual比距离dreal长时,前后关系判断单元115判断出虚拟衣服C位于被摄体A的后面(更远),并且处理前进到步骤S137。以这种方式,前后关系判断单元115可针对每个部分(每个坐标)判断被摄体A与虚拟衣服C之间的前后关系。
然后,在步骤S134中,当前后关系判断单元115判断出虚拟衣服C位于被摄体A前面时,显示控制单元105在拍摄图像A’的坐标o处的像素上绘制虚拟图像C’的坐标p处的像素。
另一方面,在步骤S137中,当前后关系判断单元115判断出虚拟衣服C位于被摄体A后面时,显示控制单元105不在拍摄图像A’的坐标o处的像素上绘制虚拟图像C’的坐标p处的像素。
针对重叠显示在拍摄图像A’上的衣服图像C’的所有像素(坐标)执行在上述步骤S125到S137中的处理。从而,即使当被摄体A与虚拟衣服C之间的前后关系复杂时,显示控制单元105也可准确地绘制AR试穿图像。下面描述根据本实施例的显示控制单元105所绘制的示例性的AR试穿图像。
(示例性的绘制的AR输出图像)
随后,将在图11和图12中示出根据本实施例的显示控制单元105所绘制的示例性的AR试穿图像。
如图11所示,与图2中示出的普通合成不同,即使当被摄体A的手位于躯干前面时,当虚拟衣服C被重叠显示(合成)时针对每个部分判断前后关系,因此,虚拟衣服C没有被绘制在位于躯干前面的被摄体A的手上。
如图12所示,与图3中的上述的基于颜色信息的合成不同,即使当被摄体A穿上长袖衣服并且手位于躯干前面时,根据本实施例针对每个部分判断前后关系,因此,虚拟衣服C没有被绘制在位于躯干前面的被摄体A的手上。
<4.总结>
如上所述,使用根据本公开的一个实施例的AR试穿系统,针对每个部分,将拍摄图像中的被摄体A的深度与虚拟图像中的虚拟衣服C的深度进行比较,从而针对每个部分判断被摄体A与虚拟衣服C之间的前后关系。根据本实施例的AR试穿系统可基于判断结果,绘制正确表达了被摄体A与虚拟衣服C之间的前后关系的AR试穿图像。
已经在上文中参考附图描述了本公开的优选实施例,而本公开当然不仅限于上述示例。在所附的权利要求的范围内,本领域技术人员可找到各种替代,并且应当理解,它们将自然地在本公开的技术范围内。
例如,已经描述的AR试穿系统主要假定被摄体A的手以复杂的前后关系位于被摄体A的躯干前面,但是并不限于此,还可应用于被摄体A在其身体前面有包等的情况。此外,可应用于在被摄体A的前面存在障碍物(诸如其他人、柱子或箱子)的情况。
上面已经描述的上述AR试穿系统主要假定虚拟衣服的试穿,但是要试穿的对象不限于衣服,还可以是诸如眼镜、帽子和腰带的饰品。
已经描述的上述AR试穿系统假定被摄体是人,但是被摄体不限于人,还可以是诸如狗或猫的动物。在这种情况下,可提供用于将宠物衣服图像重叠显示在拍摄有动物的拍摄图像上的AR试穿系统。
通过使用深度信息针对每个部分判断实际物体与虚拟物体之间的前后关系并基于判断的前后关系来执行AR显示控制的根据本实施例的技术不限于上述AR试穿系统,当然还可以被应用于各种AR显示控制。
另外,本技术还可以被配置为如下。
(1)一种信息处理设备,包括:
判断单元,用于通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
显示控制单元,用于基于由判断单元判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。
(2)根据(1)的信息处理设备,
其中,判断单元将实际物体的深度与虚拟物体的深度进行比较,并根据深度的大小来判断前后关系。
(3)根据(1)或(2)的信息处理设备,包括:
深度计算单元,用于基于从真实空间检测的检测数据来计算拍摄的被摄体的深度,
其中,判断单元将由深度计算单元计算出的被摄体的深度与虚拟衣服饰品的深度进行比较,从而针对每个部分来判断其间的前后关系,并且
其中,显示控制单元基于由判断单元判断的前后关系将其中投影了衣服饰品的虚拟衣服饰品图像重叠显示在拍摄有被摄体的拍摄图像上。
(4)根据(3)的信息处理设备,
其中,显示控制单元基于判断单元得到的每个像素的前后关系的判断结果,控制虚拟衣服饰品图像的每个像素有无绘制。
(5)一种显示控制方法,包括以下步骤:
通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
基于在判断步骤中判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。
(6)一种程序,使得计算机执行以下处理:
通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
基于通过判断处理判断的前后关系,将其中投影了虚拟物体的虚拟物体重叠显示在拍摄有实际物体的拍摄图像上。
(7)根据(6)的程序,
其中,判断处理将实际物体的深度与虚拟物体的深度进行比较,从而根据深度的大小来判断前后关系。
(8)根据(6)或(7)的程序,用于使计算机进一步执行基于从真实空间检测的检测数据来计算拍摄的被摄体的深度的处理,
其中,判断处理将通过计算深度的处理计算出的被摄体的深度与虚拟衣服饰品的深度进行比较,从而针对每个部分来判断前后关系,并且
其中,显示处理基于通过判断处理判断的前后关系,将其中投影了衣服饰品的虚拟衣服饰品图像重叠显示在拍摄有被摄体的拍摄图像上。
(9)根据(8)的程序,
其中,显示处理基于判断处理得到的每个像素的前后关系的判断结果,控制虚拟衣服饰品图像的每个像素有无绘制。附图标记列表
10   信息处理设备
15   照相机
17   传感器
19   显示装置
100  控制单元
101  骨骼位置计算单元
105  显示控制单元
113  深度计算单元
115  前后关系判断单元
120  操作输入单元
130  存储单元
a    被摄体
b    坐标(骨骼位置)
c    虚拟衣服

Claims (9)

1.一种信息处理设备,包括:
判断单元,用于通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
显示控制单元,用于基于由判断单元判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。
2.根据权利要求1所述的信息处理设备,
其中,判断单元将实际物体的深度与虚拟物体的深度进行比较,并根据深度的大小来判断前后关系。
3.根据权利要求2所述的信息处理设备,包括:
深度计算单元,用于基于从真实空间检测的检测数据来计算拍摄的被摄体的深度,
其中,判断单元将由深度计算单元计算出的被摄体的深度与虚拟衣服饰品的深度进行比较,从而针对每个部分来判断被摄体和虚拟衣服饰品之间的前后关系,并且
其中,显示控制单元基于由判断单元判断的前后关系,将其中投影了衣服饰品的虚拟衣服饰品图像重叠显示在拍摄有被摄体的拍摄图像上。
4.根据权利要求3所述的信息处理设备,
其中,显示控制单元基于判断单元得到的每个像素的前后关系的判断结果,控制虚拟衣服饰品图像的每个像素有无绘制。
5.一种显示控制方法,包括以下步骤:
通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
基于在判断步骤中判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。
6.一种程序,使得计算机执行以下处理:
通过使用深度信息,针对每个部分判断拍摄的实际物体与虚拟物体之间的前后关系;以及
基于由判断处理判断的前后关系,将其中投影了虚拟物体的虚拟图像重叠显示在拍摄有实际物体的拍摄图像上。
7.根据权利要求6所述的程序,
其中,判断处理将实际物体的深度与虚拟物体的深度进行比较,从而根据深度的大小来判断前后关系。
8.根据权利要求7所述的程序,用于使计算机进一步执行基于从真实空间检测的检测数据来计算拍摄的被摄体的深度的处理,
其中,判断处理将通过计算深度的处理计算出的被摄体的深度与虚拟衣服饰品的深度进行比较,从而针对每个部分来判断前后关系,并且
其中,显示处理基于通过判断处理判断的前后关系,将其中投影了衣服饰品的虚拟衣服饰品图像重叠显示在拍摄有被摄体的拍摄图像上。
9.根据权利要求8所述的程序,
其中,显示处理基于判断处理得到的每个像素的前后关系的判断结果,控制虚拟衣服饰品图像的每个像素有无绘制。
CN201280053464.8A 2011-11-09 2012-08-31 信息处理设备和显示控制方法 Active CN103907138B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-245304 2011-11-09
JP2011245304A JP2013101528A (ja) 2011-11-09 2011-11-09 情報処理装置、表示制御方法、およびプログラム
PCT/JP2012/072202 WO2013069360A1 (ja) 2011-11-09 2012-08-31 情報処理装置、表示制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
CN103907138A true CN103907138A (zh) 2014-07-02
CN103907138B CN103907138B (zh) 2017-11-24

Family

ID=48289746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280053464.8A Active CN103907138B (zh) 2011-11-09 2012-08-31 信息处理设备和显示控制方法

Country Status (5)

Country Link
US (2) US9569895B2 (zh)
EP (1) EP2779113B1 (zh)
JP (1) JP2013101528A (zh)
CN (1) CN103907138B (zh)
WO (1) WO2013069360A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107610127A (zh) * 2017-09-11 2018-01-19 广东欧珀移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN107610134A (zh) * 2017-09-11 2018-01-19 广东欧珀移动通信有限公司 提醒方法、装置、电子装置和计算机可读存储介质
CN107742300A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN108040892A (zh) * 2017-12-07 2018-05-18 吴静 一种基于压力检测的智能宠物排泄物收集系统
CN109582123A (zh) * 2017-09-28 2019-04-05 富士施乐株式会社 信息处理设备、信息处理系统和信息处理方法
US11138740B2 (en) 2017-09-11 2021-10-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods, image processing apparatuses, and computer-readable storage medium
CN113632498A (zh) * 2019-03-28 2021-11-09 多玩国株式会社 内容发布系统、内容发布方法、以及内容发布程序
CN113760088A (zh) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 增强现实显示装置以及记录介质
US11961190B2 (en) 2019-03-28 2024-04-16 Dwango Co., Ltd. Content distribution system, content distribution method, and content distribution program

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9613424B2 (en) * 2013-09-23 2017-04-04 Beihang University Method of constructing 3D clothing model based on a single image
JP6341646B2 (ja) * 2013-10-17 2018-06-13 セーレン株式会社 試着支援装置及び方法
WO2016064435A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
US10256859B2 (en) 2014-10-24 2019-04-09 Usens, Inc. System and method for immersive and interactive multimedia generation
EP3286915B1 (en) 2015-04-23 2021-12-08 Apple Inc. Digital viewfinder user interface for multiple cameras
JP2017010251A (ja) * 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体
US11237717B2 (en) * 2015-11-04 2022-02-01 Sony Corporation Information processing device and information processing method
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102357342B1 (ko) * 2018-05-07 2022-02-08 애플 인크. 크리에이티브 카메라
US11722764B2 (en) * 2018-05-07 2023-08-08 Apple Inc. Creative camera
JP7285291B2 (ja) * 2018-05-07 2023-06-01 アップル インコーポレイテッド クリエイティブカメラ
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
CN111325798B (zh) * 2018-12-13 2023-08-18 浙江宇视科技有限公司 相机模型纠正方法、装置、ar实现设备及可读存储介质
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
JPWO2022044124A1 (zh) * 2020-08-25 2022-03-03
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
JP2022081271A (ja) * 2020-11-19 2022-05-31 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法、およびプログラム
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
CN102004860A (zh) * 2010-12-02 2011-04-06 天津市企商科技发展有限公司 网络真人试衣系统及其控制方法
CN102156810A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟试衣系统及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450792B2 (ja) * 1999-03-25 2003-09-29 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US7663648B1 (en) * 1999-11-12 2010-02-16 My Virtual Model Inc. System and method for displaying selected garments on a computer-simulated mannequin
JP2002024319A (ja) * 2000-07-04 2002-01-25 Toyobo Co Ltd 試着画像作成システム
US7953648B2 (en) * 2001-11-26 2011-05-31 Vock Curtis A System and methods for generating virtual clothing experiences
JP4246516B2 (ja) * 2003-02-14 2009-04-02 独立行政法人科学技術振興機構 人物動画像生成システム
JP4114696B2 (ja) 2006-05-25 2008-07-09 ソニー株式会社 試着画像生成装置及び試着画像生成方法、試着画像利用端末及び試着画像利用方法、並びにコンピュータ・プログラム
JP4933406B2 (ja) * 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
EP2403234A1 (en) * 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
JP5574852B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理装置、情報処理方法、システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
CN102004860A (zh) * 2010-12-02 2011-04-06 天津市企商科技发展有限公司 网络真人试衣系统及其控制方法
CN102156810A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟试衣系统及方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107610127A (zh) * 2017-09-11 2018-01-19 广东欧珀移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN107610134A (zh) * 2017-09-11 2018-01-19 广东欧珀移动通信有限公司 提醒方法、装置、电子装置和计算机可读存储介质
CN107742300A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN107610134B (zh) * 2017-09-11 2020-03-31 Oppo广东移动通信有限公司 提醒方法、装置、电子装置和计算机可读存储介质
US11138740B2 (en) 2017-09-11 2021-10-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods, image processing apparatuses, and computer-readable storage medium
CN109582123A (zh) * 2017-09-28 2019-04-05 富士施乐株式会社 信息处理设备、信息处理系统和信息处理方法
CN108040892A (zh) * 2017-12-07 2018-05-18 吴静 一种基于压力检测的智能宠物排泄物收集系统
CN113632498A (zh) * 2019-03-28 2021-11-09 多玩国株式会社 内容发布系统、内容发布方法、以及内容发布程序
US11961190B2 (en) 2019-03-28 2024-04-16 Dwango Co., Ltd. Content distribution system, content distribution method, and content distribution program
CN113760088A (zh) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 增强现实显示装置以及记录介质

Also Published As

Publication number Publication date
US9865094B2 (en) 2018-01-09
JP2013101528A (ja) 2013-05-23
EP2779113A4 (en) 2016-01-27
EP2779113A1 (en) 2014-09-17
CN103907138B (zh) 2017-11-24
US20140300635A1 (en) 2014-10-09
WO2013069360A1 (ja) 2013-05-16
EP2779113B1 (en) 2022-11-02
US9569895B2 (en) 2017-02-14
US20170148220A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
CN103907138A (zh) 信息处理设备、显示控制方法和程序
CN103218773B (zh) 信息处理设备、显示控制方法和程序
CN103218506B (zh) 信息处理装置、显示控制方法和程序
CN104781849B (zh) 单眼视觉同时定位与建图(slam)的快速初始化
US20130113830A1 (en) Information processing apparatus, display control method, and program
JP5081964B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
US11164378B1 (en) Virtual reality detection and projection system for use with a head mounted display
US20140362188A1 (en) Image processing device, image processing system, and image processing method
KR20180113576A (ko) 정보 처리 장치, 정보 처리 시스템, 정보 처리 방법 및 컴퓨터 프로그램
CN106062673A (zh) 使用姿势来控制基于计算的设备
US10360444B2 (en) Image processing apparatus, method and storage medium
CN105190703A (zh) 使用光度立体来进行3d环境建模
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US20160232708A1 (en) Intuitive interaction apparatus and method
JP6675209B2 (ja) 情報処理装置およびユーザガイド提示方法
WO2018198909A1 (ja) 情報処理装置、情報処理方法及びプログラム
US9261974B2 (en) Apparatus and method for processing sensory effect of image data
CN111279410B (zh) 显示设备和显示设备控制方法
JP6467039B2 (ja) 情報処理装置
JPWO2020026677A1 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
US11967026B1 (en) Virtual reality detection and projection system for use with a head mounted display
JP5066047B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant