CN103127691A - 视频生成装置及方法 - Google Patents

视频生成装置及方法 Download PDF

Info

Publication number
CN103127691A
CN103127691A CN201210527575XA CN201210527575A CN103127691A CN 103127691 A CN103127691 A CN 103127691A CN 201210527575X A CN201210527575X A CN 201210527575XA CN 201210527575 A CN201210527575 A CN 201210527575A CN 103127691 A CN103127691 A CN 103127691A
Authority
CN
China
Prior art keywords
unit
video
personage
image
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201210527575XA
Other languages
English (en)
Other versions
CN103127691B (zh
Inventor
穴吹真秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN103127691A publication Critical patent/CN103127691A/zh
Application granted granted Critical
Publication of CN103127691B publication Critical patent/CN103127691B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明提供视频生成装置及方法。所述视频生成装置包括:获得单元,用于获得拍摄有人物的图像;人体识别单元,识别图像中的人物的人体的部位;保持单元,用于保持关于示出所述人物进行运动的基本视频的数据;设置单元,用于基于识别的所述人物的人体的部位,设置特定部位在所述人物的运动中的活动范围;视频生成单元,用于基于所述活动范围,有关于所述基本视频的数据生成针对所述图像中的人物的样本视频;以及显示控制单元,用于在显示装置上显示生成的所述样本视频。由此,能够生成并示出适于所述人物的样本视频。

Description

视频生成装置及方法
技术领域
本发明涉及视频生成装置及方法,更具体地,涉及适合用于生成运动等的样本视频的技术。
背景技术
存在运动作为有用的健康促进措施(例如,改善肩周炎的措施、增强腰腿肌的措施、消除代谢综合症的措施等)的许多情况。然而,即使在这些情况下,仅进行运动也是不够的。也就是说,根据用户的身体状况适当地选择运动计划和负荷是重要的。在这种情形下,存在诸如物理治疗师、健康运动指导者等指导和教授这种适当运动的专业人士。
在教授运动的情况下,作为视频示出样本运动是直观的,并且使得能够容易理解。为此,许多物理治疗师和健康运动指导者在指导现场广泛使用运动样本视频。然而,不存在万人通用的示范运动。也就是说,根据期望进行运动的人物的能力和状况,存在适当地活动身体并向身体施加负荷的多种方式。向进行运动的人物呈现的样本视频适于相关人物的能力和状况会更好。然而,实际情况是,单独针对每个人物形成样本视频是麻烦且昂贵的。因此,例如,在需要更慎重的运动的情况下,如在从伤病中恢复的复健情况下,样本视频仅用作引导。结果,事实上,物理治疗师、健康运动指导者等精心且认真地指导和教授运动。
在这种背景下,日本专利特开第2009-213782号公报公开了如下技术:生成并呈现适于进行运动的人物(即,运动者)的能力的样本视频。在这种技术中,使用照相机拍摄在观看样本视频的同时进行运动的运动者,并基于所获得的视频判断运动者是否能够跟随样本运动。然后,当判断运动者无法跟随样本运动时,降低样本视频的运动等级和/或降低显示速度。因此,通过使用这种技术能够呈现示出适于运动者的能力的运动量的样本视频。
类似地,日本专利第3472238号公报公开了呈现适于运动者的状况的样本视频的技术。在这种技术中,如果输入了指示运动者期望增强的身体部位或者运动者需要进行功能恢复的身体部位的信息,则创建要消耗的卡路里的量等被用作指标的运动计划,并且通过使用人体模型呈现合适运动的样本。因此,在这种技术中能够呈现示出适于运动者的状况(希望)的运动量的样本视频。
然而,在上述已知技术中,不能生成并呈现示出适于运动者的能力和状况的姿势的样本视频。
例如,在旨在改善肩周炎的复健中,进行在运动者可能的程度内逐渐大幅度活动肩的运动。然而,即使在这种情况下,也需要在运动者不感觉到疼痛的范围内轻松地活动肩。也就是说,肩能够活动的范围对于每个运动者是不同的。在日本专利特开第2009-213782号公报公开的技术中,根据运动者是否能够跟随样本视频来确定样本视频的内容。因此,如果运动者勉强跟随示出大幅度活动肩的样本视频,则结果生成并呈现运动者必须继续进行不适当运动的不适当样本视频。为此,在日本专利特开第2009-213782号公报中公开的技术对于呈现适于运动者的姿势(而非运动量)的样本视频是不适当的。
此外,已知在对于增强下半身肌肉有效的下蹲运动中,存在如下几种变化方式,例如在保持背部垂直的同时屈膝的方法、在稍微向前倾斜背部而不勉强背部弯曲的同时屈膝的方法等。显然地,应当使用何种下蹲运动根据运动者的状况而不同。例如,对于膝不疼痛的人物,采用在保持背部垂直的同时深屈膝直到大腿变得与地板平行的程度的方法是有效的。另一方面,对于膝疼痛的人物,采用在稍微倾斜背部的同时稍微屈膝直到不感觉疼痛的程度的方法是有效的。此外,对于感觉腰疼痛的人物,优选保持背部垂直,而不是向前倾斜背部。然而,即使在这种情况下,与当相关人物不感觉腰疼痛时相比,稍微屈膝更好。为此,仅通过使用在日本专利第3472238号公报中公开的技术只指定身体部位,不能适当地确定运动(姿势)。
在这点上,在发展日本专利第3472238号公报中公开的技术的情况下,存在如下可能性,即,不仅通过仅输入运动者期望增强的身体部位,而且输入运动者感觉疼痛的关节、疼痛的程度等,使得能够生成并呈现示出更适合的姿势的运动样本。然而,由于运动者期望更适当地设置运动的内容,因此事先要输入的信息量变大,从而输入相关信息需要时间。
发明内容
本发明旨在能够用较少的时间和努力生成并呈现示出适于运动者(即,进行运动的人物)的姿势的样本视频。
为了达到该目的,本发明的视频生成装置的特征在于包括:获得单元,其被配置为获得拍摄有人物的图像;人体识别单元,其被配置为识别所述图像中的所述人物的人体部位;保持单元,其被配置为保持关于示出所述人物进行运动的基本视频的数据;设置单元,其被配置为基于识别的所述人物的人体部位,设置特定部位在所述人物的运动中的活动范围;视频生成单元,其被配置为基于所述活动范围,由关于所述基本视频的数据生成针对所述图像中的所述人物的样本视频;以及显示控制单元,其被配置为在显示装置上显示生成的所述样本视频。
从以下参照附图对示例性实施例的描述,本发明的其他特征将变得清楚。
附图说明
图1是示出根据本发明的第一实施例的样本视频生成装置的构造的示例的框图。
图2是示出复健经过天数和α值的对应关系模型的示例的图。
图3是用于描述第一实施例中、用于生成样本视频的处理过程的示例的流程图。
图4是示出根据本发明的第二实施例的样本视频生成装置的构造的示例的框图。
图5A和图5B是分别例示下蹲运动的基准姿势的示例的图。
图6是用于描述第二实施例中的用于生成样本视频的处理过程的示例的流程图。
图7是例示根据本发明的其他实施例的硬件构造的示例的框图。
具体实施方式
下文中,将参照附图描述本发明的示例性实施例。
[第一实施例]
在根据下文中要描述的第一实施例的示例中,最初,诸如物理治疗师或者健康运动指导者等的专业人士拍摄并输入考虑到运动者或者进行运动的人物(下文中称为用户)的能力和状况而设置的用户在运动中的基准姿势的图像。然后,基于所输入的图像生成并呈现示出适于用户的内容的样本视频。通常,当物理治疗师或者健康运动指导者向用户指导运动的内容时,在直接帮助用户的同时,使用户实际保持适当的姿势。在本实施例中,拍摄用户此时的姿势的图像,识别所拍摄的图像中的姿势,通过适当编辑事先保持的基本视频来生成与所识别的图像中的姿势对应的样本视频,并且呈现所生成的样本视频。另外,如果在用户正在进行运动的同时拍摄了用户的姿势的图像,并且识别了所拍摄的图像,则能够根据运动中的姿势适当地改变并呈现样本视频。
根据本实施例的样本视频生成装置放置在例如医院的整形外科、复健科等的手术室、复健室等中,并且在物理治疗师的指导下由使用该室的患者(下文中称为用户)使用。在根据本实施例的样本视频生成装置中,针对由于肩周炎而无法自由转动肩的人物,生成并呈现示出肩关节的复健运动的样本视频。
(构造)
图1是示出根据本实施例的样本视频生成装置100的构造的示例的框图。
如图1所示,根据本实施例的样本视频生成装置100包括半反射镜101、活力测量单元102、摄像单元103、人体识别单元104和表情识别单元105。此外,样本视频生成装置100包括样本参数确定单元106、基本样本数据保持单元107、样本视频生成单元108和视频呈现单元109。
摄像单元103和与视频呈现单元109相对应的显示装置布置在半反射镜101的背面。因此,当用户站(或坐)在半反射镜101的前面时,通过半反射镜101,摄像单元103可以拍摄包括用户的姿势的图像。此外,通过半反射镜101,向站(或坐)在半反射镜101的前面的用户呈现视频呈现单元109上的视频。
活力测量单元102是以非接触方式测量站在半反射镜101的前面的用户的活力值的传感器。这里,应注意,例如由用户的体温(皮肤温度)指示这种情况下的活力值。已知通过检测由人体的热产生的红外线射线来测量体温的传感器通常作为非接触方式测量体温的传感器。因此,如这种传感器的已知传感器被用作本实施例中的活力测量单元102。此外,当测量体温时,能够测量人体的特定部位的体温,或者测量人体的特定部位的体温,然后形成整个人体的体温图。然后,活力测量单元102将指示所测量的活力值的信息传送到样本参数确定单元106。另外,可以使用出汗程度、血流量等作为其他测量值。
摄像单元103是拍摄站在半反射镜101的前面的用户的全身的图像的照相机。作为摄像单元103,可以使用能够拍摄二维可视图像的照相机、能够拍摄三维远距离图像的照相机或者能够拍摄二维和三维图像两者的照相机。响应于对未示出的用户接口的操作,摄像单元103能够在特定时刻明确地拍摄用户的姿势的图像,或者连续拍摄站在半反射镜101的前面的用户的状态的图像。
这里,未示出的用户接口包括例如连接到摄像单元103的开关、键盘等。另外,可以使用通过识别经由连接的麦克风记录的声音而将用户与摄像单元103进行接口的声音接口,以及通过识别所拍摄的视频将用户与摄像单元103进行接口的姿态接口。另外,可以由站在半反射镜101的前面的用户自身,或者由在用户旁边指导用户如何运动的物理治疗师操作用户接口。
另外,摄像单元103可以被构成为能够在用户、物理治疗师等没有进行任何明确操作的情况下拍摄图像。例如,在用户或者物理治疗师一旦进行了明确操作之后,摄像单元103可以连续拍摄图像作为移动图像。作为另一选择,摄像单元103可以具有移动体检测功能,因此每次移动体检测功能在某一拍摄范围内检测到移动图像时,拍摄图像。在这种情况下,在用户正在移动的同时,拍摄移动图像。然后,摄像单元103将拍摄的图像传送给人体识别单元104和表情识别单元105。另外,存在如下的一些情况,即,由摄像单元103拍摄的图像被传送到视频呈现单元109。
人体识别单元104在从摄像单元103传送的图像中识别人物的人体的部位的位置。这里,人体的部位的位置可以被二维识别为图像表面上的位置,或者被三维识别为真实空间中的位置。当二维识别人体的部位的位置时,例如,人体识别单元104在从摄像单元103传送的图像(二维可视图像)中搜索源自事先准备好的人体的部位的图像特征。
另外,人体的部位包括例如脸、头、手、手臂、脚、膝、肩、腰、胸、肚脐、背部等。这些部位中的各个的视频特征根据拍摄相应部位的图像的方向而不同。由于该原因,例如对于脸,针对诸如正脸部位、侧脸部位、向下看的脸部位等的各个方向,准备多个视频特征,在它们中搜索必要的视频特征。作为图像特征,使用作为通过在局部区域中沿倾斜方向作出特征的直方图而获得的特征量的HOG(方向梯度直方图,Histograms of Oriented Gradients)特征量等。通过收集包括相关部位的许多图像以及使用例如称为“Boosting”的算法以统计学方式研究对于所收集的图像中包括的特征量共同的内容,来确定源自人体的各部位的图像特征。当在从摄像单元103接收到的图像中搜索到如此确定的源自人体的各部位的图像特征时,识别出人体的相关部位处于搜索到特征的位置。另外,可以通过其他已知方法识别人体的部位的位置。
当三维地识别人体的部位的位置时,首先,通过对从摄像单元103接收到的图像(三维远距离图像)进行分割,来指定人体区域。例如,切除具有基本与站在距离半反射镜101大约1m至2m的位置的人体的大小相对应的大小的区域。然后,事先准备的人体模型被应用于指定的人体区域,同时改变必要的人体模型的部位的位置。当能够将人体模型适当地应用于人体区域时,人体模型中的人体的部位的位置被给出作为识别结果。另外,可以通过其他已知方法识别人体的部位的位置。
这里,当从摄像单元103接收到二维可视图像和三维远距离图像两者时,人体识别单元104可以基于接收到的这两种图像识别两个人体部位的位置。在这种情况下,为了防止前者的二维人体部位位置的识别结果和后者的三维人体部位位置的识别结果之间的冲突,对后者的三维人体部位位置的识别结果进行校正,从而更准确地识别三维人体部位位置。
虽然上面描述了人体部位的位置的识别方法,但是本发明不限于这些方法。也就是说,当然可以使用其他已知方法。然后,人体识别单元104将识别结果传送到样本参数确定单元106。另外,存在如下的一些情况,即,识别结果也被传送到视频呈现单元109。
表情识别单元105根据从摄像单元103传送的图像中的用户的表情,识别用户是否感觉疼痛,当用户感觉疼痛时,进一步识别用户感觉疼痛的程度。
在该识别处理中,表情识别单元105首先在从摄像单元103接收到的图像中指定检测到源自用户的脸的图像特征的区域。这里,作为图像特征的特征量,可以使用HOG特征量等。随后,表情识别单元105识别通过将指定的区域正规化而获得的图像,与包括分别根据疼痛的程度分类的表情的多个图像组中的哪个组类似以及类似程度。这里,多个图像组包括收集的基于疼痛的程度分类的表情(诸如人物感觉剧烈疼痛的表情、人物感觉可忍受范围内的疼痛的表情、人物感觉轻微疼痛的表情、人物不感觉疼痛的表情等)的图像。
另外,事先使用LDA(线性判别分析)方法形成用于分拣与人物感觉剧烈疼痛的表情相对应的脸部图像组类以及与人物不感觉疼痛的表情相对应的脸部图像组类的判别轴(judgment axis)。然后,通过使用该判别轴判别正规化的图像区域与哪个类类似。通过重复进行关于多个表情类的比较的处理,可以识别从摄像单元103接收到的图像区域中的人物的表情与事先根据疼痛的程度准备的表情中的哪个表情类似以及类似程度。
虽然上面描述了人物感觉疼痛的表情的识别方法,但是本发明不限于这些方法。也就是说,当然可以使用其他已知方法。然后,表情识别单元105将识别结果传送到样本参数确定单元106。
样本参数确定单元106接收来自活力测量单元102的、指示体温的活力值的信息、来自人体识别单元104的人体部位的识别结果、以及来自表情识别单元105的表情的识别结果,然后基于接收到的信息生成用于生成样本视频所需的参数。
例如,针对由于肩周炎而无法自由转动肩的人物,当生成并呈现示出肩关节的复健运动的样本视频时,指示针对用户允许的最大允许肩关节角的信息被生成作为用于生成样本视频的参数。这里,肩关节角等同于伸展的手臂和身体的侧面之间的角。也就是说,用户下垂手臂的状态下的肩关节角是0度,用户横向伸展手臂的状态下的肩关节角是90度,在用户从横向伸展手臂到向上举起手臂的状态下的肩关节角是180度。在用于改善肩周炎的复健运动中,根据用户的能力和状况进行在合理范围内增加肩关节角的训练。这里,针对用户所允许的最大允许肩关节角指示该合理范围。
样本参数确定单元106基于从人体识别单元104接收到的人体部位的识别结果,计算由摄像单元103拍摄的图像中的用户的肩关节角,并且将计算出的角设置为针对用户所允许的最大允许肩关节角的基准值。例如,样本参数确定单元106基于从人体识别单元104接收到的人体部位的识别结果,计算连结包含在人体部分的识别结果中的肩的位置和手指的位置的矢量、与连结肩的位置和与肩同一侧的腰(骨盆)的位置的矢量之间的角。所计算出的角可以包括在图像表面上二维计算的角或者基于三维人体部位的位置三维计算的角。在任一情况下,这里要进行的计算不是需要精度的计算,而是仅获得基准值的计算。
由于基于由摄像单元103拍摄的图像中的用户的姿势计算基准值,因此显而易见的是,用户实际能够向上举起手臂的状态反映在所计算出的基准值中。因此,样本参数确定单元106能够直接将计算出的基准值设置为指示合理范围的最大允许肩关节角。另一方面,假设作为操作之一,实际在用户旁边指导如何运动的物理治疗师基于各种判别,使用户向上举起手臂到针对用户所允许的最大允许肩关节角,并且通过摄像单元103拍摄了用户的这种姿势的图像。即使在这种情况下,也可以说由摄像单元103拍摄的图像中的用户的姿势反映了用户向上举起手臂到针对用户所允许的合理范围的状态。
当然,样本参数确定单元106不需要直接使用该基准值作为最大允许肩关节角。例如,在被称为从复健开始经过了足够天数的恢复期的时期中,需要积极加宽肩关节角。在该时期,样本参数确定单元106可以将“基准值+α”设置为最大允许肩关节角,从而允许比反映了用户实际能够向上举起手臂的状态的基准值更宽的角。这里,当由物理治疗师或者用户自己通过未示出的用户接口输入了从复健开始的经过天数时,样本参数确定单元106能够通过参照例如图2所示的内部提供的复健经过天数和α的值的对应关系模型,来确定α的值。
另外,样本参数确定单元106可以基于作为从活力测量单元102接收到的活力值的体温,来确定α的值。也就是说,当从活力测量单元102接收到的用户的肩周围的体温的测量值越高时,可以判断肩周围的肌肉更充分地放松。因此,在这种情况下,将α的值设置得足够高。例如,当肌肉由于热身运动等而放松并且体温升高时,根据体温的升高,将最大允许肩关节角确定为较大值。另一方面,当肌肉没有充分放松并且体温没有充分升高时,将最大允许肩关节角确定为较小值。
此外,样本参数确定单元106可以基于从表情识别单元105接收到的表情的识别结果,来确定α的值。也就是说,根据从表情识别单元105接收到的表情的识别结果,当用户不感觉疼痛的表情越明显时,可以判断由摄像单元103拍摄的图像中的用户的姿势越合理。因此,样本参数确定单元106将α的值设置为足够高。另一方面,根据从表情识别单元105接收到的表情的识别结果,当用户感觉疼痛的表情越明显时,可以判断由摄像单元103拍摄的图像中的用户的姿势越不合理。因此,样本参数确定单元106将α的值设置为负值。如所描述的,在当由摄像单元103拍摄用户的姿势的图像时,用户极力与用户感觉疼痛的表情作斗争的情况下,根据识别结果确定最大允许肩关节角,从而使用户合理地运动。当活力测量单元102和表情识别单元105输入上述关于用户的状态的信息时,α的值反映所输入的信息。
另外,假设从复健开始的经过天数、活力测量值及表情识别结果与α的值之间的对应关系是预先确定的。然而,由于适当的α的值的大小对于各用户是不同的,因此假设能够事先微调整该对应关系。例如,可以依据在观看根据本实施例呈现的样本视频的同时进行运动的用户的意见,以及由观察相关运动的物理治疗师进行的判断,在后续运动之前微调整α的值的过量与不足。当确定了最大允许肩关节角的参数时,样本参数确定单元106将所确定的参数的信息传送到样本视频生成单元108。
基本样本数据保持单元107保持并存储用于生成要向用户呈现的样本视频的数据。例如,通过拍摄如下状态获得的基本视频的数据被存储在基本样本数据保持单元107中,所述状态为人物重复进行从下垂位置到横向伸展手臂、向上举起手臂、横向伸展手臂、然后下垂手臂到下垂位置的运动。此外,在样本视频中,作为标签对视频的各个帧添加了人物的肩关节角。此外,假设基于与人体识别单元104所获得的相同的人体部分的位置的识别处理,添加了标签(肩关节角)。在另一实例中,基本样本数据保持单元107可以保持并存储指示从下垂位置到横向伸展手臂、向上举起手臂、横向伸展手臂、然后下垂手臂到下垂位置的运动的移动数据,作为用于生成样本视频的数据。在任何情况下,由样本视频生成单元108参照像这样的用于生成样本视频的数据。
样本视频生成单元108接收来自样本参数确定单元106的指示最大允许肩关节角的信息,参照来自基本样本数据保持单元107的用于生成样本视频的数据,并且通过使用这两种数据实际生成样本视频。
首先,将描述用于生成样本视频的数据是通过拍摄进行运动的人物的图像作为样本而获得的样本视频的情况。在这种情况下,样本视频生成单元108将从样本参数确定单元106接收到的最大允许肩关节角的信息,与被作为标签添加到从基本样本数据保持单元107接收到的基本视频的各帧的肩关节角的信息进行相互比较。然后,仅提取标签所指示的肩关节角小于最大允许肩关节角的帧,并且将所提取的帧结合在一起。因此,生成构成基本视频的一部分的视频。在所生成的视频中,去除了在由基本样本数据保持单元107保持的视频中包括的示出人物向上举起手臂超过最大允许肩关节角的场景。样本视频生成单元108将所获得的视频作为样本视频传送到视频呈现单元109。
接下来,描述用于生成样本视频的数据是指示作为样本的运动的移动数据的情况。在这种情况下,样本视频生成单元108从基本样本数据保持单元107中保持的移动数据中,仅提取示出肩关节角没有超过从样本参数确定单元106接收到的最大允许肩关节角的部分。然后,样本视频生成单元108通过将所提取的移动数据应用于CG(计算机图形)人体模型,来生成示出由人体模型进行用作样本的运动的CG视频。因此,基本样本数据保持单元107保持的移动数据中包括的、去除了示出人物向上举起手臂超过最大允许肩关节角的部分的移动被生成为CG视频。样本视频生成单元108将所获得的CG视频作为样本视频传送到视频呈现单元109。
视频呈现单元109接收来自样本视频生成单元108的样本视频,并且进行显示控制以呈现接收到的样本视频。由于视频呈现单元109被布置在半反射镜101的背面,因此站在半反射镜101的前面的用户观看半反射镜101中与包括用户自身的镜面图像重叠的样本视频。
这时,视频呈现单元109可以调节视频的呈现位置(显示位置),使得所呈现的样本视频中的人物图像的两肩的位置与用户的镜面图像的两肩重叠。在这种情况下,假设视频呈现单元109通过对未示出的用户接口的操作获得了指示用户的诸如高度、肩宽等的人体尺寸的信息作为已知值,并且还从人体识别单元104获得了用户的人体部位的位置的识别结果。然后,视频呈现单元109基于所获得的两种数据,计算视频呈现单元109和用户在真实空间中的位置关系(距离)。
更具体地,视频呈现单元109通过诸如牛顿方法(Newton method)等的已知方法,计算摄像单元103和用户之间的距离。这里,应注意,计算出的距离需要使作为识别结果而获得的头和脚、两肩等在图像上的距离与用户的实际高度和实际肩宽一致。因此,由于半反射镜101和摄像单元103之间的位置关系是固定的,因此可以获得半反射镜101和用户在真实空间中的位置关系(距离)。因此,也可以根据这些关系计算用户的镜面图像在半反射镜101上的位置。
虽然因为可以通过已知方法进行计算,因此将省略详细描述,但是用户的人体部位的镜面图像被反映在连结线和半反射镜101的接触点上。这里,连结线是连结用户的视点和以与半反射镜和实际用户之间的距离相同的距离站在半反射镜101的背面的虚拟用户图像的人体部位的线,并且虚拟用户图像面对实际用户。然后,当通过上述计算获得半反射镜101上的用户的镜面图像的位置时,视频呈现单元109调节视频的呈现位置,使得所呈现的样本视频中的人物图像的两肩的位置与用户的镜面图像的两肩重叠。也就是说,改变视频的呈现尺寸和呈现位置。因此,用户的眼睛可以从半反射镜101中反映的自己的镜面图像的肩,来观看示出作为样本的人物向上和向下移动手臂的状态。结果,当用户自己移动手臂时,能够瞬间直觉地判断自己的肩关节角是否在由样本呈现的最大允许肩关节角内。因此,例如,即使物理治疗师没有照顾用户,用户自己也能够在观看自己运动成绩和适当性并基于所观看的结果判断进展状态的同时,毫不费力地进行运动。
此外,视频呈现单元109可以从摄像单元103获得包括用户的二维可视图像,并且显示样本视频的帧,使得帧与所获得的图像重叠。在这种情况下,视频呈现单元109通过阿尔法混合(alpha blending)呈现这些图像中的一个或者两个是半透明的并且彼此重叠的视频。此外,视频呈现单元可以基于对人体部位的位置的识别,来调节这些图像的呈现位置和呈现尺寸,将调整后的图像彼此重叠以获得视频,然后以用户和人物的肩的位置彼此一致的方式呈现所获得的视频。
(处理)
随后,将参照图3所示的流程图描述由根据本实施例的样本视频生成装置100进行的处理。另外,假设在下面的描述中,在开始处理前,用户在面对镜子的同时,站或者坐在半反射镜101的前面。另外,假设用户在跟随正在照顾用户的物理治疗师的指导的同时,进行从下垂位置到横向伸展手臂、然后向上举起手臂直到对于用户合理的程度的运动。这里,这时用户的姿势是相关用户的肩关节的复健运动中的基准姿势。在任何情况下,当通过用户或者物理治疗师对用户接口的操作,指示在用户正在进行上述运动的同时拍摄运动的图像时,开始本实施例中的处理。
首先,在步骤S301中,摄像单元103拍摄用户的图像,并且将拍摄的图像传送到人体识别单元104和表情识别单元105,并且在一些情况下传送到视频呈现单元109。然后,在步骤S302中,活力测量单元102测量站在半反射镜101前面的用户的体温,并且将指示所测量的体温的值的信息传送到样本参数确定单元106。
接下来,在步骤S303中,人体识别单元104针对由摄像单元103拍摄的用户的图像,识别人体部位的位置。此外,表情识别单元105识别由摄像单元103拍摄的用户的图像中的表情。然后,将识别结果分别传送到样本参数确定单元106。
接下来,在步骤S304中,样本参数确定单元106确定样本参数。假设在下面的描述中,要确定的样本参数是针对用户所允许的最大允许肩关节角。另外,当确定样本参数时,使用在步骤S302中从活力测量单元102传送的指示活力测量值的信息、在步骤S303中从人体识别单元104传送的人体部位的位置的识别结果以及在同一步骤中从表情识别单元105传送的表情的识别结果。然后,将确定结果传送到样本视频生成单元108。
接下来,在步骤S305中,样本视频生成单元108从基本样本数据保持单元107获得用于生成上述样本视频的数据。然后,在步骤S306中,样本视频生成单元108根据上述过程生成样本视频,并且将所生成的样本视频传送到视频呈现单元109。
接下来,在步骤S307中,视频呈现单元109显示从样本视频生成单元108传送的样本视频。在这种情况下,视频呈现单元可以接收来自人体识别单元104的人物识别结果(即,人体部位的位置的识别结果),并且基于接收到的人物识别结果调节从样本视频生成单元108传送的样本视频的显示位置和显示尺寸。作为另一选择,视频呈现单元可以接收来自摄像单元103的图像,将接收到的图像和样本视频合成,并且显示合成结果。
接下来,在步骤S308中,判断是否再次指示了由摄像单元103进行的图像拍摄。然后,当判断没有再次指示图像拍摄时,处理返回到步骤S307,以继续显示在步骤S306中生成的样本视频。
另一方面,当在步骤S308中判断再次指示了摄像单元103的图像拍摄时,处理返回到步骤S302。这里,再次指示摄像单元103的图像拍摄的情况包括由用户或者物理治疗师对用户接口的操作在步骤S301后再次明确指示拍摄图像的情况,还包括由摄像单元103自动指示再次拍摄图像的情况。此外,后者情况还包括由用户或者物理治疗师对用户接口的明确操作指示了连续拍摄图像(即,移动图像拍摄)的情况,以及根据移动体检测进行图像拍摄(即,在用户正在运动的同时进行移动图像拍摄)的情况。
应注意,例如,在由于基于步骤S301中拍摄的图像的样本视频不适当,用户或者物理治疗师确定需要重新生成样本视频的情况下,由用户或者物理治疗师对用户接口的操作进行明确的图像再拍摄。
另外,由摄像单元103进行自动图像拍摄的情况是通过用户或物理治疗师的操作或者移动体检测来拍摄移动图像的情况。在这种情况下,重复从步骤S301至步骤S308的处理。因此,每次进行步骤S304中的处理时,基于活力测量值和人物识别结果连续确定样本参数。结果,样本视频总是根据正在进行运动的用户的状况而改变。因此,即使体力上无法跟随样本视频的用户勉强跟随样本视频,也能基于活力测量值和人物识别结果立即检测到这种不适当的运动,从而立即改变样本视频。
如上所述,根据本实施例的样本视频生成装置100可以针对由于肩周炎而无法自由转动肩的人物,根据进行复健运动的用户的能力和状况,生成并呈现肩关节的复健运动的样本视频。
在本实施例中,已经描述了用于生成针对肩关节的复健运动的样本视频的装置。另一方面,也可以应用类似的装置生成其他复健运动的样本视频。特别地,可以通过与在本实施例中描述的样本视频生成装置100基本相同的构造和处理,来实现用于生成扩大诸如肘、膝等的关节的活动范围的复健运动的样本视频的装置。
[第二实施例]
在假设被放置在日托机构、老年人之家等的复健室、康乐室等中的情况下提供根据第二实施例的样本视频生成装置。更具体地,来到这种机构的老年人(下文中称为用户)在作为机构工作人员的健康运动指导者的指导下,使用本实施例的样本视频生成装置。在本实施例中,例如,生成并呈现示出用于健康维护和改善的下蹲运动的样本视频。
(构造)
图4是示出根据本实施例的样本视频生成装置400的构造的示例的框图。这里,由于图4所示的样本视频生成装置400的构造与图1所示的样本视频生成装置100的构造部分相同,因此下文中将省略对重叠部分的描述。也就是说,根据本实施例的样本视频生成装置400包括半反射镜101、活力测量单元402、摄像单元103、人体识别单元104和表情识别单元405。此外,样本视频生成装置400包括样本参数确定单元406、基本样本数据保持单元407、样本视频生成单元408、视频呈现单元409和重心测量单元410。
摄像单元103和视频呈现单元409的显示装置布置在半反射镜101的背面。因此,当用户站在半反射镜101的前面时,摄像单元103通过半反射镜101拍摄包括用户的姿势的图像。此外,通过半反射镜101向站在半反射镜101前面的用户呈现视频呈现单元409上的视频。
重心测量单元410被放置在半反射镜101的前面,并且用户站在重心测量单元410上。这里,作为在其四个角中的各个处具有负荷传感器的板状设备的重心测量单元410被用于测量站在其上的用户的重心的位置(也就是说,测量重心测量单元410上的负荷中心)。此外,例如,在重心测量单元410上放置已知形状的标记。在这种情况下,通过由摄像单元103拍摄所放置的标记,并且分析所获得的标记的图像,可以通过已知方法计算针对摄像单元103的重心测量单元410的三维位置。然后,重心测量单元410将指示所测量的用户的重心的位置的信息传送到样本参数确定单元406。
活力测量单元402是以非接触方式测量站在半反射镜101前面的用户的活力值的传感器。这里,应注意,例如由脉搏速度(即胸因呼吸而产生的运动速度)指示这种情况下的活力值。通常,已知通过检测发射到胸的电波等的反射波信号的波动来测量脉搏速度的传感器,作为以非接触方式测量脉搏速度的传感器。因此,如这种的已知传感器被用作本实施例中的活力测量单元402。然后,活力测量单元402将指示所测量的活力值的信息传送到视频呈现单元409。
摄像单元103是用于拍摄站在半反射镜101前面的用户的全身的图像的照相机。作为摄像单元,可以使用能够拍摄二维可视图像的照相机、能够拍摄三维远距离图像的照相机或者能够拍摄二维和三维图像两者的照相机。响应于对未示出的用户接口的操作,摄像单元能够在特定时刻明确地拍摄用户的姿势的图像,或者连续拍摄站在半反射镜前面的用户的状态的图像。另外,未示出的用户接口与在第一实施例中描述的用户接口相同。然后,摄像单元103将所拍摄的图像传送到人体识别单元104、表情识别单元405和样本参数确定单元406。
人体识别单元104进行关于从摄像单元103传送的图像中的人物的识别处理。这里要进行的关于人物的识别处理是识别人物的人体的部位的位置。在本实施例中,人体识别单元104将人体的部位的位置识别为针对摄像单元103的三维位置。另外,当从摄像单元103接收到二维可视图像时,人体识别单元将人体的部位的位置识别为二维位置。在任一情况下,识别人体的部位的位置的处理本身与在第一实施例中描述的相同。然后,人体识别单元104将识别结果传送到样本参数确定单元406。
表情识别单元405根据站在半反射镜101前面的用户的表情,识别用户是否感觉疲劳。此外,当用户感觉疲劳时,表情识别单元还识别用户感觉的疲劳程度。
在该识别处理中,表情识别单元首先从自摄像单元103接收到的图像中指定检测到源自用户的脸部的图像特征的区域。这里,作为图像特征的特征量,可以使用HOG特征量等。随后,表情识别单元识别通过将指定的区域正规化获得的图像,与包括根据疲劳程度分类的表情的多个图像组中的哪个组类似以及类似程度。这里,多个图像组包括收集的基于疲劳程度分类的表情,诸如人物感觉极度疲劳的表情、人物感觉疲劳到需要休息的程度的表情、人物感觉轻微疲劳的表情、人物不感觉疲劳的表情等。
另外,事先使用LDA方法,形成用于分拣与人物感觉极度疲劳的表情相对应的脸部图像组类以及与人物不感觉疲劳的表情相对应的脸部图像组类的判别轴。然后,使用该判别轴判别正规化的图像区域与哪个类类似。通过重复进行该关于多个表情类的比较的处理,可以识别从摄像单元103接收到的图像区域中的人物的表情与事先根据疲劳程度准备的表情中的哪个表情类似以及类似程度。
虽然如上面描述了人物感觉疲劳的表情的识别方法,但是本发明不限于这些方法。也就是说,当然可以使用其他已知方法。然后,表情识别单元405将识别结果传送到视频呈现单元409。
样本参数确定单元406接收来自摄像单元103的站在半反射镜101前面的用户的拍摄图像、来自人体识别单元104的人体部位的识别结果以及来自重心测量单元410的指示用户的重心的位置的信息,然后基于接收到的信息生成用于生成样本视频所需的参数。
例如,当生成并呈现示出用于健康维护和改善的下蹲运动的样本视频时,指示下蹲运动的基准姿势中的身体平衡的信息被生成为用于生成样本视频的参数。这里,下蹲运动是用户从直立姿势开始重复伸屈膝的运动,假设在下蹲运动中用户最屈膝时的姿势为在本实施例中的基准姿势。然后,将诸如腰或者膝的人体部位的位置与此时用户的重心线(即,从重心位置开始沿垂直方向向上延伸的线)之间的关系被设置为针对基准姿势的身体平衡的参数。
图5A和图5B是分别例示下蹲运动的基准姿势的示例和指示身体平衡的参数的图。更具体地,图5A例示了用户在保持背垂直的同时屈膝的基准姿势的示例,图5B示出了用户在向前弯曲躯干的同时屈膝的基准姿势的示例。如图5A和图5B所示,膝和重心线之间的距离以及腰和重心线之间的距离被用作指示身体平衡的参数。
这些距离中的各个是图像表面上的二维距离。如上所述,用户应当采取的基准姿势根据用户的能力和状况而不同。例如,对于膝不疼痛的人物,为了进行健康维护和改善,采取如图5A所示的基准姿势是有效的,而对于膝疼痛的人物,采取如图5B所示的向前弯曲背直到人物不感觉疼痛的程度的基准姿势更好。在任一情况下,当用户实际进行下蹲运动时,与如图5A和图5B所示的例示的基准姿势相比,通常被健康运动指导者指导采取中间基准姿势。
样本参数确定单元406计算在由摄像单元103拍摄的图像中的用户的姿势被设置为基准姿势时获得的指示用户的身体平衡的参数作为样本参数。基于从人体识别单元104接收到的人体部位的位置的识别结果、从重心测量单元410接收到的指示重心位置的信息以及从摄像单元103接收到的图像,来计算样本参数。
更具体地,样本参数确定单元406根据从摄像单元103接收到的图像中包括的重心测量单元410的标记,计算重心测量单元410相对于摄像单元103的三维位置和姿势。这里,由于计算这些值的方法是已知的,所以将省略其详细描述。随后,样本参数确定单元根据重心测量单元410相对于摄像单元103的三维位置和姿势以及作为重心测量单元410的测量结果的重心位置,来计算用户的重心线(即,从重心位置开始沿垂直位置向上延伸的线)的三维位置和姿势。在这种情况下,假设摄像单元103和垂直方向(重力方向)之间的关系是已知的。随后,样本参数确定单元通过使用从人体识别单元104接收到的相对于摄像单元103的用户的人体部位的三维位置以及用户的重心线相对于摄像单元103的三维位置和姿势,计算身体平衡的参数(即,各人体部位和重心线之间的距离)。然后,样本参数确定单元406将计算出的身体平衡的参数传送到样本视频生成单元408,并且还将从人体识别单元104接收到的人体部位的位置的识别结果传送到样本视频生成单元408。
基本样本数据保持单元407保持并存储用作要向用户呈现的样本视频的基础的多个基本样本参数。在本实施例中,基本样本数据保持单元保持两种基本样本参数,即如图5A所示的指示基准姿势的身体平衡的下蹲运动的参数以及如图5B所示的指示基准姿势的身体平衡的下蹲运动的参数。
这里,在指示下蹲运动的参数中,按照时间顺序布置进行下蹲运动的人体模型的人体部位的三维位置参数。另外,指示基本样本的参数包括指示运动时的重心线的位置的参数。可以通过已知方法来创建这些参数。也就是说,例如,可以将通过采取人物的两种下蹲运动而获得的人体部位位置设置为指示下蹲运动的参数。此时,如果测量了人物的实际重心位置,则测量结果被用作指示重心线的位置的参数。样本视频生成单元408参照所获得的两种基本样本参数。另外,这两种基本样本参数被表示为三维坐标,各基准姿势的重心线被正规化在同一位置。
样本视频生成单元408接收来自样本参数确定单元406的指示基准姿势的身体平衡的参数,参照来自基本样本数据保持单元407的基本样本参数,并且通过使用这两个参数来生成样本视频。
首先,样本视频生成单元408对由来自基本样本数据保持单元407的所参照的基本样本参数指示的人体部位的位置进行校正,以使其符合从样本参数确定单元406接收到的人体部位的位置的识别结果。也就是说,对由基本样本参数指示的人体部位的位置进行校正,使得所连结的人体部位(肩和肘、腰和膝等)之间的距离相对变得与从样本参数确定单元406接收到的人体部位的位置的识别结果相同。因此,由基本样本参数指示的人体部位的比例符合由摄像单元103拍摄的用户的图像的比例。此外,在模拟的基础上,将其校正结果反映在指示重心线的位置的参数中。例如,针对由基本样本参数指示的人体部位的位置,将校正前的平均位置和校正后的平均位置之间的差直接应用于重心线的位置。
随后,样本视频生成单元408根据由校正后的两种基本样本参数指示的针对基准姿势的人体部位的位置,计算身体平衡的参数。结果,样本视频生成单元408获得三种身体平衡的参数,即,从样本参数确定单元406获得的身体平衡的参数以及根据两种基本样本参数获得的身体平衡的两种参数。
这里,假设在由样本参数确定单元406获得的身体平衡中所指示的连接膝和重心线的最短的线在图像表面上的距离是dx,并且在两种样本视频中指示的连接两个膝和重心线的最短的线在图像表面上的距离分别是da和db。此时,距离da对应于图5A所示的基本姿势,而距离db对应于图5B所示的基本姿势。
当由样本参数确定单元406获得的身体平衡是图5A所示的身体平衡和图5B所示的身体平衡的中间姿势时,满足关系距离da>距离dx>距离db。在这种情况下,样本视频生成单元408以比例(距离dx-距离db)∶(距离da-距离dx),对在两种基本样本参数中指示的膝部位的位置坐标进行求和。由此获得的连接这些坐标位置和重心线的最短的线在图像表面上的距离是距离dx。
例如,假设图像表面是Z=0,在两种基本样本参数中指示的膝部位的位置坐标分别是A(3,1,4)和B(1,3,0),并且在从样本参数确定单元406获得的身体平衡中指示的距离dx是2。这时,当重心线是X=Z=0时,距离da=3,并且距离db=1,由此获得(距离dx-距离db)∶(距离da-距离dx)=1∶1。因此,如果以比例1∶1对位置坐标A和B进行求和,则获得(3,1,4)×0.5+(1,3,0)×0.5=(2,2,2)。连接相关坐标和重心线X=Z=0的最短的线在图像表面上的距离是2,这符合距离dx。
样本视频生成单元408将由此获得的位置坐标设置为样本视频中的膝的位置坐标。类似地,样本视频生成单元408确定对其他人体部位求和的比例,并且计算其在样本视频中的位置坐标。然后,样本视频生成单元408将针对各部位确定的求和比例应用于全部两种基本样本参数。因此,可以获得指示符合用户的姿势的下蹲运动的参数,该用户的姿势是通过对由两种基本样本参数指示的下蹲运动求和而获得的,并且由摄像单元103拍摄基准姿势时的身体平衡。样本视频生成单元408通过将由此获得的参数应用于人体模型,来生成用作样本视频的CG视频。
另外,描述了针对各人体部位确定两种基本样本参数的求和比例的示例。然而,例如,可以对所有人体部位应用特定比例,并且可以对所有人体部位应用求和的比例的平均值。此外,可以不对两种基本样本参数求和,而对三种或者更多种基本样本参数求和。样本视频生成单元408将通过上述过程生成的样本视频传送到视频呈现单元409。
视频呈现单元409接收来自样本视频生成单元408的样本视频,并且呈现(显示)接收到的样本视频。由于视频呈现单元409被布置在半反射镜101的背面,因此站在半反射镜101前面的用户观看与半反射镜101中包括用户自己的镜面图像重叠的样本视频。
此外,视频呈现单元409接收作为来自活力测量单元402的活力测量值的指示脉搏速度的信息,并且还接收来自表情识别单元405的用户的表情的识别结果。这里,表情的识别结果指示用户的疲劳程度。然后,视频呈现单元409根据脉搏速度和疲劳程度,改变要向用户呈现的样本视频的显示时间。也就是说,当接收到的脉搏速度比事先设置的正常下蹲运动的脉搏速度快时,缩短要向用户呈现的样本视频的显示时间。同样地,当接收到的表情的识别结果所指示的用户的疲劳程度高时,缩短要向用户呈现的样本视频的显示时间,或者根据程度停止样本视频的呈现。
(处理)
随后,将参照图6所示的流程图,描述根据本实施例的样本视频生成装置400进行的处理。另外,假设在下面的描述中,在开始处理开始前,用户站在放置在半反射镜101前面的重心测量单元410上。在这种情形下,用户可以侧身站在摄像单元103旁边,或者面对摄像单元103站立。此外,假设用户在照顾用户的健康运动指导者的指导下采取下蹲运动中的基准姿势,还假设基于健康运动指导者的指导的用户的姿势是适合用户的能力和状况的下蹲运动中的基准姿势,该基准姿势不拉伤用户的身体并且可以预期适当的运动效果。在任何情况下,当在用户正在采取基本姿势(基准姿势)的同时,通过用户或者健康运动指导者对用户接口的操作指示拍摄图像时,本实施例中的处理开始。
首先,在步骤S601中,摄像单元103拍摄用户的图像,并且将拍摄的图像传送到人体识别单元104和样本参数确定单元406。
接下来,在步骤S602中,人体识别单元104对由摄像单元103拍摄的用户的图像进行人物识别处理。这里,人物识别处理是识别人体部位的位置的处理。然后,人体识别单元104将识别结果传送到样本参数确定单元406。
接下来,在步骤S6303中,样本参数确定单元406确定样本参数。在本实施例中,样本参数是指示在步骤S601中采取的用户的姿势中的身体平衡的参数。另外,当确定了样本参数时,使用在步骤S602中从人体识别单元104传送的指示识别结果的信息。然后,样本参数确定单元406将确定结果传送到样本视频生成单元408。
接下来,在步骤S604中,样本视频生成单元408从基本样本数据保持单元407获得用于生成样本视频的数据(基本样本参数)。然后,在步骤S605中,样本视频生成单元408根据上述过程生成样本视频,并且将所生成的样本视频传送到视频呈现单元409。
接下来,在步骤S606中,活力测量单元402测量站在半反射镜101前面的用户的脉搏速度,并且表情识别单元405识别由摄像单元103拍摄的图像中的用户的表情。然后,活力测量单元402和表情识别单元405分别将结果传送到视频呈现单元409。随后,由视频呈现单元409确定样本视频的显示时间。稍后将描述样本视频的显示时间的确定方法。
接下来,在步骤S607中,视频呈现单元409判断是否呈现从样本视频生成单元408接收到的样本视频。基于样本视频是否被显示持续到限定的显示时间,来进行该判断。然后,当判断样本视频被显示持续到限定的显示时间时,处理前进到步骤S609,从而整个处理终止。
另一方面,当在步骤S607中判断样本视频没有被显示持续到限定的显示时间时,在步骤S608中,视频呈现单元409按原样呈现(显示)样本视频,并且处理返回到步骤S606。
这里,可以基于被传送到视频呈现单元409的用户的脉搏速度的测量值和用户的表情的识别结果两者,来改变样本视频的限定的显示时间。例如,当用户的脉搏速度的测量值基本等于或低于事先设置的正常下蹲运动中的脉搏速度,并且在表情的识别结果中指示的用户的疲劳程度低时,按原样使用正常限定的显示时间。
另一方面,当用户的脉搏速度的测量值高于事先设置的正常下蹲运动中的脉搏速度,或者在表情的识别结果中指示的用户的疲劳程度高时,根据脉搏速度的测量值或者表情的识别结果,缩短样本视频的显示时间。如刚描述的,在步骤S606中,根据脉搏速度的测量值或者表情的识别结果,来调节样本视频的显示时间。因此,当用户感觉极度疲劳,或者用户的呼吸在下蹲运动中变短时,缩短样本视频的显示时间,或者突然终止样本视频的呈现本身。因此,能够呈现具有符合用户的状况的合理长度的样本视频。
如上所述,根据本实施例的样本视频生成装置400能够根据进行针对老年人实现健康维护和改善的下蹲运动的用户的能力,生成示出用户的姿势的样本视频。此外,还可以呈现上述具有与正在进行下蹲运动的用户的状况对应的长度的样本视频。
另外,在本实施例中描述了用于生成下蹲运动的样本视频的装置。另一方面,类似装置可以应用于生成另一复健运动的样本视频。特别地,通过与在本实施例中描述的样本视频生成装置400的构造和处理基本相同的构造和处理,能够实现用于生成在运动中的身体平衡的变化的运动的样本视频的装置。
[其他实施例]
此外,可以通过进行以下处理实现本发明,即,通过网络704或707和/或各种存储介质702和703向系统或装置提供用于实现上述实施例的功能的软件(程序),并且系统或装置中的CPU 701读取并执行所提供的程序。此外,能够通过将程序存储在计算机可读存储介质中来提供程序。另外,能够从输入单元705将用于执行该处理的指令输入到本发明的装置中的计算机中,并且在显示单元706上显示所指示的处理的结果。
本发明的各方面还能够通过读出并执行记录在存储装置上的用于执行上述实施例的功能的程序的系统或设备的计算机(或诸如CPU或MPU的装置)、以及由系统或设备的计算机例如读出并执行记录在存储装置上的用于执行上述实施例的功能的程序来执行步骤的方法来实现。鉴于此,例如经由网络或者从用作存储装置的各种类型的记录介质(例如计算机可读介质)向计算机提供程序。
虽然参照示例性实施例对本发明进行了说明,但是应当理解,本发明不限于所公开的示例性实施例。所附权利要求的范围符合最宽的解释,以使其涵盖所有这种变型、等同结构及功能。

Claims (17)

1.一种视频生成装置,所述视频生成装置包括:
获得单元,其被配置为获得拍摄有人物的图像;
人体识别单元,其被配置为识别所述图像中的所述人物的人体部位;
保持单元,其被配置为保持关于示出所述人物进行运动的基本视频的数据;
设置单元,其被配置为基于识别的所述人物的人体部位,设置特定部位在所述人物的运动中的活动范围;
视频生成单元,其被配置为基于所述活动范围,由关于所述基本视频的数据生成针对所述图像中的所述人物的样本视频;以及
显示控制单元,其被配置为在显示装置上显示所生成的样本视频。
2.根据权利要求1所述的视频生成装置,所述视频生成装置还包括:
信息输入单元,其被配置为输入关于所述图像中的所述人物的状况的信息;以及
范围调整单元,其被配置为基于所输入的关于所述人物的状况的信息,调整所述活动范围,
其中,所述视频生成单元基于调整后的所述活动范围,由关于所述基本视频的数据生成针对所述人物的样本视频。
3.根据权利要求2所述的视频生成装置,其中,所述信息输入单元还包括:
表情识别单元,其被配置为识别所述图像中的所述人物的表情。
4.根据权利要求3所述的视频生成装置,其中,
所述表情识别单元根据所述图像中的所述人物的表情识别所述人物的疼痛,并且
所述范围调整单元基于所识别的疼痛的程度,调整所述活动范围。
5.根据权利要求2所述的视频生成装置,其中,所述信息输入单元还包括:
活力测量单元,其被配置为测量所述图像中的所述人物的活力值,并且
所述范围调整单元基于测量出的所述活力值,调整所述活动范围。
6.根据权利要求2所述的视频生成装置,其中,
所述信息输入单元输入从所述图像中的所述人物的运动开始的经过天数,并且
所述范围调整单元基于所述经过天数,调整所述活动范围。
7.根据权利要求1所述的视频生成装置,所述视频生成装置还包括放置在所述显示装置前面的半反射镜,
其中,所述显示控制单元基于所述人体识别单元的识别结果,以使得所述半反射镜中的人物与所述样本视频中的人物彼此相对应的方式显示所述样本视频。
8.根据权利要求1所述的视频生成装置,其中,所述视频生成单元通过从所述基本视频中提取示出所述人物在所述活动范围内进行运动的视频,来生成所述样本视频。
9.根据权利要求1所述的视频生成装置,其中,
由所述保持单元保持的关于所述基本视频的数据包括移动数据,并且
所述视频生成单元通过从所保持的移动数据中提取所述活动范围的移动数据,并且将所提取的移动数据应用于人体模型,来生成所述样本视频。
10.根据权利要求2所述的视频生成装置,所述视频生成装置还包括:
时间调整单元,其被配置为基于由所述信息输入单元输入的关于所述人物的状况的信息,调整要在所述显示装置上显示的所述样本视频的显示时间。
11.根据权利要求10所述的视频生成装置,其中,所述信息输入单元还包括:
表情识别单元,其被配置为识别所述图像中的所述人物的表情,并且
所述时间调整单元基于由所述表情识别单元识别的表情,调整所述样本视频的显示时间。
12.根据权利要求11所述的视频生成装置,其中,所述表情识别单元从所述图像中的所述人物的表情识别所述人物的疲劳。
13.根据权利要求10所述的视频生成装置,其中,所述信息输入单元还包括:
活力测量单元,其被配置为测量所述图像中的所述人物的活力值,并且
所述时间调整单元基于由所述活力测量单元测量出的活力值,调整所述样本视频的显示时间。
14.根据权利要求13所述的视频生成装置,其中,所述活力测量单元测量所述图像中的所述人物的心率。
15.根据权利要求1所述的视频生成装置,所述视频生成装置还包括:
重心测量单元,其被配置为测量所述人物的重心的位置,
其中,所述视频生成单元基于由所述重心测量单元测量出的所述重心的位置,生成所述样本视频。
16.根据权利要求1所述的视频生成装置,其中,所述保持单元保持各自表示所述运动的多个参数,作为关于示出所述人物进行运动的基本视频的数据。
17.一种视频生成装置中的视频生成方法,所述视频生成装置配备有保持单元,所述保持单元被配置为保持关于示出人物进行运动的基本视频的数据,所述视频生成方法包括:
获得拍摄有所述人物的图像;
识别所述图像中的所述人物的人体部位;
基于识别的所述人物的人体部位,设置特定部位在所述人物的运动中的活动范围;
基于所述活动范围,由关于所述基本视频的数据生成针对所述图像中的所述人物的样本视频;以及
在显示装置上显示生成的所述样本视频。
CN201210527575.XA 2011-12-01 2012-11-30 视频生成装置及方法 Active CN103127691B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011263512A JP6045139B2 (ja) 2011-12-01 2011-12-01 映像生成装置、映像生成方法及びプログラム
JP2011-263512 2011-12-01

Publications (2)

Publication Number Publication Date
CN103127691A true CN103127691A (zh) 2013-06-05
CN103127691B CN103127691B (zh) 2015-10-14

Family

ID=48488539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210527575.XA Active CN103127691B (zh) 2011-12-01 2012-11-30 视频生成装置及方法

Country Status (3)

Country Link
US (1) US9374522B2 (zh)
JP (1) JP6045139B2 (zh)
CN (1) CN103127691B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105310650A (zh) * 2014-05-30 2016-02-10 联发科技股份有限公司 用于生命体征监测的控制器和方法
CN108176021A (zh) * 2017-12-28 2018-06-19 必革发明(深圳)科技有限公司 跑步机安全预警方法、装置及跑步机
CN112007348A (zh) * 2018-05-29 2020-12-01 库里欧瑟产品公司 用于交互式训练和演示的反射视频显示设备及其使用方法
US11433275B2 (en) 2020-09-04 2022-09-06 Curiouser Products Inc. Video streaming with multiplexed communications and display via smart mirrors

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US9396570B2 (en) * 2012-12-28 2016-07-19 Rakuten, Inc. Image processing method to superimpose item image onto model image and image processing device thereof
US20190068589A1 (en) * 2013-01-09 2019-02-28 Chris Outwater Range of Motion Tracking System
US9113036B2 (en) * 2013-07-17 2015-08-18 Ebay Inc. Methods, systems, and apparatus for providing video communications
JP6266317B2 (ja) * 2013-11-15 2018-01-24 東芝メディカルシステムズ株式会社 診察支援装置及び診察支援方法
JP2015146980A (ja) * 2014-02-07 2015-08-20 セイコーエプソン株式会社 運動支援システム、運動支援装置及び運動支援方法
JP2017060572A (ja) * 2015-09-24 2017-03-30 パナソニックIpマネジメント株式会社 機能訓練装置
KR101796361B1 (ko) * 2015-11-27 2017-11-09 한국 한의학 연구원 관절 가동 범위를 측정하는 장치 및 방법
CN108885789A (zh) * 2017-03-03 2018-11-23 华为技术有限公司 一种针对人体运动的计数方法及装置
WO2019130827A1 (ja) 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
JP7058585B2 (ja) 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
JP2019150545A (ja) * 2018-03-06 2019-09-12 株式会社 Mtg 運動ブースの設置構造および方法
WO2019172298A1 (ja) * 2018-03-06 2019-09-12 株式会社Mtg 運動ブースの設置構造および方法
CN109259726A (zh) * 2018-08-19 2019-01-25 天津大学 一种基于双向成像的舌像自动抓拍方法
KR20200080047A (ko) * 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
JP6627044B1 (ja) * 2019-06-06 2020-01-08 株式会社リクティー リハビリ支援装置及びリハビリ支援プログラム
FR3097395B1 (fr) * 2019-06-15 2022-01-21 Mathilde Amoros Système de mur-miroir multimédia pour salle d’exercice physique
WO2021222497A1 (en) 2020-04-30 2021-11-04 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
WO2022165635A1 (zh) * 2021-02-02 2022-08-11 浙江大学 一种利用镜子重建三维人体的方法
CN117999578A (zh) 2021-09-24 2024-05-07 索尼集团公司 信息处理系统、信息处理方法和程序
JP7530536B1 (ja) 2023-12-22 2024-08-07 株式会社カーブスジャパン 映像出力システム、映像出力方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229109A (ja) * 2003-01-24 2004-08-12 Is Engineering:Kk 動作分析装置及び方法並びに記録媒体
WO2007111907A2 (en) * 2006-03-22 2007-10-04 Del Giorno Ralph J Virtual personal training device
WO2009107714A1 (ja) * 2008-02-27 2009-09-03 ブラザー工業株式会社 運動支援装置、コンピュータプログラム、運動支援システム、サーバ装置、運動支援方法及び運動メニュー生成方法
JP2009213782A (ja) * 2008-03-12 2009-09-24 Xing Inc 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム
CN101713660A (zh) * 2008-10-03 2010-05-26 阿迪达斯股份公司 用于提供位置感知健身监测服务的程序产品,方法和系统
CN101791466A (zh) * 2010-03-16 2010-08-04 王洪伟 带有教练功能的智能健身系统
WO2011074206A1 (en) * 2009-12-17 2011-06-23 Canon Kabushiki Kaisha Video information processing method and video information processing apparatus

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3815938B2 (ja) * 2000-02-24 2006-08-30 株式会社バンダイナムコゲームス ゲーム装置および情報記憶媒体
JP3472238B2 (ja) 2000-05-19 2003-12-02 由和 伊丹 効果的身体運動の提供方法
JP2005111178A (ja) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd 動作トレーニング表示システム
JP2006259929A (ja) * 2005-03-15 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 運動指導システムとその管理装置
JP4594157B2 (ja) * 2005-04-22 2010-12-08 日本電信電話株式会社 運動支援システムとその利用者端末装置及び運動支援プログラム
JP2007289515A (ja) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> 運動支援装置とそのプログラム
WO2008099301A1 (en) * 2007-02-14 2008-08-21 Koninklijke Philips Electronics N.V. Feedback device for guiding and supervising physical exercises
JP4493678B2 (ja) * 2007-03-27 2010-06-30 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
JP4946756B2 (ja) * 2007-09-26 2012-06-06 ブラザー工業株式会社 運動支援装置、運動支援プログラムおよび運動支援システム
JP2009201672A (ja) * 2008-02-27 2009-09-10 Xing Inc 運動支援システム、運動支援装置、運動支援方法及びコンピュータプログラム
JP2009277195A (ja) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd 情報表示システム
JP2009279041A (ja) * 2008-05-19 2009-12-03 Sanyo Electric Co Ltd 投写型映像表示装置
JP2010069102A (ja) * 2008-09-19 2010-04-02 Sony Corp 情報処理方法、情報処理装置、プログラム、およびコンピュータ読み取り可能な記録媒体
US9409052B2 (en) 2008-10-03 2016-08-09 Adidas Ag Program products, methods, and systems for providing location-aware fitness monitoring services
IT1399855B1 (it) * 2010-04-28 2013-05-09 Technogym Spa Apparato per l'esecuzione assistita di un esercizio ginnico.
WO2012039467A1 (ja) * 2010-09-22 2012-03-29 パナソニック株式会社 運動支援システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229109A (ja) * 2003-01-24 2004-08-12 Is Engineering:Kk 動作分析装置及び方法並びに記録媒体
WO2007111907A2 (en) * 2006-03-22 2007-10-04 Del Giorno Ralph J Virtual personal training device
WO2009107714A1 (ja) * 2008-02-27 2009-09-03 ブラザー工業株式会社 運動支援装置、コンピュータプログラム、運動支援システム、サーバ装置、運動支援方法及び運動メニュー生成方法
JP2009213782A (ja) * 2008-03-12 2009-09-24 Xing Inc 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム
CN101713660A (zh) * 2008-10-03 2010-05-26 阿迪达斯股份公司 用于提供位置感知健身监测服务的程序产品,方法和系统
WO2011074206A1 (en) * 2009-12-17 2011-06-23 Canon Kabushiki Kaisha Video information processing method and video information processing apparatus
CN101791466A (zh) * 2010-03-16 2010-08-04 王洪伟 带有教练功能的智能健身系统

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105310650A (zh) * 2014-05-30 2016-02-10 联发科技股份有限公司 用于生命体征监测的控制器和方法
CN105310650B (zh) * 2014-05-30 2018-10-26 联发科技股份有限公司 用于生命体征监测的控制器和方法
CN108176021A (zh) * 2017-12-28 2018-06-19 必革发明(深圳)科技有限公司 跑步机安全预警方法、装置及跑步机
US11712614B2 (en) 2018-05-29 2023-08-01 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11298606B2 (en) 2018-05-29 2022-04-12 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11400357B2 (en) 2018-05-29 2022-08-02 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11679318B2 (en) 2018-05-29 2023-06-20 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11697056B2 (en) 2018-05-29 2023-07-11 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
CN112007348A (zh) * 2018-05-29 2020-12-01 库里欧瑟产品公司 用于交互式训练和演示的反射视频显示设备及其使用方法
US11717739B2 (en) 2018-05-29 2023-08-08 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11731026B2 (en) 2018-05-29 2023-08-22 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11752416B2 (en) 2018-05-29 2023-09-12 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11759693B2 (en) 2018-05-29 2023-09-19 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11433275B2 (en) 2020-09-04 2022-09-06 Curiouser Products Inc. Video streaming with multiplexed communications and display via smart mirrors

Also Published As

Publication number Publication date
US9374522B2 (en) 2016-06-21
CN103127691B (zh) 2015-10-14
JP6045139B2 (ja) 2016-12-14
US20130141607A1 (en) 2013-06-06
JP2013111449A (ja) 2013-06-10

Similar Documents

Publication Publication Date Title
CN103127691B (zh) 视频生成装置及方法
US12033076B2 (en) Systems and methods for assessing balance and form during body movement
KR101959079B1 (ko) 신체 측정 및 평가 방법
KR102125748B1 (ko) 4d 아바타를 이용한 동작가이드장치 및 방법
US9418470B2 (en) Method and system for selecting the viewing configuration of a rendered figure
US11426099B2 (en) Mobile device avatar generation for biofeedback to customize movement control
US20130171596A1 (en) Augmented reality neurological evaluation method
KR101931784B1 (ko) 복수의 사용자 대결 구도의 가상 피트니스 시스템
KR101909693B1 (ko) 증강현실 기반의 가상 피트니스 트레이너가 제공되는 피트니스 시스템
WO2022034771A1 (ja) プログラム、方法、情報処理装置
US20230116624A1 (en) Methods and systems for assisted fitness
JP2020174910A (ja) 運動支援システム
Escalona et al. EVA: EVAluating at-home rehabilitation exercises using augmented reality and low-cost sensors
JP6884306B1 (ja) システム、方法、情報処理装置
JP6978811B1 (ja) トレーニング管理システム、トレーニング管理方法及びトレーニング管理プログラム
CN113842622B (zh) 一种运动教学方法、装置、系统、电子设备及存储介质
CN115006822A (zh) 一种智能健身镜控制系统
JP2022187952A (ja) プログラム、方法、情報処理装置
CN113517052A (zh) 商用健身场景下的多感知人机交互系统与方法
JP2021097990A (ja) トレーニング機器の制御方法
JP2021068069A (ja) 無人トレーニングの提供方法
Li et al. Fitness coach: Design and implementation of a smart mirror based on automatic image recognition and action model comparison
JP7150387B1 (ja) プログラム、方法、および電子機器
TWI821772B (zh) 肌肉狀況檢測方法及應用其之肌肉狀況檢測裝置
WO2024159402A1 (en) An activity tracking apparatus and system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant