CN115845350B - 一种用于立定跳远自动测距的方法及系统 - Google Patents

一种用于立定跳远自动测距的方法及系统 Download PDF

Info

Publication number
CN115845350B
CN115845350B CN202310188920.XA CN202310188920A CN115845350B CN 115845350 B CN115845350 B CN 115845350B CN 202310188920 A CN202310188920 A CN 202310188920A CN 115845350 B CN115845350 B CN 115845350B
Authority
CN
China
Prior art keywords
image
standing long
jump
standing
long jump
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310188920.XA
Other languages
English (en)
Other versions
CN115845350A (zh
Inventor
杨青山
兰亚平
黄承章
丁一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Gudi Technology Co ltd
Original Assignee
Chengdu Gudi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Gudi Technology Co ltd filed Critical Chengdu Gudi Technology Co ltd
Priority to CN202310188920.XA priority Critical patent/CN115845350B/zh
Publication of CN115845350A publication Critical patent/CN115845350A/zh
Application granted granted Critical
Publication of CN115845350B publication Critical patent/CN115845350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种用于立定跳远自动测距的方法及系统,属于数据处理技术领域,所述方法包括获取用户的立定跳远视频,其中,用户的立定跳远视频包括用户在立定跳远过程中的多个时间点的立定跳远图像;基于用户的立定跳远视频,判断用户是否踩线;若判断用户踩线,生成第一提示信息;若判断用户未踩线,从用户的立定跳远视频中确定落地帧,获取落地帧对应的立定跳远图像,基于落地帧对应的立定跳远图像,确定用户的立定跳远成绩,具有自动对立定跳远是否踩线犯规及跳远距离进行判定,提高立定跳远测试的效率的优点。

Description

一种用于立定跳远自动测距的方法及系统
技术领域
本发明主要涉及数据处理技术领域,具体地说,涉及一种用于立定跳远自动测距的方法及系统。
背景技术
立定跳远是一项能够反映出人体运动过程中的身体协调力和爆发力,同时也在一定程度上体现出个人的身体素质情况的运动,在上学期间,立定跳远通常作为一项校园体能测试的必测项目,因此具有广泛的群众基础。
在传统的立定跳远测试时,一般在沙坑内完成,参加跳远考试的学生站在起跳点起跳之后跳入沙坑,然后由另外的至少两位测试人员将量尺分别固定在起跳点和跳落的终点进行成绩的读数,一般还需要由专门的成绩记录人员对成绩进行手动记录,因此传统的测试方式需要占用至少二到三位额外的成绩记录人员,造成一定的人员浪费,同时工作效率较为低下。
因此,需要一种用于立定跳远自动测距的方法及系统,用于自动对立定跳远是否踩线犯规及跳远距离进行判定,提高立定跳远测试的效率。
发明内容
为了解决现有技术中通过人工测量跳远成绩效率较低且准确率较低的技术问题,本说明书实施例之一提供一种用于立定跳远自动测距的方法,包括:获取用户的立定跳远视频,其中,所述用户的立定跳远视频包括所述用户在立定跳远过程中的多个时间点的立定跳远图像;基于所述用户的立定跳远视频,判断所述用户是否踩线;若判断所述用户踩线,生成第一提示信息;若判断所述用户未踩线,从所述用户的立定跳远视频中确定落地帧,获取所述落地帧对应的立定跳远图像,基于所述落地帧对应的立定跳远图像,确定所述用户的立定跳远成绩。
在一些实施例中,所述基于所述用户的立定跳远视频,判断所述用户是否踩线,包括:对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频;确定所述预处理后的立定跳远视频中的起跳帧,获取所述起跳帧对应的立定跳远图像;基于所述起跳帧对应的立定跳远图像,判断所述用户是否踩线。
在一些实施例中,所述对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频,包括:对所述立定跳远图像进行二值化处理,生成二值化立定跳远图像;对所述二值化立定跳远图像进行去噪,生成去噪后的二值化立定跳远图像;获取所述去噪后的二值化立定跳远图像中的目标区域图像;对所述目标区域图像进行透视变换,生成透视变换后的目标区域图像。
在一些实施例中,所述对所述立定跳远图像进行二值化处理,生成二值化立定跳远图像,包括:确定所述立定跳远图像中像素的灰度值小于灰度值阈值的个数;确定所述立定跳远图像中像素的灰度值大于灰度值阈值的个数;基于所述立定跳远图像中像素的灰度值小于灰度值阈值的个数及所述立定跳远图像中像素的灰度值大于灰度值阈值的个数,确定前景像素比例及背景像素比例;确定所述立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度;基于所述前景像素比例、所述背景像素比例、所述立定跳远图像的总平均灰度、所述前景平均灰度及所述背景平均灰度,确定类间方差;基于所述类间方差对所述立定跳远图像进行二值化处理,生成所述二值化立定跳远图像。
在一些实施例中,所述确定所述预处理后的立定跳远视频中的起跳帧,包括:对于每一帧所述立定跳远图像,以所述立定跳远图像为中心帧,确定所述立定跳远图像对应的图像组;对于每一个所述图像组,基于所述图像组包括的多个所述立定跳远图像对应的透视变换后的目标区域图像,确定所述图像组的目标区域像素变化情况;对于每一个所述图像组,基于所述图像组的目标区域像素变化情况,判断所述图像组对应的中心帧是否为所述起跳帧。
在一些实施例中,所述从所述用户的立定跳远视频中确定落地帧,包括:对于每一个所述图像组,基于所述图像组的目标区域像素变化情况,判断所述图像组对应的中心帧是否为所述落地帧。
在一些实施例中,用于立定跳远自动测距的方法还包括:获取所述用户的立定跳远视频前,获取所述用户的人脸图像;对所述用户的人脸图像进行人脸识别,判断所述用户是否通过识别;判断所述用户通过识别时,展示第二提示信息,其中,所述第二提示信息用于提示所述用户前往起跳区。
在一些实施例中,用于立定跳远自动测距的方法还包括:展示所述第二提示信息后,采集所述起跳区的预备视频,其中,所述预备视频包括多帧预备图像;基于所述预备视频,判断所述起跳区是否有人;若判断所述起跳区有人,获取所述用户的立定跳远视频。
在一些实施例中,所述基于所述预备视频,判断所述起跳区是否有人,包括:对所述预备图像进行预处理,生成预处理后的预备图像;基于所述预处理后的预备图像及预设无人对比图,判断所述起跳区是否有人。
本说明书实施例之一提供一种用于立定跳远自动测距的系统,包括:图像获取模块,用于获取用户的立定跳远视频,其中,所述用户的立定跳远视频包括所述用户在立定跳远过程中的多个时间点的立定跳远图像;数据处理模块,用于基于所述用户的立定跳远视频,判断所述用户是否踩线;若判断所述用户踩线,生成第一提示信息;若判断所述用户未踩线,从所述用户的立定跳远视频中确定落地帧,获取所述落地帧对应的立定跳远图像,基于所述落地帧对应的立定跳远图像,确定所述用户的立定跳远成绩。
本说明书提供的一种用于立定跳远自动测距的方法及系统,至少具有以下有益效果:
1、具有自动对立定跳远是否踩线犯规及跳远距离进行判定,提高立定跳远测试的效率的优点;
2、基于图像组的目标区域像素变化情况,可以较为准确地确定起跳帧,从而较为准确地判断用户在起跳时是否发生踩线;
3、基于图像组的目标区域像素变化情况,可以较为准确地确定落地帧,从而较为准确地确定用户的立定跳远成绩。
附图说明
本申请将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本申请一些实施例所示的一种用于立定跳远自动测距的方法及系统的应用场景示意图;
图2是根据本申请一些实施例所示的一种用于立定跳远自动测距的系统的模块示意图;
图3是根据本申请一些实施例所示的一种用于立定跳远自动测距的方法的示例性流程图;
图4是根据本申请一些实施例所示的二值化预备图像的示意图;
图5是根据本申请一些实施例所示的透视变换后的预备目标区域图像的示意图;
图6是根据本申请一些实施例所示的预设无人对比图的示意图;
图7是根据本申请一些实施例所示的透视变换的示意图;
图中,110、处理设备;120、网络;130、终端设备;140、存储设备;150、图像采集装置;511、起跳区;513、起跳线;515、测距区域。
具体实施方式
为了更清楚地说明本申请的实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。应当理解,给出这些示例性的实施例仅仅是为了使相关领域的技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“方法及系统”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
虽然本申请对根据本申请的实施例的系统中的某些模块或单元做出了各种引用,然而,任何数量的不同模块或单元可以被使用并运行在客户端和/或服务器上。所述模块仅是说明性的,并且所述系统和方法的不同方面可以使用不同模块。
本申请中使用了流程图用来说明根据本申请的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本申请一些实施例所示的一种用于立定跳远自动测距的方法及系统的应用场景示意图。
如图1所示,应用场景可以包括处理设备110、网络120、终端设备130、存储设备140和图像采集装置150。
在一些实施例中,处理设备110可以用于处理与立定跳远自动测距相关的信息和/或数据。例如,处理设备110可以获取用户的立定跳远视频,其中,用户的立定跳远视频包括用户在立定跳远过程中的多个时间点的立定跳远图像;基于用户的立定跳远视频,判断用户是否踩线;若判断用户踩线,生成第一提示信息;若判断用户未踩线,从用户的立定跳远视频中确定落地帧,获取落地帧对应的立定跳远图像,基于落地帧对应的立定跳远图像,确定用户的立定跳远成绩。
在一些实施例中,处理设备110可以是区域的或者远程的。例如,处理设备110可以通过网络120访问存储于终端设备130、存储设备140和/或图像采集装置150中的信息和/或资料。在一些实施例中,处理设备110可以直接与终端设备130和存储设备140连接以访问存储于其中的信息和/或资料。在一些实施例中,处理设备110可以在云系统上执行。例如,该云系统可以包括私有云、公共云、混合云、社区云、分散式云、内部云等中的一种或其任意组合。在一些实施例中,处理设备110可以包含处理器,处理器可以包含一个或多个子处理器(例如,单芯处理设备或多核多芯处理设备)。仅仅作为范例,处理器可包含中央处理器(CPU)、专用集成电路(ASIC)、专用指令处理器(ASIP)、图形处理器(GPU)、物理处理器(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编辑逻辑电路(PLD)、控制器、微控制器单元、精简指令集电脑(RISC)、微处理器等或以上任意组合。
网络120可促进应用场景中数据和/或信息的交换。在一些实施例中,应用场景中的一个或多个组件(例如,处理设备110、终端设备130、存储设备140和/或图像采集装置150)可以通过网络120发送数据和/或信息给应用场景中的其他组件。例如,处理设备110可以通过网络120从图像采集装置150获取用户的立定跳远视频。在一些实施例中,网络120可以是任意类型的有线或无线网络。例如,网络120可以包括缆线网络、有线网络、光纤网络、电信网络、内部网络、网际网络、区域网络、广域网络、无线区域网络、都会区域网络、公共电话交换网络、蓝牙网络、ZigBee网络、近场通讯网络等或以上任意组合。
终端设备130可以获取应用场景中的信息或数据,立定跳远测试的工作人员(例如,老师)可以是终端设备130的使用者。在一些实施例中,终端设备130可以通过网络120与应用场景中的一个或多个组件(例如,处理设备110或存储设备140)进行数据和/或信息的交换。例如,终端设备130可以通过网络120从处理设备110获取用户的立定跳远成绩。在一些实施例中,终端设备130可以包括移动方法及系统、平板电脑、笔记本电脑等中的一种或其任意组合。在一些实施例中,移动方法及系统可以包括可穿戴方法及系统、智能行动方法及系统、虚拟实境方法及系统、增强实境方法及系统等或其任意组合。
在一些实施例中,存储设备140可以与网络120连接以实现与应用场景的一个或多个组件(例如,处理设备110、终端设备130和/或图像采集装置150等)通讯。应用场景的一个或多个组件可以通过网络120访问存储于存储设备140中的资料或指令。在一些实施例中,存储设备140可以直接与应用场景中的一个或多个组件(如,处理设备110、终端设备130和/或图像采集装置150)连接或通讯。
图像采集装置150可以用于采集图像的装置,图像采集装置150可以包括深度摄像头和/或平面摄像头。例如,双目摄像机、TOF(Time of Fight Camera)相机、黑白相机、彩色相机、扫描仪等或其任意组合。
应该注意的是,上述描述仅出于说明性目的而提供,并不旨在限制本申请的范围。对于本领域普通技术人员而言,在本申请内容的指导下,可做出多种变化和修改。可以以各种方式组合本申请描述的示例性的实施例的特征、结构、方法和其他特征,以获得另外的和/或替代的示例性的实施例。例如,存储设备140可以是包括云计算系统的数据存储设备,例如公共云、私有云、社区云和混合云等。然而,这些变化与修改不会背离本申请的范围。
图2是根据本申请一些实施例所示的一种用于立定跳远自动测距的系统的模块示意图。如图2所示,用于立定跳远自动测距的系统可以包括图像获取模块及数据处理模块。
图像获取模块可以用于获取用户的立定跳远视频。
其中,用户的立定跳远视频包括用户在立定跳远过程中的多个时间点的立定跳远图像。
在一些实施例中,图像获取模块还可以用于在获取用户的立定跳远视频前,获取用户的人脸图像。
数据处理模块可以用于基于用户的立定跳远视频,判断用户是否踩线。数据处理模块还可以用于若判断用户踩线,生成第一提示信息。数据处理模块还可以用于若判断用户未踩线,从用户的立定跳远视频中确定落地帧,获取落地帧对应的立定跳远图像,基于落地帧对应的立定跳远图像,确定用户的立定跳远成绩。
在一些实施例中,数据处理模块还可以用于对立定跳远视频进行预处理,生成预处理后的立定跳远视频;确定预处理后的立定跳远视频中的起跳帧,获取起跳帧对应的立定跳远图像;基于起跳帧对应的立定跳远图像,判断用户是否踩线。
在一些实施例中,数据处理模块还可以用于对立定跳远图像进行二值化处理,生成二值化立定跳远图像;对二值化立定跳远图像进行去噪,生成去噪后的二值化立定跳远图像;获取去噪后的二值化立定跳远图像中的目标区域图像;对目标区域图像进行透视变换,生成透视变换后的目标区域图像。
在一些实施例中,数据处理模块还可以用于确定立定跳远图像中像素的灰度值小于灰度值阈值的个数;确定立定跳远图像中像素的灰度值大于灰度值阈值的个数;基于立定跳远图像中像素的灰度值小于灰度值阈值的个数及立定跳远图像中像素的灰度值大于灰度值阈值的个数,确定前景像素比例及背景像素比例;确定立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度;基于前景像素比例、背景像素比例、立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度,确定类间方差;基于类间方差对立定跳远图像进行二值化处理,生成二值化立定跳远图像。
在一些实施例中,数据处理模块还可以用于对于每一帧立定跳远图像,以立定跳远图像为中心帧,确定立定跳远图像对应的图像组;对于每一个图像组,基于图像组包括的多个立定跳远图像对应的透视变换后的目标区域图像,确定图像组的目标区域像素变化情况;对于每一个图像组,基于图像组的目标区域像素变化情况,判断图像组对应的中心帧是否为起跳帧。
在一些实施例中,数据处理模块还可以用于对于每一个图像组,基于图像组的目标区域像素变化情况,判断图像组对应的中心帧是否为落地帧。
在一些实施例中,数据处理模块还可以用于对用户的人脸图像进行人脸识别,判断用户是否通过识别;判断用户通过识别时,展示第二提示信息,其中,第二提示信息用于提示用户前往起跳区。
在一些实施例中,图像获取模块还可以用于展示第二提示信息后,采集起跳区511的预备视频,其中,预备视频包括多帧预备图像。
在一些实施例中,数据处理模块还可以用于基于预备视频,判断起跳区511是否有人;若判断起跳区511有人,获取用户的立定跳远视频。
在一些实施例中,数据处理模块还可以用于对预备图像进行预处理,生成预处理后的预备图像;基于预处理后的预备图像及预设无人对比图,判断起跳区511是否有人。
图3是根据本申请一些实施例所示的一种用于立定跳远自动测距的方法的示例性流程图。如图3所示,一种用于立定跳远自动测距的方法可以包括以下流程。在一些实施例中,用于立定跳远自动测距的方法可以由用于立定跳远自动测距的系统执行。
步骤310,获取用户的人脸图像。在一些实施例中,步骤310可以由图像获取模块执行。
步骤320,对用户的人脸图像进行人脸识别,判断用户是否通过识别。在一些实施例中,步骤320可以由数据处理模块执行。
在一些实施例中,数据处理模块可以预存有多个需要进行立定跳远测试的用户的相关信息(例如,姓名、身份证号等)及人脸图像。
当数据处理模块计算图像获取模块获取的用户的人脸图像与预存的需要进行立定跳远测试的用户的人脸图像之间的相似度大于人脸相似度阈值时,数据处理模块可以判断用户通过识别,并获取预存的用户的相关信息。
当判断用户通过识别,数据处理模块可以执行步骤330;当判断用户不通过识别,图像获取模块可以再执行步骤310。
步骤330,判断用户通过识别时,展示第二提示信息。在一些实施例中,步骤330可以由数据处理模块执行。
在一些实施例中,第二提示信息可以为灯光信息、图像信息和/或文字信息。第二提示信息用于提示用户前往起跳区。例如,第二提示信息可以为语音信息“请前往起跳区”。
步骤340,展示第二提示信息后,采集起跳区511的预备视频。在一些实施例中,步骤340可以由图像获取模块执行。
起跳区511的预备视频可以为图像获取模块在用户进行立定跳远前获取的视频。
步骤350,基于预备视频,判断起跳区511是否有人。在一些实施例中,步骤350可以由数据处理模块执行。
在一些实施例中,数据处理模块基于预备视频,判断起跳区511是否有人,可以包括:
对预备图像进行预处理,生成预处理后的预备图像;
基于预处理后的预备图像及预设无人对比图,判断起跳区511是否有人。
在一些实施例中,对预备图像进行预处理可以包括:
对预备图像进行二值化处理,生成如图4所示的二值化预备图像;
对二值化预备图像进行去噪,生成去噪后的二值化预备图像;
获取去噪后的二值化预备图像中的预备目标区域图像;
对预备目标区域图像进行透视变换,生成如图5所示的透视变换后的预备目标区域图像。
图6是根据本申请一些实施例所示的预设无人对比图的示意图,在一些实施例中,如图6所示,预设无人对比图可以为预存的起跳区511未站有人的透视变换后的图像,数据处理模块可以基于透视变换后的预备目标区域图像和预设无人对比图,判断起跳区511是否有人。例如,如图5、图6所示数据处理模块可以根据透视变换后的预备目标区域图像和预设无人对比图中像素的灰度值,判断起跳区511是否有人。仅作为示例的,当透视变换后的预备目标区域图像中灰度值为0的像素的比例与预设无人对比图中像素的灰度值中灰度值为0的像素的比例之间的比例差值大于预设比例差值时,数据处理模块可以判断起跳区511有人。
关于预处理的更多描述可以参见后续步骤的相关描述,此处不再赘述。
当判断起跳区511有人,数据处理模块可以执行步骤360;当判断起跳区511没有人,图像获取模块可以再执行步骤340。
步骤360,获取用户的立定跳远视频。在一些实施例中,步骤360可以由图像获取模块执行。
图像获取模块可以以预设的频率(例如,30帧/秒)获取用户的立定跳远视频,用户的立定跳远视频包括用户在立定跳远过程中的多个时间点的立定跳远图像。
步骤370,基于用户的立定跳远视频,判断用户是否踩线。在一些实施例中,步骤370可以由数据处理模块执行。
在一些实施例中,数据处理模块基于用户的立定跳远视频,判断用户是否踩线,包括:
对立定跳远视频进行预处理,生成预处理后的立定跳远视频;
确定预处理后的立定跳远视频中的起跳帧,获取起跳帧对应的立定跳远图像;
基于起跳帧对应的立定跳远图像,判断用户是否踩线。
在一些实施例中,数据处理模块对立定跳远视频进行预处理,生成预处理后的立定跳远视频,包括:
对立定跳远图像进行二值化处理,生成二值化立定跳远图像;
对二值化立定跳远图像进行去噪,生成去噪后的二值化立定跳远图像;
获取去噪后的二值化立定跳远图像中的目标区域图像;
对目标区域图像进行透视变换,生成透视变换后的目标区域图像。
在一些实施例中,数据处理模块对立定跳远图像进行二值化处理,生成二值化立定跳远图像,包括:
确定立定跳远图像中像素的灰度值小于灰度值阈值的个数;
确定立定跳远图像中像素的灰度值大于灰度值阈值的个数;
基于立定跳远图像中像素的灰度值小于灰度值阈值的个数及立定跳远图像中像素的灰度值大于灰度值阈值的个数,确定前景像素比例及背景像素比例;
确定立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度;
基于前景像素比例、背景像素比例、立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度,确定类间方差;
基于类间方差对立定跳远图像进行二值化处理,生成二值化立定跳远图像。
在一些实施例中,最大类间方差可以基于以下公式确定:
其中,为最大类间方差,为前景像素比例,为前景平均灰度,为总平均灰度,为背景像素比例,为背景平均灰度。
在一些实施例中,数据处理模块可以基于最大类间方差确定最佳分割阈值,基于最佳分割阈值对立定跳远图像进行二值化处理,生成二值化立定跳远图像。例如,对于灰度值大于最佳分割阈值的像素,数据处理模块可以将该像素的灰度值重置为255;对于灰度值小于或等于最佳分割阈值的像素,数据处理模块可以将该像素的灰度值重置为0。
图7是根据本申请一些实施例所示的透视变换的示意图,如图7所示,摄像头是斜侧面拍摄测量区域,从平面看是一个梯形,需要通过透视变换变换成矩形进行距离计算。透视变换(Perspective Transformation)的本质是将图像投影到一个新的视平面(ViewingPlane)。
数据处理模块可以基于以下公式对目标区域图像进行透视变换,生成透视变换后的目标区域图像:
其中,为原始图像(即目标区域图像)像素点的齐次坐标,为变换之后的图像(即透视变换后的目标区域图像)像素点的齐次坐标,为系数矩阵。即原始图像像素点的齐次坐标对应得到变换后的图像像素点的齐次坐标,其中,则点(就是原图像对应的像素点的二维平面坐标经过变换后的二维平面坐标。
将Z归一化后,得到归一化后的齐次坐标,则其变换之后的图像像素点的齐次坐标对应的二维平面坐标为(即当齐次坐标,则点(就是原图像对应的像素点的二维平面坐标经过变换后的二维平面坐标。
,展开上面公式,得到一个点的放射变换:
总共有8个未知数,因此我们可以找到4对8个点(每个两个对应,原平面上的点和其对应映射到新的视平面的点为一对)列出方程,解出参数a11、a12、a13、a21、a22、a23、a31、a32
在一些实施例中,数据处理模块确定预处理后的立定跳远视频中的起跳帧,包括:
对于每一帧立定跳远图像,以立定跳远图像为中心帧,确定立定跳远图像对应的图像组;
对于每一个图像组,基于图像组包括的多个立定跳远图像对应的透视变换后的目标区域图像,确定图像组的目标区域像素变化情况;
对于每一个图像组,基于图像组的目标区域像素变化情况,判断图像组对应的中心帧是否为起跳帧。
例如,若图像组中,基于图像组的目标区域像素变化情况,可以确定中心帧对应的立定跳远图像中,起跳区511存在人体,而该中心帧的后一帧和/或后几帧的立定跳远图像中,起跳区511不存在人体,则数据处理模块可以判断该中心帧为起跳帧。
在一些实施例中,数据处理模块可以从起跳帧对应的立定跳远图像进行透视变换后的目标区域图像中确定起跳线513的位置,基于起跳区511的用户的脚步位置是否与起跳线513发生部分重合,判断用户是否踩线。例如,起跳区511的用户的脚步位置与起跳线513发生部分重合,数据处理模块可以判断用户踩线。
仅作为示例,数据处理模块可以通过踩线判断模型根据起跳帧对应的立定跳远图像进行透视变换后的目标区域图像,判断用户是否发生踩线。踩线判断模型的输入为起跳帧对应的立定跳远图像进行透视变换后的目标区域图像,踩线判断模型的输出可以为用户是否发生踩线判断结果。踩线判断模型可以为卷积神经网络(CNN)、深度神经网络(DNN)、循环神经网络(RNN)、多层神经网络(MLP)、对抗神经网络(GAN)等一种或其任意组合。
步骤380,若判断用户踩线,生成第一提示信息。在一些实施例中,步骤380可以由数据处理模块执行。
第一提示信息用于提示用户踩线,数据处理模块可以判断用户的立定跳远成绩作废,可以不进行步骤390。
步骤390,若判断用户未踩线,从用户的立定跳远视频中确定落地帧,获取落地帧对应的立定跳远图像,基于落地帧对应的立定跳远图像,确定用户的立定跳远成绩。在一些实施例中,步骤390可以由数据处理模块执行。
在一些实施例中,数据处理模块从用户的立定跳远视频中确定落地帧,包括:对于每一个图像组,基于图像组的目标区域像素变化情况,判断图像组对应的中心帧是否为落地帧。例如,若某一图像组中连续多帧透视变换后的目标区域图像的像素和变化较小,则确定该图像组的中心帧为落地帧。
仅作为示例,若某一图像组中连续多帧透视变换后的目标区域图像的像素和变化较小,该图像组的中心帧的采集时间位于起跳帧之后,且该图像组的中心帧的测距区域515中存在人体,则确定该图像组的中心帧为落地帧。
在一些实施例中,若存在多个中心帧,可以在其中选择一个中心帧作为落地帧。
在一些实施例中,数据处理模块可以通过任意方式基于落地帧对应的立定跳远图像,确定用户的立定跳远成绩。例如,数据处理模块可以通过成绩确定模型根据落地帧对应的立定跳远图像进行透视变换后的目标区域图像,确定用户的立定跳远成绩。成绩确定模型的输入为落地帧对应的立定跳远图像进行透视变换后的目标区域图像,成绩确定模型的输出可以为用户的立定跳远成绩。成绩确定模型可以为卷积神经网络(CNN)、深度神经网络(DNN)、循环神经网络(RNN)、多层神经网络(MLP)、对抗神经网络(GAN)等一种或其任意组合。
需要说明的是,上述有关用于立定跳远自动测距的方法的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对用于立定跳远自动测距的方法进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本申请的限定。虽然此处并没有明确说明,本领域技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。
同时,本申请使用了特定词语来描述本申请的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本申请至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本申请的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本申请的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本申请的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本申请的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
本申请各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran 2003、Perl、COBOL2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本申请处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本申请流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本申请实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本申请披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本申请实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本申请对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
最后,应当理解的是,本申请中所述实施例仅用以说明本申请实施例的原则。其他的变形也可能属于本申请的范围。因此,作为示例而非限制,本申请实施例的替代配置可视为与本申请的教导一致。相应地,本申请的实施例不仅限于本申请明确介绍和描述的实施例。

Claims (7)

1.一种用于立定跳远自动测距的方法,其特征在于,包括:
获取用户的立定跳远视频,其中,所述用户的立定跳远视频包括所述用户在立定跳远过程中的多个时间点的立定跳远图像;
基于所述用户的立定跳远视频,判断所述用户是否踩线;
若判断所述用户踩线,生成第一提示信息;
若判断所述用户未踩线,从所述用户的立定跳远视频中确定落地帧,获取所述落地帧对应的立定跳远图像,基于所述落地帧对应的立定跳远图像,确定所述用户的立定跳远成绩;
所述基于所述用户的立定跳远视频,判断所述用户是否踩线,包括:
对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频;
确定所述预处理后的立定跳远视频中的起跳帧,获取所述起跳帧对应的立定跳远图像;
基于所述起跳帧对应的立定跳远图像,判断所述用户是否踩线;
所述对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频,包括:
对所述立定跳远图像进行二值化处理,生成二值化立定跳远图像;
对所述二值化立定跳远图像进行去噪,生成去噪后的二值化立定跳远图像;
获取所述去噪后的二值化立定跳远图像中的目标区域图像;
对所述目标区域图像进行透视变换,生成透视变换后的目标区域图像
所述确定所述预处理后的立定跳远视频中的起跳帧,包括:
对于每一帧所述立定跳远图像,以所述立定跳远图像为中心帧,确定所述立定跳远图像对应的图像组;
对于每一个所述图像组,基于所述图像组包括的多个所述立定跳远图像对应的透视变换后的目标区域图像,确定所述图像组的目标区域像素变化情况;
对于每一个所述图像组,基于所述图像组的目标区域像素变化情况,判断所述图像组对应的中心帧是否为所述起跳帧。
2.根据权利要求1所述的一种用于立定跳远自动测距的方法,其特征在于,所述对所述立定跳远图像进行二值化处理,生成二值化立定跳远图像,包括:
确定所述立定跳远图像中像素的灰度值小于灰度值阈值的个数;
确定所述立定跳远图像中像素的灰度值大于灰度值阈值的个数;
基于所述立定跳远图像中像素的灰度值小于灰度值阈值的个数及所述立定跳远图像中像素的灰度值大于灰度值阈值的个数,确定前景像素比例及背景像素比例;
确定所述立定跳远图像的总平均灰度、前景平均灰度及背景平均灰度;
基于所述前景像素比例、所述背景像素比例、所述立定跳远图像的总平均灰度、所述前景平均灰度及所述背景平均灰度,确定类间方差;
基于所述类间方差对所述立定跳远图像进行二值化处理,生成所述二值化立定跳远图像。
3.根据权利要求1所述的一种用于立定跳远自动测距的方法,其特征在于,所述从所述用户的立定跳远视频中确定落地帧,包括:
对于每一个所述图像组,基于所述图像组的目标区域像素变化情况,判断所述图像组对应的中心帧是否为所述落地帧。
4.根据权利要求1-3任意一项所述的一种用于立定跳远自动测距的方法,其特征在于,还包括:
获取所述用户的立定跳远视频前,获取所述用户的人脸图像;
对所述用户的人脸图像进行人脸识别,判断所述用户是否通过识别;
判断所述用户通过识别时,展示第二提示信息,其中,所述第二提示信息用于提示所述用户前往起跳区。
5.根据权利要求4所述的一种用于立定跳远自动测距的方法,其特征在于,还包括:
展示所述第二提示信息后,采集所述起跳区的预备视频,其中,所述预备视频包括多帧预备图像;
基于所述预备视频,判断所述起跳区是否有人;
若判断所述起跳区有人,获取所述用户的立定跳远视频。
6.根据权利要求5所述的一种用于立定跳远自动测距的方法,其特征在于,所述基于所述预备视频,判断所述起跳区是否有人,包括:
对所述预备图像进行预处理,生成预处理后的预备图像;
基于所述预处理后的预备图像及预设无人对比图,判断所述起跳区是否有人。
7.一种用于立定跳远自动测距的系统,其特征在于,包括:
图像获取模块,用于获取用户的立定跳远视频,其中,所述用户的立定跳远视频包括所述用户在立定跳远过程中的多个时间点的立定跳远图像;
数据处理模块,用于基于所述用户的立定跳远视频,判断所述用户是否踩线;若判断所述用户踩线,生成第一提示信息;若判断所述用户未踩线,从所述用户的立定跳远视频中确定落地帧,获取所述落地帧对应的立定跳远图像,基于所述落地帧对应的立定跳远图像,确定所述用户的立定跳远成绩;
所述基于所述用户的立定跳远视频,判断所述用户是否踩线,包括:
对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频;
确定所述预处理后的立定跳远视频中的起跳帧,获取所述起跳帧对应的立定跳远图像;
基于所述起跳帧对应的立定跳远图像,判断所述用户是否踩线;
所述对所述立定跳远视频进行预处理,生成预处理后的立定跳远视频,包括:
对所述立定跳远图像进行二值化处理,生成二值化立定跳远图像;
对所述二值化立定跳远图像进行去噪,生成去噪后的二值化立定跳远图像;
获取所述去噪后的二值化立定跳远图像中的目标区域图像;
对所述目标区域图像进行透视变换,生成透视变换后的目标区域图像
所述确定所述预处理后的立定跳远视频中的起跳帧,包括:
对于每一帧所述立定跳远图像,以所述立定跳远图像为中心帧,确定所述立定跳远图像对应的图像组;
对于每一个所述图像组,基于所述图像组包括的多个所述立定跳远图像对应的透视变换后的目标区域图像,确定所述图像组的目标区域像素变化情况;
对于每一个所述图像组,基于所述图像组的目标区域像素变化情况,判断所述图像组对应的中心帧是否为所述起跳帧。
CN202310188920.XA 2023-03-02 2023-03-02 一种用于立定跳远自动测距的方法及系统 Active CN115845350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310188920.XA CN115845350B (zh) 2023-03-02 2023-03-02 一种用于立定跳远自动测距的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310188920.XA CN115845350B (zh) 2023-03-02 2023-03-02 一种用于立定跳远自动测距的方法及系统

Publications (2)

Publication Number Publication Date
CN115845350A CN115845350A (zh) 2023-03-28
CN115845350B true CN115845350B (zh) 2023-05-09

Family

ID=85659660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310188920.XA Active CN115845350B (zh) 2023-03-02 2023-03-02 一种用于立定跳远自动测距的方法及系统

Country Status (1)

Country Link
CN (1) CN115845350B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116392800A (zh) * 2023-04-23 2023-07-07 电子科技大学 一种基于目标检测和图像处理的立定跳远测距方法及系统
CN117065310B (zh) * 2023-09-08 2024-05-14 北京智芯微电子科技有限公司 动作评测方法、装置、异构ai芯片、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012154805A (ja) * 2011-01-26 2012-08-16 Hamamatsu Photonics Kk 跳躍動作測定装置及び跳躍動作測定方法
CN110610510A (zh) * 2019-08-29 2019-12-24 Oppo广东移动通信有限公司 目标跟踪方法、装置、电子设备及存储介质
WO2021031915A1 (zh) * 2019-08-22 2021-02-25 华为技术有限公司 一种智能录像方法和装置
CN113286194A (zh) * 2020-02-20 2021-08-20 北京三星通信技术研究有限公司 视频处理方法、装置、电子设备及可读存储介质
CN114882408A (zh) * 2022-05-10 2022-08-09 合肥富煌君达高科信息技术有限公司 一种基于单目视觉的落点自动上报方法及系统
CN115719511A (zh) * 2022-11-08 2023-02-28 中科海微(北京)科技有限公司 立定跳远距离的确定方法、装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09206418A (ja) * 1996-02-01 1997-08-12 Nippon Avionics Co Ltd 跳躍距離測定装置
EP1194733A1 (en) * 1999-05-28 2002-04-10 TUUSINEN, Jukka Tapani Method and arrangement for measuring a jumping distance
US9256957B1 (en) * 2012-09-13 2016-02-09 Bae Systems Information And Electronic Systems Integration Inc. Method for moving-object detection tracking identification cueing of videos
US10025986B1 (en) * 2015-04-27 2018-07-17 Agile Sports Technologies, Inc. Method and apparatus for automatically detecting and replaying notable moments of a performance
CN205252478U (zh) * 2015-11-25 2016-05-25 乔鹏 一种用于检测跳远距离的装置
CN108375341B (zh) * 2018-02-09 2020-05-12 山东理工大学 一种基于图像识别的立定跳远距离测量方法
CN109543650A (zh) * 2018-12-04 2019-03-29 钟祥博谦信息科技有限公司 仓库智能监控方法和系统
CN109939432B (zh) * 2019-03-26 2020-08-25 浙江大学 一种智能跳绳计数方法
JP7057873B2 (ja) * 2019-03-26 2022-04-21 浙江大学 縄跳び計数方法
KR20210023620A (ko) * 2019-08-24 2021-03-04 황교진 광센서와 네트워크 카메라를 활용한 멀리뛰기 측정 시스템
CN110992426B (zh) * 2019-12-09 2024-03-22 北京明略软件系统有限公司 姿势识别方法和装置、电子设备及存储介质
CN110942481B (zh) * 2019-12-13 2022-05-20 西南石油大学 一种基于图像处理的纵跳检测方法
CN113137923A (zh) * 2020-01-17 2021-07-20 上海淡竹体育科技有限公司 立定跳远运动成绩测量方法
CN111310733B (zh) * 2020-03-19 2023-08-22 成都云盯科技有限公司 基于监控视频的人员进出检测方法、装置和设备
CN111767920B (zh) * 2020-06-30 2023-07-28 北京百度网讯科技有限公司 感兴趣区域的提取方法、装置、电子设备及存储介质
CN213131856U (zh) * 2020-09-29 2021-05-07 英玉生 一种基于OpenCV图文识别技术的跳远检测设备
CN112037266B (zh) * 2020-11-05 2021-02-05 北京软通智慧城市科技有限公司 一种下落物体的识别方法、装置、终端设备及存储介质
CN113198166B (zh) * 2021-04-30 2022-06-28 光彻科技(杭州)有限公司 一种跳远检测方法与检测装置
US20220366811A1 (en) * 2021-05-14 2022-11-17 Boosta, Inc. Systems and methods for sports and movement training
CN113743273B (zh) * 2021-08-27 2024-04-05 西安交通大学 基于视频图像目标检测的实时跳绳计数方法、装置和设备
CN114049392A (zh) * 2021-10-26 2022-02-15 江苏凤凰智慧教育研究院有限公司 立定跳远评分系统和方法
CN114307117B (zh) * 2021-12-28 2022-12-09 西安交通大学 基于视频的立定跳远成绩测量方法和装置
CN114712769A (zh) * 2022-03-29 2022-07-08 延边大学 基于计算机视觉的立定跳远智能测距方法及系统
CN114998991A (zh) * 2022-06-01 2022-09-02 浙江蓝鸽科技有限公司 校园智能操场系统和基于该系统的运动检测方法
CN115187900A (zh) * 2022-07-07 2022-10-14 壹体技术有限公司 一种三级跳远技术智能辅助分析方法、系统及介质
CN115423825A (zh) * 2022-09-02 2022-12-02 深圳市优必选科技股份有限公司 跳远距离的获取方法、装置、设备及计算机可读存储介质
CN115690162B (zh) * 2022-12-28 2023-03-10 武汉凡德智能科技有限公司 一种固定视频中移动大目标的检测方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012154805A (ja) * 2011-01-26 2012-08-16 Hamamatsu Photonics Kk 跳躍動作測定装置及び跳躍動作測定方法
WO2021031915A1 (zh) * 2019-08-22 2021-02-25 华为技术有限公司 一种智能录像方法和装置
CN110610510A (zh) * 2019-08-29 2019-12-24 Oppo广东移动通信有限公司 目标跟踪方法、装置、电子设备及存储介质
CN113286194A (zh) * 2020-02-20 2021-08-20 北京三星通信技术研究有限公司 视频处理方法、装置、电子设备及可读存储介质
CN114882408A (zh) * 2022-05-10 2022-08-09 合肥富煌君达高科信息技术有限公司 一种基于单目视觉的落点自动上报方法及系统
CN115719511A (zh) * 2022-11-08 2023-02-28 中科海微(北京)科技有限公司 立定跳远距离的确定方法、装置

Also Published As

Publication number Publication date
CN115845350A (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
CN115845350B (zh) 一种用于立定跳远自动测距的方法及系统
CN110232369B (zh) 一种人脸识别方法和电子设备
CN108197618B (zh) 用于生成人脸检测模型的方法和装置
CN109285181B (zh) 用于识别图像的方法和装置
CN111242097A (zh) 一种人脸识别方法、装置、计算机可读介质及电子设备
JP2009211179A (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
US20230056564A1 (en) Image authenticity detection method and apparatus
US20220262163A1 (en) Method of face anti-spoofing, device, and storage medium
US10984281B2 (en) System and method for correcting color of digital image based on the human sclera and pupil
CN111027450A (zh) 银行卡信息识别方法、装置、计算机设备及存储介质
CN109389569A (zh) 基于改进DehazeNet的监控视频实时去雾方法
CN112241689A (zh) 人脸识别方法、装置、电子设备及计算机可读存储介质
CN111784658B (zh) 一种用于人脸图像的质量分析方法和系统
CN112102207A (zh) 一种确定温度的方法、装置、电子设备及可读存储介质
CN111784660B (zh) 一种用于人脸图像的正脸程度的分析方法和系统
US10535154B2 (en) System, method, and program for image analysis
CN111582278B (zh) 人像分割方法、装置及电子设备
CN115690934A (zh) 基于批量人脸识别的师生考勤打卡方法及装置
CN113509136A (zh) 检测方法、视力检测方法、装置、电子设备及存储介质
CN113298753A (zh) 敏感肌的检测方法、图像处理方法、装置及设备
CN112070022A (zh) 人脸图像识别方法、装置、电子设备和计算机可读介质
CN112131919A (zh) 安检方法、装置、设备及介质
CN111985400A (zh) 一种人脸活体识别方法、装置、设备及存储介质
CN108280802A (zh) 基于3d成像的图像获取方法及装置
CN114627535B (zh) 基于双目摄像头的坐标匹配方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant